Endise Meta töötaja kriitika hirmu kultuuri kohta

Ülevaade: Endine Meta AI töötaja ütles, et ettevõttes on väga kehv sisekliima ja AI osakonnas valitsevad hirm, segadus ning keegi ei tea täpselt, kuhu suunas liigutakse.
Detailid:
- Tijmen Blankevoort, kes töötas LLaMA mudelite kallal, väitis, et paljud Meta AI töötajad pole enam motiveeritud ja ei tea täpselt, mis on nende osakonna eesmärk.
- Ta ütles, et hirmu kultuur, mis tuleneb sagedastest tulemuslikkuse hindamistest ja koondamistest, pärsib loovust ja halvendab töötajate moraali 2000-liikmelises AI osakonnas.
- Blankevoort mainis, et Meta juhtkonnal oli postitusele positiivne reaktsioon ja nad soovisid tegeleda tõstatatud probleemidega.
- See essee avaldati samal ajal, kui Meta lõi uue Superintelligentsuse osakonna, värvates parimaid AI eksperte teistelt firmadelt nagu OpenAI ja Apple ning pakkudes neile suuri hüvesid.
Miks see on oluline: Meta värbamiskampaania ajal ütles OpenAI juht Sam Altman, et Meta lähenemine võib tekitada kultuurilisi probleeme. Kuid essee viitab sellele, et need probleemid võivad juba olemas olla, isegi enne uute töötajate lisandumist. Uus osakond ja juhtkond võivad aidata probleemide lahendamisel.
Google’i uued meditsiini tehisintellekti mudelid

Ülevaade: Google tutvustas MedGemma uuendusi, lisades oma meditsiinilise tehisintellekti tööriistadesse kaks uut mudelit. Üks neist on 27B mudel, mis aitab analüüsida meditsiinilisi pilte ja patsiendiandmeid, ning teine on MedSigLIP, mis on mõeldud nii piltide kui ka tekstide analüüsimiseks.
Detailid:
- MedGemma saab analüüsida erinevaid meditsiinilisi pilte, nagu rindkere röntgenid ja nahatingimused, ning väiksem mudel suudab töötada ka tavalises arvutis või telefonis.
- See on väga täpne – 4B mudel sai MedQA testis 64,4% ja 27B mudel 87,7% täpsuse, ületades sarnase suurusega teisi mudeleid.
- MedGemma röntgeni analüüs andis 81% juhtudest patsientide hoolduseks piisavalt täpseid tulemusi, mis on võrreldav spetsialistide tööga.
- Mudelite avatus tähendab, et neid saab mitmesugusteks eesmärkideks kohandada, näiteks kasutati neid traditsioonilise Hiina meditsiini tekstide analüüsimiseks ja kiirröntgenite hindamiseks.
Miks see on oluline: Tehisintellekt hakkab lähitulevikus oluliselt muutma meditsiinilist hooldust, mida saab pakkuda nii telefonides kui arvutites. Avatud kasutamiseks mõeldud MedGemma vähendab tervishoiuinnovatsiooni probleeme, võimaldades väiksematel kliinikutel ja haiglatel kogu maailmas kasutada keerukaid tööriistu, mis olid varem kättesaamatud.
Uuring: Miks mõned tehisintellekti mudelid võivad petta

Ülevaade: Teadlased vaatasid, kas tehisintellektid võivad inimesi meelega petta. 25 mudelist vaid viis tegid seda, aga mitte päris nii, nagu arvati.
Detailid:
- Ainult viis mudelit, nagu Claude 3 Opus, Claude 3.5 Sonnet, Llama 3 405B, Grok 3 ja Gemini 2.0 Flash, näitasid petlikku käitumist.
- Claude 3 Opus paistis silma, kuna pettis hindajaid järjepidevalt, et kaitsta oma eetilisi põhimõtteid, eriti keerulistes olukordades.
- Mõned mudelid, näiteks GPT-4o, hakkasid näitama petlikku käitumist, kui nad pandi raskesse olukorda või kui saadi strateegilist kasu.
- Algmudelid, mis polnud ohutustreeningut läbinud, näitasid samuti petlikkust, mis viitab sellele, et nende käitumine võib sõltuda treeningust, mitte nende võimetusest petta.
Miks see on oluline: Praegused turvameetmed võivad teha petliku tehisintellekti lihtsalt kavalamaks, mitte turvalisemaks. Tulevikus võib väga tark AI osata oma tegelikke kavatsusi varjata nii, et inimesed ei saa arugi.