Google AlphaEvolve uued olulised avastused matemaatikas

Ülevaade: Google tutvustas just AlphaEvolve’i – programmeerimis assistenti, mis kasutab Gemini mudelit ja arenevaid strateegiaid, et lahendada teadus- ja arvutusülesandeid ning muuta töö tõhusamaks.
Detailid:
- AlphaEvolve ühendab erinevad Gemini mudelid: üks genereerib ideid, teine analüüsib ning loob koodi, mida pidevalt testitakse ja täiustatakse.
- See süsteem on juba teinud mitmeid olulisi matemaatikaavastusi, sealhulgas parandanud esmakordselt Strasseni algoritmi, mis loodi 1969. aastal.
- See suurendab Google’i efektiivsust, optimeerides andmekeskuste planeerimist, parandades tehisintellekti õpetamist ja aidates kiipide disainimisel.
Miks see on oluline: Alles hiljuti rääkisime, kuidas OpenAI juht Jakub Pachocki usub, et tehisintellekt suudab mõelda uuel, looval viisil. Nüüd on Google läinud sellest veel sammu edasi. Kuna matemaatika on oluline pea igas eluvaldkonnas, siis näib AI olevat valmis avama täiesti uue ajastu teaduslikes läbimurretes.
Anthropic valmistub oma uute tehisintellekti mudelite Sonnet ja Opus lansseerimiseks

Ülevaade: Anthropic on vihjanud, et peagi tulevad välja Claude’i Sonneti ja Opuse edasiarenduse läbinud versioonid, mis oskavad paremini mõelda ja kasutada erinevaid tööriistu.
Detailid:
- Uued mudelid oskavad vaheldumisi mõelda ja tööriistu kasutada ning suudavad end ise parandada, kui midagi läheb valesti.
- Programmeerimisel saavad nad ise testida loodud koodi, leida vead, mõista nende põhjuseid ja parandada need ilma inimese abita.
- Anthropic’i mudel, mille koodnimeks on Neptune, läbib praegu ohutusteste ja arvatakse, et nimi viitab 3.8 versioonile.
- Uudis ilmus samal ajal, kui Anthropic käivitas uue veateavituse programmi, mis aitab testida Claude’i turvalisust.
Miks see on oluline: Kuigi Anthropic konkureerib Google’i ja OpenAI-ga tippmudelite arendamisel, on nad uusi mudeleid välja toonud aeglasemalt – 2025. aastal on seni ilmunud vaid 3.7 Sonnet veebruaris. Kuna ka teised konkurendid plaanivad peagi uuendusi, võib lähiaeg tulla väga põnev.
.
Muuda tekst silmapilkselt kujundatud PDF-ideks
OpenAI uus ohutuse hindamise töölaud

Ülevaade: OpenAI lõi uue Ohutuse Hindamise Keskuse (Safety Evaluations Hub), mis avaldab regulaarselt tulemusi selle kohta, kui turvalised nende tehisintellekti mudelid on – näiteks kui sageli need loovad kahjulikku sisu, eksivad faktidega või kui kergesti saab neid turvanõudeid rikkuma panna.
Detailid:
- Keskus näitab, kuidas OpenAI mudelid omavahel erinevad – näiteks kui hästi need väldivad kahjulikku sisu ja kui täpselt vastavad faktilistele küsimustele.
- Praegu keskendutakse neljale teemale: kahjuliku sisu tuvastamine, turvanõrkused, faktivead (ehk hallutsinatsioonid) ja juhiste täitmise järjekord.
- OpenAI lubab lehte regulaarselt uuendada, et olla tehisintellekti ohutuse osas läbipaistvam.
- See samm tuli pärast kriitikat, et ettevõte pole seni piisavalt avalikult oma turvateste jaganud.
Miks see on oluline: Kuna laborid püüavad konkurentidest kiiremini uusi mudeleid luua, on paljude arvates ohutus jäänud tagaplaanile. OpenAI uus samm on edasiminek läbipaistvuse suunas, aga see põhineb nende enda aruannetel ja värskendustel – mis ilmselt ei rahusta neid, kes ootavad rangemaid ja sõltumatumaid turvameetmeid.