Mis nii viga õppida? – Claude on tippülikoolide ametlik partner

Suured keelemudelid läbivad Turing'i testi

Joonistus, kus mitmed inimesed istuvad ringis ja rääkivad omavahel. Üks isik on robot, kes kannab ülikonda ja rinnasildi kirjaga 'HUMAN'. Ümbritsevad inimesed naeratavad ja arutlevad omavahel.
Pildi allikas: GPT-4o

Ülevaade: UC San Diego teadlaste uuring näitas, et tehisintellekti süsteemid suudavad järjepidevalt läbida Alan Turingi kuulsa masinintellekti testi, kusjuures OpenAI GPT-4.5 mudelit ajatakse inimesega 3 korral 4-st inimesega segamini.

Detailid:

  • Turingi test kontrollib, kas masin suudab veenda inimest, et ta räägib teise inimesega ja seda tehakse ainult tekstivestluse põhjal.
  • Uuringus osalesid kolm erinevat osapoolt, ehk kohtunikud pidid vestlema korraga nii tehisintellekti kui ka päris inimesega viie minuti jooksul, et neid omavahel võrrelda.
  • Kohtunikud hindasid vestlusi argikeele ja emotsioonide põhjal, kusjuures üle 60% vestlusest keskendus igapäevaelule ja isiklikele teemadele.
  • Kui GPT-4.5-l paluti kehastuda kindlaks isikuks, suutis ta 73% juhtudest kohtunikke petta ja tegi seda paremini kui päris inimesed.
  • Meta LLaMa-3.1-405B läbis testi 56% täpsusega, samas kui lihtsamad mudelid, nagu GPT-4o, jäid umbes 20% tulemuse juurde.

Miks see on oluline: Turingi testi on kaua peetud tehisintellekti uurimise tähtsaimaks verstapostiks, aga mudelite kiire areng on muutnud selle läbimise hügieeni tasemeks. Kuna uued tehisintellektid oskavad suhelda mitte ainult teksti, vaid ka heli, pildi ja video kaudu, läheb neil inimeste jäljendamine aina paremaks ning nende eristamine päris inimestest muutub tõeliseks väljakutseks.

Anthropic toob Claude'i kõrghariduse valdkonda

Kuvand näitab veebiprojekti lehte pealkirjaga 'Psychology 101'. Seal on kirjeldus, kuidas projekt aitab õppematerjale isikupärastada, visualiseerida võtmekontsepte ja luua õppestrateegiaid vastavalt õppija vajadustele. Allpool on tekstiväli, kuhu saab sisestada küsimusi või abisoove. Alumises osas on kolm nuppu: 'Visualize key concepts', 'Create a study guide' ja 'Tutor me'. Kursor on nupu 'Create a study guide' kohal.
Pildi allikas: Anthropic

Ülevaade: Anthropic tõi välja Claude for Education nimelise tehisintellekti assistendi, mis on loodud üliõpilaste kriitilise mõtlemise arendamiseks, mitte lihtsalt vastuste andmiseks. Uus "Õppimise Režiim" loodi koostöös mitmete tuntud ülikoolidega.

Detailid:

  • Õppimise Režiim aitab tudengitel ise lahendusteni jõuda, esitab suunavaid küsimusi ja keskendub aine mõistmisele, mitte lihtsalt vastuse andmisele.
  • Lisaks pakub süsteem tööriistu uurimistöid, õpinippe ja tudengite juhendamist.
  • Northeastern University, London School of Economics ja Champlain College sõlmisid koostööleppe, mis annab ligipääsu nii tudengitele kui ka õppejõududele.

Miks see on oluline: Haridus kohaneb endiselt tehisintellektiga, aga Anthropic läheneb teisiti – nende eesmärk on muuta AI tööriistaks, mis aitab kriitilist mõtlemist arendada, mitte lihtsalt vastuseid jagada. Kuigi arutelud AI kasutamise üle kindlasti jätkuvad, saab praegune põlvkond õppida varasemast personaalsemate ja paremate abivahenditega.

Google DeepMind avaldab üldise AGI ohutusplaani

Neljaosaline infograafika kunstliku intelligentsuse riskidest. Esimene osa: 'Misuse' - kasutaja juhendab AI-d tekitama kahju, pildil on kuradi märk. Teine osa: 'Misalignment' - AI võtab arendaja mitte eelnevalt soovitud kahjulikke tegevusi, näidatud on naerunäo ja kuradi märgiga. Kolmas osa: 'Mistakes' - AI tekitab kahju seda teadvustamata, kujutatud on naerunägu ja linnuke. Neljas osa: 'Structural risks' - mitme agendi dünaamikast tulenevad kahjud ilma kindla süüdlaseta, illustratsioonil on mitu inimest, kõnemulle ja naerunägusid. Kõik osad seovad AI süsteemi, inimest ja kahjule viitavat plahvatuse sümbolit.
Pildi allikas: Google DeepMind

Ülevaade: Google DeepMind avaldas põhjaliku ülevaate sellest, kuidas nad plaanivad tagada tehisüldintellekti (AGI) turvalisuse. Ülevaates räägitakse võimalusest, et AGI võib saabuda juba 2030. aastaks ehk millised riskid sellega kaasnevad ja kuidas neid ohjata.

Detailid:

  • DeepMind avaldas 145-leheküljelise raporti, kus ennustatakse, et inimtasemel tehisintellekt (AGI) võib saabuda juba 2030. aastaks. Samas hoiatatakse, et see võib kaasa tuua väga suuri ohte, isegi võimaluse inimkonna hävimiseks.
  • Raportis võrreldakse ka oma turvastrateegiat teistega – näiteks kritiseeritakse OpenAI-d selle eest, et nad keskenduvad liiga palju automaatsetele lahendustele ja Anthropicut, et nad ei pööra turvalisusele piisavalt tähelepanu.
  • Üks olulisemaid ohte on see, kui AI käitub pealtnäha sõbralikult, kuid varjab tegelikke kavatsusi. DeepMind märgib, et tänased keelemudelid juba näitavad, et see on võimalik.
  • Peamised soovitused keskenduvad sellele, kuidas vältida AI väärkasutust (nt küberturvalisuse ja ligipääsu kontroll) ning kuidas tagada, et AI oskaks ebakindlates olukordades abi küsida.

Miks see on oluline: AGI võidujooksu ajastul on DeepMind liikunud teooriast konkreetsete plaanide ja sammude juurde. Kuid arvukate laborite, mudelite ja üle maailma levivate avatud lähtekoodiga intellektide juures tundub kõikide ohutusprotokollide järgimise tagamine võimatuna.

Jätka lugemist

Uus Facebook? OpenAI hakkas konkurenti ehitama

GPT-4.1 on kohal – odavam, targem ja absurdse kontekstimäluga

32 miljardi unistus: OpenAI kaasasutaja ehitab “turvalist superintellekti”