OpenAI arendajatele mõeldud GPT-4.1 mudel

Ülevaade: OpenAI avaldas just GPT-4.1, uue API-põhise mudeli, mis on mõeldud arendajatele. See oskab paremini programmeerida, juhiseid järgida ja suudab korraga töödelda kuni miljon tokenit.
Detailid:
- OpenAI uus API-põhine mudeliseeria sisaldab GPT-4.1, 4.1 mini ja 4.1 nano versioone, mis on arendaja ülesannetes oluliselt paremad kui varasem GPT-4o.
- Kõik kolm mudelit suudavad töödelda kuni miljon tokenit korraga – see on umbes sama palju kui kaheksa täismahus Reacti projekti ja on 26% soodsamad kui GPT-4o.
- Uued mudelid on eriti head ka päriselu ülesannetes, näiteks veebiliideste loomisel, kus testijad eelistasid GPT-4.1 loodud liidest 80% juhtudel.
- Lisaks on hinnad langenud – GPT-4.1 on 26% odavam kui GPT-4o ja 4.1 nano on seni OpenAI kõige kiirem ja taskukohasem mudel.
Miks see on oluline: Ainus, mis ajas tagasi liigub, on OpenAI nimede süsteem – aga GPT-4.1 ise on arendajatele suur samm edasi. Tänu hiiglaslikule kontekstiaknale, madalatele kuludele ja täpsemale fookusele loob see tugeva aluse nutikale agendipõhisele programmeerimisele ja võib olla esimene samm tulevase tarkvarainseneri suunas.
ByteDance’i nutikas ja tõhus video-AI tööriist Seaweed

Ülevaade: ByteDance esitles Seaweed'i – väikest, aga väga tõhusat video-AI mudelit 7 miljardi parameetriga. Hoolimata oma suurusest suudab see edukalt konkureerida palju suuremate mudelitega nagu Kling 1.6, Google Veo ja Wan 2.1, kasutades samal ajal oluliselt vähem arvutusressurssi.
Detailid:
- Seaweed suudab luua videoid erineval viisil – näiteks teksti, pildi või heli põhjal ja tulemuseks on kuni 20-sekundilised klipid.
- Mudeli tulemusi on inimesed hinnanud kõrgelt, eriti piltidest videote loomisel, kus see ületab isegi Sora ja Wan 2.1.
- See tuleb toime ka keerukamate ülesannetega nagu mitme kaadri olemasolul storytelling, kontrollitud kaameraliikumised ja audio-visuaalne sünkroonsus.
- ByteDance'i sõnul sobib Seaweed hästi inimanimatsioonide jaoks, kuna suudab luua realistlikku liikumist ja huulte sünkroniseerimist heliga.
Miks see on oluline: Wan (Alibaba), Kling ja nüüd ka ByteDance’i Seaweed näitavad, et Hiina juhib video-AI valdkonda. See “väike” mudel tõestab, et tippklassi videote loomiseks ei pea mudel olema hiiglaslik. See avab uksed loominguliseks ja tõhusaks videoloomeks, kasutades lihtsamaid, aga võimekaid tööriistu.
Google’i tehisintellekt asub delfiinikeelt lahti mõtestama

Ülevaade: Google esitles DolphinGemmat – tehisintellekti mudelit, mis on loodud delfiinide häälitsuste analüüsimiseks ja jäljendamiseks. Mudel loodi koostöös Georgia Tehnikaülikooliga, et paremini mõista, kuidas delfiinid omavahel suhtlevad.
Detailid:
- DolphinGemma kasutab Google’i Gemma ja helitehnoloogiat, et töödelda delfiinide häälitsusi. See on treenitud aastatepikkustel andmetel Wild Dolphin Project'ist.
- Mudel otsib helidest mustreid ja püüab ennustada, mis heli võiks tulla järgmisena – umbes nagu keelemudel inimese kõnega teeb.
- Google on loonud ka uue seadme Pixel 9 põhjal, millel on kõlarid ja mikrofonid, et suhelda delfiinidega vee all reaalajas.
- Mudel tehakse suvel kõigile kättesaadavaks, et teadlased saaksid seda kasutada erinevate delfiiniliikide uurimiseks.
Miks see on oluline: Kuigi varasemad katsed delfiinikeele mõistmiseks pole edu toonud, võib tehisintellekti ühendamine aastakümnete pikkuse uurimistööga lõpuks aidata meil nende nutikate loomade suhtlemist mõista. Kui see õnnestub, võib DolphinGemma avada uue vaate loomade intelligentsusele.