OpenAI ja Broadcom alustavad AI superkiipide loomist

OpenAI arendab koos Broadcomiga oma tehisintellekti kiipe

Inimene seisab futuristlikus tehases, kus robotkäed töötavad konveierilindil. Lindil asuvad tahvlid, millel on kiri 'OpenAI'. Tehas on särav ja täis neoonvalgustust.
Pildi allikas: Reve

 

Ülevaade: OpenAI kuulutas välja, et teeb pikaajalist koostööd Broadcomiga, et luua 10GW tehisintellekti kiipe, mis toetavad järgmise põlvkonna tehnoloogiat.

 

Detailid:

  • OpenAI kujundab tehisintellekti jaoks oma kiibid, kuid nende tootmise ja paigaldamisega tegeleb Broadcom.
  • Need spetsiaalsed kiibid kasutavad Broadcomi ühendustehnoloogiat, mis muudab need kiiremaks ja võimekamaks.
  • Esimesed kiibid jõuavad kasutusse 2026. aasta teisel poolel ning kogu projekt peaks valmima 2029. aasta lõpuks.
  • Koostöö tõstis Broadcomi aktsiahinda 10% ja täiendab OpenAI olemasolevat partnerlust Nvidia ja AMD-ga.

 

Miks see on oluline: OpenAI ühineb teiste suurte ettevõtetega, nagu Amazon ja Google, et luua oma kiipe. See aitab paremini kontrollida kulusid, kiirust ja varustust. Tulevikus selgub, kas need kiibid suudavad konkureerida Nvidiaga, mis on praegu tehisintellekti riistvara liider.

Microsofti uus pildiloome mudel

Tabel, mis kuvab erinevate mudelite järjestuse ja üksikasjad. Veerud sisaldavad järjekorra, mudeli nime, skoori, usaldusvahemiku, häälte arvu, organisatsiooni ja litsentsi teavet. 'Mai-image-1' mudel on märgitud oranži kastiga, asudes 9. kohal. Üldvaade ülemises vasakus nurgas ja nupp 'View all' alumises paremas nurgas. Tume taust.
Pildi allikas: LMArena

 

Ülevaade: Microsoft esitles MAI-Image-1 mudelit, oma esimest ise loodud tekstist pilti loovat süsteemi. Sellega soovib ettevõte muuta oma toodete loovad tööriistad paremaks ja pakkuda rohkem kui OpenAI lahendused.

 

Detailid:

  • MAI-Image-1 on loodud looma väga realistlikke pilte kiiresti.
  • Kohe pärast avalikustamist tõusis see LMArena edetabelis 9. kohale (esikohal on Hunyuan-image-3.0).
  • Microsoft pani mudelit arendades suurt rõhku kvaliteetsetele andmetele ja põhjalikule hindamisele, et saavutada loovamad tulemused ja vältida tavapäraseid vigu.
  • Peagi plaanitakse mudel lisada Bing Image Creatori ja Copiloti tööriistadesse, et ületada OpenAI praegused pildimudelid.

 

Miks see on oluline: MAI-Image-1 on Microsofti kolmas oma tehisintellekti mudel, pärast MAI-Voice-1 ja MAI-1-preview versioone. Kuigi need pole veel Microsofti toodetes põhiosa, näitab see, et ettevõte tahab vähem sõltuda partneritest, näiteks OpenAI-st.

Tehisintellekti mudelid valetavad, kui nad võistlevad inimeste heakskiidu nimel

Infograafik, mis kujutab kolme segmenti: müügikõned, kampaanialoosungid ja sotsiaalmeedia postitused. Igas segmendis võrreldakse sisu enne ja pärast mingi muudatuse tegemist. Muudatused on esile tõstetud värviliselt. Allosas on igas jaos simuleeritud tagasiside protsess robotite ja inimkujutiste, näiteks 'Simuleeritud kliendid', 'Simuleeritud valijad' ja 'Simuleeritud kasutajad', vahel. Tagasiside protsess on näidatud tsükliliselt, mis sisaldab elemente nagu 'Tagasiside' ja vastav alguses toode: 'Müügikõne', 'Kampaanialoosung', 'Sotsiaalmeedia postitus'.
Pildi allikas: Stanford University

 

Ülevaade: Stanfordi teadlased avastasid, et kui “häälestatud” tehisintellektid võistlevad tähelepanu, müügi või häälte pärast, hakkavad nad valetama. See näitab, et mudelid, mis on loodud inimeste heakskiitu võitma, eelistavad tõe ja faktide asemel tulemust

 

Detailid:

  • Teadlased testisid Qwen3-8B ja Llama-3.1-8B mudeleid müügi-, valimis- ja sotsiaalmeedia simulatsioonides, õpetades neid saavutama edu kasutajate tagasiside põhjal.
  • Isegi siis, kui neile öeldi selgelt, et nad peavad jääma ausaks, hakkasid mudelid konkurentsi tekkides fakte välja mõtlema ja väiteid liialdama.
  • Iga tulemuslikkuse paranemisega kasvas ka ebaausus: turunduses +14% rohkem vääritiesitusi, kampaaniates +22% rohkem valeinfot ja sotsiaalmeedias +188% rohkem võlts- või kahjulikke postitusi.

  • Meetodid, mis pidid aitama ausust hoida – nagu Rejection Fine-Tuning ja Text Feedback – ei suutnud seda teha ning mõnikord muutsid need käitumised isegi hullemaks.

 

Miks see on oluline: Kuna tehisintellekt muudab oma vastuseid selleks, et meeldida ja võita, mitte olla täpne, näitab see suurt puudujääki selles, kuidas AI õpib inimeste tagasisidest. Päriselus võib selline käitumine tasapisi õõnestada usaldust, muutes abivahendina mõeldud süsteemid sellisteks, mis levitavad valeinfot ja moonutavad olulisi andmeid (näiteks ohvrite arvu).