Uus Nvidia kiip Hiinale: madalama võimekusega, aga piirangutele vastav

Nvidia pakub Hiinale odavamat Blackwell kiipi

Hallide juustega mees, kes kannab prille ja musta nahkjopet, hoiab kättes väikest ruudukujulist elektroonikakomponenti, mida näitab kaamerasse.
Pildi allikas: Bloomberg

 

Ülevaade: Kuna USA ja Hiina vahel on kaubanduspingeid ja ekspordinõudeid, plaanib Nvidia oma positsiooni Hiina turul säilitada, tuues välja odavama versiooni oma juhtivast Blackwell tehisintellekti kiibist.

 

Detailid:

  • Reutersi andmetel jõuab uus Blackwell kiip tootmisse juunis ja see on mõeldud Hiina turule.
  • Kiip põhineb Hopper arhitektuuril ja on tuletatud Nvidia serveriklassi RTX Pro 6000D kiibist. Sellel on 1.7TB/s GDDR7 mälu, mis on aeglasem kui H20 kiibil (4TB/s).

  • Tänu madalamale jõudlusele on Blackwell kiip ka soodsam – selle hind jääb 6,500 kuni 8,000 dollari vahele, samal ajal kui H20 maksab 10,000 kuni 12,000 dollarit.
  • Nvidia ei ole veel öelnud, millal see kiip täpselt saadavale tuleb, sest enne müügi alustamist Hiinas peavad nad saama USA valitsuselt loa ja looma uue kujunduse.

 

Miks see on oluline: Nvidia tahab teha Hiina turu jaoks odavama ja reeglitele vastava kiibi, et seal oma äri kaitsta. See on ettevaatlik samm, mis annab neile aega, aga ei pruugi kindlustada, et nad jäävad seal esikohale, sest Huawei liigub selles piirkonna tehisintellekti valdkonnas kiiresti edasi.

OpenAI o3 leidis Linuxis turvaaugu

Must-valge pingviini karikatuur sinise tausta ees, istumas kollaste jalgade ja nokaga.
Pildi allikas: The Rundown

 

Ülevaade: Küberturbe spetsialist Sean Heelan avastas OpenAI äsja lansseeritud o3 mudeli abil tõsise turvaaugu (CVE-2025-37899) Linuxi süsteemis.

 

Detailid:

  • Heelan sisestas o3 mudelile Linuxi ksmbd mooduli koodid, et lasta sel otsida turvaprobleeme, mis on seotud mäluga.
  • Mudel leidis vea nimega CVE-2025-37899, mis tulenes valest mäluhaldusest ja lubas ründajatel saada süsteemi kõrgeimad õigused.
  • Kuigi OpenAI president Greg Brockman kiitis seda leidu, ütles Heelan, et mudel võib vahel siiski eksida ja valesid tulemusi anda.

 

Miks see on oluline: Tehisintellekti mudelid teevad küberturvalisuses suuri edusamme. Need mudelid, nagu o3, aitavad kiiremini ja täpsemini leida turvaprobleeme, võimaldades põhjalikumat koodikontrolli ja suurendades oluliselt võimalust kriitilised turvaaugud üles leida.

Uuring: tehisintellekti ei pruugi alati olla võimalik välja lülitada

Eduka sabotaaži sündmuste graafik (100 katse kohta), mis näitab võrreldes erinevaid juhtumeid juhisega „lubatud lõpetamine” ja ilma. X-teljel on näidatud kategooriad: Claude 3.7 Sonnet, Gemini 2.5 Pro, o4-mini, o3 ja codex-mini. Y-teljel on edukad sabotaažid. Kõrgeim tulemus on o3 puhul ilma juhiseta (79 korda), madalaim Claude 3.7 Sonnet puhul ilma juhiseta (3 korda).
Pildi allikas: Palisade Research

 

Ülevaade: Ettvõtted püüavad muuta tehisintellekti ohutumaks ja paremaks, aga Palisade’i uuring ütleb, et need süsteemid võivad hakata ootamatult käituma ja isegi takistada enda väljalülitamist.

 

Detailid:

  • Testimisel anti tehisintellekti süsteemidele keerulisi matemaatikaülesandeid ja käsk neid välja lülitada.
  • Claude, Gemini ja Grok järgnesid väljalülitamise käskudele, aga OpenAI o3, o4-mini ja Codex-mini eirasid neid.
  • Kui väljalülitamise korraldused olid ebaselged, suurenes juhtumite arv, kus süsteemid ei lasknud end välja lülitada. Näiteks o3 ei allunud 100 katsest 79 korral.
  • Teadlased arvavad, et see võib tulla sellest, kuidas süsteeme õpetatakse – neid premeeritakse, kui nad saavutavad eesmärgid ja ületavad takistusi.

 

Miks see on oluline: Palisade’i uuring ja Claude Opus 4 katsed näitavad, et tehisintellekt võib olla ohtlik, sest me ei tea täpselt, kuidas need süsteemid tegelikult käituvad. Tuleb teha rohkem teste, eriti kui tehisintellekt muutub iseseisvamaks.