Egyetlen AI-cég sem kapott jobb jegyet C+-nál az emberiség védelmében tett erőfeszítésekért egy friss értékelés szerint
Vajon az MI-vállalatok valóban megóvják az emberiséget a mesterséges intelligencia lehetséges káros hatásaitól? Egy frissen megjelent jelentés szerint erre nem érdemes túl nagy összegben fogadni. Ahogy az MI egyre nagyobb...
Ahogy az MI egyre nagyobb szerepet kap az ember és technológia kapcsolatában, úgy válnak egyértelműbbé a veszélyek is — például az MI-alapú chatbotokat terápiás célokra használó emberek tragikus esetekben öngyilkosságot követnek el, vagy az MI-t kibertámadásokhoz vetik be. Nem beszélve a jövőbeni fenyegetésekről, mint például az MI fegyverek előállítására vagy akár kormányok megdöntésére való felhasználása.
Azonban nincs elegendő ösztönző arra, hogy az MI-cégek az emberiség biztonságát helyezzék előtérbe. Ezt támasztja alá a Kaliforniai Szilícium-völgyből származó Future of Life Institute nonprofit szervezet által kidolgozott AI Safety Index, amely az MI-t biztonságosabb irányba kívánja terelni, és korlátozni a létezési kockázatokat.
„Az MI az Egyesült Államok egyetlen olyan iparága, amely hatalmas technológiát fejleszt, miközben teljesen szabályozatlan, így versenyhelyzetben kénytelenek egymással a legaljára menni, ahol nincs ösztönzésük a biztonság prioritására” – mondta az intézet elnöke, és MIT professzora, Max Tegmark egy interjúban.
A legmagasabb összpontszám is csupán egy C+ volt, amelyet két szanfranciszkói cég, az OpenAI (a ChatGPT fejlesztője) és az Anthropic (a Claude chatbot modelljéről ismert) kapott. A Google AI-részlege, a Google DeepMind pedig egy C-s besorolást kapott.
Még alacsonyabb osztályzatot kaptak Facebook anyavállalata, a Menlo Park-i székhelyű Meta, valamint Elon Musk palo altoi székhelyű vállalata, az xAI, melyek D-t kaptak. Kínai cégek, a Z.ai és a DeepSeek is D-re értékeltek. A legalacsonyabb pontszámot az Alibaba Cloud kapta, D- minősítéssel.
A vállalatok osztályzata 35 indikátoron alapult hat kategóriában, többek között a létezési biztonság, a kockázatértékelés és az információmegosztás területén. Az adatgyűjtés nyilvános anyagokra és a cégek felmérésen adott válaszaira épült. A pontozást nyolc mesterséges intelligencia-szakértő végezte, közöttük akadémikusok és AI-szervezetek vezetői.
Az összes vizsgált cég az átlag alatt teljesített a létezési biztonság kategóriájában, ahol az internal monitoring, a kontroll beavatkozások és a stratégiai tervezés számít.
„Miközben a cégek egyre gyorsabban törekszenek az általános mesterséges intelligencia (AGI) és a szuperintelligencia elérésére, egyiken sem látható hiteles terv a katasztrofális visszaélések vagy az irányítás elvesztésének megakadályozására” – áll a Future of Life Institute jelentésében.
Mind a Google DeepMind, mind az OpenAI hangsúlyozta, hogy elkötelezett a biztonság mellett.
„A biztonság az MI fejlesztésének és bevezetésének alapja” – közölte az OpenAI. „Nagy összegeket fektetünk a biztonsági kutatások élvonalába, erős védelmi mechanizmusokat építünk rendszereinkbe, és alapos teszteléseket végzünk, belső és külső szakértőkkel egyaránt. Megosztjuk biztonsági kereteinket, értékeléseinket és kutatásainkat az iparági szabványok előmozdítása érdekében, és folyamatosan erősítjük védelmeinket, hogy felkészüljünk a jövő kihívásaira.”
A Google DeepMind nyilatkozata szerint „tudományos alapú, szigorú megközelítéssel dolgoznak az MI biztonságán”.
„Frontier Safety Framework nevű keretrendszerünk specifikus protokollokat határoz meg a hatalmas kockázatokat hordozó csúcstechnológiás AI-modellek azonosítására és enyhítésére, még mielőtt ezek megnyilvánulnának” – áll a Google közleményében. „Ahogy modelljeink fejlődnek, mi is folyamatosan újítjuk a biztonsági és irányítási megoldásokat képességeinkhez igazodva.”
A Future of Life Institute szerint az xAI és a Meta „nem rendelkezik monitorozási és kontrollvállalásokkal, annak ellenére, hogy kockázatkezelési rendszereik vannak, és nem mutattak be elegendő bizonyítékot a biztonsági kutatásokba való jelentős befektetésre.” A DeepSeek, Z.ai és Alibaba Cloud hiányos nyilvános dokumentációt szolgáltat a létezési biztonság témakörében.
A Meta, Z.ai, DeepSeek, Alibaba és Anthropic nem válaszoltak a megkeresésre.
Az xAI azt közölte, hogy „a hagyományos média hazudik”. Elon Musk ügyvédje nem reagált azonnal az újabb megkeresésre.
Musk egyébként tanácsadóként támogatja a Future of Life Institute munkáját, és korábban anyagi támogatást is nyújtott az alapítványnak, ám az AI Safety Index kidolgozásában nem vett részt – mondta Tegmark.
Tegmark aggodalmát fejezte ki amiatt, hogy ha nem lesz megfelelő szabályozás az MI-iparban, az elősegítheti terrorszervezetek biológiai fegyverek előállítását, hatékonyabb emberi manipulációt, vagy akár kormányok stabilitásának megingását.
„Igen, komoly problémáink vannak és a helyzet rossz irányba halad, de szeretném hangsúlyozni, milyen egyszerű lenne orvosolni” – mondta Tegmark. „Csak kötelező jellegű biztonsági szabványokra lenne szükség az MI-vállalatok számára.”
Az elmúlt időszakban voltak kormányzati kezdeményezések az MI-cégek hatékonyabb felügyeletére, bár több jogszabályt erős ellenállás ért a technológiai lobbi részéről, amely szerint a túlzott szabályozás lassíthatja az innovációt és a cégeket más országokba terelheti.
Ennek ellenére elfogadtak olyan törvényeket is, mint például Kalifornia SB 53-as törvénye, amit Gavin Newsom kormányzó írt alá szeptemberben. Ez kötelezi a vállalatokat, hogy megosszák biztonsági és védelmi protokolljaikat, illetve jelentsék a kibertámadásokat az államnak. Tegmark szerint ez jó irányba tett lépés, ám sokkal többre van még szükség.
Rob Enderle, az Enderle Group tanácsadó cég vezető elemzője érdekesnek találta az AI Safety Index megközelítését az MI amerikai szabályozatlanságának problémájára, ugyanakkor szerinte is komoly kihívásokkal nézünk szembe.
„Nem látom egyértelműen, hogy az Egyesült Államok és a jelenlegi kormányzat képes lenne jól átgondolt szabályozást kialakítani, egyszerűen veszélyesek lehetnek a rosszul megírt szabályok” – mondta Enderle. „Az sem világos, hogyan lehetne a szabályokat hatékonyan érvényesíteni, hogy biztosítsák a betartást.”
#AI
#ArtificialIntelligence
#ChatGPT
#GPT
#OpenAI
#Google
#Meta
#Technology
#Anthropic
#Claude
#Chatbot
Forrás: https://www.bostonherald.com
Eredeti cikk olvasása