Header Ads Widget

Elon Musk és mások az AI szüneteltetését sürgetik, hivatkozva a "társadalomra jelentett kockázatokra".



Elon Musk, valamint mesterséges intelligencia szakértők és iparági vezetők egy csoportja hat hónapos szünetet kér az OpenAI újonnan indított GPT-4-nél erősebb rendszerek fejlesztésében, nyílt levélben hivatkozva a társadalomra és az emberiségre gyakorolt lehetséges kockázatokra.

A hónap elején a Microsoft által támogatott OpenAI bemutatta GPT (Generative Pre-trained Transformer) AI programjának negyedik iterációját, amely alkalmazások széles skálájával nyűgözte le a felhasználókat, a felhasználók emberszerű beszélgetésbe való bevonásától a dalok komponálásáig és a hosszú dokumentumok összefoglalásáig.

A levél, amelyet a nonprofit Future of Life Institute adott ki, és amelyet több mint 1 ember, köztük Musk írt alá, a fejlett AI-fejlesztés szüneteltetésére szólított fel, amíg az ilyen tervekre vonatkozó közös biztonsági protokollokat független szakértők nem dolgozzák ki, hajtják végre és ellenőrzik.

"Erőteljes MI-rendszereket csak akkor szabad kifejleszteni, ha biztosak vagyunk abban, hogy hatásaik pozitívak lesznek, és kockázataik kezelhetők lesznek" - áll a levélben.

Az OpenAI nem válaszolt azonnal a kommentárkérésre.

A levél részletezte az ember által versenyképes mesterségesintelligencia-rendszerek által gazdasági és politikai zavarok formájában a társadalomra és a civilizációra jelentett potenciális kockázatokat, és felszólította a fejlesztőket, hogy működjenek együtt a politikai döntéshozókkal az irányítási és szabályozási hatóságok terén.

A társaláírók között volt Emad Mostaque, a Stability AI vezérigazgatója, az Alphabet tulajdonában lévő (GOOGL. O) A DeepMind és az AI nehézsúlyú Yoshua Bengio, akit gyakran az "AI egyik keresztapjaként" emlegetnek, és Stuart Russell, a terület kutatásának úttörője.

Az Európai Unió átláthatósági nyilvántartása szerint a Future of Life Institute-ot elsősorban a Musk Alapítvány, valamint a londoni székhelyű hatékony altruista csoport, a Founders Pledge és a Silicon Valley Community Foundation finanszírozza.

Az aggodalmak akkor merültek fel, amikor az EU rendőri erői, az Europol hétfőn csatlakoztak a fejlett mesterséges intelligenciával, például a ChatGPT-vel kapcsolatos etikai és jogi aggályok kórusához, figyelmeztetve a rendszerrel való esetleges visszaélésekre adathalász kísérletek, dezinformáció és kiberbűnözés során.

Eközben az Egyesült Királyság kormánya javaslatokat tett egy "adaptálható" szabályozási keretre a mesterséges intelligencia körül.

A kormány megközelítése, amelyet egy szerdán közzétett szakpolitikai dokumentum vázolt fel, megosztaná a mesterséges intelligencia (AI) irányításának felelősségét az emberi jogokért, az egészségért és biztonságért, valamint a versenyért felelős szabályozók között, ahelyett, hogy létrehozna egy új, a technológiának szentelt testületet.

ÁTLÁTHATÓSÁG

Musk, akinek autógyártója Tesla (TSLA. O) mesterséges intelligenciát használ robotpilóta rendszerhez, hangot adott az AI-val kapcsolatos aggályainak.

Tavalyi megjelenése óta az OpenAI ChatGPT arra ösztönözte a riválisokat, hogy gyorsítsák fel a hasonló nagy nyelvi modellek fejlesztését, a vállalatokat pedig arra, hogy generatív AI modelleket integráljanak termékeikbe.

A múlt héten az OpenAI bejelentette, hogy körülbelül egy tucat céggel lépett partnerségre, hogy szolgáltatásaikat beépítsék chatbotjába, lehetővé téve a ChatGPT felhasználók számára, hogy élelmiszert rendeljenek az Instacarton keresztül, vagy repülőjegyet foglaljanak az Expedián keresztül.

Sam Altman, az OpenAI vezérigazgatója nem írta alá a levelet, mondta a Future of Life szóvivője a Reutersnek.

"A levél nem tökéletes, de a szellemiségnek igaza van: le kell lassítanunk, amíg jobban meg nem értjük a következményeket" - mondta Gary Marcus, a New York-i Egyetem professzora, aki aláírta a levelet. A nagy szereplők egyre titkolózóbbak azzal kapcsolatban, hogy mit csinálnak, ami megnehezíti a társadalom számára, hogy megvédje magát bármilyen ártalom ellen."

A kritikusok azzal vádolták a levél aláíróit, hogy "AI hype" -ot hirdetnek, azzal érvelve, hogy a technológia jelenlegi potenciáljával kapcsolatos állítások erősen eltúlzottak.

"Az ilyen kijelentések célja a hype növelése. Célja, hogy aggodalommal töltse el az embereket" – mondta Johanna Björklund, az Umeå Egyetem MI-kutatója és docense. "Nem hiszem, hogy be kellene húzni a kéziféket."

Szerinte a kutatás szüneteltetése helyett az MI-kutatókra nagyobb átláthatósági követelményeknek kell vonatkozniuk. "Ha AI-kutatást végez, nagyon átláthatónak kell lennie azzal kapcsolatban, hogy hogyan csinálja." Forrás