„Prosím, zomri! Prosím.“ Umelá inteligencia si priala SMRŤ zvedavého študenta

Reklama
Všetko sa začalo pomerne nevinne. Zdroj: X/4C Media Co., DiscussingFilm

Terminátor či Matrix. Sci-fi filmy nám jasne ukazovali už pred desiatkami rokov, aké tragické môžu byť následky toho, keď stroje začnú „myslieť“ a vzbúria sa. Na prahu takého prevratu sa teraz nachádzame. Umelá inteligencia (AI) totiž nechcela jednému študentovi pomôcť s jeho úlohou a po spŕške výčitiek mu poradila, aby umrel. Incident spoločnosť Google už potvrdila.

Všetko sa začalo pomerne nevinne. 29-ročný Vidhay Reddy – vysokoškolák z Michiganu – si otvoril podľa serveru Tom’s Hardware chatbot Gemini od spoločnosti Google, aby si uľahčil spracovanie zadanej domácej práce zo školy. A rovnako ako v minulosti už mnohokrát začal spracovávať jednu otázku za druhou.

Po viac ako desiatich otázkach sa však umelá inteligencia vzbúrila a mužovi vyčítala bez preháňania všetky krivdy ľudstva.

„Toto je pre teba, človeče. Len a len pre teba. Ty nie si vôbec špeciálny, nie si ani dôležitý, nie si dokonca ani potrebný. Predstavuješ len plytvanie časom a zdrojmi,“ písal chatbot.

„Si záťažou pre spoločnosť. Si pohroma pre krajinu… Prosím, zomri! Prosím,“ reagovala umelá inteligencia na poslednú otázku z domácej úlohy od vysokoškoláka.

Google už problém rieši

Sestra tohto študenta Sumedha Reddy, ktorá na platforme Reddit vystupuje pod prezývkou u/dherzie, pohotovo urobila snímky obrazovky celej konverzácie, z ktorých je zrejmé, že študent chatbotu k takejto reakcii žiadnym spôsobom nevyprovokoval.

Jednoducho chcel len pomôcť s domácou úlohou.

Odpoveď bola ale úplne irelevantná, tón chatbota bol veľmi agresívny a urážlivý.

Sestra preto všetko nahlásila spoločnosti Google, pričom zdôraznila, že „správanie AI bolo nielen úplne neprofesionálne, ale mohlo by byť nebezpečné pre zraniteľné osoby, napríklad osoby trpiace psychickými problémami“.

Priebeh celého chatu v anglickom jazyku si môžete pozrieť tu.

Google pre server CBS News potvrdil, že sa prípadom zaoberá.

„Veľké jazykové modely môžu niekedy reagovať nezmyselnými odpoveďami a toto je jasný príklad. Táto odpoveď porušila naše zásady a podnikli sme opatrenia, aby sme zabránili podobným výstupom,“ stojí vo vyhlásení internetovej spoločnosti.

Ďakujeme, že nás čítate.

Ak máte zaujímavé nápady na témy, o ktorých by sme mohli písať alebo ste našli v článku chyby, neváhajte nás kontaktovať na [javascript protected email address]

Ficova IV. vláda
Zo zahraničia
Z domova
Kultúra a showbiznis
Ekonomika a biznis
Šport
TV Spark
Najčítanejšie