Psychologické testy na AI: Vedci varujú, že stále máme ďaleko k pochopeniu, ako uvažuje

Reklama
Ilustračná fotografia. Zdroj: Freepik

Vedci zdôrazňujú, že aj keď väčšina ľudí nezodpovie správne tieto úlohy, je nepravdepodobné, aby sa mýlili z rovnakých dôvodov ako AI.

Priveľa etiky u AI?

Anglickí vedci zistili, že dodatočné informácie k úlohám AI výrazne nepomohli. U ľudí však tieto informácie zlepšujú výsledky. AI tiež poskytovala rôzne odpovede na tú istú otázku, keď ju opakovane zadali.

Niektoré modely odmietli odpovedať z etických dôvodov, aj keď otázky boli nevinné. Podľa vedcov za to môžu nesprávne fungujúce bezpečnostné parametre.

AI neuvažuje ako ľudia „Na základe našej štúdie môžeme povedať, že veľké jazykové modely neuvažujú ako ľudia,“ hovorí hlavná autorka výskumu Olivia Macmillanová-Scottová.

„Model GPT-4 mal výrazne vyššiu úspešnosť, čo naznačuje, že sa modely rýchlo zlepšujú.“

Podľa vedkyne je však ťažké posúdiť, ako GPT-4 uvažuje, pretože je to uzavretý systém.

„Schopnosti týchto modelov sú prekvapivé, najmä pre ľudí, ktorí pracujú s počítačmi desaťročia,“ hovorí vedec Mirco Musolesi.

„Nerozumieme správaniu modelov a nevieme, prečo odpovedajú správne alebo chybne,“ pokračuje. „Opravovanie chýb môže viesť k tomu, že AI prevezme naše vlastné chyby.“

„Chceme úplne racionálne stroje alebo také, ktoré robia rovnaké chyby ako my?“ pýta sa.

„Je fascinujúce, ako nás veľké jazykové modely nútia premýšľať o našom vlastnom uvažovaní a zdrojoch našich skreslení.“ uzatvára Musolesi.

1 2
Ďakujeme, že nás čítate.

Ak máte zaujímavé nápady na témy, o ktorých by sme mohli písať alebo ste našli v článku chyby, neváhajte nás kontaktovať na [javascript protected email address]

Ficova IV. vláda
Zo zahraničia
Z domova
Kultúra a showbiznis
Ekonomika a biznis
Šport
TV Spark
Najčítanejšie