Vedci zdôrazňujú, že aj keď väčšina ľudí nezodpovie správne tieto úlohy, je nepravdepodobné, aby sa mýlili z rovnakých dôvodov ako AI.
Priveľa etiky u AI?
Anglickí vedci zistili, že dodatočné informácie k úlohám AI výrazne nepomohli. U ľudí však tieto informácie zlepšujú výsledky. AI tiež poskytovala rôzne odpovede na tú istú otázku, keď ju opakovane zadali.
Niektoré modely odmietli odpovedať z etických dôvodov, aj keď otázky boli nevinné. Podľa vedcov za to môžu nesprávne fungujúce bezpečnostné parametre.
AI neuvažuje ako ľudia „Na základe našej štúdie môžeme povedať, že veľké jazykové modely neuvažujú ako ľudia,“ hovorí hlavná autorka výskumu Olivia Macmillanová-Scottová.
„Model GPT-4 mal výrazne vyššiu úspešnosť, čo naznačuje, že sa modely rýchlo zlepšujú.“
Podľa vedkyne je však ťažké posúdiť, ako GPT-4 uvažuje, pretože je to uzavretý systém.
„Schopnosti týchto modelov sú prekvapivé, najmä pre ľudí, ktorí pracujú s počítačmi desaťročia,“ hovorí vedec Mirco Musolesi.
„Nerozumieme správaniu modelov a nevieme, prečo odpovedajú správne alebo chybne,“ pokračuje. „Opravovanie chýb môže viesť k tomu, že AI prevezme naše vlastné chyby.“
„Chceme úplne racionálne stroje alebo také, ktoré robia rovnaké chyby ako my?“ pýta sa.
„Je fascinujúce, ako nás veľké jazykové modely nútia premýšľať o našom vlastnom uvažovaní a zdrojoch našich skreslení.“ uzatvára Musolesi.