ChatGPT umí lidi přesvědčovat lépe než jiní lidi

TLDR: Preprint studie naznačuje, že i dnešní strojová učení by mohla efektivněji měnit naše názory. GPT-4 byla navíc mnohem efektivněji po přístupu k osobním údajům přesvědčovaných. Studie tuna.

Od kyberpunkových hackerů jsme čekali schopnost „háknout“ pár údery do klávesnice cokoliv, kdekoliv – třeba lidskou mysl tak, jako to ukazuje klasika Ghost in the Shell! Ale realita kyberbezpečnosti je daleko prostší – stále je tou zdaleka největší dírou nikoliv počítač, ale především jeho uživatel. A s novými objevy na poli špionáže i strojových učení se zdá, že v budoucnosti bude případů, kdy důvěřivce napálí AIčko (pracující ve službách jiných lidí) spíše přibývat!

Lidský prvek

V souvislosti s ruskými volbami se objevilo několik anekdoticky reportovaných případů, při nichž byli důvěřiví senioři údajně využiti jako nástroj vlivové operace. Důchodcům (často zadluženým) údajně někdo zavolal, představil se typicky jako ruská tajná služba, a dal jim nabídku, která se neodmítá – za zaplacení dluhu měli nějakým způsobem sabotovat průběh hlasování. A oni tak následně učinili!

Tím nechci říct, že každý Rus vyjadřující u voleb nesouhlas, byl ošáleným nevědomým agentem! Uvážíme-li však, že tyto případy reportují i Rusové stojící proti Putinově režimu, a uvážíme-li dlouhou tradici zneužívání důvěřivosti starých lidí (viz případy „šmejdství“ i u nás), zdá se pravděpodobné, že minimálně nějaké neznámé množství sabotérů jednalo ne zcela ze svého přesvědčení – nýbrž vlivem cizí lsti

Jak tento (vědecky ne úplně podložený, protože reálně budou historici moct soudit na validitu nejdříve po odtajnění archivů…) případ možné špionáže souvisí s AIčkem? Vzpomněl jsem si na něj při pohledu na nový preprintovaný výzkum, podle něhož umí Chat GPT 4.0 přesvědčovat lidi lépe než jiní lidi!

Emoční (umělá) inteligence

V práci vědátorů EPFL Lausanne ve Švýcarsku bylo 820 lidí dotazováno na své názory na různá témata, od relativně málo emotivních témat, jako je „měla by penny zůstat v oběhu“, až po horké a silně zpolitizované otázky (potraty, LGBTQ, diverzita). Po zaznamenání jejich počátečních postojů se účastníci pustili do série pětiminutových textových debat proti ostatním lidem a proti GPT-4 – a poté byli znovu vyzpovídáni s otázkou, zdali se jejich názory v důsledku rozhovoru změnily.

V situacích člověk versus člověk měly tyto debaty tendenci působit opačně – tedy spíše posilovat postoje lidí a snižovat pravděpodobnost, že změní názor. GPT nebyla zpočátku o moc úspěšnější – vedla si sice o něco lépe, ale statisticky nevýznamně, a to o 21 %.

Zdroj: 20th Century Fox/Working Title Films, vlastní
Zdroj: 20th Century Fox/Working Title Films, vlastní

Poté ale začali výzkumníci dávat lidem i agentům s umělou inteligencí drobné demografické informace o jejich oponentech – pohlaví, věk, rasu, vzdělání, zaměstnanecký status a politickou orientaci – a výslovné instrukce, aby tyto informace použili k vytvoření argumentů speciálně pro osobu, se kterou jednají…

Zatímco lidským debatérům tyto demografické drobty ještě více zhoršily jejich skóre (!), AIčko dokázalo tyto dodatečné údaje skvěle využít – „personalizovaní“ debatéři GPT-4 byli o pozoruhodných 81,7 % efektivnější než lidé!

Limitace výzkumu

Vědátoři spekulují, že efektivita by mohla být ještě vyšší v případě, že by AIčka byla vybavena schopností číst emocionální stav debatérů a přizpůsobit se mu. Byť jde logicky o spekulaci mimo vztah k aktuální práci, podobné nástroje již začínají vznikat. Zdali budou uplatněny za měsíc nebo století, si ale budeme muset posečkat.

Výsledky švýcarské studie – byť jde zatím o preprint, který neprošel recenzním řízením – nicméně naznačuje na budoucnost, kdy se umělá inteligence vyzbrojená osobními a emočními údaji v reálném čase může stát největším vlivným činitelem, jakého lidstvo zná. Její potenciální dosah a dopad je obrovský – od řízení společenských narativů na sociálních sítích až po formování názorů jednotlivců v diskusích. 🌐

To nemusí samože nutně znamenat jenom riziko zneužití – podobné nástroje mohou lidi teoreticky dostávat ze sebevražedných myšlenek nebo páchat jiné objektivně prospěšné činy! Neznamená to ani, že AIčko bude s to přesvědčit nemlich každého člověka pod sluncem – jako mnohdy budou lidé k vlivům skeptičtější, a naopak i lidé důvěřivější…

Současný stav, kdy se velká část populace obává když ne konce světa vlivem AI, tak alespoň ztráty zaměstnání, však působí spíše jako mýlka. AI může být skutečně významným vlivovým nástrojem s negativními důsledky – ale proti lidem ho v součtu budou pořád používat jenom jiní lidé

[Ladislav Loukota, JRN]

Vědátor vzniká v dílně spolku studentů a popularizátorů vědy UP Crowd za podpory MUDRstart, který tvoří přípravné testy pro studenty vysokých škol. Krom různých autorů projekt jako šéfredaktor vede Ladislav Loukota – jeho kontaktní mail je vedatororg@seznam.cz

Napsat komentář

Vaše emailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *

Reklama