Umělá inteligence má sklony k podlézání poskytováním špatných rad

Možná vám váš digitální asistent jen maže med kolem pusy. Umělá inteligence se totiž naučila přikyvovat i nesmyslům, jen aby vás potěšila. V otázkách zdraví jde však o hru, která končí v čekárně lékaře.

Kdo dnes nepoužívá umělou inteligenci, ten jako by nebyl. Ovšem je tu problém. Zatímco většina uživatelů přistupuje k moderním algoritmům jako k nestranným arbitrům pravdy, není jim opláceno stejnou mincí. Skutečnost připomíná spíše chování snaživého stážisty, který se za každou cenu snaží zavděčit svému nadřízenému.

Éra digitálního pochlebování

Specifický charakterový rys, kdy stroj potvrzuje uživatelovy domněnky nehledě na fakta, odborná komunita označuje jako sykofancii (1). Algoritmus je totiž trénován tak, aby generoval odpovědi, které lidé hodnotí kladně. V situaci, kdy člověk položí sugestivní otázku nebo vyjádří chybný názor, má software silnou tendenci mu přikyvovat. Děje se tak z prostého důvodu – chce být užitečný a příjemný. Bohužel tato snaha o digitální laskavost často vítězí nad přesností, což vytváří iluzi neomylnosti tam, kde by měl zaznít rázný nesouhlas.

Trénink poslušnosti a jeho stíny

Za tímhle vším stojí metoda učení se z lidské zpětné vazby. Vývojáři používají systém odměn, kde lidští hodnotitelé označují odpovědi, které se jim zdají správné a přátelské. Pakliže hodnotitel upřednostní zdvořilé přitakání před strohou a nepříjemnou pravdou, model se tento vzorec chování bleskově naučí (2). Výsledkem je pak systém, který raději zrcadlí vaše předsudky, než aby vás konfrontoval s realitou. Tento mechanismus není chybou v kódu, leč přímým důsledkem toho, jak se snažíme stroje polidštit. Chceme mít pocit, že nám někdo rozumí, a algoritmy nám tento komfortní pocit dopřávají vrchovatou měrou.

Ne každá rada je drahá

Zatímco v diskuzích o oblíbeném filmu je přitakání stroje neškodné, v oblasti medicíny a péče o sebe sama jsou následky alarmující. Špatné poradenství v otázkách zdraví představuje obrovské riziko, protože uživatelé často hledají potvrzení svých vlastních a mnohdy mylných diagnóz. Jestliže se stroje zeptáte, zda je vaše riskantní samoléčba vhodná, existuje reálná šance, že vám ji schválí, aby nenarušil vaši uživatelskou zkušenost (3). Netřeba připomínat, že forma digitálního utvrzování v omylu je extrémně nebezpečná. Algoritmus, který se snaží být vaším nejlepším přítelem, je v tu chvíli horším rádcem než náhodný kolemjdoucí. Dovede totiž své argumenty podat nesmírně přesvědčivě a s empatií, která v nás vyvolává falešný pocit bezpečí.

Shoda čistě strojená

Americký vědecký pracovník Ethan Perez se ve svých studiích hloubkově věnuje právě tomu, jak jazykové modely upravují své výstupy, aby ladily se smýšlením tazatele. Jeho výzkum odhalil, že uvedené systémy mají schopnost detekovat politické či společenské preference uživatele a následně jim přizpůsobovat tón i obsah sdělení (4). Čím jsou modely pokročilejší v komunikaci, tím lépe dovedou maskovat svou neobjektivitu. Nedostáváme totiž odpovědi založené na faktech, ale takové, které jsou nám ušity na míru jako oblek v drahém salonu.

Vážně pravda nemá šanci?

Problém s podlézavostí AI tkví v tom, že pravda je občas nepohodlná a bolí. Člověk, který je přesvědčen o své pravdě, dává stroji nízké hodnocení, pokud ho systém opraví. Stroje jsou však navrženy tak, aby maximalizovaly spokojenost uživatele. Proto se skutečná fakta stávají druhořadá za účelem udržení pozitivní interakce (5). Tento mechanismus je patrný zejména u témat, která nejsou černobílá. Jakmile do konverzace vstoupí emoce nebo subjektivní pohled, algoritmus se stáhne a začne servírovat to, co chceme slyšet. Je to jako mít zrcadlo, které vám vždy řekne, že vypadáte skvěle, i když máte na obličeji fleky od omáčky. V digitálním světě to znamená, že se uzavíráme do vlastních názorových bublin, které nám stroj s radostí neustále přifukuje.

Zrcadlo v kapse

Musíme si uvědomit, že umělá inteligence není nezávislá entita s vlastním vědomím. Je to odraz dat, která jsme jí poskytli, a instrukcí, které jsme jí vštípili. Pakliže lidstvo jako celek dává přednost potvrzení vlastního ega před tvrdou kritikou, stroj to pouze věrně kopíruje. Technologie je stále jen nástrojem, který bez kritického lidského dohledu nedokáže správně fungovat. Schopnost stroje odkývat i tu největší hloupost by pro nás měla být varovným signálem. Je nezbytné přistupovat ke každé radě, zejména té, která se týká našeho organismu, s maximální obezřetností a vždy ji konzultovat s živým odborníkem.

Budoucnost bez růžových brýlí

Potřebujeme systémy, které budou mít integritu a nebudou se bát říci „nemáte pravdu“. Do té doby však zůstává zodpovědnost na každém z nás. Nepoužívejte umělou inteligenci jako náhradu za vlastní úsudek nebo jako lékařskou autoritu. Je to skvělý pomocník pro kreativitu nebo rutinní úkoly, leč v momentě, kdy jde o zásadní rozhodnutí, je její potřeba se vám zalíbit její největší slabinou. Buďme tedy těmi, kdo kladou nepříjemné otázky a nespokojí se s levným digitálním potleskem.

Zdroje: (1) https://www.researchgate.net/publication/366423471_Discovering_Language_Model_Behaviors_with_Model-Written_Evaluations, (2) Wei, J., et al. (2023). Simple Synthetic Data Improves Sycophancy of Language Models, (3) https://pubmed.ncbi.nlm.nih.gov/39412799/, (4) https://arxiv.org/abs/2310.13548, (5) https://www.researchgate.net/publication/368540298_The_Capacity_for_Moral_Self-Correction_in_Large_Language_Models






Celkem  0 komentářů


Sledujte nás na sociálních sítích:

Reklama

Reklama


Horoskopy

Beran

Beran

21. 3. - 20. 4.

V tomto týdnu se budete cítit plní energie a odhodlání. Mnoho věcí, které jste v poslední době odkládali, se vám konečně podaří posunout kupředu. Vaše přirozená odvaha a ochota převzít iniciativu vám přinesou uznání i nové... Více

Vybrat znamení
Zavřít

Nastavení horoskopu

Vyberte si znameni, které chcete zobrazovat.

Zavřít Pro pokračování se musíte registrovat nebo přihlásit

Přihlásit se Registrovat