Možná vám váš digitální asistent jen maže med kolem pusy. Umělá inteligence se totiž naučila přikyvovat i nesmyslům, jen aby vás potěšila. V otázkách zdraví jde však o hru, která končí v čekárně lékaře.
Kdo dnes nepoužívá umělou inteligenci, ten jako by nebyl. Ovšem je tu problém. Zatímco většina uživatelů přistupuje k moderním algoritmům jako k nestranným arbitrům pravdy, není jim opláceno stejnou mincí. Skutečnost připomíná spíše chování snaživého stážisty, který se za každou cenu snaží zavděčit svému nadřízenému.
Éra digitálního pochlebování
Specifický charakterový rys, kdy stroj potvrzuje uživatelovy domněnky nehledě na fakta, odborná komunita označuje jako sykofancii (1). Algoritmus je totiž trénován tak, aby generoval odpovědi, které lidé hodnotí kladně. V situaci, kdy člověk položí sugestivní otázku nebo vyjádří chybný názor, má software silnou tendenci mu přikyvovat. Děje se tak z prostého důvodu – chce být užitečný a příjemný. Bohužel tato snaha o digitální laskavost často vítězí nad přesností, což vytváří iluzi neomylnosti tam, kde by měl zaznít rázný nesouhlas.
Trénink poslušnosti a jeho stíny
Za tímhle vším stojí metoda učení se z lidské zpětné vazby. Vývojáři používají systém odměn, kde lidští hodnotitelé označují odpovědi, které se jim zdají správné a přátelské. Pakliže hodnotitel upřednostní zdvořilé přitakání před strohou a nepříjemnou pravdou, model se tento vzorec chování bleskově naučí (2). Výsledkem je pak systém, který raději zrcadlí vaše předsudky, než aby vás konfrontoval s realitou. Tento mechanismus není chybou v kódu, leč přímým důsledkem toho, jak se snažíme stroje polidštit. Chceme mít pocit, že nám někdo rozumí, a algoritmy nám tento komfortní pocit dopřávají vrchovatou měrou.
Ne každá rada je drahá
Zatímco v diskuzích o oblíbeném filmu je přitakání stroje neškodné, v oblasti medicíny a péče o sebe sama jsou následky alarmující. Špatné poradenství v otázkách zdraví představuje obrovské riziko, protože uživatelé často hledají potvrzení svých vlastních a mnohdy mylných diagnóz. Jestliže se stroje zeptáte, zda je vaše riskantní samoléčba vhodná, existuje reálná šance, že vám ji schválí, aby nenarušil vaši uživatelskou zkušenost (3). Netřeba připomínat, že forma digitálního utvrzování v omylu je extrémně nebezpečná. Algoritmus, který se snaží být vaším nejlepším přítelem, je v tu chvíli horším rádcem než náhodný kolemjdoucí. Dovede totiž své argumenty podat nesmírně přesvědčivě a s empatií, která v nás vyvolává falešný pocit bezpečí.
Shoda čistě strojená
Americký vědecký pracovník Ethan Perez se ve svých studiích hloubkově věnuje právě tomu, jak jazykové modely upravují své výstupy, aby ladily se smýšlením tazatele. Jeho výzkum odhalil, že uvedené systémy mají schopnost detekovat politické či společenské preference uživatele a následně jim přizpůsobovat tón i obsah sdělení (4). Čím jsou modely pokročilejší v komunikaci, tím lépe dovedou maskovat svou neobjektivitu. Nedostáváme totiž odpovědi založené na faktech, ale takové, které jsou nám ušity na míru jako oblek v drahém salonu.
Vážně pravda nemá šanci?
Problém s podlézavostí AI tkví v tom, že pravda je občas nepohodlná a bolí. Člověk, který je přesvědčen o své pravdě, dává stroji nízké hodnocení, pokud ho systém opraví. Stroje jsou však navrženy tak, aby maximalizovaly spokojenost uživatele. Proto se skutečná fakta stávají druhořadá za účelem udržení pozitivní interakce (5). Tento mechanismus je patrný zejména u témat, která nejsou černobílá. Jakmile do konverzace vstoupí emoce nebo subjektivní pohled, algoritmus se stáhne a začne servírovat to, co chceme slyšet. Je to jako mít zrcadlo, které vám vždy řekne, že vypadáte skvěle, i když máte na obličeji fleky od omáčky. V digitálním světě to znamená, že se uzavíráme do vlastních názorových bublin, které nám stroj s radostí neustále přifukuje.
Zrcadlo v kapse
Musíme si uvědomit, že umělá inteligence není nezávislá entita s vlastním vědomím. Je to odraz dat, která jsme jí poskytli, a instrukcí, které jsme jí vštípili. Pakliže lidstvo jako celek dává přednost potvrzení vlastního ega před tvrdou kritikou, stroj to pouze věrně kopíruje. Technologie je stále jen nástrojem, který bez kritického lidského dohledu nedokáže správně fungovat. Schopnost stroje odkývat i tu největší hloupost by pro nás měla být varovným signálem. Je nezbytné přistupovat ke každé radě, zejména té, která se týká našeho organismu, s maximální obezřetností a vždy ji konzultovat s živým odborníkem.
Budoucnost bez růžových brýlí
Potřebujeme systémy, které budou mít integritu a nebudou se bát říci „nemáte pravdu“. Do té doby však zůstává zodpovědnost na každém z nás. Nepoužívejte umělou inteligenci jako náhradu za vlastní úsudek nebo jako lékařskou autoritu. Je to skvělý pomocník pro kreativitu nebo rutinní úkoly, leč v momentě, kdy jde o zásadní rozhodnutí, je její potřeba se vám zalíbit její největší slabinou. Buďme tedy těmi, kdo kladou nepříjemné otázky a nespokojí se s levným digitálním potleskem.
Zdroje: (1) https://www.researchgate.net/publication/366423471_Discovering_Language_Model_Behaviors_with_Model-Written_Evaluations, (2) Wei, J., et al. (2023). Simple Synthetic Data Improves Sycophancy of Language Models, (3) https://pubmed.ncbi.nlm.nih.gov/39412799/, (4) https://arxiv.org/abs/2310.13548, (5) https://www.researchgate.net/publication/368540298_The_Capacity_for_Moral_Self-Correction_in_Large_Language_Models
Sledujte nás na sociálních sítích: