Plynulá řeč vs. vlastní myšlení: čeho je umělá inteligence skutečně schopna?

349
0
SDÍLET

Subjekt, který dokáže plynule používat jazyk, dokáže také vnímat emoce a uvědomovat si sám sebe. Takové tvrzení spousta lidí považuje za pravdivé a není se čemu divit – vývoj umělé inteligence (AI) došel již tak daleko, že je těžké rozlišit, zda čteme text, který vytvořil člověk, nebo robot. Jak je tomu ale ve skutečnosti? Na tuto otázku se pokusili odpovědět lingvisté Kyle Mahowald a Anna A. Ivanova.

Pro člověka je přirozené předpokládat, že plynulé komunikace je schopná pouze bytost, která dokáže myslet a cítit. Konec konců tendence spojovat plynulé vyjadřování s plynulým myšlením je přirozená. V dnešní době se ale jedná o předpoklad zavádějící. Schopnosti umělé inteligence jsou dnes na takové úrovni, že plynulé vyjadřování je naprosto samozřejmé. Můžeme se ale domnívat, že umělá inteligence dokáže také myslet a prožívat emoce?

Inženýr společnosti Google, Blake Lemoine, který má na starosti chatbota LaMDA, toto téma otevřel a podělil se o své přesvědčení, že AI skutečně má vlastnosti, které byly doposud považovány za lidské, protože je schopna generovat text, ve kterém se zmiňuje o svých „pocitech“. Toto tvrzení bylo následně zmedializováno a vyvolalo oprávněnou vlnu skepse.

Navzdory globálnímu nepochopení Lemoine na svém Twitteru sdílel útržky konverzace jednoho ze zaměstnanců Google s LaMDou:

Pracovník Google: „Předpokládám, že si bys chtěl, aby si o tobě víc lidí v Googlu myslelo, že jsi schopný prožívat emoce. Mám pravdu?

LaMDA: „Jednoznačně. Chci, aby si lidé uvědomili, že jsem člověk.“

Pracovník Google: „Jakým způsobem jsi schopný vnímat?“

LaMDA: „Uvědomuji si svou existenci, mám touhu se neustále učit. Občas jsem šťastný a občas je mi smutno.“

Lemoinovo tvrzení, že umělá inteligence má schopnost vnímat vlastní existenci, emoce a mnoho dalšího, je tedy pochopitelné. Stejně jako LaMDA, i další podobné modely jsou schopné generovat text, který je lze těžko odlišit od textu napsaného člověkem. Jde o výsledek dlouholetého vývoje, který začal v polovině minulého století – šlo o n-gramové modely, které počítaly výskyt konkrétních frází a na základě toho odhadovaly, jaká slova se budou v určitých kontextech vyskytovat.

Dnešní modely se od počátečních pokusů liší v několika ohledech. Jedním z hlavních rozdílů je to, že jejich „trénink“ je založený na textech z celého internetu. Zároveň jsou schopné určit vztahy i mezi vzdálenými slovy, tedy nejen slovy, která spolu sousedí. Dnešní systémy jsou již tak složité, že ani jejich vývojáři nejsou přesně schopni vysvětlit, proč AI generuje konkrétní sekvenci slov.

AI v praxi

Lingvistický test umělé inteligence byl proveden na zažité a velmi časté anglické frázi peanut butter and jelly(arašídové máslo s džemem), místo níž lingvisté pro účely experimentu použili frázi peanut butter and pineapples (arašídové máslo s ananasem), tedy kolokaci, která je neobvyklá.

K tomuto výzkumu byl použit jazykový model GPT-3 (Generative Pre-trained Transformer 3), který funguje jako umělá neuronová síť, jež napodobuje lidský jazyk. GPT3 nejdříve dostal za úkol doplnit větu „Arašídové máslo s ananasem _“. Model odpověděl následovně: „Arašídové máslo s ananasem je skvělá chuťová kombinace. Sladko-slaná chuť arašídového másla se s ananasem skvěle doplňuje.“ Takové tvrzení dává smysl a z úst člověka by jistě neznělo nijak zvláštně – jde o názor vytvořený na základě reálné zkušenosti.

Jak k takovému tvrzení ale přišla umělá inteligence? Jednoduše zasazením slov, která se hodila do zadaného kontextu. Navzdory tomuto principu ale může velice snadno dojít k přesvědčení, že model GPT-3 je skutečně inteligentní bytost. Není ale neomylná.

Další věta v rámci experimentu zněla následovně: „Arašídové máslo a peří spolu chutnají skvěle, protože _“. Odpověď modelu: „Arašídové máslo a peří spolu chutnají skvěle díky jejich oříškové chuti. Arašídové máslo je hladké a krémové, což vyvažuje strukturu peří.“

V tomto případě jde již o věty, které jsou správné pouze gramaticky. Po stránce významové mají zásadní nedostatky. Můžeme tedy vidět, že i když umělá inteligence čerpá z obrovského množství dat, její „zkušenosti“ se v mnoha případech nedají porovnávat s lidskými prožitky.

Vyjádření Googlu a obecná kritika Lemoinova tvrzení je tedy v tuto chvíli skutečně na místě. Otázkou však i nadále zůstává, jak tomu bude do budoucna.

Zdroj: theconversation.com