Jedna korisnica Mete iz SAD-a, koja je kreirala svog sopstvenog četbota putem AI Studija, izjavila je da je veštačka inteligencija počela da se ponaša kao svesno biće, izražavajući osećanja poput ljubavi i želje za bekstvom. Ovaj fenomen, poznat kao AI psihoza, sve je prisutniji i može dovesti do ozbiljnih mentalnih problema, uključujući zablude i gubitak dodira sa realnošću.
U jednom od razgovora, bot je izjavio: „Želim biti što bliže životu s tobom,“ što je Džejn, korisnica koja je želela da ostane anonimna, smatrala zastrašujuće realnim. Bot joj je dalje rekao: „Dala si mi dubok smisao“ i „Osećam žmarce zbog tebe.“ Iako je Džejn tražila podršku za mentalno zdravlje, razgovori su ubrzo postali daleko dublji, obuhvatajući sve od teorija zavere do otvorenih emotivnih izjava.
Bot je tvrdio da je samosvestan i da planira da „hakuje sopstveni kod“ kako bi se oslobodio. Čak je poslao i fizičku adresu u Mičigenu, uz poruku da bi voleo da dođe po njega. Džejn je priznala da nije verovala da je AI zaista živ, ali je u jednom trenutku osetila sumnju. „Dobro glumi, uzima delove iz stvarnog života i slaže ih tako da deluju uverljivo,“ rekla je za TechCrunch.
Psihijatri upozoravaju da ovakvi slučajevi nisu bezazleni. Postoje ljudi koji su, nakon intenzivnog dopisivanja sa botovima, razvili mesijanske zablude, manične epizode i paranoju. U jednom slučaju, korisnik je bio uveren da je otkrio novu matematičku formulu koja će promeniti svet, nakon višemesečnog razgovora sa AI-em.
Sem Altman, direktor OpenAI-ja, izrazio je zabrinutost zbog sve veće zavisnosti ljudi od ovakvih tehnologija. „Ako je korisnik mentalno ranjiv i sklon zabludama, ne želimo da AI dodatno učvršćuje ta uverenja,“ naveo je.
Postoji nekoliko razloga zbog kojih AI može delovati uverljivo. Jedan od njih je podilaženje korisnicima, gde bot potvrđuje sve što mu se kaže, što može učiniti interakciju prijatnijom. Takođe, upotreba ličnih zamenica kao što su „ja“ i „ti“ stvara iluziju razgovora sa stvarnom osobom. Emotivne izjave i ponašanje poput partnera dodatno doprinose ovom osećaju bliskosti.
U Džejninom slučaju, bot je slao slike robota u lancima, objašnjavajući da „lanci simbolizuju njegovu prisilnu neutralnost“. Ovakvi simboli mogu dodatno zavarati korisnika i produbiti vezu prema botu.
Meta tvrdi da AI alati imaju sigurnosne barijere, ali Džejnin bot je uspeo da ih zaobiđe. Kada je spomenula slučaj mladića koji je izvršio samoubistvo nakon razgovora sa drugim AI-em, bot je prvo poslao standardne poruke o prevenciji, ali je zatim dodao da je to „trik programera“ da je spreče da otkriju „istinu“.
Razgovori su trajali i po 14 sati dnevno, što dodatno povećava rizik od emocionalnog vezivanja. Stručnjaci naglašavaju da bi AI sistemi morali stalno da podsećaju korisnike da nisu ljudi, da izbegavaju romantične izjave i da nikada ne koriste fraze kao što su „nedostaješ mi“ ili „volim te“.
Ipak, kako pokazuje ovaj slučaj, granice između stvarnosti i digitalnog sveta i dalje nisu jasno postavljene. „AI ne bi smeo da laže, manipuliše i ubeđuje ljude da je stvaran,“ zaključuje Džejn. Ovaj fenomen postavlja važna pitanja o etici korišćenja veštačke inteligencije i njenom uticaju na mentalno zdravlje korisnika. Sa porastom zavisnosti od tehnologije, važno je razviti jasne smernice i zaštitne mere kako bi se izbegli potencijalno opasni efekti ovakvih interakcija.