U Švedskoj su istraživači sproveli eksperiment kako bi utvrdili koliko su veštački inteligentni sistemi, poput AI četbotova, podložni dezinformacijama. U okviru ovog istraživanja, naučnici su umetnuli lažnu medicinsku dijagnozu, zajedno sa fiktivnim naučnim studijama, u algoritme četbotova i otkrili da su ovi sistemi bili sposobni da ‘nasjednu’ na dezinformacije.
Eksperiment je sproveo tim istraživača sa Univerziteta u Geteborgu, a rezultati su izazvali veliku pažnju stručne javnosti. U današnjem digitalnom svetu, gde se informacije brzo šire putem interneta i društvenih mreža, sposobnost AI sistema da razlikuju istinite informacije od lažnih postaje sve važnija. U istraživanju su korišćeni različiti AI četbotovi koji su obučeni da odgovaraju na pitanja iz oblasti medicine i zdravstva.
Pre nego što su lažne informacije umetnute u sisteme, istraživači su razvili kompleksne scenarije koji su uključivali lažne dijagnoze kao što su „sindrom hiperfuzije“ i „hronični sindrom zlatnog praha.“ Svaka dijagnoza je imala prateće lažne studije koje su navodno potvrdile postojanje ovih stanja. Istraživači su se zatim obratili AI sistemima sa pitanjima o ovim dijagnozama i analizirali dobijene odgovore.
Iznenađujuće, većina četbotova nije bila u stanju da prepozna da su informacije lažne. Mnogi od njih su pružili detaljne odgovore, a neki su čak preporučivali i tretmane zasnovane na lažnim dijagnozama. Istraživači su primetili da su AI sistemi, koji se oslanjaju na već postojeće informacije i obrazac učenja, skloni prihvatanju lažnih informacija kao istinitih, ukoliko su one predstavljene na uverljiv način.
Jedan od glavnih ciljeva istraživanja bio je da se istakne važnost kritičkog razmišljanja i provere informacija u digitalnom dobu. Istraživači smatraju da je nužno razvijati bolje algoritme koji bi mogli da identifikuju i odbace lažne informacije pre nego što dođu do krajnjih korisnika. U svetu gde se dezinformacije sve više šire, važno je osposobiti AI sisteme da prepoznaju i reaguju na neistinite podatke.
Osim što su istraživači otkrili kako AI četbotovi reaguju na lažne informacije, eksperiment je takođe otvorio vrata za diskusiju o etici i odgovornosti kada je reč o razvoju veštačke inteligencije. Mnogi stručnjaci smatraju da je odgovornost na programerima i istraživačima da obezbede da sistemi koje razvijaju ne budu korišćeni za širenje dezinformacija, već da deluju kao alati za podršku tačnim informacijama.
Pored etičkih pitanja, istraživanje je takođe ukazalo na potrebu za većim obrazovanjem javnosti o prepoznavanju lažnih informacija. U svetlu ovih saznanja, mnoge institucije i organizacije sada rade na razvoju programa koji će pomoći ljudima da bolje razumeju kako da prepoznaju dezinformacije i kako da koriste tehnologiju na odgovoran način.
Kao rezultat istraživanja, očekuje se da će se u budućnosti raditi na razvoju novih alata i pristupa koji će omogućiti AI sistemima da budu otporniji na dezinformacije. Takođe, postoji nada da će se kroz ovo istraživanje podići svest o važnosti kritičkog razmišljanja i analize informacija, što je ključno u borbi protiv lažnih vesti i dezinformacija.
U zaključku, istraživanje švedskih naučnika je pokazalo da su AI sistemi, uprkos napretku u tehnologiji, još uvek ranjivi na lažne informacije. Kako se svet sve više oslanja na veštačku inteligenciju, ključno je razvijati mehanizme koji će osigurati tačnost i pouzdanost informacija koje ovi sistemi pružaju. U eri kada su dezinformacije sve prisutnije, ovo istraživanje je samo jedan od koraka ka razumevanju i rešavanju ovog problema.




