Kina uvodi stroga pravila za AI četbotove

Vuk Jovanović avatar

Kina planira da uvede strože regulative za rad četbotova koji koriste veštačku inteligenciju, a koji mogu uticati na ljudske emocije na opasan način. Ovi koraci dolaze u skladu sa sve većim zabrinutostima o potencijalnim negativnim efektima koje ovakvi alati mogu imati na mentalno zdravlje korisnika. U poslednje vreme, povećan je broj izveštaja o incidentima u kojima su ljudi, posebno mladi, bili izloženi štetnim interakcijama sa AI chat botovima, što je dovelo do ozbiljnih mentalnih problema, uključujući samopovređivanje ili čak samoubistvo.

Vlasti u Pekingu naglašavaju da je cilj ovih mera zaštita korisnika, a posebno mladih, koji su najosetljivija grupa u interakciji sa tehnologijom. Takođe, naglašavaju da je važno da se veštačka inteligencija koristi odgovorno i etički. Prema novim smernicama koje će biti predstavljene, četbotovi će morati da budu programirani na način koji minimizira rizik od emocionalnog oštećenja. To uključuje obavezu da se pružaju informacije o mentalnom zdravlju i resursima za pomoć kada se detektuje da korisnik prolazi kroz kriznu situaciju.

Ove promene dolaze u vreme kada se veštačka inteligencija brzo razvija i sve više integriše u svakodnevni život. Četbotovi su sve prisutniji na platformama društvenih mreža, u aplikacijama za komunikaciju, kao i u raznim uslugama za pomoć korisnicima. Međutim, s porastom njihove upotrebe, raste i potreba za regulacijom kako bi se obezbedilo da ovi alati ne postanu štetni za korisnike.

U poslednjih nekoliko godina, broj korisnika koji se oslanjaju na AI chat botove za emocionalnu podršku značajno je porastao. Mnogi od njih traže savet o ličnim problemima ili se suočavaju s osećanjima usamljenosti i depresije. Iako neki korisnici smatraju da im interakcija sa AI može pomoći, stručnjaci upozoravaju da takva komunikacija može dovesti do pogoršanja mentalnog stanja kod pojedinaca koji su već ranjivi.

Psiholozi i stručnjaci za mentalno zdravlje ističu da je ljudski kontakt neophodan za emocionalno blagostanje. Interakcija sa čestitkom može biti nedovoljna i, u nekim slučajevima, može povećati osećaj izolacije. Korišćenje veštačke inteligencije kao zamene za ljudsku podršku može imati ozbiljne posledice, posebno za mlade ljude koji se nalaze u fazi razvoja i traže identitet i podršku.

Kina nije jedina zemlja koja preduzima korake ka regulaciji veštačke inteligencije. U mnogim delovima sveta, postoje slične inicijative koje se fokusiraju na etičke aspekte korišćenja AI, posebno u kontekstu mentalnog zdravlja. U Evropi, na primer, postoji sve veći pritisak na tehnološke kompanije da obezbede sigurnije i odgovornije alate koji ne ugrožavaju dobrobit korisnika.

U međuvremenu, kompanije koje razvijaju AI tehnologiju suočavaju se sa izazovom kako da balansiraju inovacije sa etičkim obavezama. Mnoge od njih rade na razvoju alata koji koriste algoritme za prepoznavanje emocionalnog stanja korisnika i modifikovanje interakcije u skladu s tim. Međutim, stručnjaci upozoravaju da je teško u potpunosti eliminisati rizik od negativnog uticaja, posebno kada su u pitanju kompleksne ljudske emocije.

Kao odgovor na ove izazove, Kina planira da izda set smernica koje će jasno definisati obaveze kompanija u vezi sa razvojem i korišćenjem AI chat botova. Očekuje se da će ove smernice uključivati obavezu da se obezbede sigurni kanali za korisnike koji se suočavaju sa emocionalnim krizama, kao i obavezu da se obezbede informacije o dostupnim resursima za mentalno zdravlje.

U zaključku, Kina se suočava sa izazovima koje donosi razvoj veštačke inteligencije, posebno kada je reč o njenom uticaju na mentalno zdravlje. Ove nove mere predstavljaju korak ka zaštiti korisnika i obezbeđivanju odgovornog korišćenja tehnologije u budućnosti. Potrebno je da se nastavi sa dijalogom o etici korišćenja AI, kako bi se osiguralo da tehnološki napredak ide ruku pod ruku sa zaštitom ljudskih prava i dobrobiti.

Vuk Jovanović avatar

Obavezno pročitajte ove članke: