Wikipedija je nedavno odustala od planiranog testiranja funkcije automatskog generisanja sažetaka pomoću veštačke inteligencije, koja je trebala da bude dostupna korisnicima mobilne verzije sajta. Wikimedia fondacija je na početku meseca najavila da će ovaj test biti sproveden među 10% korisnika mobilne platforme. Međutim, odluka je naišla na oštre kritike od strane urednika Wikipedije i brzo je povučena zbog negativnih reakcija zajednice.
Jedan od dugogodišnjih urednika izrazio je zabrinutost, navodeći: „To što je Google pokrenuo svoje AI sažetke ne znači da mi treba da pokušamo da ih nadmašimo. Molim vas da ne testirate ovu funkciju ni na mobilnoj verziji, ni bilo gde drugde. Takav potez bi odmah i trajno narušio ugled Wikipedije kao pouzdanog izvora informacija.“ Urednici su kritikovali ne samo samu ideju, već i način na koji je odluka doneta, ističući da nije bilo dovoljno uključivanja zajednice u proces donošenja odluka.
Jedan korisnik je ukazao na to da je jedina „diskusija“ o ovoj temi uključivala komentar samo jednog učesnika, zaposlenog u Wikimedia fondaciji, koji je i započeo temu. Ova situacija je dodatno pojačala osećaj nezadovoljstva među urednicima, koji smatraju da bi takve odluke trebalo doneti uz širu konsultaciju i uključivanje svih relevantnih članova zajednice.
Prema izjavama iz Wikimedia fondacije, cilj testiranja bio je istraživanje načina na koje bi Wikipedija i srodni projekti mogli postati dostupniji i korisniji čitaocima širom sveta. U testiranju je korišćen Aya model otvorenog koda, razvijen od strane kompanije Cohere. Ovaj model je trebao da pomogne u oceni interesovanja korisnika i razmatranju kako bi kontrola kvaliteta mogla da funkcioniše u budućnosti, uz zadržavanje ljudskog faktora kao glavnog autoriteta u prikazu informacija.
Vodeći se ovim ciljevima, Wikimedia fondacija je želela da poveća efikasnost i korisnost Wikipedije, ali je na kraju naišla na otpor uredničke zajednice. Urednici su izrazili strah da bi upotreba veštačke inteligencije za generisanje sadržaja mogla dovesti do smanjenja kvaliteta informacija i narušavanja poverenja korisnika u enciklopediju.
Wikipedija se od svog osnivanja oslanja na zajednicu volontera koji uređuju i dopunjuju sadržaj, a mnogi urednici veruju da je ljudski faktor ključan za održavanje visoke tačnosti i relevantnosti informacija. Kritike su se fokusirale na to da bi automatski generisani sažeci mogli rezultirati nepreciznostima i netačnim informacijama, što bi moglo ugroziti reputaciju Wikipedije kao pouzdanog resursa.
U svetlu ovih događaja, Wikimedia fondacija se suočava s izazovom da pronađe ravnotežu između inovacija i očuvanja kvaliteta sadržaja. Dok tehnologija i veštačka inteligencija nastavljaju da napreduju, važno je da se osigura da se promene sprovode na način koji neće ugroziti osnovne vrednosti koje Wikipedija predstavlja. Urednici su pozvali na otvoreniju komunikaciju i uključivanje zajednice u buduće odluke vezane za implementaciju novih tehnologija.
Kao zaključak, odluka Wikimedia fondacije da odustane od testiranja automatskih sažetaka pokazuje koliko je važno slušati zajednicu i uzeti u obzir njene zabrinutosti. U vreme kada tehnologija brzo napreduje, očuvanje kvaliteta i pouzdanosti informacija ostaje prioritet za Wikipediju, čime se nastavlja tradicija saradnje i zajedničkog rada na stvaranju slobodnog i dostupnog znanja za sve.