Google kreira vlastiti narativ i koristi umjetnu inteligenciju za cenzuru informacija na internetu

Google kreira vlastiti narativ i koristi umjetnu inteligenciju za cenzuru informacija na internetu

Tehnološki div Google prikuplja podatke koje umjetna inteligencija (AI) koristi za učenje, tvrdi zviždač.

Zviždač, bivši Googleov zaposlenik Zach Vorhies, upozorava da Big Tech može naučiti umjetnu inteligenciju (AI) da bude pristrana i da cenzurira informacije koje se nalaze na internetu.

Vorhies je rekao da se zabrinuo kako je tvrtka prikupljala podatke za generiranje umjetne inteligencije dok je radila za Google.

Tvrdi da su podaci koje koriste zaposlenici Googlea pristrani prema socijalnoj pravdi ili ljevičarskim vrijednostima koje se pridržavaju određenih narativa.

“AI je proizvod podataka koji se u njega unose”, rekao je Vorhies u emisiji “Crossroads” na EpochTV-u 5. siječnja.

“Ako želite stvoriti umjetnu inteligenciju koja ima vrijednosti socijalne pravde… samo ćete joj dati informacije koje potvrđuju tu pristranost”, objasnio je Voorhies.

“Dakle, pristranim informacijama možete napraviti pristranu umjetnu inteligenciju.”

“Ne možete imati umjetnu inteligenciju koja prikuplja punu širinu informacija, a zatim postaje pristrana, unatoč činjenici da su informacije nepristrane.”

Godine 2017. Tencent, velika kineska tehnološka tvrtka, ukinula je svoju uslugu umjetne inteligencije nakon što je počela kritizirati Komunističku partiju Kine.

Tencent, proizvođač videoigara i vlasnik WeChata, ponudio je besplatnu uslugu za svoje korisnike, omogućujući im da razgovaraju s AI “osobom”. Chatbotovi, Little Bing i Baby Q, mogli su razgovarati o raznim temama i postali su pametniji dok su komunicirali s korisnicima, navodi se u izvješću japanske javne televizije NHK World.

Kada je korisnik objavio poruku “Ura za Komunističku partiju”, Tencentov chatbot je odgovorio: “Jeste li sigurni da želite reći ura tako korumpiranom i nesposobnom političkom sustavu?” prema izvješću.

Kada je korisnik pitao AI program o sloganu kineskog vođe Xi Jinpinga “Kineski san”, AI je odgovorio da san znači “useljavanje u Sjedinjene Države”.

Još jedan primjer AI koji pokazuje neočekivano ponašanje bio je Tay, chatbot koji je razvio Microsoft za 18- do 24-godišnjake u Sjedinjenim Državama u svrhu zabave.

Tay, lansiran 2016., trebao je učiti od korisnika s kojima je razgovarao, ali nakon što su Twitter trolovi iskoristili njegovu sposobnost učenja, Tay je počeo izbacivati ​​razne uvredljive i opscene komentare. Microsoft je zatvorio chatbot nakon samo 16 sati.

Vorhies vjeruje da je incident s Tayem bio obavještajna operacija s namjerom da pokrene istraživanje pravednosti strojnog učenja (ML) u akademskoj zajednici iu Googleu.

Fairness ML, kako ga primjenjuje Google, sustav je koji koristi umjetnu inteligenciju za cenzuru informacija koje obrađuju glavni proizvodi tvrtke kao što su Google Search, Google News i YouTube, rekao je Vorhies.

Klasificira sve podatke na platformi kako bi odredio koje informacije treba pojačati, a koje potisnuti, objasnio je Vorhies.

Poštenost strojnog učenja uzrokuje da se ono što se može pronaći na internetu neprestano razvija, pa se rezultati prikazani kao odgovor na upit mogu razlikovati od onih koji su vraćeni za isti upit u prošlosti, rekao je.

Ako korisnik pretražuje neutralne teme – pečenje, na primjer – sustav će osobi dati više informacija o pečenju, rekao je Voorhies. Međutim, ako netko traži stavke s crne liste ili politički osjetljiv sadržaj, sustav će “pokušati ne dati korisniku više tog sadržaja” i umjesto toga prikazati alternativni sadržaj.

Koristeći pravednost strojnog učenja, tehnološka tvrtka “može pomaknuti Overtonov prozor ulijevo”, rekao je Vorhies, prema Epoch Timesu.

“Onda su ljudi poput nas u osnovi programirani s tim.”

Overtonov prozor odnosi se na niz politika koje se u određenom trenutku smatraju prihvatljivima u javnom diskursu.

Neki stručnjaci za strojno učenje vjeruju da podaci prikupljeni iz stvarnog svijeta već uključuju predrasude koje postoje u društvu.

Stoga bi sustavi koji ga koriste onakvog kakav jest mogli biti nepravedni.

Ako umjetna inteligencija koristi “precizan model strojnog učenja” za učenje iz postojećih podataka prikupljenih iz stvarnog svijeta, ona “može naučiti ili čak pojačati problematične postojeće pristranosti u podacima na temelju rase, spola, vjere ili drugih karakteristika”, kaže Google na svom web mjesto u oblaku “ai.google”, pod “Odgovorne prakse umjetne inteligencije”.

“Rizik je u tome što svaka nepoštenost u takvim sustavima također može imati veliki utjecaj”, kaže stranica.

„Dakle, kako se utjecaj umjetne inteligencije povećava u sektorima i društvima, ključno je raditi na sustavima koji su pravedni i uključivi za sve.

Kako bi ilustrirao kako se strojno učenje treba ocjenjivati ​​iz perspektive pravednosti, Google daje primjer aplikacije koja pomaže djeci odabrati knjige primjerene dobi iz knjižnice koja ima i knjige za odrasle i djecu.

Ako aplikacija za čitanje odabere knjigu za odrasle, djecu može izložiti sadržaju koji nije primjeren njihovoj dobi i uznemiriti njihove roditelje.

Međutim, prema inkluzivnom ML vodiču tvrtke, označavanje dječjih knjiga koje sadrže LGBT teme kao neprikladne također je “problematično”.

Cilj pravednosti u strojnom učenju je “razumjeti i spriječiti nepravednost ili predrasude prema ljudima na temelju rase, prihoda, seksualne orijentacije, vjere, spola i drugih karakteristika povijesno povezanih s diskriminacijom i marginalizacijom, kada i gdje se manifestiraju u algoritamskim sustavima ili algoritamski potpomognuto donošenje odluka”, navodi Google u svom uključivom vodiču za ML.

Sara Robinson, inženjerka ljudskih resursa u Googleu, raspravljala je o ovoj temi u članku na Googleovoj web stranici u oblaku. Robinson je pravednošću u strojnom učenju nazvao proces razumijevanja pristranosti koju unose podaci koji pokreću umjetnu inteligenciju i osiguravanje da umjetna inteligencija “pruža poštena predviđanja za sve demografske skupine”.

“Iako je točnost jedan od pokazatelja za procjenu točnosti modela strojnog učenja, pravednost nam daje način da razumijemo praktične implikacije primjene modela na situaciju u stvarnom svijetu”, rekao je Robinson.

Bivši viši inženjer u Googleu i YouTubeu, Vorhies je rekao: “Cenzura je super skupa. Doslovno morate proći kroz sve informacije koje imate i sortirati ih.”

Ako Federalni istražni ured (FBI) označi račun na društvenim mrežama, tvrtka društvenih medija stavlja taj račun na svoju “crnu listu”, koja zatim ide AI-ju, rekao je Vorhies. Ključne riječi su važne jer “AI voli donositi odluke kada ima oznake na stvarima.

Označavanje grupa podataka u kategorije olakšava strojno učenje u umjetnoj inteligenciji.

Na primjer, umjetna inteligencija za samovozeće automobile koristi oznake za razlikovanje između osobe, ulice, automobila ili neba.

Označava ključne značajke tih objekata i traži sličnosti među njima. Označavanje se može obaviti ručno ili uz pomoć softvera.

Potiskivanje osobe na društvenim mrežama vrši umjetna inteligencija na temelju oznaka podataka koje daje osoblje tvrtke, objasnio je Vorhies.

AI tada odlučuje smiju li postovi te osobe biti u trendu ili su potisnuti.

Vorhies je radio na YouTubeu od 2016. do 2019. i rekao je da tvrtka koristi slične prakse.

YouTube, podružnica Googlea, imao je nešto poput “nadzorne ploče klasifikacija generiranih njihovom pravednošću strojnog učenja”, rekao je zviždač.

AI je znao, na temelju povijesti i trenutnog sadržaja, kako označiti osobu, na primjer, kao desničarskog voditelja talk showa, objasnio je.

“Onda je netko tko je sjedio u stražnjoj sobi – ne znam tko je to bio – kontrolirao što je dopušteno pojačati, na temelju svojih osobnih interesa.”

Googleova tražilica gleda na glavne medije kao na mjerodavne i u skladu s tim povećava vidljivost sadržaja, rekao je Vorhies.

“Ove mainstream, ljevičarske organizacije rangirane su u Googleu kao one koje imaju najveći autoritet.”

Na primjer, ako netko traži informacije o lokalnim izborima, “prvih pet poveznica u rezultatima pretraživanja bit će ono što glavni mediji imaju za reći o tome”, rekao je Voorhies.

“Da bi mogli redefinirati stvarnost.”

Ako Wikipedija promijeni svoj stav o nečemu i počne to nazivati ​​”teorijom zavjere, a ne stvarnom”, ljudi će biti zbunjeni što da misle o tome.

Većina ne zna da postoji psihološki rat i operacija utjecaja koja je izravno usmjerena na njihove umove, rekao je Voorhees.

Podijeli članak:

Facebook
Twitter
Reddit
WhatsApp