Talijanska vladina agencija za zaštitu podataka objavila je da će bot za umjetnu inteligenciju ChatGPT biti zabranjen u zemlji dok ne bude u skladu s propisima o privatnosti podataka.
Talijanski nadzornik za zaštitu podataka objavio je u petak da će OpenAI, tehnološka tvrtka iz Silicijske doline koja stoji iza softverske aplikacije ChatGPT koja se koristi za simulaciju i obradu ljudskih razgovora, biti privremeno zabranjena zbog pristupa talijanskim korisničkim podacima putem kojih razvija svoje algoritme i strojno učenje.
Regulator je dalje rekao da je otvorio istragu kao odgovor na navodnu povredu podataka “u vezi s razgovorima korisnika i informacijama o plaćanju pretplatnika plaćenih usluga”.
Nadzornik za privatnost optužio je OpenAI za nedostatak transparentnosti za svoje korisnike i druge dionike u pogledu prikupljanja podataka i ustvrdio da ne postoji pravno opravdanje za to da program crpi ogromne količine podataka s interneta kako bi se njegov algoritam mogao uvježbati da oponaša ljudske odgovore na upite.
Osim toga, talijanski regulatori rekli su da je tehnološka tvrtka prekršila uvjete usluge ChatGPT-a jer, iako je usluga namijenjena osobama starijim od 13 godina, ne postoje filtri za provjeru dobi koji bi spriječili malu djecu da pristupe programu.
ChatGPT pruža “apsolutno neprikladne odgovore u smislu njihove razine razvoja i samosvijesti”, rekao je nadzornik privatnosti o djeci koja koriste AI bot.
Regulator privatnosti nastavio je zahtijevati da OpenAI “u roku od 20 dana obavijesti o poduzetim mjerama” kako bi se pridržavao ili riskirao kaznu od 20 milijuna eura ili 4 posto svog globalnog prometa.
Potez talijanske vlade dolazi samo nekoliko dana nakon izvješća Agencije Europske unije za suradnju u provođenju zakona (Europol) koje upozorava na potencijalnu kriminalnu upotrebu aplikacija umjetne inteligencije.
Europa je upozorila da bi ChatGPT mogao biti potencijalno blago za prevarante, rekavši: “Sposobnost ChatGPT-a da proizvede vrlo realističan tekst čini ga korisnim alatom za phishing svrhe. Sposobnost LLM-a da reproduciraju jezične obrasce može se koristiti za oponašanje stila govora određenih pojedinaca ili skupina. Ta se sposobnost može zloupotrijebiti u velikim razmjerima kako bi se potencijalne žrtve dovele u zabludu da povjere svoje povjerenje u ruke kriminalnih aktera.”
Agencija Europske unije za provođenje zakona nadalje je upozorila da je njegova sposobnost da proizvede “autentičan audio tekst brzinom i glasnoćom” također idealna za širenje propagande i dezinformacija.



