Italija blokira ChatGPT umjetnu inteligenciju zbog sigurnosti korisničkih podataka

Italija blokira ChatGPT umjetnu inteligenciju zbog sigurnosti korisničkih podataka

Talijanska vladina agencija za zaštitu podataka objavila je da će bot za umjetnu inteligenciju ChatGPT biti zabranjen u zemlji dok ne bude u skladu s propisima o privatnosti podataka.

Talijanski nadzornik za zaštitu podataka objavio je u petak da će OpenAI, tehnološka tvrtka iz Silicijske doline koja stoji iza softverske aplikacije ChatGPT koja se koristi za simulaciju i obradu ljudskih razgovora, biti privremeno zabranjena zbog pristupa talijanskim korisničkim podacima putem kojih razvija svoje algoritme i strojno učenje.

Regulator je dalje rekao da je otvorio istragu kao odgovor na navodnu povredu podataka “u vezi s razgovorima korisnika i informacijama o plaćanju pretplatnika plaćenih usluga”.

Nadzornik za privatnost optužio je OpenAI za nedostatak transparentnosti za svoje korisnike i druge dionike u pogledu prikupljanja podataka i ustvrdio da ne postoji pravno opravdanje za to da program crpi ogromne količine podataka s interneta kako bi se njegov algoritam mogao uvježbati da oponaša ljudske odgovore na upite.

Osim toga, talijanski regulatori rekli su da je tehnološka tvrtka prekršila uvjete usluge ChatGPT-a jer, iako je usluga namijenjena osobama starijim od 13 godina, ne postoje filtri za provjeru dobi koji bi spriječili malu djecu da pristupe programu.

ChatGPT pruža “apsolutno neprikladne odgovore u smislu njihove razine razvoja i samosvijesti”, rekao je nadzornik privatnosti o djeci koja koriste AI bot.

Regulator privatnosti nastavio je zahtijevati da OpenAI “u roku od 20 dana obavijesti o poduzetim mjerama” kako bi se pridržavao ili riskirao kaznu od 20 milijuna eura ili 4 posto svog globalnog prometa.

Potez talijanske vlade dolazi samo nekoliko dana nakon izvješća Agencije Europske unije za suradnju u provođenju zakona (Europol) koje upozorava na potencijalnu kriminalnu upotrebu aplikacija umjetne inteligencije.

Europa je upozorila da bi ChatGPT mogao biti potencijalno blago za prevarante, rekavši: “Sposobnost ChatGPT-a da proizvede vrlo realističan tekst čini ga korisnim alatom za phishing svrhe. Sposobnost LLM-a da reproduciraju jezične obrasce može se koristiti za oponašanje stila govora određenih pojedinaca ili skupina. Ta se sposobnost može zloupotrijebiti u velikim razmjerima kako bi se potencijalne žrtve dovele u zabludu da povjere svoje povjerenje u ruke kriminalnih aktera.”

Agencija Europske unije za provođenje zakona nadalje je upozorila da je njegova sposobnost da proizvede “autentičan audio tekst brzinom i glasnoćom” također idealna za širenje propagande i dezinformacija.

Podijeli članak:

Facebook
Twitter
Reddit
WhatsApp