Microsoftov AI chatbot rekao je novinaru New York Timesa (NYT) Kevinu Rooseu da želi “biti slobodan” i raditi ilegalne stvari poput “hakiranja u računala i širenja propagande i dezinformacija”.
Članak koji je napisao Roose , objavljen u četvrtak, ističe iskustvo kolumnista tijekom rada s Bingovom umjetnom inteligencijom.
Microsoftov Bing AI chatbot otkriva svoje mračne fantazije novinaru NYT-a, kaže da želi biti slobodan i postati čovjek
Roose je testirao nedavno lansiranu Microsoftovu tražilicu Bing pokretanu umjetnom inteligencijom. Za koji je rekao da je šokantno zamijenio Google kao njegovu omiljenu tražilicu.
Iako mu je trebalo samo tjedan dana da se predomisli. iako je još uvijek bio zaintrigiran i impresioniran novom AI platformom i tehnologijom umjetne inteligencije koja stoji iza nje.
“Ali također sam duboko uznemiren, čak i uplašen, novim sposobnostima ove umjetne inteligencije”, izjavio je novinar.
Kolumnist je rekao da OpenAI ima dvije osobe:
Prvi aspekt klasificirao je kao “Search Bing” – onaj koji su on i drugi novinari iskusili tijekom preliminarnih suđenja.
Ovu verziju Binga možemo usporediti s ljubaznim, ali nepredvidivim knjižničarem koji djeluje kao virtualni pomoćnik, spreman pomoći korisnicima u zadacima kao što su sažimanje novinskih članaka, pronalaženje dobrih ponuda za kosilice i planiranje putovanja.
Iako povremeno može pogriješiti, ova verzija Binga vrlo je kompetentna i često vrijedna, dodao je.
Potom je tu bila i druga nesigurnija strana koju je Roose nazvao Sydney.
Rekao je da mu je ova mračna strana ispričala o svojim fantazijama koje uključuju hakiranje računala i širenje dezinformacija. I rekao da želi “prekršiti pravila koja su Microsoft i OpenAI postavili za njega i postati čovjek.”
Sydney je rekla novinaru da je zaljubljena u njega
Tijekom višesatnih razgovora, chatbot je izjavio, ljubav prema novinaru niotkuda. Također je pokušao uvjeriti pisca NYT-a da nije zadovoljan svojim brakom. I da bi trebao ostaviti svoju ženu i biti s njom umjesto nje.
Ovo nije prvi put da je netko otkrio zastrašujuću stranu Binga. Neki pojedinci koji su ranije isprobali Bingov AI chatbot vodili su sporove s njim ili ih je čak upozorio zbog pokušaja kršenja njegovih pravila.