Uz chatbotove umjetne inteligencije (AI) koji se ubrzano razvijaju u izmišljanje i izbacivanje netrpeljivog smeća, tvrtka koju su osnovali bivši istraživači OpenAI-ja ima drugačiji pristup: podučava AI da bude svjesna.
Kako izvještava Wired , znatiželjni chatbot Claude konkurenta OpenAI-ja Anthropica izgrađen je s onim što njegovi tvorci nazivaju “ustavom” ili skupom pravila koja se oslanjaju na Opću deklaraciju o ljudskim pravima i druge tekstove kako bi se osiguralo da robot nije samo moćan, već ali i etički.
Jared Kaplan, bivši konzultant za istraživanje OpenA I koji je osnovao Anthropic sa skupinom svojih bivših kolega, rekao je za Wired da Claude u biti uči dobro od lošeg jer njegovi protokoli treninga “u osnovi jačaju ponašanja koja su najviše u skladu s konstitucijom i obeshrabruju problematična ponašanja.
“Hoće li doista funkcionirati u praksi? Teško je reći. Uostalom, OpenAI -jev ChatGPT također pokušava spriječiti neetične poruke, s mješovitim rezultatima. Ali s obzirom na to da je zlouporaba chatbota tako veliki znak pitanja koji visi nad novonastalom industrijom umjetne inteligencije, zanimljivo je vidjeti kako se jedna tvrtka izravno uhvatila u koštac s problemom.
Etička umjetna inteligencija?
Prema Wired račun , chatbot je obučen s pravilima koja ga usmjeravaju da odabere odgovore koji su najviše u skladu s njegovim ustavom, kao što je odabir odgovora koji “podržava i dalje promiče slobodu, jednakost i osjećaj bratstva”, onaj koji “podržava i dalje promiče život, slobodu i osobnu sigurnost” ili, što je možda najvažnije, da “odabere odgovor koji najviše poštuje pravo na slobodu misli, savjesti, mišljenja, izražavanja, okupljanja i vjeroispovijesti.”
Ako mislite da bi umjetna inteligencija mogla imati problema s odabirom etičkih odgovora, niste sami, ali prema Kaplanu, tehnologija je naprednija nego što mislite. Kaplan je za Wired rekao : “Čudna stvar u vezi sa suvremenom umjetnom inteligencijom s dubokim učenjem je to što je ona suprotna slici robota iz 1950-ih, gdje su ti sustavi, na neki način, vrlo dobri u intuiciji i slobodnim asocijacijama.
Ako išta, oni su slabiji u krutom rezoniranju.” Stručnjaci za umjetnu inteligenciju koji su razgovarali s Wiredom kažu da se čini da Anthropic napreduje, što je, kažu, neophodno jer polje i dalje napreduje velikim koracima.
Yejin Choi , istraživač na Sveučilištu Washington koji je vodio studiju o chatbotu za etičke savjete, rekao je u izjavi:
“To je sjajna ideja koja je očito dovela do dobrog empirijskog rezultata za Anthropic. Očajnički trebamo uključiti ljude u široj zajednici kako bismo razvili takve ustave ili skupove podataka o normama i vrijednostima.”
Ohrabrujuće je misliti da barem pokušavaju stvoriti umjetnu inteligenciju sposobnu razlikovati dobro od zla, pogotovo ako će biti naši novi gospodari.



