Pionir u stvaranju umjetne inteligencije poručuje da je preostalo svega nekoliko godina prije nego ova tehnologija uništi ljudsku rasu

Pionir u stvaranju umjetne inteligencije poručuje da je preostalo svega nekoliko godina prije nego ova tehnologija uništi ljudsku rasu

Pionir umjetne inteligencije liezer Yudkowsky upozorio je da je čovječanstvu preostalo još samo nekoliko godina života jer umjetna inteligencija postaje sve sofisticiranija.

U intervjuu za Guardian, rekao je piscu Tomu Lamontu: “Ako me staviš uza zid i prisiliš me da stvarima stavim vjerojatnosti, osjećam da naš trenutni preostali vremenski okvir više izgleda kao pet godina nego što je 50 godina. Moglo bi biti dvije godine, moglo bi biti deset.”

Yudkowsky, koji je osnovao Institut za istraživanje strojne inteligencije u Kaliforniji, govori o kraju čovječanstva kakvog poznajemo. Rekao je da je problem što mnogi ljudi ne shvaćaju koliko je malo vjerojatno da će čovječanstvo sve ovo preživjeti.

“Imamo male šanse da čovječanstvo ovo preživi”, upozorio je.

To su zastrašujuće riječi nekoga tko je, prema Samu Altmanu, izvršnom direktoru tvorca ChatGPT OpenAI-ja, zainteresirao sebe i mnoge druge za opću umjetnu inteligenciju i tko je bio “kritičan u odluci da se pokrene OpenAI”.

Prošle godine, Yudkowsky je u otvorenom pismu u TIME- u napisao da većina stručnjaka na tom području vjeruje “da je najvjerojatniji ishod izgradnje nadljudski pametne umjetne inteligencije, pod bilo čim što nalikuje sadašnjim uvjetima, da će doslovno svi na zemlji umrijeti.”

Objašnjava da će doći trenutak kada umjetna inteligencija više neće raditi ono što ljudi žele i kada više uopće neće biti stalo do svjesnog življenja. Iako misli da bi se takva vrsta skrbi jednog dana mogla ugraditi u AI, barem u načelu, nitko trenutno ne zna kako to učiniti. To znači da ljudi vode bespomoćnu bitku koju on uspoređuje s “11. stoljećem koje se pokušava boriti protiv 21. stoljeća”.

Yudkowsky je rekao da umjetna inteligencija koja je istinski inteligentna neće biti ograničena na računala i istaknuo da je sada moguće slati nizove DNK e-poštom u laboratorije i natjerati ih da proizvode proteine ​​za vas, što znači da umjetna inteligencija koja je u početku sama na internetu je “mogla izgraditi umjetne oblike života ili skočiti ravno u postbiološku molekularnu proizvodnju”.

Također je objasnio da AI može “koristiti super biologiju protiv vas.”

“Ako netko izgradi premoćnu umjetnu inteligenciju, pod sadašnjim uvjetima, očekujem da će svaki pripadnik ljudske vrste i sav biološki život na Zemlji ubrzo nakon toga umrijeti”, dodao je.

Računalni znanstvenici još od 1960-ih upozoravaju da ciljevi strojeva koje stvaramo ne moraju nužno odgovarati našima.

Yudkowsky kaže da je rješenje “sve isključiti”

Dakle, kako možemo ovo zaustaviti? Prema riječima Yudkowskog, potrebno je puno učiniti. Na primjer, trebao bi postojati neodređen i globalni moratorij na provođenje novih velikih obuka, bez vojnih ili vladinih iznimaka, iako je teško zamisliti međunarodnu suradnju na tome s mjesta poput Kine.

Također smatra da velike GPU klastere treba zatvoriti. Ovo su velike računalne farme na kojima se trenira i usavršava najmoćnija umjetna inteligencija na svijetu. Gornje granice količine računalne snage koja se može koristiti za treniranje AI sustava također bi pomogle, sve dok se u budućnosti prilagođavaju prema dolje kako algoritmi za obuku postaju učinkovitiji.

Yudkowsky vjeruje da bismo trebali “biti spremni uništiti lažni podatkovni centar zračnim napadom.” Napisao je da bi čak i nuklearni napad bio u redu ako bi značio eliminaciju umjetne inteligencije, iako sada kaže da bi bio “pažljiviji” po tom pitanju da je ponovno napisao članak.

Iako bi ga neki mogli optužiti za plašenje ili senzacionalizam, najveća anketa ikada objavljena prošlog mjeseca pokazala je da je 16% njih uvjereno da će njihov rad u umjetnoj inteligenciji dovesti do izumiranja čovječanstva.

Podijeli članak:

Facebook
Twitter
Reddit
WhatsApp