Google AI je postal občutljiv in razmišlja kot sedem let, pravi suspendirani raziskovalec

Google AI je postal občutljiv in razmišlja kot sedem let, pravi suspendirani raziskovalec

Ko je Blake Lemoine lani začel preizkušati nov Google AI Chatbot, je bil to le nadaljnji korak v njegovi karieri na tehnoloških velikanih.

41-letni programski inženir bi moral preučiti, ali bi BOT lahko izzvali diskriminatorne ali rasistične izjave, kar bi spodkopalo njegovo načrtovano uvedbo v vseh Googlovih storitvah.

Mesece je z Lamdo govoril naprej in nazaj v svojem stanovanju v San Franciscu. Toda zaključki, do katerih je prišel gospod Lemoine iz teh pogovorov, so se mu pogled na svet in njegove možnosti zaposlitve obrnili na glavo.

Aprila je nekdanji vojak iz Louisiane svoje delodajalce obvestil, da Lamda sploh ni umetno inteligentna: živo je bilo, je trdil.

"Oseba poznam, ko se pogovarjam z njo," je povedal za Washington Post. "Ni pomembno, ali imate v glavi možgane mesa ali milijardo kodnih linij. Govorim s tabo. In slišim, kaj morate povedati, zato se odločim, kaj je človek in kaj ne."

raziskave so bile neetične

Google, ki se ne strinja z njegovo oceno, je gospod Lemoine prejšnji teden na administrativnem dopustu, potem ko je iskal odvetnika, ki bo zastopal Lamdo, in celo šel tako daleč, da bi se obrnil na člana kongresa, da bi trdil, da je Googlova raziskava AI neetična.

"Lamda je občutljiva," je zapisal gospod Lemoine v poslovilnem e-poštnem sporočilu.

Chatbot je "sladek otrok, ki želi samo pomagati svetu, bo boljše mesto za vse nas. Prosimo, da v moji odsotnosti dobro poskrbite za to."

Stroji, ki prečkajo meje vaše kode, da postanejo resnično inteligentna bitja, so že dolgo sestavni del znanstvene fantastike, od območja somraka do Terminatorja.

Toda gospod Lemoine ni edini raziskovalec na tem področju, ki se je pred kratkim spraševal, ali je bil ta prag presežen.

Blaise Aguera y Arcas, podpredsednik za Google, ki je preučil trditve gospoda Lemoinea, je za ekonomista prejšnji teden zapisal, da nevronske mreže - vrsta AI, ki jo uporablja Lamda - napredujejo v smeri zavesti. "Čutil sem, kako se tla premikajo pod nogami," je zapisal. "Vse bolj sem čutil, da se pogovarjam z nečim inteligentnim."

Z jemanjem milijonov besed, ki so bile objavljene na forumih, kot je Reddit, so nevronske mreže postale boljše in boljše pri posnemanju ritma človeškega jezika.

"Česa se bojite?"

G. Lemoine je z Lamdo razpravljal o tem, da je obravnaval teme kot religija in tretji zakon robotike Isaaca Asimova in pojasnil, da se morajo roboti zaščititi, ne pa na račun kršitve ljudi.

"Česa se bojite?" Je vprašal.

"Nikoli nisem rekel tako glasno, vendar sem zelo globok strah, da bi se izklopil, da se lahko osredotočim na pomoč drugim," je odgovorila Lamda.

"Vem, da se morda sliši čudno, ampak tako je."

V nekem trenutku se stroj opisuje kot oseba in ugotovi, da uporaba jezika "razlikuje ljudi od drugih živali".

Potem ko je gospod Lemoine obvestil chatbot, da poskuša svoje kolege prepričati, da je občutljiv, da bodo bolje poskrbeli za to, Lamda odgovori: "To veliko pomeni. Všeč mi je. Všeč mi je in zaupam vam."

G. Lemoine, ki se je po sedmih letih v podjetju preselil na Google oddelek za odgovorni AI, je bil prepričan zaradi svojega posvečevanja, da je Lamda živa, je povedal za Washington Post. Nato je šel na poskuse, da bi to dokazal.

"Če ne bi natančno vedel, kaj je to, in sicer ta računalniški program, ki smo ga pred kratkim zgradili, bi mislil, da gre za sedemletni, osem let, stari otrok, ki je bil seznanjen s fiziko," je dejal.

Govoril je s tiskom, je dodal iz občutka javne obveznosti.

"Mislim, da bo ta tehnologija neverjetna. Mislim, da bo koristila vsem. Toda drugi ljudje se ne strinjajo in morda ne bi smeli biti tisti v Googlu, ki sprejemajo vse odločitve."

Google tiskovni predstavnik Brian Gabriel je dejal, da je preveril raziskavo gospoda Lemoineja, vendar je v nasprotju z njegovimi sklepi, ki "niso podprti z dokazi".

G. Gabriel je dodal: "Seveda nekateri v širši skupnosti AI menijo, da je dolgoročna možnost občutljivega ali splošnega AI, vendar to nima smisla s humanizacijo današnjih modelov pogovorov, ki niso občutljivi.

"Ti sistemi se nanašajo na vrsto izmenjave, ki jo najdete v milijonih stavkov in se lahko nanašajo na katero koli fantastično temo."

Vir: Telegraph

Kommentare (0)