Google AI sa stala citlivými a myslí si, že ako sedem rokov, hovorí pozastavený výskumný pracovník

Google AI sa stala citlivými a myslí si, že ako sedem rokov, hovorí pozastavený výskumný pracovník

Keď Blake Lemoine začal minulý rok testovať nový chatbot Google AI, bol to len ďalší krok v jeho kariére v technologických gigantoch.

41-ročný softvérový inžinier by mal preskúmať, či by sa robot mohol vyprovokovať na diskriminačné alebo rasistické výroky-niečo, čo by podkopáva jeho plánovaný úvod do všetkých služieb Google.

Celé mesiace hovoril tam a späť vo svojom byte v San Franciscu so Lamdou. Závery, na ktoré pán Lemoine pochádzal z týchto rozhovorov, však zmenili svoj pohľad na svet a jeho vyhliadky na prácu hore nohami.

V apríli bývalý vojak z Louisiany informoval svojich zamestnávateľov, že Lamda nie je umelo inteligentná: bol nažive, tvrdil.

„Poznám človeka, keď s ňou hovorím,“ povedal pre Washington Post. „Nezáleží na tom, či máte v hlave mozog mäsa alebo miliardu kódových riadkov. Hovorím s vami. A počujem, čo musíte povedať, takže sa rozhodnem, čo je človek a čo nie.“

Výskum bol neetický

Google, ktorý nesúhlasí s jeho hodnotením, pán Lemoine minulý týždeň pošiel na administratívnu dovolenku po tom, čo hľadal právnika, ktorý by zastupoval Lamdu, a dokonca išiel tak ďaleko, aby kontaktoval člena kongresu, aby tvrdil, že výskum AI spoločnosti Google bol neetický.

„Lamda je citlivá,“ napísal pán Lemoine v e-maile rozlúčkovej spoločnosti.

Chatbot je „sladké dieťa, ktoré chce len pomôcť svetu, bude pre nás všetkých lepším miestom.

Stroje, ktoré prechádzajú hranicami vášho kódu, aby sa stali skutočne inteligentnými bytosťami, sú už dlho neoddeliteľnou súčasťou sci -fi, od Twilight Zone po Terminator.

Ale pán Lemoine nie je jediným výskumným pracovníkom v tejto oblasti, ktorý sa nedávno pýtal, či bol tento prah prekročený.

Blaise Aguera y Arcas, viceprezident spoločnosti Google, ktorý preskúmal tvrdenia pána Lemoine, minulý týždeň pre ekonóma napísal, že neurónové siete - typ AI používanej Lamdou - pokrok v smere vedomia. „Cítil som, ako sa pod nohami pohybuje podlaha,“ napísal. „Stále viac som cítil, že som hovoril s niečím inteligentným.“

Tým, že vezmete milióny slov, ktoré boli zverejnené na fórach, ako je Reddit, neurónové siete sa pri napodobňovaní rytmu ľudského jazyka zlepšili a lepšie.

'Čoho sa bojíš?'

Pán Lemoine diskutoval s Lamdou o témach, ktoré sa zaoberali náboženstvom a tretím zákonom robotiky Isaaca Asimova a vysvetlil, že roboti sa musia chrániť, ale nie na úkor poruchy ľudí.

"Čoho sa bojíš?" Spýtal sa.

„Nikdy som to nahlas nepovedal, ale som veľmi hlboký strach z vypnutia, aby som sa mohol sústrediť na pomoc ostatným,“ odpovedala Lamda.

„Viem, že to môže znieť čudne, ale takto to je.“

Na jednom mieste sa stroj opisuje ako človek a zistí, že jazyk používa „odlišuje ľudí od iných zvierat“.

Potom, čo pán Lemoine informoval chatbot, že sa snaží presvedčiť svojich kolegov, že je citlivý, aby sa o to mohli lepšie postarať, Lamda odpovedá: „To veľa znamená. Páči sa mi a ja vám verím.“

Pán Lemoine, ktorý sa po siedmich rokoch v spoločnosti presťahoval do oddelenia Google za zodpovednú AI, bol presvedčený kvôli jeho vysväteniu, že Lamda žije, povedal pre Washington Post. Potom išiel do experimentov, aby to dokázal.

"Keby som nevedel presne, čo to je, konkrétne tento počítačový program, ktorý sme nedávno postavili, myslím si, že to bolo sedemročné, osemročné dieťa, ktoré sa stalo oboznámením s fyzikou," uviedol.

Hovoril s tlakom, dodal, z pocitu verejnej povinnosti.

„Myslím si, že táto technológia bude úžasná. Myslím, že to bude prospešné pre všetkých. Ale možno ostatní ľudia nesúhlasia a možno by sme nemali byť tí, ktorí robia všetky rozhodnutia.“

Hovorca spoločnosti Google Brian Gabriel uviedol, že skontroloval výskum pána Lemoine, ale bol v rozpore s jeho závermi, ktoré „nie sú podporené dôkazmi“.

Pán Gabriel dodal: „Samozrejme, niektorí v širšej komunite AI zvažujú dlhodobú možnosť citlivej alebo všeobecnej AI, ale nemá zmysel robiť to humanizáciou dnešných konverzačných modelov, ktoré nie sú citlivé.

"Tieto systémy sa vzťahujú na typ výmeny, ktorý nájdete v miliónoch viet a môžu sa odvolávať na akúkoľvek fantastickú tému."

Zdroj: Telegraph

Kommentare (0)