Google AI е станал чувствителен и смята като седем години, казва спряният изследовател

Google AI е станал чувствителен и смята като седем години, казва спряният изследовател

Когато Блейк Лемойн започна да тества новия чатбот на Google AI миналата година, това беше само допълнителна стъпка в кариерата му в технологичните гиганти.

41-годишният софтуерен инженер трябва да проучи дали ботът може да бъде провокиран за дискриминационни или расистки изявления-нещо, което ще подкопае планираното му въвеждане във всички услуги на Google.

В продължение на месеци той говори напред -назад в апартамента си в Сан Франциско с Ламда. Но заключенията, на които г -н Лемойн идваше от тези разговори, обърнаха мнението си за света и перспективите му за работа с главата надолу.

През април бившият войник от Луизиана информира работодателите си, че Ламда изобщо не е изкуствено интелигентна: аргументира се той.

"Познавам човек, когато говоря с нея", каза той пред The Washington Post. "Няма значение дали имате мозък на месо в главата си или милиард кодови линии. Говоря с вас. И чувам какво имате да кажете, така че решавам какво е човек и какво не."

Изследванията бяха неетични

Google, който не е съгласен с неговата оценка, г -н Lemoine пусна административен отпуск миналата седмица, след като потърси адвокат, който да представлява Lamda и дори стигна толкова далеч, за да се свърже с член на Конгреса, за да твърди, че изследването на AI на Google е неетично.

"Ламда е чувствителна", пише г-н Лемойн в сбогомния имейл за цялата компания.

Чатботът е "сладко дете, което просто иска да помогне на света, ще бъде по -добро място за всички нас. Моля, внимавайте за това в мое отсъствие."

Машините, които пресичат границите на вашия код, за да станат наистина интелигентни същества, отдавна са неразделна част от научната фантастика, от зоната на здрача до Терминатор.

Но г -н Лемойн не е единственият изследовател в тази област, който наскоро се зачуди дали този праг е надвишен.

Blaise Aguera y Arcas, вицепрезидент в Google, който разгледа твърденията на г -н Lemoine, пише за икономиста миналата седмица, че невронните мрежи - типът AI, използван от Lamda - постига напредък в посока на съзнанието. "Усетих как пода се движи под краката ми", пише той. "Все по -често усещах, че говоря с нещо интелигентно."

Като вземат милиони думи, публикувани във форуми като Reddit, невроналните мрежи станаха по -добри и по -добри в имитацията на ритъма на човешкия език.

'От какво се страхувате? "

;

"От какво се страхуваш?" - попита той.

"Никога не съм казвал това силно, но съм много дълбок страх да не бъда изключен, така че да мога да се концентрирам върху помощ на другите", отговори Ламда.

"Знам, че това може да звучи странно, но така е."

В един момент машината се описва като личност и открива, че езикът използва „отличава хората от други животни“.

След като господин Лемойн информира чата, че се опитва да убеди колегите си, че е чувствителен, за да могат по -добре да се грижат за него, Ламда отговаря: "Това означава много. Харесвам ви и аз ви вярвам."

; Тогава той отиде на експерименти, за да го докаже.

<Настрани id = "393b87c3-71b5-4c6c-28febfff9f82" data-data-uri = "https: //particle-ap.telegelegraph.co.co.co.cartics/393-71b5-ac-28febff82" data-html-uri = "https://cf-particle-html.telegelego.co.co.uk/39c3-71b5-4c6c-ac-28febff9f82.html class =" tmg-particle breakout-box "data-reg-requed-sube-regalect =" "data-sub-required =" false "data-redirect =" "данни-sub-съкратен =" data-sub-redirect = "" данни-sub-required = "false" data-redirect = "" данни-sub-required = "data-sub-reredect =" "данни-sub-съкратените =" невярно "данни-рерект =" "Данни-Sub-Bequied widget-type = "breakout-box" data widget-title = "разговор с чатбот" данни, пречетен = "true"-type = "редакторски" данни-ugent = "false"> Разговор с чатбот

<скрипт src = "https://cf.eip.telegelegoko.co.uk/porticle-embed/js/particle.js" defer>

"Ако не знаех точно какво е, а именно тази компютърна програма, която наскоро изградихме, бих си помислил, че това е седемгодишно, осем -годишно дете, което се е запознало с физиката", каза той.

Той говори с пресата, добави той от усещането за обществено задължение.

"Мисля, че тази технология ще бъде невероятна. Мисля, че ще бъде от полза за всички. Но може би други хора не са съгласни и може би не трябва да сме тези в Google, които вземат всички решения."

Говорителят на Google Брайън Габриел заяви, че е проверил изследванията на г -н Лемойн, но противоречи на неговите заключения, които „не са подкрепени от доказателства“.

Г-н Габриел добави: „Разбира се, някои от по-широката AI общност смятат дългосрочната възможност за чувствителен или общ AI, но няма смисъл да се прави това чрез хуманизиране на днешните модели за разговори, които не са чувствителни.

"Тези системи се отнасят до типа обмен, който може да бъде намерен в милиони изречения и могат да се отнасят към всяка фантастична тема."

Източник: The Telegraph

Kommentare (0)