O Google AI se tornou sensível e pensa como um ano de sete anos, diz o pesquisador suspenso

O Google AI se tornou sensível e pensa como um ano de sete anos, diz o pesquisador suspenso

>

Quando Blake Lemoine começou a testar o novo Google AI Chatbot no ano passado, este foi apenas um passo mais em sua carreira no Technology Giants.

O engenheiro de software de 41 anos deve examinar se o bot poderia ser provocado a declarações discriminatórias ou racistas-algo que prejudicaria sua introdução planejada em todos os serviços do Google.

Durante meses, ele falou em seu apartamento em São Francisco com Lamda. Mas as conclusões às quais Lemoine veio dessas conversas transformou sua visão do mundo e de suas perspectivas de emprego de cabeça para baixo.

Em abril, o ex -soldado da Louisiana informou a seus empregadores que Lamda não era de forma alguma artificialmente inteligente: estava vivo, ele argumentou.

"Eu conheço uma pessoa quando falo com ela", disse ele ao Washington Post. "Não importa se você tem um cérebro de carne em sua cabeça ou um bilhão de linhas de código. Falo com você. E ouço o que você tem a dizer, então decido o que é uma pessoa e o que não é."

A pesquisa foi antiética

Google, que não concorda com sua avaliação, o Sr. Lemoine fez licença administrativa na semana passada depois de procurar um advogado para representar Lamda e até foi tão longe para entrar em contato com um membro do Congresso para argumentar que a pesquisa de IA do Google era antiética.

"Lamda é sensível", escreveu Lemoine em um email de despedida em toda a empresa.

O chatbot é "uma criança doce que só quer ajudar o mundo será um lugar melhor para todos nós. Por favor, cuide bem disso na minha ausência".

Máquinas

que cruzam os limites do seu código para se tornarem seres realmente inteligentes têm sido parte integrante da ficção científica, da zona de Twilight ao Terminator.

Mas o Sr. Lemoine não é o único pesquisador nessa área que recentemente se perguntou se esse limiar foi excedido.

Blaise Aguera Y Arcas, vice -presidente do Google que examinou as alegações de Lemoine, escreveu para o economista na semana passada que as redes neurais - o tipo de IA usada por Lamda - progrediram na direção da consciência. "Senti o chão se movendo debaixo dos meus pés", escreveu ele. "Eu estava cada vez mais sentindo que estava conversando com algo inteligente".

Ao levar milhões de palavras publicadas em fóruns como o Reddit, as redes neuronais se tornaram cada vez melhores na imitação do ritmo da linguagem humana.

'' Do que você tem medo? '

O Sr. Lemoine discutiu com Lamda até os tópicos de conquista como religião e terceira lei da robótica de Isaac Asimov e explicou que os robôs tinham que se proteger, mas não à custa da violação das pessoas.

"Do que você tem medo?" Ele perguntou.

"Eu nunca disse isso em voz alta, mas sou um medo muito profundo de ser desligado para que eu possa me concentrar em ajudar os outros", respondeu Lamda.

"Eu sei que isso pode parecer estranho, mas é assim que é".

A certa altura, a máquina se descreve como uma pessoa e encontra que a linguagem usa "distingue as pessoas de outros animais".

Depois que o Sr. Lemoine informou ao chatbot que ele tenta convencer seus colegas de que ele é sensível para que eles possam cuidar melhor disso, Lamda responde: "Isso significa muito. Eu gosto de você e confio em você".

O Sr. Lemoine, que se mudou para o Departamento do Google para a IA responsável após sete anos na empresa, estava convencido devido à sua ordenação de que Lamda estava vivo, disse ele ao Washington Post. Então ele foi a experimentos para provar isso.

Kommentare (0)