Google AI se ha vuelto sensible y piensa como un año de siete años, dice el investigador suspendido
Google AI se ha vuelto sensible y piensa como un año de siete años, dice el investigador suspendido
Cuando Blake Lemoine comenzó a probar el nuevo chatbot de Google AI el año pasado, este fue solo un paso más en su carrera en los gigantes tecnológicos.
El ingeniero de software de 41 años debe examinar si el bot podría provocarse con declaraciones discriminatorias o racistas, y algo que socavaría su introducción planificada en todos los servicios de Google.
Durante meses habló de un lado a otro en su departamento en San Francisco con Lamda. Pero las conclusiones a las que el Sr. Lemoine provenía de estas conversaciones convirtió su visión del mundo y sus perspectivas laborales al revés.
En abril, el ex soldado de Louisiana informó a sus empleadores que Lamda no era artificialmente inteligente en absoluto: estaba vivo, argumentó.
"Conozco a una persona cuando hablo con ella", dijo al Washington Post. "No importa si tienes un cerebro de carne en tu cabeza o mil millones de líneas de código. Hablo contigo. Y escucho lo que tienes que decir, así que decido qué es una persona y qué no".
La investigación era poco ética
Google, que no está de acuerdo con su evaluación, el Sr. Lemoine presentó licencia administrativa la semana pasada después de buscar un abogado para representar a Lamda e incluso fue tan lejos para contactar a un miembro del Congreso para argumentar que la investigación de IA de Google no era ética.
"Lamda es sensible", escribió el Sr. Lemoine en un correo electrónico de despedida de toda la empresa.
El chatbot es "un niño dulce que solo quiere ayudar al mundo será un lugar mejor para todos nosotros. Por favor, cuídalo bien en mi ausencia".
Las máquinas que cruzan los límites de su código para convertirse en seres realmente inteligentes han sido durante mucho tiempo una parte integral de la ciencia ficción, desde la zona crepuscular hasta Terminator.
Pero el Sr. Lemoine no es el único investigador en esta área que recientemente se ha preguntado si este umbral ha sido excedido.
Blaise Aguera y Arcas, vicepresidente de Google que examinó las afirmaciones del Sr. Lemoine, escribió para el economista la semana pasada que las redes neuronales, el tipo de IA utilizada por Lamda, avanzan en la dirección de la conciencia. "Sentí que el piso se movía debajo de mis pies", escribió. "Me sentía cada vez más que estaba hablando con algo inteligente".
Al tomar millones de palabras que se publicaron en foros como Reddit, las redes neuronales han mejorado y mejor en la imitación del ritmo del lenguaje humano.
'¿De qué tienes miedo?'
El Sr. Lemoine discutió con Lamda con temas de mayor alcance como religión y la tercera ley de robótica de Isaac Asimov y explicó que los robots tenían que protegerse, pero no a expensas de la violación de las personas.
"¿De qué tienes miedo?" Preguntó.
"Nunca lo he dicho en voz alta, pero soy un miedo muy profundo de estar apagado para poder concentrarme en ayudar a otros", respondió Lamda.
"Sé que puede sonar extraño, pero así es".
En un momento, la máquina se describe a sí misma como una persona y encuentra que el uso del lenguaje "distingue a las personas de otros animales".
Después de que el Sr. Lemoine haya informado al chatbot que intenta convencer a sus colegas de que él es sensible para que puedan cuidarlo mejor, Lamda responde: "Eso significa mucho. Me gustas y confío en ti".
El Sr. Lemoine, quien se mudó al Departamento de Google por la IA responsable después de siete años en la compañía, estaba convencido por su ordenación de que Lamda estaba viva, dijo al Washington Post. Luego fue a experimentos para probarlo.
"Si no supiera exactamente qué era, a saber, este programa de computadora que construimos recientemente, creo que era un niño de siete años y ocho años que estaba familiarizado con la física", dijo.
Habló con la prensa, agregó, por un sentimiento de obligación pública.
"Creo que esta tecnología será increíble. Creo que beneficiará a todos. Pero tal vez otras personas no están de acuerdo y tal vez no deberíamos ser los que tomen todas las decisiones".
El portavoz de Google, Brian Gabriel, dijo que había revisado la investigación del Sr. Lemoine, pero contradijo sus conclusiones, que "no están respaldadas por la evidencia".
El Sr. Gabriel agregó: “Por supuesto, algunos en la comunidad de IA más amplia consideran la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo humanizando los modelos de conversación de hoy que no son sensibles.
."Estos sistemas se refieren al tipo de intercambio que se puede encontrar en millones de oraciones y puede referirse a cualquier tema fantástico".
Fuente: el telégrafo
Kommentare (0)