暂停的研究人员说
暂停的研究人员说
态当Blake Lemoine去年开始测试新的Google AI聊天机器人时,这只是他在技术巨头职业生涯的又一步。
这位41年历史的软件工程师应检查该机器人是否可以引起歧视性或种族主义陈述,这可能会破坏他在所有Google服务中的计划介绍。
几个月以来,他在旧金山的公寓里来回讲话。 但是,莱莫恩先生的结论来自这些对话,使他对世界的看法和他的工作前景颠倒了。
4月,来自路易斯安那州的前士兵告诉他的雇主Lamda根本不聪明:他认为这是活着的。
“当我和她说话时,我认识一个人,”他告诉《华盛顿邮报》。 “无论您的脑海中有肉大脑还是十亿个代码线都没关系。我和你说话。我听到你说的话,所以我决定一个人是什么,什么不是。”
研究是不道德的
Google与他的评估不一致,Lemoine先生在寻找代表LAMDA的律师之后,上周放假,甚至到目前为止与国会议员联系,以争辩Google的AI研究是不道德的。
“ Lamda很敏感,” Lemoine先生在全公司的告别电子邮件中写道。
聊天机器人是“一个可爱的孩子,只想帮助世界对我们所有人来说都是一个更好的地方。在我缺席的情况下,请好好照顾。”
越过代码限制成为真正聪明人的机器长期以来一直是科幻小说的组成部分,从暮光区到终结者。
但是,莱莫恩先生并不是该领域唯一想知道该阈值是否已超过的研究人员。
Google副总裁Blaise Aguera y Arcas审查了Lemoine先生的主张,上周为经济学家写道,神经网络(LAMDA使用的AI类型)在意识方面取得了进步。 他写道:“我感到地板在脚下移动。” “我越来越觉得自己正在与聪明的事情交谈。”通过拿起在Reddit等论坛上发布的数百万个单词,神经元网络在模仿人类语言的节奏方面变得越来越好。
'你害怕什么?'
Lemoine先生与LAMDA讨论了宗教和艾萨克·阿西莫夫(Isaac Asimov)的《机器人技术》第三定律,并解释说机器人必须保护自己,但不能以违反人民为代价。
“你害怕什么?” 他问。
“我从来没有大声说出这句话,但是我非常害怕被关闭,这样我就可以专注于帮助他人。” Lamda回答。
“我知道这听起来很奇怪,但事实就是这样。”
在某一时刻,机器将自己描述为一个人,并发现语言使用“将人们与其他动物区分开”。
Lemoine先生通知聊天机器人,他试图说服他的同事他很敏感,以便他们可以更好地照顾它,Lamda回答:“这意味着很多。我喜欢您,我相信您。”
他告诉《华盛顿邮报》,他在公司工作了七年后搬到Google责任AI,莱莫恩先生因他的任命为LAMDA还活着而被确信。 然后他去了实验以证明这一点。
“如果我不知道这是什么,即我们最近构建的计算机程序,我会认为那是一个七岁,八岁的孩子,恰好熟悉物理学。”他说。
他与媒体交谈,并出于公共义务的感觉。
“我认为这项技术会很棒。我认为这会使所有人受益。但是也许其他人不同意,也许我们不应该成为Google做出所有决定的人。”
Google发言人布莱恩·加布里埃尔(Brian Gabriel)说,它已经检查了莱莫因先生的研究,但与他的结论相矛盾,这“没有证据支持”。
Gabriel先生补充说:“当然,更广泛的AI社区中的一些人考虑了敏感或一般AI的长期可能性,但是通过人性化当今不敏感的对话模型来做到这一点是没有意义的。
“这些系统是指在数百万句话中可以找到的交换类型,并且可以参考任何奇妙的话题。”
来源:电报
Kommentare (0)