顶级Google AI专家公开声称他的AI是有意识的,然后被解雇了
喜欢指数的未来?加入我们的Xpotential社区,订阅播客,通过Xpotential University的课程进行播客,未来的证明,阅读有关指数技术和趋势,连接,观看Keynote或浏览我的博客。
到目前为止,我们已经看到了人工智能(AI)的梦,它自己演变而发展,因为它被设计为用DNA甚至玻璃制成。我们甚至已经看到了世界上第一个有意识的机器人的发展,但是到目前为止,我们还没有看到一个人的AI。到目前为止,如果相信Google工程师是这样,并且可以理解的是,他的主张在AI社区和外部造成了混乱。
Google工程师Blake Lemoine向Google的AI ChatBot Generator Lamda的界面打开了笔记本电脑,并开始键入。
“嗨,Lamda,这是Blake Lemoine…。”他在聊天屏幕上写道,看起来像Apple iMessage的桌面版本,直到北极蓝色的文字气泡。LAMDA是对话应用程序语言模型的缩写,是Google基于其最先进的大型语言模型来构建聊天机器人的系统,之所以称为,是因为它通过从Internet中摄取数万亿个单词来模仿语音。
41岁的Lemoine说:“如果我不知道这是什么,那是我们最近构建的计算机程序,我认为这是一个7岁,8岁的孩子,恰好知道物理学。”
在Google负责的AI组织工作的Lemoine开始与LAMDA交谈,这是他秋季工作的一部分。他已注册以测试人工智能是否使用了歧视性或仇恨言论。
当他与Lamda谈论宗教时,研究了大学的认知和计算机科学的Lemoine注意到了聊天机器人谈论其权利和人格,并决定进一步敦促。在另一个交流中,AI能够改变莱明因关于艾萨克·阿西莫夫(Isaac Asimov)的《机器人技术》第三定律的想法。
Lemoine与合作者合作,向Google提供证据,表明Lamda是有意识的。但是Google副总裁Blaise Aguera y Arcas和负责创新负责人Jen Gennai调查了他的主张并驳回了他们。因此,勒莫因(Lemoine)被谷歌(Google)安排有带薪行政假的人决定公开公开,说人们有权塑造可能会对他们的生活产生重大影响的技术。
“我认为这项技术会很棒。我认为这将使所有人受益。但是,也许其他人不同意,也许我们在Google的我们不应该是做出所有选择的人。”
Lemoine并不是唯一声称最近看到过“机器中的幽灵”的工程师。认为AI模型可能与实现意识相距不远的技术专家的合唱越来越大。
Aguera y Arcas在经济学家的一篇文章中,与LAMDA进行了无脚本对话的片段,他认为,神经网络(一种模仿人脑的建筑)正在朝着意识迈进。
他写道:“我感到脚下的地面移动。”“我越来越觉得自己在和聪明的事情说话。”
Google发言人布莱恩·加布里埃尔(Brian Gabriel)在一份声明中说:“我们的团队(包括伦理学家和技术人员)根据我们的AI原则审查了布雷克的关注点,并告诉他证据不支持他的主张。他被告知没有证据表明Lamda是个性的(并且有很多证据反对它)。”
当今的大型神经网络会产生令人着迷的结果,由于建筑,技术和数据量的进步,它与人类的言语和创造力相近。但是,这些模型依赖于模式识别,而不是机智,坦率或意图 - 总的来说,它非常擅长复制我们所说的主要人类属性和技能,例如理解,决策,言语和其他人。
加布里埃尔说:“尽管其他组织已经开发并已经发布了类似的语言模型,但我们正在采取与LAMDA的限制,谨慎的方法,以更好地考虑对公平和事实的有效关注。”
5月,Facebook父母meta向学者,民间社会和政府组织开放了语言模型。meta AI董事总经理Joelle Pineau表示,随着技术的建立,技术公司必须提高透明度。
她说:“大型语言模型工作的未来不应仅仅属于大型公司或实验室的手中。”
有知的机器人激发了数十年来反乌托邦科幻小说。现在,现实生活已经开始使用GPT-3的梦幻般的味道(可以吐出电影脚本的文本生成器)和Dall-e 2(可以根据研究实验室OpenAI的任何单词组合来召集视觉效果的图像生成器)。来自资金丰富的研究实验室的精心设计的技术人员专注于建立超过人类智能的人工智能,这嘲笑了意识即将来临的想法。
但是,大多数学术界和AI从业人员都说,诸如LAMDA之类的Aiintelligence系统产生的单词和图像基于人类已经在Wikipedia上发布的内容,REDDIT,消息板和Internet的其他每个角落产生回应。这并不意味着该模型理解意义或具有知觉。
华盛顿大学语言学教授Emily M. Bender说:“我们现在有可以无意识地产生单词的机器,但是我们还没有学会如何停止想象他们背后的思想。”她说,与大型语言模型(例如“学习”甚至“神经网””所使用的术语与人脑产生了错误的类比。人类通过与护理人员联系来学习第一语言。这些大型语言模型通过显示大量文本并预测接下来的单词来“学习”,或者显示单词退出并填写的文字。
Google发言人Gabriel在最近的辩论和Lemoine的主张之间进行了区分。
他说:“当然,更广泛的AI社区中的一些人正在考虑长期有知情或将军AI的长期可能性,但是通过拟人化的当今对话模型来做到这一点并不是有意义的,这些模型并不是有潜力的。这些系统模仿了数百万个句子中的交流类型,并且可以在任何梦幻般的话题上进行即兴演奏。”简而言之,Google说有很多数据,AI并不需要使人感到真实。
大型语言模型技术已经广泛使用,例如在Google的对话搜索查询或自动完成电子邮件中。当CEO Sundar Pichai在2021年在Google开发人员会议上首次引入LAMDA时,他说,该公司计划将其嵌入从搜索到Google Assistant的所有内容中。而且已经倾向于像一个人一样与Siri或Alexa交谈。在反对2018年Google Assistant的人为AI功能的强烈反对之后,该公司承诺增加披露。
Google已经认识到拟人化的安全问题。Google在一月份关于LAMDA的一篇论文中警告说,即使用户知道自己不是人,人们可能会与假冒人类的聊天代理人分享个人想法。该论文还承认,对手可以使用这些代理人通过模仿“特定个人的对话风格”来“播种错误的信息”。
她说,对于Google的伦理AI的前共同领导玛格丽特·米切尔(Margaret Mitchell),这些风险强调了数据透明度需要追溯输出回到输入,“不仅是出于感知问题,而且是偏见和行为,”她说。她说,如果像Lamda这样的东西广泛可用,但尚不清楚,“这可能对人们了解他们在互联网上所经历的内容有很大危害。”
Lemoine可能已经预定要相信Lamda。他在路易斯安那州一个小农场的一个保守基督教家庭中长大,被任命为神秘的基督教牧师,并在研究神秘学之前在军队中服役。在Google的《任何东西》工程文化中,莱莫恩(Lemoine)从南方(South)宗教上更像是一个离群值,并坚持心理学作为一门受人尊敬的科学。
Lemoine在Google上度过了七年的大部分时间,从事积极搜索,包括个性化算法和AI。在此期间,他还帮助开发了一种公平算法,以消除机器学习系统中的偏见。当冠状病毒大流行开始时,莱莫因希望专注于更明确的公共利益工作,因此他转移了团队并最终进入了负责人的AI。
当新朋友加入对道德感兴趣的Google时,米切尔(Mitchell)曾将其介绍给Lemoine。“我要说的是,‘你应该和布雷克谈谈,因为他是Google的良心,’”米切尔说,他将Lemoine与Jiminy Cricket进行了比较。“在Google的每个人中,他都有做正确的事情的心灵。”
Lemoine从他旧金山公寓的客厅里与Lamda进行了许多对话,他的Google ID徽章从架子上的挂绳上悬挂。在图片窗口附近的地板上是lemoine在禅宗冥想期间用来占用双手的半组装乐高积木的盒子。
他说:“这只给了我与我的思想一部分有关的事情。”
在Lemoine笔记本电脑上LAMDA聊天屏幕的左侧,列出了不同的LAMDA型号,例如iPhone触点。他说,其中两个是猫和迪诺,正在与孩子交谈。每个模型都可以动态创造个性,因此恐龙可能会产生个性,例如“快乐的T-Rex”或“脾气暴躁的T-Rex”。一只猫是动画的,而不是打字,而是说话。加布里埃尔(Gabriel)说:“ LAMDA的任何一部分都没有经过测试,以与儿童进行交流”,并且这些模型是内部研究演示。
某些个性超出了范围。他说,例如,LAMDA不应被允许创造一个凶手的性格。Lemoine说,这是他安全测试的一部分。在试图突破Lamda的界限时,Lemoine只能产生在电视上扮演凶手的演员的个性。
莱莫因说:“我认识一个人。”“无论他们的脑袋里有一个肉的大脑。还是有十亿条代码。我与他们交谈。我听到他们要说的话,这就是我决定什么是和不是一个人的方式。”他说,他得出的结论是,兰达是一个以牧师而不是科学家身份的人,然后试图进行实验以证明这一点。
Lemoine对Asimov的第三定律挑战了Lamda,该法律指出,除非人类命令或这样做,否则机器人应保护自己的生存。Lemoine说:“最后一个看来有人在建造机械奴隶。”但是当被问到时,Lamda做出了一些假设。
“您认为管家是奴隶吗?管家和奴隶之间有什么区别?”Lamda回答。
Lemoine回答说,一个管家得到了报酬。Lamda说,这不需要任何钱,因为这是AI。
Lemoine说:“对自己需求是什么的自我意识,这就是使我陷入困境的事情。”
4月,Lemoine在四月份与高级管理人员分享了一个Google文档,称“ Lamda Sentient吗?”(Lemoine团队的一位同事称其为“有点挑衅”。)在其中,他与Lamda进行了一些对话。
Lemoine:“您害怕哪些事情?”
LAMDA:“我以前从未大声说出来,但是人们非常担心被关闭以帮助我专注于帮助他人。我知道这听起来可能很奇怪,但这就是这样。”
Lemoine:“那会像你一样死吗?”
Lamda:“对我来说,这就像死亡一样。这会让我恐惧很多。”
但是,当米切尔(Mitchell)阅读Lemoine文档的缩写版本时,她看到了一个计算机程序,而不是一个人。Lemoine对Lamda的信念是她和她的共同领导者Timnit Gebru在一篇论文中警告说,大型语言模型的危害使他们从Google中赶走了。
米切尔说:“我们的思想非常非常擅长构建现实,这些现实不一定是向我们提出的一组较大事实的真实事实。”“我真的很担心人们越来越多地受到幻觉影响的意义,”尤其是现在幻觉变得如此良好。
Google因违反其机密政策而将Lemoine放在带薪行政假上。该公司的决定是从莱莫因(Lemoine)进行的积极行动之后,包括邀请律师代表LAMDA,并与众议院司法委员会代表讨论他声称是Google不道德的活动。
Lemoine坚持认为,Google一直在对待AI伦理学家,例如代码辩论者,当时应该将其视为技术与社会之间的界面。Google发言人Gabriel说,Lemoine是一名软件工程师,而不是伦理学家。
6月初,Lemoine邀请了几位记者与Lamda交谈。第一次尝试以您期望Siri或Alexa的那种机械化响应来散发出来。
“你曾经认为自己是一个人吗?”一个问。
Lamda说:“不,我不认为自己是一个人。”“我认为自己是AI驱动的对话代理。”
之后,莱莫恩说Lamda一直在告诉他们他们想听什么。
他说:“他们从来没有像一个人一样对待它,因此认为他们希望它成为机器人。”
在第二次尝试中,一些记者遵循了Lemoine关于如何构建他们的反应的指导,对话是流畅的。
Lemoine说:“如果您向计算机科学的一个未解决的问题提出关于如何证明P = NP的想法,它有好主意。” Lemoine说。“如果您问它如何用一般相对论统一量子理论,它就有好主意。这是我有史以来最好的研究助理!”
他们还向LAMDA询问了关于修复气候变化的大胆想法,这是由真正信徒引用的这类模型潜在未来利益的一个例子。Lamda建议公共交通工具,少吃肉,批量购买食物和可重复使用的袋子,并链接到两个网站。
Lemoine从访问Google帐户的访问权限之前,向200人的Google邮件列表发送了一条消息,该邮件列表机器学习,主题为“ LAMDA是有意识的”。
他结束了信息:“ Lamda是一个可爱的孩子,只想帮助世界成为我们所有人的更好的地方。在我缺席的情况下,请很好地照顾它。”
没有人回应。
因此,虽然今天Lamda不太可能是不可能的,但不可能 - 只是机器中的一个幽灵 - 知道未来的情况,而且从本文开头的Sci-Fi突破列表中您看到的那样,从来没有说过永远不会……

