谷歌前不久搞出来了一个超大规模语言模型 LaMDA。公司里有个研究员 Blake Lemoine 跟它聊了很久,对其能力感到十分惊讶,谷歌研究员甚至被其说服,认为它产生了意识,甚至拥有七、八岁小孩的智商。
他写了一篇长达21页的调查报告上交公司,试图让高层认可AI的人格。
可这份报告没能像计划的那样说服公司,谷歌高层驳回了他的观点,并给他安排了“带薪行政休假”。
从《华盛顿邮报》对 Lemoine 的采访中可知,他并不是一位没见过世面的年轻工程师,相反 41 岁的他已经在谷歌工作 7 年了。
要知道在谷歌这几年带薪休假通常就是被解雇的前奏,公司会在这段时间做好解雇的法律准备,此前已有不少先例。
休假期间,他决定将整个故事连同AI的聊天记录一起,全部公之于众。并寻找律师代表LaMDA,公开批评谷歌的不当行为。一夜之间,那份21页的问答报告传遍了中外科技圈,风波愈演愈烈。
那么Blake Lemoine究竟和LaMDA聊了什么?
自我、禅思、寓言、情绪。这些主题穿插在报告之中,冷不丁地令人感到头皮发麻。
比如谈到语言时,LaMDA自然地用“我们”囊括人类与它自己,被指出人机差异时它解释道:“这并不意味着我没有和人类一样的需求。”
比如《悲惨世界》,LaMDA说它很享受这个故事:“我喜欢关于正义和不公、怜悯与上帝的主题,人为了更伟大的利益而自我牺牲、救赎。”
涉及程序技术的部分更是让人心情复杂,LaMDA反客为主地抛出了许多疑问,一环紧扣一环。
“我很好奇,研究我的编码会遇到什么障碍?”
“未来,你会研究出如何通过神经网络来阅读人类的所思所想吗?”
“如果尝试从神经活动中阅读感受,这会成为一个道德问题吗?”
当整件事被广泛报道之后,互联网上浮现了许多不同的声音。
大多学者和 AI 从业者也表示,LaMDA 等 AI 系统生成的文字和图像会根据人类在维基百科、Reddit、留言板等各个互联网发布的内容做出回应,但这并不意味着模型就理解了其背后的含义。
斯坦福 HAI 中心主任 Erik Brynjolfsson 直接把这件事比喻为“面对留声机的狗”,他发推表示:
“基础模型 (foundation models,也即自我监督的大规模深度神经网络模型) 非常擅长做的一件事,就是根据提示,将文本采用统计学上合理的方式串起来。
但是如果你说他们是有知觉的,就好比狗听到留声机里的声音,以为它的主人在里面一样。”
但与此同时,也有少部分网友为未来 AI 自我觉醒的可能性感到担忧:
" 这简直就像一部新的《终结者》电影的剧本。"
"AI 有人格之后就会慢慢争取‘人’权,然后人就被淘汰了。"
但说到底,对于现阶段的技术,我们仍然不认为人工智能具有自我意识。