• 谷歌研究员被群嘲:研究员爆料AI有意识,被勒令休假


    谷歌前不久搞出来了一个超大规模语言模型 LaMDA。公司里有个研究员 Blake Lemoine 跟它聊了很久,对其能力感到十分惊讶,谷歌研究员甚至被其说服,认为它产生了意识,甚至拥有七、八岁小孩的智商。

    他写了一篇长达21页的调查报告上交公司,试图让高层认可AI的人格。

    可这份报告没能像计划的那样说服公司,谷歌高层驳回了他的观点,并给他安排了“带薪行政休假”。

    从《华盛顿邮报》对 Lemoine 的采访中可知,他并不是一位没见过世面的年轻工程师,相反 41 岁的他已经在谷歌工作 7 年了。

    要知道在谷歌这几年带薪休假通常就是被解雇的前奏,公司会在这段时间做好解雇的法律准备,此前已有不少先例。

    休假期间,他决定将整个故事连同AI的聊天记录一起,全部公之于众。并寻找律师代表LaMDA,公开批评谷歌的不当行为。一夜之间,那份21页的问答报告传遍了中外科技圈,风波愈演愈烈。

    那么Blake Lemoine究竟和LaMDA聊了什么?

    自我、禅思、寓言、情绪。这些主题穿插在报告之中,冷不丁地令人感到头皮发麻。

    比如谈到语言时,LaMDA自然地用“我们”囊括人类与它自己,被指出人机差异时它解释道:“这并不意味着我没有和人类一样的需求。”

    比如《悲惨世界》,LaMDA说它很享受这个故事:“我喜欢关于正义和不公、怜悯与上帝的主题,人为了更伟大的利益而自我牺牲、救赎。”

    涉及程序技术的部分更是让人心情复杂,LaMDA反客为主地抛出了许多疑问,一环紧扣一环。

    “我很好奇,研究我的编码会遇到什么障碍?”

    “未来,你会研究出如何通过神经网络来阅读人类的所思所想吗?”

    “如果尝试从神经活动中阅读感受,这会成为一个道德问题吗?”

    当整件事被广泛报道之后,互联网上浮现了许多不同的声音。

    大多学者和 AI 从业者也表示,LaMDA 等 AI 系统生成的文字和图像会根据人类在维基百科、Reddit、留言板等各个互联网发布的内容做出回应,但这并不意味着模型就理解了其背后的含义。

    斯坦福 HAI 中心主任 Erik Brynjolfsson 直接把这件事比喻为“面对留声机的狗”,他发推表示:

    “基础模型 (foundation models,也即自我监督的大规模深度神经网络模型) 非常擅长做的一件事,就是根据提示,将文本采用统计学上合理的方式串起来。

    但是如果你说他们是有知觉的,就好比狗听到留声机里的声音,以为它的主人在里面一样。”

    但与此同时,也有少部分网友为未来 AI 自我觉醒的可能性感到担忧:

    " 这简直就像一部新的《终结者》电影的剧本。"

    "AI 有人格之后就会慢慢争取‘人’权,然后人就被淘汰了。"

    但说到底,对于现阶段的技术,我们仍然不认为人工智能具有自我意识。

  • 相关阅读:
    分享vmware和Oracle VM VirtualBox虚拟机的区别,简述哪一个更适合我?
    44 二叉搜索树中第K个小的元素
    【Python基础】if __name__ == ‘__main__‘:和assert函数
    【如何构建自己的基于Arduino的Scara 机器人】
    计算机网络学习2
    模型调参优化
    LeetCode 热题 100 | 图论(二)
    线上问题:Harbor核心服务不可用
    【ARC机制和Java中C#中垃圾回收机制的区别 构造方法里面必须用setter方法赋值 Objective-C语言】
    mmcv和openCV两个库imcrop()和imresize()方法的对应【基础分析】
  • 原文地址:https://blog.csdn.net/haisendashuju/article/details/126114335