生信麻瓜的 ChatGPT 4.0 初体验
偷个懒,用ChatGPT 帮我写段生物信息代码
许多研究者表示,AI系统还没有达到意识的程度,但AI的发展速度让他们开始思考:如果AI有意识,我们该如何知道?

类似人类的行为可能很难判断机器人的真实参与程度。来源:Johannes Simon/Getty
为了回答这个问题,由19位神经科学家、哲学家和计算机科学家组成的团队提出了一份标准清单,如果一个系统符合这些标准,那么其很可能具有意识。科学家们于2023年8月22日在预印本库arXiv发表了这份初步指南[1],以供同行评审。这个团队之所以进行这项工作,是因为他们认为目前缺乏关于AI意识详细的、基于实证证据、深思熟虑的讨论,正如加利福尼亚州旧金山的非营利研究机构AI安全中心的哲学家Robert Long所说。

David Chalmers (左) and Christof Koch 于6月23日在纽约见面,以了结他们的赌注。来源: Jesse Winter for Nature
该团队表示,确定一个AI系统是否具有意识具有重要的道德意义。如果一个事物被标记为“有意识”,那么根据共同作者、加利福尼亚大学欧文分校的神经科学家Megan Peters的说法,“我们作为人类认为该实体应该如何被对待,这会改变很多”。
Long补充说,据他所知,构建先进AI系统的公司并没有足够努力地评估模型是否具有意识,以及如果出现这种情况应该怎么做。“尽管如此,如果你听到领先实验室的负责人的评论,他们确实说他们想知道AI意识或者AI的感知能力,”他补充说。
《Nature》杂志联系了两家在推进AI方面参与度最大的科技公司——微软和谷歌。微软的一位发言人表示,该公司的AI开发是以负责任地提高人类生产力为中心,而不是复制人类智能。自从公开发布了GPT-4(最先进的ChatGPT版本)以来, “很明显,我们需要新的方法来评估这些AI模型的能力,因为我们正在探索如何充分利用AI的潜力,以造福整个社会,”这位发言人说。谷歌没有回应。
何为意识?
在AI中研究意识的挑战之一是定义意识的含义。Peters表示,对于这份报告的目的,研究者们关注的是“现象意识”,也就是主观体验。这是存在的体验——作为一个人、一个动物或一个AI系统(如果其中一个确实有意识的话)的体验。

来源:The Project Twins
有许多基于神经科学的理论描述了意识的生物学基础。但是没有哪一个被公认为是“正确”的。为了创建他们的框架,作者们使用了这些理论中的一部分。他们的想法是,如果一个AI系统的功能在许多理论中都有所匹配,那么它有意识的可能性就更大。
他们认为,这种方式比简单地让一个系统通过行为测试来评估是否有意识更好——例如,问ChatGPT是否有意识,或者对其进行挑战看它如何回应。因为AI系统在模仿人类方面已经变得非常出色。
这个团队的方法,作者们描述为理论繁重,是一个好的方向,据神经科学家Anil Seth说,他是英国苏塞克斯大学附近布莱顿的意识科学中心的主任。然而,他强调的是,“我们需要更精确、经过良好测试的意识理论”。
理论繁重的方法
在他们开发这些标准时,作者们假设意识与系统如何处理信息相关,无论他们是由什么构成——无论是神经元、计算机芯片还是其他东西。这种方法被称为计算功能主义。他们还假设,通过脑部扫描和其他技术在人类和动物中进行研究的基于神经科学的意识理论可以应用于AI。

在这些假设的基础上,团队选择了其中的六种理论,并从中提取出一系列的意识指标。例如,其中一个——全局工作空间理论,断言人类和其他动物使用许多专门的系统(也称为模块)来执行认知任务,如视觉和听觉。这些模块独立且并行工作,并通过整合成一个系统来共享信息。一个人会通过“观察系统的架构和信息如何流动”,来评估一个特定的AI系统是否显示出从这个理论衍生出来的指标,Long说。
Seth对团队提案的透明度留下了深刻的印象。“这是一个经深思熟虑的提案,不夸大其词,而且它的假设非常清晰。” 他说,“我对一些假设持有不同的意见,但这完全没有问题,因为我可能是错的。”
作者们表示,这篇论文远非对如何评估AI系统是否有意识的最终说法,他们希望其他研究者能够帮助他们完善他们的方法。但是已经可以将这些准则应用到现有的AI系统。例如,报告评估了像ChatGPT这样的大型语言模型,并发现这种类型的系统可能具有与全局工作空间理论相关的一些意识指标。然而,最终,这项工作并没有表明任何现有的AI系统是有意识的有力候选者——至少目前还不是。
阅读原文内容:
https://doi.org/10.1038/d41586-023-02684-5
查看原文信息:
https://arxiv.org/abs/2308.08708


