• Scientific discovery in the age of artificial intelligence


    人工智能时代的科学发现

    摘要

    人工智能(AI)正越来越多地融入科学发现,以增强和加速研究,帮助科学家产生假设,设计实验,收集和解释大型数据集,并获得仅使用传统科学方法可能无法获得的见解。在这里,我们研究了过去十年的突破,包括自我监督学习,它允许模型在大量未标记的数据上进行训练,以及几何深度学习,它利用有关科学数据结构的知识来提高模型的准确性和效率。生成式人工智能方法可以通过分析各种数据模式(包括图像和序列)来创建设计,例如小分子药物和蛋白质。我们将讨论这些方法如何在整个科学过程中帮助科学家,以及尽管取得了这些进步,但仍然存在的核心问题。人工智能工具的开发人员和用户都需要更好地了解这些方法何时需要改进,数据质量差和管理不善带来的挑战仍然存在。这些问题跨越了科学学科,需要开发能够有助于科学理解或自主获取科学知识的基础算法方法,使其成为人工智能创新的关键重点领域。

    形成科学见解和理论的基础是如何收集、转换和理解数据。2010年代初,深度学习的兴起极大地扩展了这些科学发现过程的范围和雄心。人工智能(AI)越来越多地应用于科学学科,用于整合大量数据集,改进测量,指导实验,探索与数据兼容的理论空间,并提供与科学工作流程集成的可操作且可靠的模型,用于自主发现。数据收集和分析是科学理解和科学发现的基础,而科学发现是科学的两个中心目标。长期以来,定量方法和新兴技术,从显微镜等物理仪器到自举等研究技术,一直被用于实现这些目标。20世纪50年代数字化的引入为计算机在科学研究中的普遍应用铺平了道路。自2010年代以来,数据科学的兴起使人工智能能够通过从大型数据集中识别科学相关的模式来提供有价值的指导。

    尽管科学实践和程序在科学研究的各个阶段有所不同,但人工智能算法的发展跨越了传统上孤立的学科(图1)。此类算法可以增强科学研究的设计和执行。通过优化参数和功能,自动化收集、可视化和处理数据的程序,探索候选假设的广阔空间以形成理论,生成假设并估计其不确定性以提出相关实验,它们正成为研究人员不可或缺的工具。

    自2010年代初以来,由于大型数据集的可用性,以及快速和大规模并行计算和存储硬件(图形处理单元和超级计算机)以及新算法的帮助,人工智能方法的能力大大增强。后者包括深度表征学习(方框1),特别是多层神经网络,它能够识别基本的、紧凑的特征,这些特征可以同时解决构成科学问题的许多任务。其中,几何深度学习(方框1)已被证明有助于整合科学知识,以物理关系、先验分布、约束和其他复杂描述符(如分子中原子的几何形状)的紧凑数学陈述的形式呈现。自监督学习(框1)使在标记或未标记数据上训练的神经网络能够将学习到的表示转移到具有很少标记示例的不同领域,例如,通过预训练大型基础模型8并使其适应于解决不同领域的不同任务。此外,生成模型(框1)可以估计复杂系统的底层数据分布,并支持新的设计。与人工智能的其他用途不同,强化学习方法(框1)通过探索许多可能的场景,并根据指标(如从考虑的实验中预期的信息增益)为不同的行动分配奖励,找到环境的最佳策略。

    在人工智能驱动的科学发现中,可以使用适当的归纳偏差将科学知识纳入人工智能模型(框1),归纳偏差是表示结构、对称性、约束和先验知识的假设,作为紧凑的数学陈述。然而,应用这些定律可能会导致一些方程过于复杂,即使使用传统的数值方法,人类也无法求解。一种新兴的方法是将科学知识纳入人工智能模型,包括有关物理定律或分子结构原理和蛋白质折叠结合原理的基本方程的信息。这种归纳偏差可以通过减少达到相同精度所需的训练样本数量,并将分析扩展到尚未探索的科学假设的广阔空间,从而增强人工智能模型。

    与利用人工智能的其他人类活动领域相比,将人工智能用于科学创新和发现带来了独特的挑战。最大的挑战之一是科学问题中假设空间的浩瀚,使得系统的探索不可行。例如,在生物化学领域,估计有1060种类似药物的分子有待探索。人工智能系统有可能通过加速流程和提供接近实验精度的预测来彻底改变科学工作流程。然而,为人工智能模型获得可靠的注释数据集存在挑战,这可能涉及耗时且资源密集的实验和模拟13。尽管存在这些挑战,但人工智能系统可以实现高效、智能和高度自主的实验设计和数据收集,人工智能系统可以在人类监督下运行,以评估、评估结果并采取行动。这种能力促进了人工智能代理的发展,这些代理可以在动态环境中持续互动,例如,可以做出实时决策来导航平流层气球。人工智能系统可以在解释科学数据集和以广义方式从科学文献中提取关系和知识方面发挥重要作用。最近的研究结果表明,无监督语言人工智能模型有潜力捕捉复杂的科学概念,如元素周期表,并在功能材料发现前几年预测其应用,这表明有关未来发现的潜在知识可能嵌入在过去的出版物中。

    最近的进展,包括成功解开长达50年的蛋白质折叠问题,以及人工智能驱动的数百万粒子分子系统模拟,都证明了人工智能在解决具有挑战性的科学问题方面的潜力。然而,发现的非凡前景伴随着新兴领域“AI for Science”(AI4Science)的重大挑战。与任何新技术一样,AI4Science的成功取决于我们将其融入日常实践的能力,以及了解其潜力和局限性的能力。在科学发现中广泛采用人工智能的障碍包括发现过程中每个阶段特有的内部和外部因素,以及对方法、理论、软件和硬件的效用的担忧,以及潜在的滥用。我们探索AI4Science的发展和解决关键问题,包括科学行为、传统怀疑主义和实施挑战。

    人工智能辅助的科学研究数据收集和整理

    数据选择

    一个典型的粒子碰撞实验每秒产生超过100tb的数据。这样的科学实验正在挑战现有数据传输和存储技术的极限。在这些物理实验中,超过99.99%的原始仪器数据代表了必须实时检测和丢弃的背景事件,以管理数据速率18。为了识别未来科学探究的罕见事件,深度学习方法18用搜索外围信号的算法取代预先编程的硬件事件触发器,以检测在压缩过程中可能遗漏的不可预见或罕见现象。背景过程可以使用深度自动编码器19(框1)生成建模。对于以前未见过的背景分布之外的信号(罕见事件),自动编码器20返回更高的损失值(异常分数)。与有监督异常检测不同,无监督异常检测不需要注释,已广泛应用于物理学21,22、神经科学23、地球科学24、海洋学25和天文学26。

    数据注释

    训练监督模型需要带有注释标签的数据集,这些数据集提供监督信息来指导模型训练,并从输入中估计目标变量的函数或条件分布。伪标记27和标签传播28是费力的数据标记的诱人替代方案,允许仅基于一小部分准确注释对大量未标记的数据集进行自动注释。在生物学中,由于实验生成标签的困难,为新表征的分子分配功能和结构标签的技术对于监督模型的下游训练至关重要。例如,尽管下一代测序技术不断发展,但只有不到1%的测序蛋白被标注了生物学功能29。数据标记的另一种策略是利用人工标记数据训练的代理模型来注释未标记的样本,并使用这些预测的伪标签来监督下游预测模型。相反,标签传播通过基于特征嵌入构建的相似图将标签扩散到未标记的样本13,30(框1)。除了自动标记外,主动学习31 - 33(框1)还可以识别出需要人类标记的信息量最大的数据点或要进行的信息量最大的实验。这种方法允许使用更少的专家提供的标签来训练模型。数据注释的另一个策略是开发利用领域知识的标签规则34,35。

    数据生成

    深度学习性能随着训练数据集的质量、多样性和规模的增加而提高37,38。创建更好模型的有效方法是通过自动数据增强和深度生成模型生成额外的合成数据点来增强训练数据集。除了手动设计这样的数据增强(框1)之外,强化学习方法39还可以发现一种灵活且不受下游模型影响的自动数据增强策略40,41。深度生成模型,包括变分自编码器、生成对抗网络、归一化流和扩散模型,可以学习底层数据分布,并可以从优化分布中采样训练点。生成对抗网络(框1)已被证明对科学图像是有益的,因为它们可以合成许多领域的真实图像,从粒子碰撞事件42、病理幻灯片43、胸部x光片44、磁共振对比45、三维(3D)材料微观结构46、蛋白质功能47、48到基因序列49。一种新兴的生成建模技术是概率编程50,其中数据生成模型被表示为计算机程序。

    数据细化

    高精度仪器,如超高分辨率激光器和非侵入性显微镜系统,可以通过计算现实世界的物体来直接测量物理量或间接测量,从而产生高度精确的结果。人工智能技术显著提高了测量分辨率,降低了噪音,消除了测量圆度的误差,从而实现了跨站点的高精度一致性。人工智能在科学实验中的应用实例包括可视化时空区域(如黑洞)、捕捉物理粒子碰撞(51)、提高活细胞图像(52)的分辨率(52)以及更好地检测生物环境中的细胞类型(53)。深度卷积方法利用了诸如光谱反卷积54,55、灵活稀疏性52和生成能力56等先进算法,可以将较差的时空分辨率测量结果转化为高质量、超分辨率和结构化的图像。在各个科学学科中,人工智能的一项重要任务是去噪,即从噪声中区分相关信号并学习去除噪声。去噪自动编码器57可以将高维输入数据投影成更紧凑的基本特征表示。这些自动编码器最大限度地减少了未损坏的输入数据点和它们的噪声损坏版本的压缩表示的重建之间的差异。其他形式的分布学习自编码器,如变分自编码器(VAEs;框1)58,也经常使用。VAEs通过潜在的自动编码学习随机表示,该编码保留了基本的数据特征,同时忽略了非必要的变异源,可能表示随机噪声。例如,在单细胞基因组学中,自动编码器在数百万细胞中优化基于计数的基因激活载体59,通常用于改进蛋白质- rna表达分析。

    学习科学数据的有意义的表示

    深度学习可以在各种抽象层次上提取科学数据的有意义的表示,并对其进行优化,以指导研究,通常是通过端到端学习(框1)。一个高质量的表示应该保留尽可能多的数据信息,同时保持简单和可访问性60。科学上有意义的表征是紧凑的(compact21)、有区别的(discriminative61),能够理清潜在的变异因素(disententfactors) 62,并编码在众多任务中一般化的潜在机制(63,64)。在这里,我们介绍了满足这些要求的三种新兴策略:几何先验、自监督学习和语言建模。

    几何先验

    在学习表征中整合几何先验已被证明是有效的,因为几何和结构在科学领域发挥着核心作用[66 - 68]。对称是几何学中一个被广泛研究的概念。它可以用不变性和等变性(方框1)来描述,以表示数学函数(如神经特征编码器)在一组变换(如刚体动力学中的SE(3)组)下的行为。重要的结构性质,如分子体系的二级结构含量、溶剂可及性、残留物致密性和氢键模式,与空间取向无关。在对科学图像的分析中,物体在图像中平移时不会发生变化,这意味着图像分割掩码是平移等变的,因为当输入像素被平移时,它们会发生等效变化。通过增加训练样本,将对称性纳入模型可以使人工智能在有限的标记数据集(如3D RNA和蛋白质结构70,71)中受益,并且可以改进外推预测,以获得与模型训练期间遇到的输入明显不同的输入

    几何深度学习

    图神经网络已经成为对具有底层几何和关系结构的数据集进行深度学习的主要方法72 - 76(图2a)。从更广泛的意义上讲,几何深度学习涉及发现关系模式(65)和为神经网络模型配备归纳偏差(归纳偏差通过神经消息传递算法(80 - 84)明确利用以图和变换组形式编码的本地化信息[77 - 79])。根据科学问题的不同,人们开发了各种图形表示来捕捉复杂的系统85 - 87。定向边可以促进玻璃系统的物理建模88,边缘连接多个节点的超图用于染色质结构理解89,多模态图训练的模型用于创建基因组学中的预测模型90,稀疏,不规则和高度相关的图已应用于许多大型强子对撞机物理任务。包括从探测器读数中重建粒子和从背景过程中区分物理信号。

    Self-supervised学习

    当只有少数标记样本可用于模型训练或为特定任务标记数据过于昂贵时,监督学习可能是不够的。在这种情况下,利用标记和未标记的数据可以提高模型性能和学习能力。自监督学习是一种使模型能够在不依赖显式标签的情况下学习数据集的一般特征的技术。有效的自我监督策略包括预测图像的遮挡区域,预测视频中过去或未来的帧,以及使用对比学习来教模型区分相似和不相似的数据点92(图2b)。在微调小标记数据集上的模型以执行下游任务之前,自监督学习可以是学习大型未标记数据集中可转移特征的关键预处理步骤92 - 95。这种对科学领域有广泛理解的预训练模型[96 - 98]是通用的预测器,可以适应各种任务,从而提高标签效率,超越纯监督方法[8]。

    语言模型

    掩模语言建模是自然语言和生物序列自监督学习的一种流行方法(图2c)。将原子或氨基酸(符号)排列成结构以产生分子和生物功能,类似于字母组成单词和句子以定义文件的含义。随着自然语言和生物序列处理的不断发展,它们相互影响着彼此的发展。在训练过程中,目标是预测序列中的下一个令牌,而在基于掩码的训练中,自监督任务是使用双向序列上下文恢复序列中的掩码令牌。蛋白质语言模型可以编码氨基酸序列来获取结构和功能特性(100,101),并评估病毒变体的进化适应性(102)。这种表示可以在各种任务之间转换,从序列设计103 - 105到结构预测106。在处理生化序列107 - 109时,化学语言模型促进了对广阔化学空间的有效探索110,111。它们已被用于预测性质(112)、计划多步合成(113)和探索化学反应的空间(115 - 117)。

    Transformer 的架构

    transformer (Box 1)118是一种神经架构模型,可以通过灵活地建模任意令牌对之间的相互作用来处理令牌序列,超越了使用递归神经网络进行顺序建模的早期努力。变形金刚在自然语言处理中占主导地位37,99,并已成功地应用于一系列问题,包括地震信号检测119、DNA和蛋白质序列建模10,120、序列变异对生物功能的影响建模10,121和符号回归122。虽然变压器统一了图形神经网络和语言模型123 - 125,但变压器的运行时间和内存占用可以随着序列的长度二次扩展,导致远程建模120和线性注意力机制126解决效率挑战。因此,无监督或自监督生成预训练变压器,然后是参数有效微调,被广泛使用。

    Neural operators

    标准的神经网络模型可能不适合科学应用,因为它们假设一个固定的数据离散化。这种方法不适用于以不同分辨率和网格收集的许多科学数据集。此外,数据通常是从连续域的底层物理现象中采样,例如地震活动或流体流动。神经算子通过学习函数空间之间的映射来学习表征不变到离散化127,128。神经算子保证离散化不变性,这意味着它们可以处理任何离散化的输入,并收敛到网格细化的极限。一旦神经操作员被训练,他们就可以在任何分辨率下进行评估,而不需要重新训练。相比之下,当部署期间的数据分辨率与模型训练发生变化时,标准神经网络的性能会下降。

    基于人工智能的科学假设生成

    可检验的假设是科学发现的核心。它们可以有多种形式,从数学中的符号表达式到化学中的分子和生物学中的遗传变异。提出有意义的假设可能是一个艰苦的过程,约翰内斯·开普勒(Johannes Kepler)就是一个例子,他花了四年时间分析恒星和行星的数据,然后得出了一个导致发现行星运动规律的假设。人工智能方法可以在这个过程的几个阶段提供帮助。他们可以通过从嘈杂的观察中识别候选符号表达式来产生假设。它们可以帮助设计物体,例如与治疗靶点结合的分子,或与数学猜想相矛盾的反例,建议在实验室进行实验评估。此外,人工智能系统可以学习假设的贝叶斯后验分布(框1),并使用它来生成与科学数据和知识兼容的假设131。

    科学假设的黑箱预测器

    为科学研究确定有希望的假设需要有效地检查许多候选人,并选择那些可以最大化下游模拟和实验产量的候选人。在药物发现中,高通量筛选可以评估成千上万的分子,算法可以优先考虑哪些分子需要进行实验研究132。可以训练模型来预测实验的效用,例如相关的分子特性133,134或符合观察结果的符号公式122。然而,对于许多分子来说,这些预测因子的实验基础数据可能是不可用的。因此,可以使用弱监督学习方法(框1)来训练这些模型,其中使用有噪声、有限或不精确的监督作为训练信号。它们可以作为人类专家注释的成本效益代理,昂贵的计算机计算或更高保真度的实验(图3a)。
    经过高保真模拟训练的人工智能方法已被用于有效筛选大型分子库,例如160万个有机发光二极管候选材料133和110亿个基于合成的配体候选材料134。在基因组学中,通过训练变压器结构来预测DNA序列的基因表达值,可以帮助确定遗传变异的优先级120。在粒子物理学中,确定质子中的内在粲夸克需要筛选所有可能的结构,并对每个候选结构拟合实验数据。为了进一步提高这些过程的效率,可以将人工智能选择的候选物发送到中通量或低通量实验中,以便使用实验反馈不断改进候选物。结果可以通过主动学习136和贝叶斯优化137(框1)反馈到人工智能模型中,允许算法改进其预测并专注于最有希望的候选对象。
    当假设涉及分子等复杂物体时,人工智能方法变得非常宝贵。例如,在蛋白质折叠中,AlphaFold210可以从氨基酸序列中以原子精度预测蛋白质的三维原子坐标,即使蛋白质的结构与训练数据集中的任何蛋白质都不同。这一突破导致了各种人工智能驱动的蛋白质折叠方法的发展,如RoseTTAFold106。除了正向问题,人工智能方法越来越多地用于反问题,旨在了解产生一系列观察结果的因果因素。反问题,如反折叠或固定主链设计,可以使用经过数百万蛋白质结构训练的黑箱预测器,从蛋白质主链的三维原子坐标预测氨基酸序列105。然而,这种黑箱人工智能预测器需要大量的训练数据集,并且提供有限的可解释性,尽管减少了对先前科学知识可用性的依赖。

    导航组合假设空间

    尽管对所有与数据兼容的假设进行抽样是令人生畏的,但一个可控的目标是寻找一个好的假设,这可以被表述为一个优化问题。与依赖人工设计规则的传统方法138不同,人工智能策略可以用来估计每次搜索的奖励,并优先考虑价值更高的搜索方向。通常使用由强化学习算法训练的代理来学习策略。智能体学习在搜索空间中采取行动,使奖励信号最大化,这可以被定义为反映生成的假设或其他相关标准的质量。

    优化可微假设空间

    科学假设通常采用离散对象的形式,例如物理学中的符号公式或制药和材料科学中的化学化合物。虽然组合优化技术已经成功地解决了其中的一些问题,但可微空间也可以用于优化,因为它适用于基于梯度的方法,可以有效地找到局部最优解。为了使用基于梯度的优化,经常使用两种方法。第一种方法是使用诸如VAEs之类的模型将离散的候选假设映射到潜在可微空间中的点。第二种方法是将离散假设松弛为可微对象,并在可微空间中进行优化。这种松弛可以采取不同的形式,例如用连续变量替换离散变量,或者使用原始约束的软版本。

    人工智能驱动的实验和模拟

    通过实验评估科学假设对科学发现至关重要。然而,实验室实验既昂贵又不切实际。计算机模拟已经成为一种很有前途的替代方案,为更有效和灵活的实验提供了潜力。虽然模拟依赖于手工制作的参数和启发式来模仿现实世界的场景,但与物理实验相比,它们需要在准确性和速度之间进行权衡,这就需要理解潜在的机制。然而,随着深度学习的出现,这些挑战正在通过识别和优化有效测试的假设以及授权计算机模拟将观察与假设联系起来来解决。

    科学假设的有效评估

    通过模拟从假设中推断出可观察的结果

    大挑战

    为了利用科学数据,必须建立模型,并利用模拟和人类专业知识。这种融合为科学发现提供了机会。然而,为了进一步增强人工智能在科学学科上的影响,需要在理论、方法、软件和硬件基础设施方面取得重大进展。跨学科合作对于实现通过人工智能推进科学的全面和实用方法至关重要。

    实际考虑

    由于测量技术的限制,会产生不完整的数据集和有偏差或冲突的读数,并且由于隐私和安全问题,可访问性有限,科学数据集通常不能直接适用于人工智能分析。需要采用标准化和透明的格式,以减轻数据处理的工作量。模型卡197和数据表198是努力记录科学数据集和模型的操作特征的例子。此外,可以使用federated learning199,200和cryptographic201算法来防止将具有高商业价值的敏感数据发布到公共领域。利用开放的科学文献、自然语言处理和知识图谱技术可以促进文献挖掘,以支持材料发现(15)、化学合成(202)和治疗科学(203)。

    深度学习的使用对人工智能驱动的设计、发现和评估提出了复杂的挑战。为了自动化科学工作流程、优化大规模模拟代码和操作仪器,自主机器人控制可以利用预测并在高通量合成和测试线上进行实验,从而创建自动驾驶实验室。生成模型在材料探索中的早期应用表明,数百万种可能的材料可以被识别出具有所需的特性和功能,并评估其可合成性。例如,King等人204将逻辑人工智能和机器人技术结合起来,自主生成关于酵母的功能基因组学假设,并使用实验室自动化对这些假设进行实验测试。在化学合成中,人工智能优化候选合成路线,然后由机器人在预测的合成路线上指导化学反应7。

    人工智能系统的实际实施涉及复杂的软件和硬件工程,需要一系列相互依存的步骤,从数据管理和处理到算法实现以及用户和应用程序界面的设计。实施中的微小变化可能导致性能的重大变化,并影响将人工智能模型集成到科学实践中的成功。因此,需要同时考虑数据和模型的标准化。由于模型训练的随机性、不断变化的模型参数和不断发展的训练数据集(既依赖于数据又依赖于任务),人工智能方法可能会受到再现性的影响。标准化的基准测试和实验设计可以缓解这些问题。提高可重复性的另一个方向是通过开源计划,发布开放模型、数据集和教育计划。

    算法的创新

    为了促进科学理解或自主获取科学知识,需要算法创新来建立一个基础生态系统,在整个科学过程中使用最合适的算法。
    分布外泛化问题是人工智能研究的前沿问题。对来自特定区域的数据进行训练的神经网络可能会发现在基础分布发生变化的不同区域中无法推广的规律(框1)。尽管许多科学定律并不普遍,但它们的适用性通常是广泛的。与最先进的人工智能相比,人类大脑可以更好更快地适应修改后的环境。一个有吸引力的假设是,这是因为人类不仅建立了一个他们观察到的统计模型,而且建立了一个因果模型,也就是说,一个由所有可能的干预(例如,不同的初始状态,代理的行为或不同的制度)索引的统计模型家族。将因果关系纳入人工智能仍然是一个年轻的领域208 - 212,还有很多工作要做。自我监督学习等技术对科学问题具有巨大的潜力,因为它们可以利用大量未标记的数据,并将其知识转移到低数据机制中。然而,目前的迁移学习方案可能是临时的,缺乏理论指导213,并且容易受到潜在分布变化的影响214。虽然初步的尝试已经解决了这一挑战,但需要更多的探索来系统地测量跨域的可转移性并防止负迁移。此外,为了解决科学家们所关心的困难,人工智能方法的开发和评估必须在现实世界的场景中进行,例如在药物设计中合理实现的合成路径217,218,并包括经过校准的不确定性估计器,以评估模型的可靠性,然后将其过渡到现实世界的实施。

    科学数据是多模态的,包括图像(如宇宙学中的黑洞图像)、自然语言(如科学文献)、时间序列(如材料的热变黄)、序列(如生物序列)、图形(如复杂系统)和结构(如3D蛋白质配体构象)。例如,在高能物理学中,喷流是由夸克和胶子在高能量下产生的粒子的准直喷雾。从辐射模式中识别它们的子结构有助于寻找新的物理学。射流子结构可以用图像、序列、二叉树、一般图和张量集来描述18。虽然利用神经网络处理图像已经得到了广泛的研究,但仅处理粒子图像是不够的。同样,孤立地使用射流子结构的其他表示也不能给出复杂系统的整体和综合系统视图。尽管整合多模态观测仍然是一个挑战,但神经网络的模块化特性意味着不同的神经模块可以将不同的数据模态转换为通用的向量表示220,221。

    科学知识,如分子的旋转等变性77、数学中的等式约束182、生物学中的疾病机制222和复杂系统中的多尺度结构223、224,都可以纳入人工智能模型。然而,哪些原则和知识是最有帮助和实用的,目前还不清楚。由于人工智能模型需要大量数据来拟合,因此在数据集较小或注释较少的情况下,将科学知识纳入模型可以帮助学习。因此,研究必须建立有原则的方法,将知识整合到人工智能模型中,并理解领域知识和从测量数据中学习之间的权衡。

    人工智能方法通常像黑盒子一样运作,这意味着用户无法完全解释输出是如何产生的,以及在产生输出时哪些输入是至关重要的。黑箱模型可能会降低用户对预测的信任,并且在现实世界实施之前必须了解模型输出225 - 227的领域(如人类空间探索领域)和预测为政策提供信息的领域(如气候科学领域)的适用性有限。尽管有大量的可解释性技术,透明的深度学习模型仍然难以捉摸(231 - 233)。然而,人类大脑可以综合高层次的解释,即使不完美,也可以说服其他人,这一事实带来了希望,即通过在类似的高层次抽象上对现象进行建模,未来的人工智能模型将提供至少与人类大脑提供的解释一样有价值的可解释解释。这也表明,研究更高层次的认知可能会激发未来的深度学习模型,将当前的深度学习能力和操纵可语言抽象、因果推理和从分布中归纳的能力结合起来。

    科学行为与科学事业

    展望未来,对人工智能专业知识的需求将受到两股力量的影响。首先,存在一些即将受益于人工智能应用的问题,比如自动驾驶实验室。第二,智能工具提高技术水平和创造新机会的能力,例如检查实验无法获得的生物、化学或物理过程的长度和时间。在这两股力量的基础上,我们预计研究团队的组成将发生变化,包括人工智能专家、软件和硬件工程师,以及涉及各级政府、教育机构和企业的新型合作形式。最近最先进的深度学习模型的规模继续扩大。这些模型由数百万甚至数十亿个参数组成,并且每年的规模都增长了十倍。训练这些模型涉及到通过复杂的参数化数学运算来传输数据,并更新参数以将模型输出推向所需值。然而,计算这些更新的计算和数据需求是巨大的,导致大量的能源足迹和高计算成本。因此,大型科技公司在计算基础设施和云服务方面投入了大量资金,突破了规模和效率的极限。虽然营利性和非学术性组织可以使用大量的计算基础设施,但高等教育机构可以更好地跨多个学科进行整合。此外,学术机构往往拥有独特的历史数据库和测量技术,这些可能在其他地方不存在,但对AI4Science来说是必要的。这些互补的资产促进了产学研伙伴关系的新模式,这可以影响所追求的研究问题的选择。

    随着人工智能系统的性能接近甚至超过人类,将其作为常规实验室工作的临时替代品正变得可行。这种方法使研究人员能够从实验数据迭代地开发预测模型,并选择实验来改进它们,而无需手动执行费力和重复的任务217,235。为了支持这种范式转变,正在出现教育计划,培训科学家在科学研究中设计、实施和应用实验室自动化和人工智能。这些项目帮助科学家了解何时使用人工智能是适当的,并防止人工智能分析得出的结论被误解。

    人工智能工具的误用和对其结果的误解会产生重大的负面影响。广泛的应用使这些风险更加复杂。然而,人工智能的滥用不仅仅是一个技术问题;它还取决于那些引领人工智能创新和投资人工智能实施的人的激励。建立道德审查流程和负责任的实施策略是必不可少的,包括对AI238的范围和适用性的全面概述。此外,必须考虑与人工智能相关的安全风险,因为将算法实现重新用于双重用途变得更加容易237。由于算法适用于广泛的应用程序,它们可以为一个目的而开发,但用于另一个目的,从而产生对威胁和操纵的漏洞。

    结论

    人工智能系统有助于科学理解,能够对无法以任何其他方式可视化或探索的过程和对象进行调查,并通过从数据中构建模型并将其与模拟和可扩展计算相结合,系统地激发想法。为了实现这一潜力,必须通过负责任和深思熟虑的技术部署来解决使用人工智能带来的安全和安保问题。为了在科学研究中负责任地使用人工智能,我们需要衡量人工智能系统的不确定性、误差和效用的水平。这种理解对于准确解释人工智能输出和确保我们不会过于依赖可能存在缺陷的结果至关重要。随着人工智能系统的不断发展,在适当的保障措施下优先考虑可靠的实施是最大限度地降低风险和最大化效益的关键。人工智能有可能解开以前遥不可及的科学发现。

  • 相关阅读:
    Linux操作系统粘滞位(解决上篇文章提出的问题)
    第144篇:阿里低开项目 init方法
    【C++杂货铺】优先级队列的使用指南与模拟实现
    【FPGA】SDRAM
    关于webpack(v5.74.0)的dllPlugin插件的原理
    Ubuntu 使用 nginx 搭建 https 文件服务器
    OpenGL 曝光度调节
    Android Studio 写一个Java调用c++ 的demo
    在openSUSE-Leap-15.5-DVD-x86_64中使用钉钉dingtalk_7.0.40.30829_amd64
    我是如何实现限流的?
  • 原文地址:https://blog.csdn.net/qq_43372150/article/details/132714600