• Factuality Challenges in the Era of Large Language Models


    本文是LLM系列文章,针对《Factuality Challenges in the Era of Large Language Models》的翻译。
    @TOC

    摘要

    基于大型语言模型(LLM)的工具的出现,如OpenAI的ChatGPT、微软的Bing聊天和谷歌的Bard,引起了公众的极大关注。这些非常有用、听起来很自然的工具标志着自然语言生成的重大进步,但它们表现出生成虚假、错误或误导性内容的倾向——通常被称为幻觉。此外,LLM可能被用于恶意应用程序,例如大规模生成听起来虚假但可信的内容和配置文件。这对社会构成了重大挑战,可能会欺骗用户,并不断传播不准确的信息。鉴于这些风险,我们探索了事实核查人员、新闻机构以及更广泛的研究和政策界所需的技术创新、监管改革和人工智能扫盲举措。通过识别风险、迫在眉睫的威胁和一些可行的解决方案,我们试图阐明在生成人工智能时代把握准确性的各个方面。

    1 引言

    2 风险、威胁和挑战

    3 应对威胁

    4 事实核查机会

    5 结论

    任何能够生成新颖内容的工具也有可能生成误导性内容。因此,任何使用LLM撰写新闻文章、学术报告、电子邮件或任何文本的人都必须验证最基本的事实,无论文本看起来多么流畅。鉴于LLM的使用迅速而广泛地增长,社会必须通过适当的监管、教育和合作迅速采取行动。下面,我们为个人、政府和民主社会提出了一个紧急议程。
    协调与合作:为了确保负责任地开发和部署GenAI技术,各国必须进行协调的研究投资,

  • 相关阅读:
    博客摘录「 【Linux】线程池」2023年10月14日
    制作和合入git补丁
    什么是大数据平台?
    C/C++面试题分享
    使用Scrapy框架集成Selenium实现高效爬虫
    Meta的 Llama-3 在线使用与下载
    Backend - Docker 离线卸载
    Ubuntu手机和电脑安装其他终端Terminal Emulator
    关于原型链
    一、T100应收管理之应收基础数据设置篇
  • 原文地址:https://blog.csdn.net/c_cpp_csharp/article/details/134284861