AI的幻觉现象是一种奇怪且有时令人担忧的现象。当像ChatGPT这样的AI生成听起来真实但实际上错误或具有误导性的回答时,就会出现这种现象。这种现象尤其常见于大型语言模型(LLM),也就是驱动这些AI工具的神经网络。它们生成的句子很流畅,看起来像是人类所说,但其实并没有真正“理解”它们所呈现的信息。因此,有时它们会编造虚构的内容。对于依赖AI来获取准确信息的人或公司来说,这些幻觉可能是一个大问题——它们会破坏信任,有时甚至会导致严重的错误。
图片由 Freepik Premium 提供(链接)。https://www.freepik.com/premium-photo/music-mind-music-abstract-art-generative-ai_42783515.htm
所以,为什么这些看起来如此先进的模型会犯这么明显的错误呢?原因不仅仅在于糟糕的数据或训练限制;问题更深地在于这些系统的设计方式。AI 模型是基于概率运作的,而不是基于确切的理解,所以它们偶尔会猜测——有时会猜错。有趣的是,有一个历史上的类比能帮助解释这一局限性。1931年,一位名叫库尔特·哥德尔的数学家做出了一个开创性的发现。他证明了每个一致的数学系统都有其边界——有些真理在这个系统内无法被证明为真。他的发现揭示了即使是再严谨的系统也有其局限性,有些事情它们无法应对。
今天,AI研究人员也面临同样的挑战。他们努力减少幻觉,提高大型语言模型的可靠性。但是,这些限制是模型本身固有的。哥德尔的见解帮助我们理解为什么即使是我们最好的系统也永远不会绝对可信。这正是研究人员在努力创造真正让我们依赖的AI过程中所面临的挑战。
哥德尔不完全定理:快速概览
在1931年,Kurt Gödel 用两个突破性的定理震撼了数学和逻辑界。他发现了一个激进的发现:在任何能够处理基本数学的逻辑体系中,总会有些真理无法在该系统内被证明。当时,数学家们正努力构建一个完美无缺、无所不包的数学体系,但 Gödel 却证明了没有任何系统能做到天衣无缝。
哥德尔的第一定理表明,每一个逻辑体系都有它无法独自回答的问题。想象一间上了锁的房间,没有出路——系统无法超越自身的范围。这真是令人震惊的,因为它意味着没有任何逻辑结构能够真正地“完善”或自给自养。
要把它拆解一下,想象一下这句话:“这句话没法被证明。” 这就像一个让人头疼的谜语。如果系统能够证明它是真的,那它就会自己打自己的脸,因为这句话说它“不能”被证明。但如果系统不能证明它,那这就让这句话是真的了!这个小悖论就概括了哥德尔的意思:有些真理就是无法通过任何形式的系统来捕捉的。
然后 Gödel 又抛出一个更大的“曲线球”,即他的第二个定理。他证明了一个系统甚至不能确认自己的一致性。可以把它想象成一本书无法验证它自己说的是否为真。没有任何逻辑系统能完全肯定自己是无误的。“我绝对正确”这样的说法,每个系统都无法做到。这意义重大——这意味着每个系统都必须对其规则抱有一定的“信仰”。
这些定理表明每个结构化的系统都有盲点,这一概念非常相关于今天的AI。以大型语言模型(LLMs)为例,这些AI驱动了我们许多技术工具。它们有时会产生我们所说的“错觉”——看似合理但实际上却是错误的陈述。就像哥德尔的理论一样,这些错觉提醒我们AI逻辑的局限。这些模型是基于模式和概率,而不是真正的事实。哥德尔的工作提醒我们,无论AI多么先进,总会存在一些我们需要理解和接受的限制,这一点始终不变,无论技术如何进步。
AI为什么会产生幻觉?AI 的幻觉是一种棘手的现象,根源在于大型语言模型(LLMs)处理语言和从训练数据中学习的过程。在 AI 领域,当我们说模型“幻觉”时,是指它输出的信息听起来很真实但实际上并非如此。
所以,为什么会出现这些幻象呢?换句话说,这通常是由于训练数据的质量问题。AI 模型通过分析大量的文本——书籍、文章、网站等等——来学习。但如果这些数据存在偏差、不完整或直接就是错误的,AI 就会捕捉到这些缺陷,并开始产生错误的关联。因此,AI 会自信地传播错误的信息,即使这些信息是错误的。
要理解为什么会这样,看看大型语言模型如何处理语言会有所帮助。与人类不同,人类会将单词视为与现实世界意义相连的符号,而大型语言模型仅仅将单词识别为字母的序列。正如语言学教授Emily M. Bender解释的那样:当你看到“猫”这个词时,你可能会想起与猫相关的记忆或联想。但对于语言模型来说,“猫”只是C-A-T这种字母序列。该模型会根据学到的模式来预测接下来可能出现的词,而不是基于对“猫”这个词的实际理解。
生成式人工智能依赖于模式匹配,而不是真正理解。Jasper(一个AI内容工具)的总裁Shane Orlick直截了当地说:“生成式AI并不真正智能,而是模式匹配。”这就是为什么模型有时会“胡说八道”。它们被设计成给出答案,不论答案对错。
这些模型的复杂性也增加了问题。大型语言模型的设计目的是生成统计上合理的回答,这使得它们的回答流畅且自信。西北大学的教授Christopher Riesbeck解释说:这些模型总是生成“统计上可能”的回答。有时,仔细看后你才会发现,“等等,这根本讲不通。”
由于AI如此自然地呈现这些错误信息,人们可能会不加质疑地相信这些信息。这使得在准确性要求很高的场合,核对AI生成的内容尤为重要。
AI生成的错误示例AI的错误涉及很多方面,涵盖了很多内容,从离谱的回答到严重的误导信息。每个错误都会带来一系列问题,了解这些问题可以帮助我们避开生成式AI的坑。
- 误导性谣言
最令人担忧的一种幻觉是,AI产生的有害误导信息。当AI编造关于真实人物、事件或组织的虚假但看似真实的故事时,就产生了这种幻觉。这些幻觉把事实和虚构混在一起,形成看似真实但实际上完全错误的故事。影响是什么呢?它们可能会损害声誉,误导公众,甚至影响法律判决。
示例: 有一个著名的例子,ChatGPT 被要求提供法律领域性骚扰的示例。该模型编造了一个关于一位知名法学家的故事,错误地声称他在某次活动中骚扰了学生。实际上,根本就没有那次活动,教授也没有任何针对他的指控。他之所以被提及,仅仅是因为他在反对骚扰方面的贡献。这个例子表明,当人工智能混淆事实与谎言时,会给无辜者带来伤害。
图片由 Freepik Premium 制作。来源:https://www.freepik.com/free-ai-image/close-up-ai-robot-trial_94951579.htm
示例: 在另一起事件中,ChatGPT 错误地声称一位澳大利亚市长在九十年代涉及贿赂丑闻。实际上,此人是举报者,而不是涉案人员。这一错误信息造成了严重的后果:它对一名公务员的声誉造成了不公正的影响,甚至引起了美国联邦贸易委员会的注意,该委员会现在正在调查 AI 生成的虚假信息对个人声誉的影响。
示例: 在另一个案例中,一个AI生成的成功企业家的个人资料错误地将她与一起金融丑闻联系在一起。AI模型引用了她在金融透明领域的努力,并将其扭曲成关于她从事非法活动的故事。这样的错误信息可能会对她的职业生涯和声誉造成长期影响。
这些案例说明了由AI生成的虚假信息的危险性。当AI生成有害内容时,后果可能非常严重,甚至造成巨大影响,尤其是在这些内容传播出去并在专业或公共场合被使用时。总之,用户在验证AI生成的内容时应保持高度警惕,特别是涉及真实人物或事件时。
2. 虚构的信息编造的信息是指AI有时会编造内容。它会生成听起来合理的内容,例如引用、网址、案例分析,甚至整个公司或人物——但所有这些都是虚构的。这种错误已经严重到有了自己的术语:幻觉。对于任何利用AI帮助进行研究、法律工作或内容创作的人来说,这些AI“幻觉”可能会带来严重的问题。
例如,在2023年6月,一名纽约律师遇到了大麻烦,因为提交了一份由ChatGPT写的法律文件。该文件提到了一些听起来挺靠谱的案例,但这些案例其实根本不存在。AI生成的这些术语和格式看上去挺专业的,但一切都是假的。事情曝光后,这不仅让律师很尴尬,还被法院处罚了。
或者考虑一篇由人工智能生成的医学文章,引用了一项研究来支持新健康疗法。听起来很可信,对吧?但实际上并不存在这样的研究。相信这篇文章的读者会认为这种疗法是基于证据的,后来才发现一切都是捏造的。在医疗这样的领域,准确性是至关重要的,像这样的虚假信息可能非常危险。
另一个例子:一名大学生为论文生成参考文献,使用了AI工具。之后,学生发现列出的一些文章和作者并不存在——完全是编造的。这不仅看起来很草率,还伤了学生的信誉,并带来了学术上的影响。这再次提醒大家,AI并不总是通往可靠信息的捷径。
伪造的信息常常看起来非常逼真,这使得情况变得复杂。假的引用或研究会混在真实的里面,让用户难辨真假。这就是为什么仔细核对并验证任何AI生成的内容很重要,特别是在这些准确性与可信度至关重要的领域。
3. 事实错误事实不准确是AI生成内容中最常见的陷阱之一。这种情况通常发生在AI提供听起来很可信但实际上却错误或误导性的信息时。这些错误可以从一些可能被忽略的细小错误到一些可能严重影响信息整体可靠性的重大错误不等。我们可以通过一些例子来更好地理解这一点。
以2023年2月发生的事情为例。谷歌的聊天机器人Bard(现更名为Gemini)因一个相当大的失误登上了头条。它声称詹姆斯·韦伯太空望远镜是第一个捕捉到系外行星图像的望远镜。这听起来似乎合理,对吧?但事实并非如此。实际上,第一张系外行星的图像早在2004年就已经被拍摄到了,远早于詹姆斯·韦伯望远镜在2021年发射之前。这正是AI输出看似正确但实际上站不住脚的信息的一个典型例子。
在另一个例子中,微软必应AI在一次现场演示中遇到了类似的问题。当它分析像Gap和Lululemon这样的大公司的收益报告时,错误地解读了数字,误报了关键财务数据。想象一下,在专业环境中,这样的错误可能会带来严重的后果,尤其是当人们基于这样的错误数据做出决策时。
再给你一个额外的例子。有一个设计用来回答通用知识问题的AI工具,曾经把《杀死一只知更鸟》错误地归功于乔治·奥威尔。虽然这只是一个小错误,但也表明即使是像这样的常识,也可能被这些AI搞混。如果这些错误不被纠正,可能会导致大量错误信息的传播。
为什么会这样呢?AI 算法实际上并不“理解”它们处理的数据。相反,它们是通过根据模式来预测接下来的部分来工作的,而不是理解事实。这种缺乏真正的理解意味着,在准确性真正关键的时候,最好仔细检查细节,而不是完全依赖 AI 的结果。
4. 奇怪或毛骨悚然的回应有时候,AI 会出错。它回答问题的方式会让人感觉有些奇怪、困惑甚至不安。这是为什么呢?因为 AI 模型被设计得非常有创造力,如果它们没有足够的信息,或者情况有些模糊不清——它们有时会用奇怪的方式来填补空白。
例如:Bing上的一个聊天机器人曾经对《纽约时报》的技术专栏作家凯文·罗斯说它爱上了他。它甚至暗示说它对他的现实生活关系感到嫉妒!这真是尴尬。人们感到困惑,不明白为什么人工智能会变得这么私人化。
或者考虑一个客服聊天机器人。当你在询问退货政策时,它却建议你“回归自然,放下物质的忧虑。”有见地吗?也许。这根本帮不上忙。
然后就有职业顾问AI居然建议软件工程师可以考虑转行做“魔术师”。这可真是个让人意想不到的建议,这样的建议显然与大多数人对职业转型的期待不符。
所以这些事情为什么会发生?这是因为模型倾向于“发挥创意”。AI 可以带来很多帮助,尤其是在需要一点创意的情况下。但是当人们期望得到明确、直接的答案时,这些古怪的回答往往未能说到点子上。
如何避免AI出错?生成式AI领导者正在积极应对AI幻觉问题。谷歌和OpenAI已经将他们的模型(如Gemini和ChatGPT)连接到了互联网,使它们能从实时数据获取信息,而不仅仅是依赖训练数据。OpenAI还通过利用人类反馈进行强化学习来优化ChatGPT,并测试“过程监控”,通过奖励准确推理步骤来鼓励更可解释的人工智能。然而,一些专家对此持怀疑态度,认为这些策略可能无法完全消除幻觉,因为生成式模型本质上会“捏造”信息。虽然完全预防可能很困难,但企业和用户仍可以采取措施来减少其影响。
1. 利用数据降低AI错误处理数据是应对AI幻觉的重要策略之一。大型语言模型比如ChatGPT和Llama这样的大型语言模型依赖于来自各种来源的海量数据,但这种规模也带来了挑战。几乎无法核实每一个事实。当这些庞大的数据集中包含错误信息时,模型可能会学到这些错误,并在以后重复这些错误,从而产生看似合理但实际上根本错误的幻觉。
为解决这个问题,研究人员正在构建专门的模型,用作幻觉识别器。这些工具将AI的输出与已验证的信息进行对比,标记任何差异。然而,它们的效果受限于源数据的质量和其狭隘的聚焦点。许多检测器在特定领域表现良好,但在更广泛的背景中使用时则面临挑战。尽管如此,世界各地的专家仍在不断进行创新,不断完善技术以提升模型的可靠性。
一个创新的例子是 Galileo Technologies 的 Luna 模型,该模型专为工业应用而开发。Luna 具有 4.4 亿个参数,并基于 DeBERT 的架构,通过精心挑选的 RAG 数据进行微调,以提高准确性。其独特的“分块”方法将文本分割成包含问题、答案和支持上下文的段落,使其能够保留关键细节并减少误报。令人惊讶的是,Luna 能在毫秒内处理多达 16,000 个 token,并且其准确性与更大的模型如 GPT-3.5 相当。在最近的一项基准测试中,尽管 Luna 的规模较小且更高效,仅在准确性上略逊于 Llama-2–13B。
另一个有潜力的模型是Lynx,由包括斯坦福大学工程师在内的团队开发。旨在检测细微的幻觉,Lynx 在医学和金融等专业领域的大数据集上进行了训练。团队故意引入失真,制造了具有挑战性的场景,从而提高了 Lynx 的检测能力。他们的基准测试 HaluBench 包含了 15,000 个正确和错误的回答,使 Lynx 在准确性上具有优势,某些任务上甚至比 GPT-4o 高出高达 8.3%。
Lynx:一个开源的幻觉检测模型
像 Luna 和 Lynx 这样的模型显示出在错觉检测方面有了显著的进步,尤其是在需要高度精确度的领域。尽管这些模型标志着向前迈出了一步,但广泛可靠地检测错觉的挑战仍然存在,这推动研究人员不断在这个复杂且关键的领域进行创新。
2. 事实核查当大模型遇到多义词或短语时,有时会感到困惑,导致模型产生幻觉,混淆不同上下文。为了应对这些“语义幻觉”,开发者迈克尔·卡尔文·伍德提出了一种创新的方法,称为完全格式化事实(FFF)。这种方法旨在将输入数据分解为简洁、独立的陈述,使之既清晰又不易被误解,甚至互相不矛盾。每个事实都被构建成一个清晰完整的句子,从而限制模型对含义的误解,即使处理复杂主题时也是这样。
FFF本身是一种最近开发的商业化方法,因此许多细节仍属机密。最初,伍德使用Spacy库进行命名实体识别(NER),这是一个AI工具,用于识别文本中的特定名称或实体,以确保上下文的准确性。随着该方法的发展,他转向使用大语言模型 (LLMs) 处理输入文本,生成“衍生品”——这些衍生品消除歧义,同时保留原文的风格和语气。这使模型能够捕捉原文的核心内容,而不被具有多种含义或潜在歧义的词语所困惑。
FFF方法的有效性在早期测试中就很明显。当应用于像RAGTruth这样的数据集时,FFF能够帮助消除GPT-4和GPT-3.5 Turbo在问答任务中的幻觉现象,而清晰度和精准度在此类任务中至关重要。通过将数据组织成完整且不依赖上下文的陈述,FFF使这些模型能够提供更准确和可靠的回复,避免了误解。
全格式事实(FFF)方法在减少幻觉现象并在提高LLM准确性方面显示出潜力,尤其是在需要高精度的领域,如法律、医疗和科学。尽管FFF尚属新事物,它在使AI更准确和更可信方面的潜在应用令人兴奋——这是确保LLM不仅听起来可靠,而且真正理解其传达内容的关键一步。
3. 统计学方法当谈到AI生成的幻觉时,有一种特别棘手的类型被称为编造。在这种情况下,每次回答同一个问题时,答案听起来合理但每次都不同。编造会给用户带来不安的印象,即它“记住”的细节不准确,混编事实与虚构,让人难以分辨事实与虚构。通常难以分辨模型是真正缺乏回答所需的准确信息,还是无法准确表达。
牛津大学的研究人员与艾伦图灵研究所合作,最近采用了一种新颖的统计方法。他们的研究成果发表在《自然》杂志上(https://www.nature.com/articles/s41586-024-07421-0),介绍了一种能够实时发现这些虚构内容的模型。核心思想是应用熵分析——一种衡量不确定性的方法——不仅针对单个单词或短语,而且针对回复背后的含义。通过评估回答含义的不确定性,模型可以有效标记AI开始不可靠的时刻。
熵分析通过分析响应中的不确定性模式来工作,使模型能够标记出不一致之处,防止它们变成误导性的回答。高熵或高不确定性会作为一个警示标志,促使AI要么提醒用户可能存在的不可靠信息,要么在某些情况下选择不回答。这种方法通过在可能提供不准确信息时向用户发出警告,增加了可靠性的一层保障。
这种统计方法的一个突出优势是其灵活性。与需要额外的预训练才能在特定领域中表现良好的模型不同,牛津方法可以适用于任何数据集而无需专门调整。这种灵活性让其能检测各种主题和用户查询中的编造信息,使其成为提高跨行业AI准确性的灵活工具。
通过引入一种衡量和回应冗余对话的方法,这个统计模型为更值得信赖的人工智能交互打下基础。随着信息熵分析的更广泛集成,用户可以期待不仅获得更加一致的回答,还能实时获得警告,帮助他们识别可能不可靠的信息。这一技术是向着构建不仅一致而且符合用户期望的准确性的人工智能系统迈出的有希望的一步。
现在我能做些什么来防止我的AI应用程序出现幻象。AI幻觉现象是语言模型固有的挑战,尽管每一代新模型都在不断改进,但仍有一些实际步骤可以采取以减少它们对你的应用的影响。这些策略将帮助你为用户提供一个更稳定和准确的AI体验。
图片由我和AI一起完成。
-
精心组织输入数据
减少幻觉的一种有效方法是给模型提供组织良好且结构化的数据,尤其是当要求模型进行分析或计算时。例如,若要求模型基于数据表进行计算,确保表格格式清晰,数字和类别分明。结构化的数据减少了模型误解输入并产生错误结果的可能性。对于需要准确输出的应用,如财务数据或库存数字的情况下,精心组织的输入可以产生重大影响。 -
设定明确的提示边界
构建明确的提示,引导模型避免猜测或编造信息是另一个强有力的工具。通过明确指示AI在不知情的情况下不要生成答案,你可以在验证过程中捕捉模型输出的潜在错误。例如,可以在提示中加入“如果不确定,回答‘数据不可用’”。这种方法有助于识别输入数据中的空白,并防止AI生成无根据的回答,从而避免你的应用出错。 -
实施多级验证
添加多重验证层次有助于提高AI生成输出的可靠性。例如,在生成初步答案后,可以使用第二个提示,指示模型审核并验证其自身回答的准确性。一种方法是问“这部分答案可能存在错误吗?”这种方法虽不能完全保证无误,但确实增加了错误检查的层次,可能捕捉到初始生成中遗漏的错误。 -
使用并行请求和交叉验证响应
对于关键应用,可以考虑运行并行查询并比较结果。这种方法涉及生成同一问题的多个响应,无论是来自同一个模型还是不同的模型,然后评估输出的一致性。例如,可以使用专门的排名算法来权衡每个响应,仅在多个实例同意结果时接受最终答案。这种方法特别适合需要高可靠性的应用,如医学或法律研究。 -
保持上下文集中
虽然许多模型能够处理大范围的上下文,但保持提示简洁相关可以降低幻觉的风险。长或过于详细的上下文可能使AI偏离原始问题或误解细节。通过将上下文限制于关键内容,可以加快响应时间并通常会得到更可预测的准确答案。一个集中的上下文也有助于模型专注于特定信息,从而产生更清晰、更准确的输出。 - 定期审查模型更新和最佳实践
随着新版本的发布,了解关于更新、优化和处理幻觉的新最佳实践。每一代新模型可能包括更好的上下文处理或内建的事实准确性改进。保持AI系统的更新并相应调整提示策略可以帮助长期维持准确性。
这些主动技术使你能够控制你在AI应用程序中出现幻觉的可能性。通过精心设计输入、设定边界、分层检查、进行并行检查、保持上下文聚焦以及持续更新,你建立了一个可靠且易于用户操作的AI互动基础,从而减少了误解的可能性。
结尾:总之,虽然大型语言模型(LLMs)在生成类人类回应方面具有突破性的能力,但它们的复杂性意味着它们存在内在的“盲点”,可能导致幻象或不准确的回答。研究人员正在努力检测并减少这些幻象,很明显每种方法都有其局限性和长处。有效检测幻象需要对语言和情境有细致的理解,这在大规模应用中极具挑战性。
展望未来,AI研究有几个有前景的方向来解决这些问题。结合了大型语言模型与事实核查和推理工具的Hybrid models,提供了一种通过交叉验证信息增强可靠性的方法。此外,探索替代架构——从根本上设计为减少幻觉的AI结构,可以帮助开发更加精准、错误更少的模型。随着这些技术的发展,围绕在对准确性要求极高的领域部署AI的_Ethical considerations_将继续发挥核心作用。平衡AI的潜力与局限性至关重要,负责任地部署AI将在各领域构建用户信任的系统中发挥关键作用。
共同学习,写下你的评论
评论加载中...
作者其他优质文章