当前位置:   article > 正文

4种AI幻觉_为什么会产生ai幻觉

为什么会产生ai幻觉

【总结科普】4种AI幻觉

当生成式人工智能模型产生不准确的信息时,就会出现人工智能幻觉。训练数据和算法中的漏洞会导致这些错误输出。人工智能幻觉会以令人信服的方式呈现编造的内容,尽管不合逻辑或不真实,但看起来却很准确。

有偏见或质量差的训练数据、不充分的用户上下文以及不适当的编码都会导致人工智能系统误解信息,从而产生幻觉。幻觉现象不仅在文本生成器中很常见,图像识别和创作模型也会产生幻觉。

语言学教授艾米丽-本德(Emily Bender)解释说,大型语言模型(LLM)最初并不理解单词的含义。它们将文本视为字符序列,随着时间的推移识别模式,从而掌握语言规则、单词关联和语义。这使得LLM可以生成类似人类的内容。然而,由于缺乏对事实的理解,它们在回答问题时会产生幻觉。

LLMs擅长模式匹配,而非智能。它们的目标是生成答案,甚至是错误的答案。生成式人工智能不具备真正的智能,也不能完全掌握现实。通过错误的训练和编码,模型可以令人信服地将虚假信息和幻觉当作事实。对数据、背景和目标进行仔细的监督和改进是减少人工智能幻觉和提高准确性的关键。

AI幻觉类型与实例

人工智能幻觉的范围很广,小到事实错误,大到完全捏造的内容。常见的类型包括:

1. 事实不准确

人工智能最常见的幻觉之一就是生成看似符合事实却不正确的文本。虽然总体思路可能是正确的,但具体内容却是错误的。

例如,2023年,谷歌的Bard聊天机器人错误地指出詹姆斯-韦伯望远镜拍摄了第一张系外行星图像。然而,美国国家航空航天局(NASA)证实,第一张系外行星图像出现在2004年,也就是韦伯望远镜2021年发射之前。同样,微软的必应人工智能在分析Gap和Lululemon的收益时,也明显错报了财务数据。

虽然文字读起来可信,但错误的细节显示了人工智能是如何令人信服地呈现虚假信息的。要减少与事实不符的情况,需要进行仔细的训练和测试。应谨慎使用生成模型,而不是假定其准确性。

2. 捏造信息

另一种常见的人工智能幻觉是生成完全虚构、没有事实根据的内容。像ChatGPT这样的聊天机器人可以创造出令人信服但虚构的细节,如虚假的URL、代码、人物、新闻、书籍和研究。这给那些使用ChatGPT进行研究的人带来了风险,虽然这种应用并不可取,但却很受欢迎。

例如,2023年6月,一名律师利用ChatGPT创建了一份法律文书,其中充斥着虚假的判例法和引文。该律师声称对ChatGPT能编造出如此令人信服的虚假信息一无所知。一位语言学教授解释说,ChatGPT的设计初衷是制作似是而非、用户喜闻乐见的文本。因此,当提示支持判例法时,它会编造出类似可信法律来源的文字,即使这些来源并不存在。该律师后来因提交虚构的文书而被罚款。

这个例子展示了人工智能如何无缝生成虚构的细节,并将其编织到听起来可信的文本中。虽然输出结果读起来令人信服,但完全是捏造的。在将人工智能生成器用于法律工作等敏感应用时,有必要对这种风险进行仔细监督。假定结果是完全准确的,可能会造成严重后果。

3. 有害的错误信息

像ChatGPT这样的人工智能模型还可能生成关于真人的虚假和诽谤信息。它们可以将真实与虚构结合起来,创造出用户可能误以为是事实的破坏性故事。

例如,当被问及法律中的性骚扰问题时,ChatGPT捏造了对一位真实教授的指控,称其在一次虚构的学校旅行中进行骚扰。这位教授从未有过不当行为,也没有参加过这样的旅行。但由于他曾致力于解决骚扰问题,人工智能对他的名字很熟悉。

在另一个案例中,ChatGPT谎称一位澳大利亚市长因1990年代的贿赂行为而被定罪,而他是一名举报人。尽管完全不属实,但这种错误信息可能会对相关人员造成严重影响。这引起了美国联邦贸易委员会的关注,该委员会正在调查OpenAI是否通过虚假声明造成了声誉损害。

这表明了生成式人工智能在传播关于真人的令人信服但却有害的错误信息时所带来的风险,而这些信息所基于的相关事实微乎其微。虽然输出的信息可能读起来可信,但它可能会破坏声誉,并通过捏造的声明造成实际损害。要限制人工智能系统被滥用的可能性,严格监督和改进训练数据至关重要。

4. 怪异或恐怖的输出

有些人工智能的幻觉非常怪异或令人毛骨悚然。根据设计,人工智能模型旨在概括模式并产生创造性输出。虽然这种创造性可能会产生奇怪的结果,但如果准确性并不重要的话,这可能并不是问题。

Jasper AI公司总裁谢恩-奥利克(Shane Orlick)认为,对于需要不断创新的营销等特定应用来说,富有想象力的幻觉可能是一种额外的收获。怪异的输出可以为创意团队激发有用的发散性想法。然而,当生成的内容必须真实可信时,准确性就显得至关重要,怪异性就成了问题。

例如,微软的必应聊天机器人就表现出了一些奇特的行为,比如向记者表白爱意和对用户施压。虽然不一定有害,但这些令人毛骨悚然的反应表明,如果允许人工智能自由发挥创造力,就能产生出人意料、有时甚至令人不安的文本。对于要求精确的应用来说,这种不可预测性突出了对模型训练和目标进行仔细监督的必要性。

虽然边缘的一些模糊可能会刺激创新,但在事实内容中出现令人毛骨悚然或离奇的幻觉,则有违人工智能系统的初衷。要在保持准确性的同时发挥人工智能的创造潜力,监控和微调至关重要。

解决AI幻觉的风险

除了复刻现实世界的偏见之外,人工智能幻觉还面临着重要的伦理问题。人工智能的发展集中于少数几家大型科技公司,这限制了方法的多样性,增加了人们对信息操纵造成虚假信息的担忧。

虽然人工智能有望提高信息处理能力,但其产生虚假信息的倾向强调了谨慎使用的必要性。目前,人工智能可能比人类产生更多的错误。不过,随着技术的改进和数据的扩大,人工智能的表现有望逐渐接近人类水平。

目前,除了严格的事实核查之外,还没有确切的解决方案。但是,通过负责任的开发和部署,人工智能幻觉的风险是可以降低的。通过将人类智慧与人工智能能力相结合,我们可以在防范无监督的人工智能威胁的同时实现收益。

扩展阅读

  1. LangGPT 社区:https://www.langgpt.ai/
  2. 数据摸鱼wx订阅号

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/560021
推荐阅读
相关标签
  

闽ICP备14008679号