人工智能聊天机器人可以产生幻觉并编造一些事情

CnBays.cn湾区中国 | 【睿问财讯-国际】
2023-12-24

《人工智能聊天机器人可以产生幻觉并编造一些事情》

— CnBays.cn湾区中国 | 【睿问财讯-国际】


导读:

  • 当人工智能模型产生“幻觉”时,它会根据用户的提示生成捏造的信息,但将其呈现为真实且正确的信息。

  • 假设您要求人工智能聊天机器人写一篇关于自由女神像的文章。如果聊天机器人说纪念碑位于加利福尼亚州而不是纽约,那它就会产生幻觉。

但错误并不总是那么明显。 为了响应自由女神像的提示,人工智能聊天机器人还可能会编造参与该项目的设计师的名字,或者声明该项目是在错误的年份建造的。

发生这种情况是因为大型语言模型(通常称为人工智能聊天机器人)接受了大量数据的训练,这就是它们学习识别单词和主题之间的模式和联系的方式。他们利用这些知识来解释提示并生成新内容,例如文本或照片。

但由于人工智能聊天机器人本质上是在预测句子中最有可能出现的单词,因此它们有时会生成听起来正确但实际上并不正确的输出。

现实世界中的一个例子是,一名起诉航空公司的客户的代表律师向曼哈顿联邦法官提交了一份由 ChatGPT 撰写的法律摘要。 该聊天机器人在案情摘要中包含虚假引言并引用了不存在的法庭案件。

AI 聊天机器人变得越来越流行,OpenAI 甚至允许用户构建自己的定制聊天机器人以与其他用户共享。随着我们开始在市场上看到更多的聊天机器人,了解它们的工作原理以及知道它们何时出错变得至关重要。

事实上,人工智能意义上的“幻觉”是 Dictionary.com 的年度词汇,之所以被选中是因为它最能代表人工智能可能对“语言和生活的未来”产生的潜在影响。

“‘幻觉’似乎很适合历史上的某个时期,在这个时期,新技术感觉就像是梦想或小说中的东西——尤其是当它们创造出自己的小说时,”一篇关于这个词的帖子写道。

OpenAI 和 Google如何解决 AI 幻觉

OpenAI和谷歌都警告用户,他们的人工智能聊天机器人可能会犯错误,并建议他们仔细检查自己的回答。

这两个科技组织也在研究减少幻觉的方法。

谷歌表示,实现这一目标的一种方法是通过用户反馈。该公司表示,如果巴德生成的答案不准确,用户应该点击“反对”按钮并描述答案错误的原因,以便巴德可以学习和改进。

OpenAI实施了一项名为“流程监督”的策略。 通过这种方法,人工智能模型不仅会奖励系统对用户提示生成正确的响应,还会奖励自己使用正确的推理得出输出。

OpenAI的 mathgen 研究员 Karl Cobbe 在 5 月份表示:“检测并减少模型的逻辑错误或幻觉,是构建一致的AGI(或通用人工智能)的关键一步。”

请记住,虽然 ChatGPT 和 Google 的Bard 等人工智能工具很方便,但它们并非绝对可靠。 使用它们时,请务必分析响应中是否存在事实错误,即使它们是真实的。


CnBays.cn湾区中国|【睿问财讯—国际】综合国内外权威财经资讯,部分国际内容由浦诺英英文精英翻译供稿,睿问财讯编辑整理。来源:网络;图源:网络

【声明】:Cnbays湾区中国 | 【睿问财讯】立足湾区,面向世界,关注产业,助力企业。本网站中英文及图片内容版权属原作者所有,本文转载、摘编、引用、翻译、编辑整理等均出于传播财经等信息之目的和需要,CnBays.cn湾区中国 | 【睿问财讯】刊发所有内容不代表本网任何观点,也不构成任何投资建议。有来源标注错误或文章侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢

联系:ReveMgt_Express@163.com

分享
下一篇:这是最后一篇
上一篇:这是第一篇