当您听到“错觉”这个词时,您可能会想到听到其他人好像没有听到的声响,或许幻想您的同事在您与他们攀谈时突然长出了第二个头。

但关于人工智能来说,错觉的含义有些不同。

当人工智能模型产生“错觉”时,它会依据用户的提示生成捏造的信息,但将其呈现为真实且正确的信息。

假设您要求人工智能谈天机器人写一篇关于自在女神像的文章。

如果谈天机器人说纪念碑坐落加利福尼亚州而不是纽约,那么它就会产生错觉。

但过错并不总是那么显着。

为了响应自在女神像的提示,人工智能谈天机器人还可能会假造参加该项目的设计师的名字,或许声明该项目是在过错的年份建造的。

产生这种状况是因为大型语言模型(通常称为人工智能谈天机器人)接受了大量数据的练习,这就是它们学习识别单词和主题之间的模式和联系的方式。

他们使用这些常识来解说提示并生成新内容,例如文本或照片。

但由于人工智能谈天机器人本质上是在预测语句中最有可能出现的单词,因此它们有时会生成听起来正确但实际上并不正确的输出。

现实国际中的一个比如是,一名申述航空公司的客户的代表律师向曼哈顿联邦法官提交了一份由 ChatGPT 编撰的法律摘要。

该谈天机器人在案情摘要中包括虚假导言并引用了不存在的法庭案子。

AI 谈天机器人变得越来越盛行,OpenAI 乃至答应用户构建自己的定制谈天机器人以与其他用户同享。

随着我们开始在市场上看到更多的谈天机器人,了解它们的作业原理以及知道它们何时犯错变得至关重要。

事实上,人工智能意义上的“错觉”是 Dictionary.com 的年度词汇,之所以被选中是因为它最能代表人工智能可能对“语言和日子的未来”产生的潜在影响。

“‘错觉’好像很合适历史上的某个时期,在这个时期,新技术感觉就像是愿望或小说中的东西——尤其是当它们创造出自己的小说时,”一篇关于这个词的帖子写道。

此时快讯

【Ripple联创Chris Larsen捐赠25万美元用于加强旧金山警方监控】金色财经报道,Ripple联合创始人Chris Larsen向旧金山市长London Breed提出的一系列提案捐赠了25万美元,这些提案可能会让警方在使用监控技术、无人机和追捕嫌疑人方面拥有更多权力。据当地媒体SFS报道,Larsen目前是最大的捐助者,他为明年大选前夕由Breed赞助的投票措施活动提供了35万美元。

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注