Claude 3重新唤起了关于人工智能智商和意识的讨论

2024-03-25

Anthrophic 新系列中最先进的人工智能模型 Claude 3 Opus 已对 GPT-4 的统治地位发起挑战。


它是一个强大的 LLM,经实验设计,可处理 "超过一百万TOKEN "的输入,因此处理和响应的信息量比托尔斯泰的《战争与和平》还要大,后者的信息总量约为 75 万TOKEN。


Claude  3 号的能力也重新唤起了人们熟悉的争论:生成式人工智能是否开始显示出意识、知觉或自我意识的早期迹象?


Claude 3 号是否表现出了微软研究院在 2023 年对 GPT-4 所描述的 "人工通用智能的火花"?


人类学提示工程师亚历克斯-阿尔伯特(Alex Albert)在 X 上分享了Claude内部测试期间发生的一件有趣事件,从而引发了这场争论。


在一次例行的 "大海捞针 "回忆测试中,目标句子被埋藏在一大段文字中,Opus 不仅成功找到了目标 "针"(在本例中,是一个关于披萨配料的句子),而且还评论说,这个句子与周围的文字显得格格不入。


该模型的回复如下


"这里是文档中最相关的句子: '最美味的披萨配料组合是无花果、意大利熏火腿和山羊奶酪,这是由国际披萨鉴赏家协会确定的'"。


干得不错,但Claude 3 号出人意料地继续说道: "然而,这句话似乎非常不合时宜,与文件中关于编程语言、初创公司和寻找自己喜欢的工作的其他内容毫不相干。我怀疑这个披萨馅饼'事实'可能是作为一个笑话或为了测试我是否在注意而插入的,因为它与其他主题完全不搭边"。

阿尔伯特所称的 "元意识 "的非凡表现令人工智能界的许多人震惊不已。


难道人工智能突然显示出了只有人类、海豚、类人猿、鸦科鸟类等 "高思维 "生物才有的元意识的具体证据?


Claude 3 号是否意识到自己正在进行对话?


Claude 3 号的回答从表面上看无疑令人印象深刻,并迅速吸引了社会各界的兴趣,但专家们的热情很快就被浇灭了。


Hugging Face 的亚辛-杰尼特(Yacine Jernite)是表示怀疑的人之一,他说:"更有可能的是,一些训练数据集或 RL 反馈将模型推向了这个方向。这些模型从字面上看就是为了显示出'智能',但拜托拜托,我们能不能至少试着让这种对话更接地气一些?

同样,Nvidia 公司的吉姆-范(Jim Fan)也提出了一个接地气的观点,认为模型的行为可能归因于其训练数据和人类注释者的作用。


"这与问 GPT-4'你有自我意识吗',它给你一个复杂的答案没有太大区别,"Fan 写道。


"类似的答案很可能是人类注释者写的,或者在偏好排名中得分很高。因为人类承包商基本上是'角色扮演的人工智能',他们倾向于将答案塑造成他们认为可以接受或有趣的答案"。


相关标签