OpenAI 表示正在成立一个安全和安保委员会,并已开始训练一个新的人工智能模型,以取代支撑其 ChatGPT 聊天机器人的 GPT-4 系统。
这家旧金山初创公司在周二的一篇博客文章中说,该委员会将就其项目和运营的 "关键安全和安保决策 "向董事会全体成员提供建议。
安全委员会的成立正值该公司围绕人工智能安全问题争论不休之际,在研究员扬-莱克(Jan Leike)辞职并批评 OpenAI 让安全 "让位于闪亮的产品 "之后,安全问题成为了焦点。OpenAI 联合创始人兼首席科学家伊利亚-苏茨基弗(Ilya Sutskever)也辞职了,公司解散了他们共同领导的专注于人工智能风险的 "超对齐 "团队。
莱克周二表示,他将加入由前 OpenAI 领导人创建的竞争对手人工智能公司 Anthropic,在那里 "继续超对齐任务"。
OpenAI 表示,该公司 "最近已开始训练其下一个前沿模型",其人工智能模型在能力和安全性方面处于行业领先地位,但并未提及这一争议。"该公司表示:"我们欢迎在这一重要时刻展开激烈辩论。
人工智能模型是在大量数据集上进行训练的预测系统,可按需生成文本、图像、视频和类人对话。前沿模型是最强大、最前沿的人工智能系统。
安全委员会由公司内部人员组成,包括 OpenAI 首席执行官山姆-阿尔特曼(Sam Altman)、主席布雷特-泰勒(Bret Taylor)以及四位 OpenAI 技术和政策专家。委员会成员还包括 Quora 首席执行官亚当-德安杰洛(Adam D'Angelo)和前索尼总法律顾问妮可-塞利格曼(Nicole Seligman)。
委员会的首要工作是评估和进一步发展 OpenAI 的流程和保障措施,并在 90 天内向董事会提出建议。该公司表示,随后将 "以符合安全和保障的方式 "公开发布其采纳的建议。