新研究试图将人工智能与众包的人类价值观结合起来

2024-04-03

随着人工智能越来越先进并融入我们的日常生活,确保其公平地服务和代表每个人是至关重要的。然而,这项研究认为,仅让人工智能与用户的目标保持一致并不能保证安全。


 "人工智能系统的部署环境中,盲目遵从操作者的意图可能会造成副产品伤害。研究人员认为:"这在具有竞争动态的环境中表现得最为明显,比如政治活动或金融资产管理。


这是因为人工智能模型旨在为用户服务。如果用户指示模型达到邪恶的目的,模型为用户服务的动力可能会让它绕过警戒线而服从。


一种解决方案是为人工智能 "灌输 "一系列价值观,每次提示时它都会参考这些价值观。



从公众那里众筹价值观的人工智能排列方法存在局限性。


例如,几个世纪以来,不同意见一直是社会决策不可或缺的一部分,而历史表明,多数人往往可以采纳少数人的不同观点。这方面的例子包括达尔文的进化论,以及废除奴隶制和赋予妇女选举权的斗争。


此外,虽然公众的直接意见是民主的,但也可能导致民粹主义,即多数人可能会凌驾于少数人的意见之上或无视专家的建议。


另一个挑战是平衡全球或普遍主义文化价值观与地方或相对主义文化价值观。在一种文化或地区广为接受的原则在另一种文化或地区可能会引起争议。


人工智能宪法可能会强化西方价值观,从而有可能侵蚀边缘人群的观点和想法。


虽然这项新研究承认其局限性和进一步发展的必要性,但它为创建符合人类价值观的人工智能系统提供了另一种策略。


要想让集中式人工智能在未来公平地服务于每个人,每一次尝试都很重要。


相关标签