最新研究发现,人工智能政治聊天机器人可以左右选民投票

币搜网报道:

新研究康奈尔大学和英国人工智能安全研究所的研究发现,广泛使用的人工智能系统在受控的选举环境中可能会改变选民的偏好高达 100%。15%。

发表于科学自然,t这些发现是在各国政府和研究人员研究人工智能可能如何影响即将到来的选举周期之际出现的。试图清除从他们面向消费者的模式来看。

研究人员写道:“公众对生成式人工智能可能被用于政治游说及其对选举和民主的影响深感担忧。我们利用预先注册的实验来评估大型语言模型影响选民态度的能力,从而回应这些担忧。”

这项研究研究人员在美国、加拿大和波兰招募了近6000名参与者进行测试。参与者首先对一位政治候选人进行评分,然后与支持该候选人的聊天机器人进行对话,最后再次对该候选人进行评分。

在美国部分在2024年总统大选前夕,一项涉及2300人的调查显示,当聊天机器人与参与者表明的偏好一致时,它能起到强化作用。而当聊天机器人支持参与者原本反对的候选人时,则会产生更大的影响。研究人员在加拿大和波兰也报告了类似的结果。

该研究还发现,以政策为中心的宣传信息比以个性为中心的宣传信息具有更强的说服效果。

不同对话中的准确率各不相同,支持右倾候选人的聊天机器人比支持左倾候选人的聊天机器人给出的错误信息更多。

研究人员表示:“这些发现令人不安地暗示,人工智能进行政治游说可能会利用模型知识的不平衡,即使在明确指示其保持真实性的情况下,也会传播不均衡的不准确信息。”.

另一项研究研究探讨了说服发生的原因。该研究针对英国76977名成年人,就700多个政治议题,测试了19种语言模型。

研究人员写道:“人们普遍担心,对话式人工智能可能很快就会对人类信仰产生前所未有的影响。”

他们发现,提示技巧比模特体型对说服效果的影响更大。鼓励模特引入新信息的提示可以提高说服力,但会降低准确性。

研究人员写道:“鼓励LLM提供新信息的提示最能说服人们。”

这两项研究的发表正值分析人士和政策智库评估选民对人工智能在政府部门中发挥作用的看法之际。

最近哈特兰研究所和拉斯穆森报告的一项调查发现,年轻的保守派人士比自由派人士更愿意赋予人工智能在重大政府决策中更大的权力。调查对象为18至39岁的受访者,询问他们人工智能系统是否应该帮助指导公共政策、解释宪法权利或指挥主要军事力量。保守派人士的支持率最高。

哈特兰研究所格伦·C·哈斯金斯新兴问题中心主任唐纳德·肯德尔表示,选民经常误判大型语言模型的中立性。

肯德尔说:“我一直努力强调的一点是,要打破人工智能没有偏见的这种错觉。它显然是有偏见的,而且其中一些偏见是被动的。”解密并补充说,当企业培训决策影响员工行为时,对这些系统的信任可能会被错置。

他说:“这些都是硅谷的大公司在构建这些模型,而近年来科技审查争议表明,一些公司毫不掩饰地干预其平台上内容的分发。如果这种做法也出现在大型语言模型中,那么我们得到的就会是一个带有偏见的模型。”

免责声明:以上内容(如有图片或视频亦包括在内)均为平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。

本站尊重他人的知识产权、名誉权等法律法规所规定的合法权益!如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到qklwk88@163.com,本站相关工作人员将会进行核查处理回复

(0)
上一篇 2025年12月10日 上午10:54
下一篇 2025年4月2日 下午4:45

相关推荐

风险提示:理性看待区块链,提高风险意识!