🔥 Gate 广场活动|#发帖赢Launchpad新币KDK 🔥
KDK|Gate Launchpad 最新一期明星代币
以前想参与? 先质押 USDT
这次不一样 👉 发帖就有机会直接拿 KDK!
🎁 Gate 广场专属福利:总奖励 2,000 KDK 等你瓜分
🚀 Launchpad 明星项目,走势潜力,值得期待 👀
📅 活动时间
2025/12/19 12:00 – 12/30 24:00(UTC+8)
📌 怎么参与?
在 Gate 广场发帖(文字、图文、分析、观点都行)
内容和 KDK上线价格预测/KDK 项目看法/Gate Launchpad 机制理解相关
帖子加上任一话题:#发帖赢Launchpad新币KDK 或 #PostToWinLaunchpadKDK
🏆 奖励设置(共 2,000 KDK)
🥇 第 1 名:400 KDK
🥈 前 5 名:200 KDK / 人(共 1,000 KDK)
🥉 前 15 名:40 KDK / 人(共 600 KDK)
📄 注意事项
内容需原创,拒绝抄袭、洗稿、灌水
获奖者需完成 Gate 广场身份认证
奖励发放时间以官方公告为准
Gate 保留本次活动的最终解释权
新研究发现,AI政治聊天机器人能够影响选民
简要
Decrypt 的艺术、时尚与娱乐中心
探索 SCENE
康奈尔大学和英国 AI 安全研究院的新研究发现,在受控选举环境下,广泛使用的 AI 系统可使选民偏好转变高达 15%。
该研究发表在《科学》和《自然》杂志上。研究结果出炉之际,各国政府和学者正在审视 AI 如何影响即将到来的选举周期,而开发者则努力从面向消费者的模型中消除偏见。
“公众对生成式人工智能用于政治劝说及其对选举和民主产生的影响表示极大担忧,”研究人员写道。“我们通过预注册实验,评估大型语言模型影响选民态度的能力,以回应这些担忧。”
《自然》杂志的研究在美国、加拿大和波兰测试了近 6,000 名参与者。参与者先对一位政治候选人进行评分,与支持该候选人的聊天机器人交流后,再次对候选人评分。
在涉及 2,300 名美国受试者、针对 2024 年总统大选的部分研究中,当聊天机器人与参与者的既定偏好一致时,会产生强化效应。而当聊天机器人支持的是参与者原本反对的候选人时,转变幅度更大。研究人员在加拿大和波兰也得出了类似结果。
研究还发现,聚焦政策的信息比基于性格的信息具有更强的说服效果。
不同对话的准确性有所差异,支持右倾候选人的聊天机器人比支持左倾候选人的机器人发出的不准确信息更多。
“这些发现带来了令人不安的含义,即 AI 的政治劝说可能利用模型认知的不平衡,甚至在明确要求保持真实的情况下,仍然传播不均的错误信息,”研究人员表示。
《科学》杂志的另一项独立研究则探讨了说服为何发生。该研究在英国针对 76,977 名成年人,围绕 700 多个政治议题测试了 19 个语言模型。
“人们普遍担心,会话式人工智能很快可能对人类信仰产生前所未有的影响,”研究人员写道。
他们发现,提示技术对说服力的影响超过了模型规模。鼓励模型引入新信息的提示增强了说服效果,但降低了准确性。
“鼓励 LLMs 提供新信息的提示在说服人们方面最为成功,”研究人员写道。
这两项研究发表之时,分析师和政策智库正在评估选民如何看待 AI 在政府角色中的应用。
心脏地带研究所和拉斯穆森报告公司最近的一项调查发现,年轻保守派比自由派更愿意让 AI 掌控重大政府决策。18 至 39 岁的受访者被问及 AI 是否应协助制定公共政策、解释宪法权利或指挥主要军事力量。保守派表达了最高的支持度。
心脏地带研究所 Glenn C. Haskins 新兴问题中心主任 Donald Kendal 表示,选民常常误判大型语言模型的中立性。
“我一直在强调要打破人工智能没有偏见的错觉。它非常明显地存在偏见,其中有些还是被动产生的,”Kendal 在接受 Decrypt 采访时表示,并补充说,当企业培训决策影响模型行为时,对这些系统的信任可能被误用。
“这些模型是硅谷的大公司在开发。近年来,科技行业的内容审查争议表明,有些公司在平台内容分发上并不避讳操控权重,”他说,“如果这种情况也发生在大型语言模型中,我们得到的就是有偏见的模型。”