关于 X 的新由 AI 撰写的社区注释可能出错的所有事情

Elon Musk 的 X 平台推出“社区注释”,在社交媒体事实核查方面具有一定革命性,能让用户对帖子的可信度进行众包评价。但现在平台计划让 AI 撰写社区注释,这可能破坏用户对事实核查系统的信任。X 在一篇研究论文中称这是“升级”,同时解释了 AI 撰写社区注释可能出现的问题。

  • 理想情况:AI 代理能加快并增加添加到错误帖子的社区注释数量,提高平台整体的事实核查效率。每个 AI 撰写的注释会由人类评审员评级,提供反馈使 AI 代理更擅长写注释,随着 AI 进步,人类评审员可专注于更细微的事实核查。
  • 关键问题:X 不确定 AI 撰写的注释是否能像人类撰写的那样准确,AI 可能生成有说服力但不准确的注释,破坏反馈循环,降低系统可信度。例如,随着大型语言模型的进步,AI 能更自信地提供看似有说服力但错误的答案。
  • 面临批评:X 因 AI 计划受到批评,前英国技术部长 Damian Collins 指责 X 建立的系统可能导致“对人们所见和决定信任的内容进行工业操纵”,Alan Turing 研究所的 Samuel Stockwell 称 X 的成功取决于防止 AI“注释作者”产生幻觉和放大错误信息的保障措施。此外,任何人都可以使用任何技术创建 AI 代理来写社区注释,这可能导致一些代理更有偏见或有缺陷。
  • 可能影响:如果出现不良情况,人类作者可能厌倦写注释,威胁到社区注释的多样性;大量 AI 撰写的注释可能使人类评审员过载;X 知道如果无法解决“瓶颈”问题,“最关键注释的影响”可能会被稀释。一种可能的解决方案是在人类评审员批准的“类似上下文”中应用 AI 撰写的注释,但这可能会破坏系统信任。
  • AI 撰写注释的开始与未来:AI 撰写的社区注释本月开始发布,将明确标记给用户,最初只出现在用户请求注释的帖子上,未来可能允许 AI 选择要进行事实核查的帖子。研究人员认为在某些情况下,AI 代理能以较少时间和精力产生类似质量的注释,需要更多研究来克服风险并收获好处。未来 AI 注释可能不仅帮助研究人类标记的有问题帖子,还能选择可能病毒式传播的帖子阻止错误信息传播,自动系统还能让注释评级更快,AI 代理甚至可能学会预测评级分数,但需确保不会使注释同质化。研究中还提出用对立观点训练 AI 注释作者以帮助人类评审员做出更明智的判断,同时强调 AI 不能取代人类,人类在训练 AI 代理、提供专业知识和识别缺陷等方面仍必不可少。
阅读 92
0 条评论