在 LLM 后时代恢复在线通信中的信任

作者思考了近期大语言模型(LLM)的爆发对互联网工作方式的影响,担忧内容可能被误认为是人类所写而失去信任。认为由机器人生成的内容应明确标注,虽此方案不可行,但可标记经验证的人类内容(类似推特的旧蓝标)。提出一个潜在模型,即一个简单 API 可判断网站用户是否为经验证的人类,验证算法类似 Lobste.rs 的邀请功能,可帮助扩展“真实世界验证”过程,还可注册公钥用于数据库验证无平台内容。早期可通过浏览器扩展在用户名旁插入验证标记。
关于谁可被视为验证用户,应是私人的,不链接同一人的多个账户,目前可由半匿名用户向已验证用户请求邀请并审核其评论历史作为门槛,之后可区分更高确定性级别。 moderation 是必要功能,可标记有问题的内容,多次违规可撤销验证,还可使用其他指标如发帖频率做决策。用户验证可接受一定误判,数据库可缓存且可从多个服务器提供,无需担心扩展问题。
讨论中有人认为作者提议类似“邪恶比特”,作者解释是信任网络,而非让发帖者自我证明可信。有人认为问题是区分内容的来源,而非“真人 vs 机器人”,并提出结合“预 LLM 材料存档”“不使用 LLM 的协议和社会压力”等解决方案。有人反对禁止 LLM,认为其有很多有用用途,如在编程中辅助代码生成等。作者坚持认为使用 LLM 是坏事,两者不能相提并论。还有人认为即使相对高 karma 的用户也可能发布自动补全的废话,需要社会契约和文化来规范,且此模型难以应对用户微妙的作弊行为,同时认为对 LLM 的一些合理使用如 proof-reading 不应被视为问题。此外,有人指出此验证方式可能会被用于 LLM 的训练,但总体而言对人类社会有帮助。

阅读 9
0 条评论