头图

清华大学发布的《DeepSeek与AI幻觉》研究报告揭示了人工智能生成内容时的“幻觉”现象,即模型输出看似合理但存在事实错误或逻辑偏差。报告将AI幻觉分为两类:事实性幻觉(如建议糖尿病患者用蜂蜜控糖)和忠实性幻觉(如答非所问)。DeepSeek模型产生幻觉的主要原因包括训练数据偏差、知识更新滞后、复杂场景泛化困难等。

评测显示,DeepSeekV3在300道事实题测试中错误率达29.67%,而联网验证后错误率可降至17.3%。研究提出多种应对策略:双模型交叉验证提示词约束(如限定时空范围)、实时数据联动(接入央行征信等权威库)。值得注意的是,AI幻觉也具有创造力价值,例如在新型酶结构设计、自动驾驶极端场景训练等领域产生意外突破。

该报告为普通用户提供实用指南:医疗咨询需关联最新临床指南版本,金融建议自动添加风险标签,历史类答案强制文献溯源。通过规范使用方式,既能规避风险,又能释放AI的创新潜力。

链接:清华大学第五弹:DeepSeek与AI幻觉

1.png

2.png

3.png

4.png

5.png

6.png

7.png


阿东
201 声望54 粉丝