AI 为世界代言……但它从谁的人性中学习?

主要观点:生成式 AI 模型虽表现“接近人类”,但常被忽视其反映的人类群体问题,这些模型往往反映西方文化窄版的多样性,训练数据多来自西方英语内容,导致全球大部分人口被排除,如 GPT 等模型响应国际调查时更倾向与美国文化相近的国家,继承了 WEIRD 心理学,具有文化和道德狭隘性。
关键信息

  • 模型训练数据存在暴露偏差,导致某些内容过度代表,造成真实人类多样性与算法表征间的差距。
  • 生成的图像常反映西方主流形象,如手术团队、CEO 等多为白人男性,忽略了非西方群体,这是一种文化标准化。
  • 用户应了解 AI 训练数据及背后的文化偏见,目前多数 AI 缺乏透明度,存在系统性排除现象。
  • 伦理和工程交叉领域的代表性偏差不仅是理论问题,还影响组织运作,如在 HR、营销等领域。
    重要细节
  • 2023 年哈佛研究显示 GPT 响应与文化距离相关,Joseph Henrich 指出研究对象的心理文化是 outliers。
  • 语言模型学习数据中的内容,忽略文化潜台词等,如认知测试中 GPT 倾向西方个体推理,而全球多数人倾向关系或情境分组。
  • 文中列举多个生成式 AI 模型,如 Anthropic Claude 等,说明其在道德等方面的回答反映特定世界观。
  • “Datasheets for Datasets”提议为机器学习数据集引入标准化文档,提高数据透明度。
  • 解决结构性偏差需在设计过程中早期识别盲点,包括多样化训练数据、与多领域专家合作及重新思考评估方式等。
阅读 15
0 条评论