关于人工智能偏见的讨论的讨论

过去几年,关于大型语言模型(LLM)和生成式 AI 存在偏见的病毒式故事屡见不鲜。在讨论偏见时,人们对 LLM 和生成式 AI 与“经典”错误案例的反应差异很感兴趣。例如,用户让 Playground AI 将亚洲面孔转换为白人面孔,有人否认这是错误。在 Reddit 讨论中,有人认为其他网站上亚洲女性照片多就证明没有 ML 偏见,还以 Stable Diffusion 模型网站为例。

同时,作者尝试了多种提示,发现模型对不同种族的预设较强,会忽略输入照片的特征。如将亚洲人转换为白人等。其他多人尝试后也得到类似结果,如 Rob Ricci 让生成不同学科教授的领英照片,多数为白人。

作者指出这并非针对特定的 Playground AI,很多公司部署的 ML 模型都存在偏见问题,如 ChatGPT 也有类似情况。并且这种偏见并非新问题,早在生成式 AI 等出现之前就存在,只是如今 ML 的广泛使用让这些问题更易被察觉。

在解决偏见问题方面,常见的提议如增加多元化团队等并未奏效,因为行业决策者不重视,且存在维度过多等问题。即使团队有多元化经验,也不一定能优先处理和修复问题。

此外,作者认为当前消费软件行业更注重速度而非质量,这导致在处理 ML 模型的偏见等问题时更难找到有效的解决方案。对于改进 ML 模型偏见情况的技术难度,作者认为难以准确估计,类比软件测试,可能类似于软件测试中某些难以测试的情况,也可能通过采用更好的测试技术有所改善,但缺乏相关知识难以判断。

最后,作者回顾了这篇文章的创作过程,认为一年后相关问题和讨论未发生本质变化,并对十年后文章是否仍有相关性进行了思考。多位业内人士也发表了对 AI 偏见等问题的看法,如 Yossi Kreinin 认为“AI 偏见”更多是开发者懒得修复 bug 等,匿名 AI 初创公司创始人称接触到的主流 ML 代码存在大量旧软件 bug 等,Benjamin Reeseman 则认为应解决现实世界中的不公正问题而非掩盖。作者还重现了 Rob Ricci 的实验结果,发现生成的专业照片多为白人,而生成的低俗照片中亚洲人较多。

阅读 14
0 条评论