主要观点:AI 工具部署的稳步增加让很多人担忧软件如何做出影响生活的决策,如社交媒体的“算法”推送和车险定价等,对此存在限制算法使用的运动,作者认为限制算法使用不是正确目标,软件决策应可解释,如 Avis 租车案例中因不透明导致不良结果,对社交媒体推送应能向用户解释为何帖子出现在其推送及位置,这对 AI 系统是难题,目前多数 AI 工具难以做到,应将可解释性视为重要原则,虽不必要求所有软件决策都有详细解释,但在纠纷中应考虑,AI 可提选项供人决定,人应能解释其推理, opaque 但有效的 AI 模型可用于更好理解决策过程。
关键信息:AI 工具部署增加引发担忧、社交媒体和车险案例、限制算法运动及作者观点、软件决策应可解释及 Avis 案例、社交媒体推送解释需求、AI 系统难题、可解释性原则及举例、AI 辅助理解决策等。
重要细节:纽约限制社交媒体网络为儿童生成推送的活动、Avis 租车被收额外单程费及客服无法解释、专家研究电脑围棋以提升策略、AI 可能导致更 opaque 决策等。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。