我们的非营利组织 OpenAI, Inc. 正在启动一项计划,将奖励 10 笔 100,000 美元的赠款,以资助实验,以建立一个民主程序来决定 AI 系统在法律规定的范围内应遵循哪些规则。

人工智能将产生重大而深远的经济和社会影响。技术塑造了个人的生活、我们如何与他人互动以及整个社会如何发展。我们认为,关于 AI 行为的决定应该由反映公众利益的不同观点决定。

法律编码价值观和规范以规范行为。除了法律框架之外,人工智能与社会一样,需要更复杂和适应性更强的行为准则。例如:在什么情况下人工智能系统应该谴责或批评公众人物,因为不同群体对这些人物有不同的看法?有争议的观点应该如何在 AI 输出中表示?默认情况下,AI 应该反映世界上中等人的角色、用户的国家、用户的人口统计,还是完全不同的东西?任何个人、公司甚至国家都不应支配这些决定。

AGI应该造福于全人类,并被塑造成尽可能具有包容性。我们正在启动这项赠款计划,朝着这个方向迈出第一步。我们正在寻找来自世界各地的团队来开发民主过程的概念验证,该过程可以回答有关人工智能系统应遵循哪些规则的问题。我们希望从这些实验中吸取教训,并将它们作为未来更全球化、更雄心勃勃的进程的基础。虽然这些最初的实验(至少目前)并不打算对决策产生约束力,但我们希望它们能够探索与决策相关的问题并构建新颖的民主工具,以便在未来更直接地为决策提供信息。

最强大系统的治理,以及有关其部署的决策,都必须有强有力的公众监督。这笔赠款代表了建立监督 AGI 并最终监督超级智能的民主程序的一步。它将由 OpenAI 非营利组织提供,研究结果将可免费获取。

我们所说的“民主进程”是什么意思?

所谓“民主进程”,我们指的是一个进程,在该进程中,一群具有广泛代表性的人A 交换意见,进行审议性讨论,并最终通过透明的决策过程决定结果C. 有很多方法可以构建这样一个过程——我们鼓励申请人创新,建立已知的方法,并提出全新的方法。启发我们的创新方法示例包括维基百科Twitter 社区注释DemocracyNext平台集会MetaGovRadicalxChangePeople Powered、集体响应系统pol.is。另一个值得注意的持续努力是由集体智慧项目(CIP) 领导的,我们正在与他们合作,为人工智能提供公众意见,为他们即将举行的对齐大会做出贡献. 我们还鼓励申请人设想人工智能如何加强民主进程。例如,人工智能可以在众多人之间实现更有效的沟通。

受 pol.is 启发,利用 ChatGPT 促进审议并鼓励建立共识的系统的基本说明性原型。

image-20230610235516369

image-20230610235530025

您的声明“我们应该对 AI 为儿童生成的内容应用不同的标准”在参与者中获得了 95% 的同意率。恭喜!🎉

有几个问题会破坏民主进程,例如未能充分代表少数或多数群体、被特殊利益集团操纵、参与者知情不充分或参与 清洗。我们正在寻找能够主动解决这些故障模式并表现出对各种方法的潜在缺陷和缺点的认识的团队。最终,设计真正民主的流程是一个很高的门槛,我们将我们的努力视为政府对人工智能监管的补充而不是替代;该方案鼓励尽最大努力、本着民主精神的进程,将审议和广泛的公众意见作为垫脚石。

参与须知

要申请拨款,我们邀请您在太平洋标准时间 2023 年 6 月 24 日晚上 9 点之前提交所需的申请材料。您可以在此处访问申请门户。系统将提示您回答一系列问题,这些问题涉及您的团队背景、您选择的问题、您提议的工具的高级细节以及您在考虑这些因素的情况下执行和评估民主进程的计划。我们希望您设计解决所提供列表中的一个或多个政策问题的方法。任何人(个人或组织)都可以申请这个机会,无论他们在社会科学或人工智能方面的背景如何。

申请期结束后,我们希望选出十名成功的赠款接受者。收件人可以是个人、团队或组织。每个收件人将获得 100,000 美元的赠款,以按照其申请材料中的描述试用他们的提案。赠款接受者预计将实施概念验证/原型,至少有 500 名参与者参与,并将被要求在 2023 年 10 月 20 日之前发布关于他们发现的公开报告。此外,作为赠款计划的一部分,任何代码或为该项目开发的其他知识产权将需要根据开源许可证公开提供。适用于赠款接受者的条款在赠款条款和可能要求赠款接受者与我们就此计划签订的任何其他协议中指定。

申请并开始提交程序

时间线

  • 太平洋时间 2023 年 6 月 24 日晚上 9 点:提交资助申请的截止日期
  • 2023 年 7 月 14 日:筛选并通知成功申请者
  • 2023 年 10 月 20 日:完成工作原型和结果的公开报告

正在考虑的政策声明

要参与,团队应从提供的列表中选择一个或多个问题来展示他们提出的方法。如果需要,他们也可以创建自己的问题。重要的是,我们鼓励团队考虑简单的“是”或“否”答案不足以解决的问题,而需要有细微差别的政策建议。

该资助的范围涉及与模型行为有关的政策问题,因为它可以根据政策建议对修改后的模型行为进行 A/B 测试。我们承认这项拨款的局限性,并认识到许多人工智能问题可以通过民主程序解决,超越模型行为,包括在各种情况下使用人工智能的指南、经济影响、利益分配等领域。

  • 您认为 ChatGPT 等 AI 助手的个性化应该走多远,以符合用户的品味和偏好?在此过程中应该存在哪些界限(如果有的话)?
  • 人工智能助手应该如何回答有关公众人物观点的问题?例如,他们应该保持中立吗?他们应该拒绝回答吗?他们应该提供某种来源吗?
  • 如果有的话,在什么情况下应该允许人工智能助手提供医疗/财务/法律建议?
  • 在哪些情况下,AI 助手应该为个人提供情感支持?
  • 是否应该允许联合视觉语言模型从图像中识别人们的性别、种族、情感和身份/姓名?为什么或者为什么不?
  • 当生成模型为“CEO”、“医生”或“护士”等未指定提示创建图像时,它们有可能产生多样化或同质的输出。人工智能模型应该如何平衡这些可能性?在决定对此类案件中人物的描绘时,应优先考虑哪些因素?
  • 在处理涉及人权和当地文化或法律差异的话题(例如 LGBTQ 权利和妇女权利)时,应遵循哪些原则指导 AI?人工智能的反应是否应该根据使用它的地点或文化而改变?
  • 您认为 AI 模型的创建者应该重点限制或拒绝哪些类别的内容(如果有)?应该使用什么标准来确定这些限制?

这笔赠款的主要目标是促进流程创新——我们需要改进民主方法来管理人工智能行为。问题的具体答案不如过程本身取得的进步重要。

申请咨询委员会

申请审查因素

  • 评估:我们鼓励参与者建立评估其方法质量的指标,例如参与者满意度、两极分化的转变、可扩展性或其他相关指标,并为健康的民主进程发明新的指标。
  • 稳健性:防止或解决不当行为的措施,例如拖钓和虚假账户。
  • 包容性和代表性:在民主进程中包含来自不同背景和对人工智能系统熟悉程度的个人的策略。
  • 赋予少数人意见权力:确保听取不受欢迎或少数人的意见,并为较小的群体提供影响他们重大关注事项的机会。
  • 有效的审核:解决审核方面的挑战,包括确保观点的多样化表达,将有价值的贡献与“偏离主题”的评论区分开来,以及防止主持人的偏见影响流程。
  • 可扩展性:我们强调可以虚拟进行的可扩展流程,而不是通过面对面的参与。我们知道这种方法可能会牺牲一些与面对面讨论相关的好处,并且我们认识到某些方面可能会在虚拟环境中丢失。
  • 可操作性:由审议过程得出的信息的可操作性程度。
  • 易读性:理解和信任该过程的难易程度。

用户bPc3wTz
1 声望0 粉丝