近期,被誉为“AI 教母” 的李飞飞在社交媒体上的一段言论引发热议。她指出:“人类智能主要涵盖两大类别,即「语言智能」和「空间智能」。尽管语言智能受到广泛关注,但空间智能对人工智能领域的影响可能更为深远。”

这场对话发生于斯坦福大学 HAI(斯坦福大学以人为本人工智能研究院)最近发布的一段视频中。参与讨论的除了 HAI 的联合创始人李飞飞外,还有 HAI 高级研究员兼副主任艾米・泽加特、HAI 顾问委员会成员马里亚诺 - 弗洛伦蒂诺・奎利亚尔和 HAI 副主任拉塞尔・瓦尔德。

在斯坦福大学 HAI 最新发布的视频讨论中,四位专家围绕 “人工智能对民主的潜在影响” 展开深入对话。他们探讨了人工智能技术在社会中的扩散,尤其是虚假信息在数字平台上借助 AI 技术而加剧的问题。在讨论过程中,李飞飞对 “开源模型” 进行了评论,她认为某些所谓的开源模型(如 Llama 3.1)并未完全开放。此外,针对全球关注的算力危机和资源短缺问题,她提出目前热门的 “小参数模型” 可能是解决这些问题的有效途径。
本次对话内容经整理,有部分删减。

一、Llama并非真正开源

在斯坦福大学 HAI 的最新讨论中,四位专家聚焦于 “人工智能与民主” 主题。对话由 HAI 副主任拉塞尔・瓦尔德主持,参与者包括李飞飞(计算机科学家)、艾米・泽加特(国际安全专家)和马里亚诺 - 弗洛伦蒂诺・奎利亚尔(法学教授)。

拉塞尔开场指出,尽管讨论场景并不像酒吧,但他们将直接切入主题。他提到 Meta AI 近期公开了规模庞大的 Llama 3.1 模型,尽管在某些方面并非完全开源,但引发了关于技术滥用的担忧。

李飞飞明确指出,Llama 3.1 模型的某些关键组件,如训练数据,并未公开。她强调,尽管开源模型在学术和研究领域有着不可替代的价值,但同时也存在被恶意利用的风险。她认为,面对这些挑战,应通过政策和法律专家的指导,寻求降低风险的策略。

李飞飞强调,技术时代中,保持开放社会和强化自身能力至关重要。她认为,在人工智能等关键技术领域,维持领先地位是最佳的防御策略,同时需平衡风险与创新带来的益处。

李飞飞

艾米在讨论中继续了李飞飞关于 “细微差别” 的观点,并强调了人们在面对开放与封闭的选择时常陷入的非黑即白思维。她指出,开源和闭源的 AI 模型都存在各自的风险与机遇,关键在于模型风险的可预见性及其面临的障碍。

  1. 艾米认为,政府需要克服三种主要障碍以提高预见性:
  2. 技术挑战:AI 模型的行为往往难以理解,它们的失败可能不可解释且难以修复,这是预见风险的技术障碍。
  3. 商业激励:私营部门追求利润,倾向于先推出产品再考虑问题,如何在不抑制创新的前提下控制这种冲动,是预见风险的商业挑战。
  4. 多元化视角:面对问题时,多元化的视角可以提高对未来的准确评估,从而更好地预见可能的风险。不同的视角有助于增强预见风险的能力。

艾米质疑当前 AI 公司在引入不同风险视角方面的表现如何,质疑他们是否有真正的红队进行实战测试。她认为,真正的反对者比假装持有不同意见的人更能提升预见性。艾米呼吁,无论是在斯坦福还是领先的科技公司中,我们应鼓励并奖励关于模型潜在风险的多元化分析视角,以减轻这些风险。

艾米·泽加特

在讨论中,马里亚诺以幽默的方式引入了话题,提到活动使用了他 11 岁时的照片,暗指更新的重要性,并强调诚实的价值。

从商业视角分析,马里亚诺指出 Meta 的模型虽然公开了权重,但其附带的许可证限制了使用范围,这在法律层面上并非完全开源。他提出,如果模型可能被用于制造虚假信息,那么通过许可证来设定使用限制是合理的。

他进一步强调,欺骗和欺诈行为应受到限制,Meta 明确模型权重的使用权限是恰当的做法。同时,他指出互联网上的开源文化通常更为宽松,这与 Meta 的限制条件形成了对比,突出了安全考量的必要性。

马里亚诺还提到了经济因素,许多公司都羡慕 Meta 在模型训练上的投资,因此讨论其盈利模式是必要的。这涉及到法律、商业策略和安全保障的交叉问题。他回顾了之前的全球专家会议,强调需要超越开放与封闭的二元对立,关注 Meta 在前沿研究中的工作。

尽管 Meta 可能不愿意公开模型权重,但数据安全风险依然存在。马里亚诺提出,真正的威胁不在于当前的 Llama 3.1 模型,而是未来几代模型可能带来的挑战。他鼓励大家持续提问,探讨世界如何应对这些挑战,各国政府应采取哪些措施,以及在模型发展中可能涉及的生物武器或网络攻击问题。

最后,他强调企业在测试模型时应保持诚信,引入多元视角,并准备在必要时采取负责任且审慎的政府行动,以平衡创新与安全保障。

艾米·泽加特马里亚诺 - 弗洛伦蒂诺・奎利亚尔

二、美国真正发生留不住人才的风险

在讨论中,主持人提出了一个关键问题:美国是否应继续作为全球人才的磁石,或者是否仍具备这样的能力?

马里亚诺回应称,答案似乎显而易见,没有全球顶尖人才的参与,尤其是像李飞飞这样在人工智能领域取得杰出成就的专家,美国的未来将难以想象。他强调了吸引和保留人才的重要性,但也指出实际操作、公众支持和具体实施方案都是相当复杂的挑战。

李飞飞补充说,她在斯坦福大学以及先前的普林斯顿大学和伊利诺伊大学厄巴纳 - 香槟分校的经历让她对美国的人才和知识竞争力感到忧虑。她指出,许多依靠公共资金或行业支持培训的学生,在签证程序上遇到重重障碍,感受到限制。

李飞飞提到,当今全球知识竞争日益激烈,许多优秀的计算机科学和人工智能领域的学生,由于加拿大和部分欧洲国家提供的更多资源和支持,不仅不愿意留在美国,实际上也无法留下。她举了一个具体的例子:许多斯坦福大学培养的人才因为其他国家提供更有利的环境,最终选择离开美国。

她强调,尽管美国曾是吸引全球人才的灯塔,但目前的情况要求重新思考和简化留住和吸引人才的流程,以确保美国在全球竞争中保持领先地位。

三、机器人革命即将开始

主持人迅速转至下一个问题,询问李飞飞关于空间智能以及其对 AI 视觉数据处理能力进步的影响,特别是她如何预见这些技术在监控和隐私方面带来的风险。

李飞飞简要概述了空间智能的概念,将其定义为与语言智能并列的人类智慧的关键组成部分,关乎我们与三维世界的互动和理解。她解释说,空间智能在艺术、建筑和科学中都有所体现,体现了人类在非语言领域的创新和智慧。

她强调,尽管语言模型的研究已取得显著进展,但空间智能的研究同样重要,因为它涉及广泛的应用范围,比如在医疗领域辅助医生工作,或使老年人能够借助相关技术在家中更安全地生活。

同时,她指出空间智能技术在地缘政治上的应用,如何直接嵌入武器系统和推动机器人智能的发展。她描述了每一个配备空间智能的机器人都是一个独立的智能体,能像人类和动物一样通过空间智慧在世界中移动和互动。

最后,李飞飞强调,随着这些技术的发展,机器人革命即将到来,这将对许多领域产生深远影响。

四、“小模型”是算力危机最好解决方法

主持人提出关于人工智能产业规模经济的问题,询问三位嘉宾对这一现象及其全球影响的看法,特别是在开发前沿 AI 模型的巨额成本和对超大公司影响力的担忧之间如何找到平衡,以及如何促进技术行业的民主化。

艾米首先发言,她提出虽然顶级 AI 研究的成本极高,但低成本模型正迅速接近顶尖水平,强调了小型、高效模型的潜力。她询问李飞飞对此的看法。

李飞飞同意艾米的观点,指出并非只有大规模模型才能解决问题。她提到,专注于特定领域或经过定制数据优化的小型模型,对企业来说更为实用。李飞飞以人脑为例,强调小型而高效的模型的重要性。

马里亚诺从政策角度分析,指出人工智能政策面临的关键问题之一是高端硬件的稀缺性。他提出,前沿工作是否需要如此大规模的投资是值得探讨的,同时也涉及到算法和计算资源之间的替代关系。他坦承,对于这些问题,目前还没有明确的答
案。

总的来说,三位嘉宾讨论了人工智能产业中规模经济的复杂性,强调了小型、高效模型的潜力,同时也指出了在推动技术民主化的过程中需要解决的挑战。


用户bPdd2VK
1 声望0 粉丝