AI行业在军事应用中的伦理与选择
随着AI行业规模和影响力的增长,相关公司开始在生死攸关的问题上做出明确选择。例如,他们的AI模型是否可以用于指导武器或做出目标决策?不同公司对此问题的回答各不相同,但OpenAI(ChatGPT的开发者)最初坚决反对武器开发和军事应用,随着时间的推移,这一立场逐渐松动。
OpenAI与Anduril的合作
2023年11月,国防科技公司Anduril Industries(由Oculus创始人Palmer Luckey于2017年创立)宣布与OpenAI合作,开发AI模型(类似于支持ChatGPT的GPT-4o和o1模型),以帮助美国和盟军识别和防御空中攻击。两家公司表示,他们的AI模型将处理数据,减少人类操作员的工作负担。Anduril在一份声明中表示,将探索如何利用前沿AI模型快速合成时间敏感数据,减少人类操作员的负担,并提高态势感知能力。
军事AI系统的应用
这一合作正值AI驱动的系统成为现代战争的关键特征,尤其是在乌克兰。根据公告,OpenAI和Anduril将主要开发针对无人机的防御系统,但也提到来自“传统有人平台”(即有人驾驶飞机)的威胁。Anduril目前生产多种可用于杀伤的产品,包括AI驱动的“刺客无人机”和导弹火箭发动机。Anduril表示,其系统需要人类操作员做出致命决策,但公司设计的产品可以随着时间的推移升级其自主能力。
五角大楼的兴趣
五角大楼对此类AI驱动系统表现出越来越大的兴趣,推出了“复制者计划”等倡议,计划在未来两年内部署数千个自主系统。Anduril正在帮助实现美国军方关于“无人机群”的愿景。
OpenAI的伦理转变
尽管死亡是国防不可避免的一部分,但积极寻求与武器供应商合作,对于一家曾明确禁止用户将其技术用于武器开发或军事战争的AI公司来说,仍然是一个伦理上的重大转变。OpenAI仍将自己定位为致力于确保人工通用智能在开发时造福全人类的研究组织。
AI在战争中的利润
2023年6月,OpenAI任命前NSA局长、退役美国将军Paul Nakasone为其董事会成员。一些专家认为,这一任命可能是OpenAI为更多网络安全和间谍相关工作做准备。然而,OpenAI并非唯一进入国防领域的AI公司。Anthropic与Palantir合作处理政府机密数据,而Meta开始向国防合作伙伴提供其Llama模型。
LLM辅助武器系统的缺点
尽管美国军方已经使用了多种人工智能,但Anduril目前的攻击无人机引导系统并不基于类似ChatGPT的AI技术。值得注意的是,OpenAI最知名的AI技术来自大型语言模型(LLMs),这些模型有时会编造错误信息,并且容易受到提示注入等操纵漏洞的影响。在生死攸关的军事情况下使用不可靠的LLM技术,引发了关于安全性和可靠性的重要问题。Anduril的新闻稿提到,这一合作将在强有力的监督下进行,强调信任和问责。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。