登录×
电子邮件/用户名
密码
记住我
请输入邮箱和密码进行绑定操作:
请输入手机号码,通过短信验证(目前仅支持中国大陆地区的手机号):
请您阅读我们的用户注册协议隐私权保护政策,点击下方按钮即视为您接受。
FT商学院

AI公司不能指望决定军方如何使用其工具

霍洛维茨:Anthropic要求就美国军方使用其系统的方式发表意见以确保系统有效是合理的。但这与有权决定使用武力是否合理是两回事。

本文作者是宾夕法尼亚大学(University of Pennsylvania)教授和该校智库佩里世界之家(Perry World House)主任,并曾担任美国国防部(DoD)副助理部长

上周五,五角大楼在合同谈判破裂后宣布将AI公司Anthropic列为供应链风险。这一标签意味着Anthropic不仅会失去美国政府的合同,还会被与华为(Huawei)等中国公司归为一类,被视为对美国国家安全构成威胁。

然而在不到24小时后,Anthropic的技术据报道被用于美国打击伊朗的史诗之怒行动(Operation Epic Fury)。这家科技公司在帮助美国军方的同时被贴上供应链风险的标签,这种矛盾的局面是随着AI日益融入军事领域而发生的不必要但或许不可避免的最新事件。

Anthropic与五角大楼之间发生的本质上是一场关于政府角色的争端,却被伪装成一场关于政策的角力。

此前,双方对美国军方现有的AI用例并无分歧。也没有公开迹象表明五角大楼计划指示Anthropic开展任何会逾越这家AI公司对在大规模监控和自主武器系统领域使用其工具设定的红线的项目。

此外,OpenAI在上周五晚与五角大楼签署一项协议,其中包含Anthropic 99%的要求,而且OpenAI正致力于修改协议,以进一步加强防止其技术被滥用的条款。

这些事实似乎表明,这场争端反映了信任的破裂:五角大楼不相信Anthropic的工具会在需要用于重要的国家安全用途时可用;Anthropic不相信五角大楼会负责任地使用其技术。

这引发了一个问题:军方买下AI工具后,私营部门能指望拥有多大的控制权?与坦克或导弹等传统武器不同,AI技术在很大程度上被认为主要面向民用目的。但这是否意味着AI公司有权对其使用方式拥有更大的话语权?毕竟,像洛克希德•马丁(Lockheed)这样的公司并不指望能够告诉五角大楼在哪里可以发射导弹或部署F-35战机。

然而,典型的军事系统在采购时基本已趋成熟,而AI系统不断演进,两者间存在显著差异。例如,Anthropic关于其技术尚未准备好用于自主武器系统的主张几乎肯定是正确的。

这进而意味着,Anthropic要求就其系统的使用发表意见以确保有效性是合理的。

然而,这与有权决定使用武力是否合理是两回事。就像五角大楼正确指出的那样,关于自主武器系统已经有详尽的政策,其中包括3000.09号国防部指令(DoD Directive 3000.09),我曾任职的办公室在2023年对其进行了更新。此外,围绕使用武力的法律义务应该也会阻止美军在战场上危险地使用不成熟的技术。

或许这场争端是不可避免的。当今的武器系统已经具备高度自主性,而且40年来一直如此,其中包括“发射后不管”系统。然而,由AI决定何时以及如何使用武力的前景,对工业时代设计的流程提出了新的挑战。

作为一项通用技术,AI正在重塑世界各地的经济和社会。美军这样的军队或许制定了规范自主武器系统使用的政策,但许多政策尚未经过实际检验。另一方面,当今科技公司的领导者习惯于按照自己开出的条件进行谈判。

无论如何,这场争端的升级令人失望。Anthropic曾是第一家执行机密工作以支持美国国家安全的前沿AI公司。其他AI公司将会注意到五角大楼为掩盖合同纠纷而提出的在法律上站不住脚的说法,即Anthropic现在是一个供应链风险。这可能会使美国军方未来更难与私营企业建立某些合作伙伴关系。那将是令人遗憾的。自二战以来,五角大楼与美国科技公司一直有着互惠互利的关系。

如果Anthropic与五角大楼无法化解彼此间的争端,真正的赢家将是那些希望推翻美国AI和军事霸权的国家,尤其是中国。美国军方将失去获益于世界顶级AI公司之一的人才和技术的渠道。希望他们能够达成一项双赢的协议。

译者/和风

版权声明:本文版权归FT中文网所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。

读者评论

用户名:
FT中文网欢迎读者发表评论,部分评论会被选进《读者有话说》栏目。我们保留编辑与出版的权利。
用户名
密码
设置字号×
最小
较小
默认
较大
最大
分享×