AnthropicCEO阿莫代就公司与国防部讨论的声明:我深信利用人工智能保卫
AnthropicCEO阿莫代就公司与国防部讨论的声明:我深信利用人工智能保卫美国及其他民主国家、击败专制对手具有存在意义上的重要性。因此,Anthropic一直积极主动地将我们的模型部署给国防部和情报界。我们是第一家将前沿AI模型部署到美国政府机密网络的公司,是第一家将其部署到国家实验室的公司,也是第一家为国家安全客户提供定制模型的公司。Claude已在国防部及其他国家安全机构广泛部署,用于情报分析、建模与仿真、作战规划、网络行动等任务关键应用。Anthropic还采取行动捍卫美国在AI领域的领先地位,即使这有时违背公司的短期利益。我们选择放弃数亿美元的收入,切断了与XX有关联的企业(其中一些已被国防部认定为XX军事公司)使用Claude的途径;我们关闭了由XX赞助的、试图滥用Claude的网络攻击;我们也一直倡导对芯片实施强有力的出口管制,以确保民主国家拥有优势。Anthropic明白,军事决策由国防部而非私人公司做出。我们从未对特定军事行动提出异议,也从未试图以临时方式限制我们技术的使用。然而,在极少数特定场景中,我们认为AI可能会削弱而非捍卫民主价值;还有一些用途则超出了当前技术能够安全、可靠执行的范围。有两种此类用例从未被纳入我们与国防部的合同中,我们认为现在也不应纳入:1.大规模国内监控我们支持将AI用于合法的外国情报和反情报任务。但将这些系统用于大规模国内监控与民主价值不相容。AI驱动的大规模监控对我们的基本自由构成了严重且全新的风险。目前这类监控之所以在法律上仍被允许,仅仅是因为法律尚未跟上AI能力的快速增长。例如,根据现行法律,政府可以不经搜查令直接从公开渠道购买美国人的详细行动轨迹、网络浏览记录和社交关系数据,情报界自己也承认这种做法引发了隐私担忧,并在国会引发了两党的反对。强大的AI使得将这些原本零散、无害的个人信息自动、大规模地拼凑成对任何个体完整生活画像成为可能。2.完全自主武器部分自主武器(如今天在乌克兰使用的那些)对保卫民主至关重要。甚至完全自主武器(即完全将人类排除在决策循环之外、自动选择并攻击目标的武器)在未来也可能对国防至关重要。但就目前而言,前沿AI系统的可靠性还远不足以支撑完全自主武器。我们不会在知情的情况下提供可能危及美国作战人员和平民安全的产品。我们曾提出直接与国防部合作开展研发,以提高此类系统的可靠性,但尚未得到接受。此外,如果缺乏适当的监督,完全自主武器无法被信赖能够行使我们训练有素的专业部队每天都在展现的关键判断力。这类武器需要配备适当的防护措施,而今天这些措施尚不存在。据我们所知,上述两条例外迄今并未阻碍我们在武装部队中加速采用和使用我们的模型。国防部表示,他们只会与同意“任何合法用途”、并在上述情况下移除防护措施的AI公司签约。他们威胁称,如果我们坚持保留这些防护措施,就将把我们从他们的系统中移除;他们还威胁将我们列为“供应链风险”——这一标签以往只用于美国对手,从未施加于美国公司——并威胁动用《国防生产法》强制移除这些防护措施。后两种威胁本质上是自相矛盾的:一种把我们贴上安全风险标签,另一种却把Claude视为国家安全必需品。无论如何,这些威胁都不会改变我们的立场:我们无法问心无愧地同意他们的要求。选择最符合自身愿景的承包商是国防部的权限。但鉴于Anthropic的技术为我们的武装力量提供了巨大价值,我们希望他们能够重新考虑。我们的强烈愿望是继续为国防部和我们的战士提供服务——同时保留我们所要求的这两条防护措施。如果国防部最终选择将Anthropic下架,我们将全力配合顺利过渡到其他供应商,避免对正在进行的军事规划、行动或其他关键任务造成任何中断。在所需的时间内,我们的模型将一直按照我们所提议的宽松条件提供。我们始终准备继续致力于支持美国的国家安全。