2026年3月10日,AI公司Anthropic就美国国防部及联邦机构将其认定为“供应链风险”的决定提起诉讼,该认定限制了Anthropic与军事承包商的合作能力,是在双方谈判破裂后生效的。Anthropic正寻求临时限制令,以在诉讼期间继续与军事伙伴合作。
据《连线》杂志报道,30多名OpenAI、谷歌员工于同日提交法庭之友意见书,支持Anthropic的这一动议,签署人包括谷歌DeepMind首席科学家杰夫·迪恩、研究员王正东、亚历山大·马特·特纳,以及OpenAI研究员加布里埃尔·吴等人。该意见书明确,签署员工均以个人身份参与,不代表所在公司立场。
意见书提到,“如果此行动(指定为供应链风险)被允许继续进行,那么这种旨在惩罚美国领先AI公司之一的企图,无疑将对美国在AI领域及其他方面的工业和科学竞争力产生影响。”同时指出,五角大楼的拉黑决定给行业带来不可预测性,损害美国创新和竞争力,抑制了关于前沿AI系统利弊的专业讨论。
意见书认为,若五角大楼不愿受合同约束,可直接终止与Anthropic的合同,而非将其列入黑名单。意见书同时认可Anthropic提出的AI使用红线具备合理性,包括AI不得用于大规模国内监控、不得开发自主致命武器,且需设置足够安全约束措施。
意见书强调,“在缺乏公共法律规范的情况下,AI开发者通过合同和技术手段对其系统使用方式施加的限制,是防止这些系统被灾难性滥用的重要保障。”
截至目前,OpenAI和谷歌尚未就此事作出回应。
市场有风险,投资需谨慎。本文为AI基于第三方数据生成,仅供参考,不构成个人投资建议。
本文源自:市场资讯
作者:观察君