谷歌600员工联名抗议:AI军事化合作引发技术伦理危机
2026-04-28 17:04:55未知 作者:徽声在线
徽声在线4月28日消息(记者 李明轩)本周一(4月27日),谷歌公司内部爆发了一场重大争议——超过600名员工联名向首席执行官桑达尔·皮查伊递交公开信,强烈要求终止与美国五角大楼正在推进的人工智能合作项目。这场抗议活动迅速引发科技界对AI军事化应用的深度讨论。
据内部人士透露,这份引发争议的协议将授权美国国防部将谷歌的Gemini人工智能系统应用于「所有合法政府用途」,包括涉及国家安全的机密任务。这意味着谷歌的AI技术可能被用于无人机目标识别、战场态势分析等敏感领域。
600+员工发起技术伦理请愿
此次联名信的签署者中,近三分之一来自谷歌旗下顶尖AI实验室DeepMind,包括多位参与过AlphaGo研发的核心工程师。信中明确指出:「任何涉及机密处理的AI合作协议,都将导致技术使用过程完全不透明,这与谷歌'不作恶'的原则严重冲突。」
抗议信特别强调技术滥用风险:「当AI被用于致命自主武器系统或大规模监控时,不仅会直接威胁人类生命安全,更可能侵蚀全球公民自由。我们必须确保公司技术不会被用于制造数字时代的'大规模杀伤性武器'。」
员工代表在接受采访时补充道:「即使国防部承诺合法使用,但缺乏有效监督机制的情况下,技术仍可能被扭曲应用。我们要求建立独立的技术伦理审查委员会,对所有军事合作项目进行前置评估。」
AI军事化引发行业激辩
这场争议恰逢全球AI军事应用加速期。据斯德哥尔摩国际和平研究所数据,2023年全球军事AI市场规模突破230亿美元,年增长率达47%。这引发科技界对「技术中立性」的激烈争论:AI企业是否应该对技术最终用途承担道德责任?
美国国防部高级研究计划局(DARPA)发言人回应称:「现代战争形态正在发生根本性变革,我们必须整合商业AI领域的最新成果。所有合作都严格遵循《武器贸易条约》和《日内瓦公约》框架。」
但MIT媒体实验室最新研究显示,当前AI军事应用存在三大风险:算法偏见导致误伤平民、自主系统失控风险、以及技术扩散引发的军备竞赛。研究负责人指出:「当AI系统做出致命决策时,责任归属问题将引发严重的法律和伦理困境。」
值得关注的是,谷歌的竞争对手Anthropic公司今年2月因拒绝类似军事合作要求,已被美国国防部暂停所有采购资格。这暴露出科技巨头在商业利益与伦理原则间的艰难抉择。
谷歌内部对此早有前车之鉴。2018年,该公司因参与五角大楼「Maven项目」(使用AI分析无人机影像)引发大规模员工抗议,最终导致3000人联名请愿。当时谷歌承诺「永不开发武器化AI」,但2023年12月悄然取消相关限制,随即与国防部达成Gemini系统合作协议。
据内部文件显示,谷歌军事合同收入从2021年的2.3亿美元激增至2023年的14.7亿美元。这种转变引发伦理委员会强烈不满,其最新报告警告:「当技术伦理让位于商业利益时,企业将失去公众信任的基础。」
目前,这场争议已引发连锁反应。欧洲议会正在审议《AI军事应用禁令》,要求禁止所有致命自主武器系统。而联合国《特定常规武器公约》专家组也将于6月召开特别会议,讨论AI军事化管控框架。谷歌员工代表表示:「这不仅是谷歌的问题,更是整个科技行业的转折点——我们必须决定要建造怎样的未来。」