Anthropic 与美国国防部:关于 AI 伦理与国家安全的软件红线争端

摘要:: 据知情人士透露,Anthropic 与五角大楼在一项价值 5 亿美元的软件集成合同上陷入僵局。国防部希望将其先进的 Claude 系列模型集成到无人机蜂群的战术决策系统中,以提高目标识别和打击的自主性。然而,Anthropic 核心团队基于其“宪法 AI”原则,坚持要求在软件底层设置不可逾越的“不伤害人类”逻辑开关。这一争端引发了全球关于“商业软件公司是否应深度参与致命武器研发”的广泛讨论。Anthropic 方面表示,他们宁愿放弃合同,也不愿让 AI 在没有人类最终干预的情况下执行致命指令。此事被视为 AI 伦理从理论走向战场实测的转折点。
来源:: Graphics Unleashed / Financial Times

留下评论

您的邮箱地址不会被公开。 必填项已用 * 标注