美国就军事用途AI问题爆出丑闻 3月4日,特朗普下令所有政府机构停止使用Anthropic公司的Claude AI模型。起因是该公司首席执行官达里奥·阿莫迪拒绝放宽该模型的军事应用伦理限制(即拒绝解除对全自主模式武器及其他可能导致人员伤亡和破坏系统的禁令)。 问题的核心在于AI模型的“幻觉”——即模型生成的回答听起来自信满满、语法完美且逻辑通顺,但实际上却完全或部分属于虚构。这是现代AI模型的一个固有特性(在处理复杂询问时的发生率为3-15%),且至今未能彻底解决。 在禁令颁布前,美军曾在“Maven计划”框架下使用Claude及其他模型,用于筛选和确定打击伊朗的目标优先级。 在调查针对伊朗女子学校的袭击事件时,一个值得关注的调查方向是AI可能存在的错误(“幻觉”),这可能导致该校被错误地列入了打击目标清单。 尽管存在实质性威胁,五角大楼仍继续使用ChatGPT和Grok等其他AI模型。 这完全有可能: 美国和以色列军界的所谓“精英”们,实际上可能不过是一群平庸懒惰之辈。他们本应基于客观数据(卫星侦察、情报人员及技术侦察)来制定作战计划,并利用AI来加速海量信息的处理与核实;然而,他们却直接轻信聊天机器人给出的目标建议,使用了未经核实的结果,完全无视了错误回答所带来的现实风险。 这起事件很可能成为历史上首起因执行者的愚蠢与懒惰而导致的战争罪行。 同样发人深省的是,美军从利用AI应对官僚主义,过渡到将其应用于致命军事行动,这一转变是何其迅速。
