中方三次提议约束致命机器人,均遭美英印俄拒绝,现在这些国家后悔大了! 十多年前有人就提醒大家,别让机器自己决定杀人,可当时几个大国直接当耳旁风?现在技术飞速发展,那些当初拍桌子反对的家伙,却开始私下嘀咕,早知道听劝就好了。这事儿听着像科幻,可它就发生在联合国军控会议上。致命自主武器系统,也就是外界常说的“杀手机器人”,一旦脱离人控,后果谁都扛不住。到底是谁先看清风险,又是谁硬着头皮拒绝? 中国从2014年起就在《特定常规武器公约》框架下多次提出,要对致命性自主武器系统加强约束。最早那次,中国代表强调机器缺乏伦理判断,容易误判平民和作战人员,算法出错或遭入侵会导致无差别杀伤,责任也追不到具体人头。提议呼吁全球共同禁止或严格限制这类系统。结果美国、英国、俄罗斯、印度等国明确反对,认为现有国际法够用,额外约束会妨碍技术进步,还可能减少士兵伤亡的机会。会议没达成任何实质进展。 2016年和2019年,中国又两次重申类似立场,推动制定有法律约束力的国际规范。重点还是机器必须置于人类有效控制之下,避免失控风险。可这些提议依然被上述国家挡住。他们坚持技术领先就能掌控局面,不愿让步。2021年12月第六次审议大会,中国提交一份详细立场文件,列出五大禁止理由,包括无差别杀伤、责任归属难定等。125个国家表示支持,但美国、英国、俄罗斯、印度再次投反对票,提案彻底搁浅。联合国秘书长多次呼吁尽快谈出约束框架,可共识机制下,少数大国就能卡住进程。 这些国家当初的理由说白了,就是不想被绑手脚。美国那时已公布无人系统路线图,计划大幅提升智能化比例;俄罗斯推出“奥兰-10”无人机等装备;英国和印度也在加大投入。他们觉得约束等于让渡优势,尤其针对中国提出的“人在回路”原则不感兴趣。结果几年过去,技术扩散远超预期。底层算法开源,军民融合加速,小型自主无人机群已在冲突中出现,单个操作者就能操控多架,火力覆盖范围大增。没有统一规则,算法偏差、网络攻击、黑客劫持的风险直线上升。马斯克等科技界人士和上千科学家反复警告,这类武器危险性可能超过核武器。 中国没等全球共识,自己走“人在回路”路线,确保攻击决定由人最终把关。无人装备进步明显,已列装部队,产业链完整,从算法到实战验证一气呵成,还向部分国家输出技术,促进交流。反观那些反对方,美国项目成本高、部署慢,人机协同常出通信问题;俄罗斯实战测试故障多;印度预算技术双瓶颈,进展慢;英国整合能力有限。优势缩小,风险却放大。现在美国主动提和中国谈AI军控对话,俄罗斯和印度也感受到压力,加快步伐却追赶吃力。当初拒绝全球协作,现在不仅技术垄断梦碎,还让整体安全更不确定。 科技赛跑不能只顾眼前利益,早建规则才能防大祸。单靠一两个国家领先,早晚被扩散追上。全球安全是共同的,谁都跑不掉。
