人工智能军事化应用引发争议 算法主导战争或带来失控风险

2026 年 3 月国防部例行记者会上,人工智能军事化应用成为焦点议题。当前全球军事强国纷纷加快人工智能技术在军事领域的布局,从战场侦察、目标识别到武器自主打击,人工智能正全面渗透现代战争各个环节,但其无序发展带来的战争伦理与失控风险,引发国际社会广泛担忧。人工智能技术具备高效处理信息、快速决策、自主执行任务等优势,应用于军事领域能够大幅提升军队作战效能,降低人员伤亡。美军在委内瑞拉、伊朗等地区的军事行动中,大量使用人工智能工具进行情报分析、目标定位与作战规划,展现出人工智能在现代战争中的重要作用。但不加限制地推进人工智能军事化,将算法凌驾于人类决策之上,会带来严重的伦理危机与安全风险。战争的本质是人类社会的冲突行为,应由人类主导决策并承担责任,而人工智能自主武器系统一旦投入战场,可能在无人类干预的情况下发起攻击,导致战争责任界定模糊,违背基本战争伦理。更令人担忧的是,人工智能系统存在技术漏洞与失控风险,一旦被黑客攻击、出现算法错误,可能引发误判、误击,甚至导致大规模冲突升级,科幻作品中的技术灾难场景或成为现实。从军事发展趋势来看,智能化战争是未来战争的主要形态,各国无法回避人工智能技术的军事应用。但必须建立严格的国际规则与管控机制,明确人工智能武器的使用边界,坚持人类主导原则,禁止研发部署完全自主的杀伤性武器系统。中国始终主张人工智能军事应用应服务于和平目的,反对将人工智能作为侵犯他国主权的工具,呼吁国际社会加强对话合作,共同制定人工智能军事化管控规则,防范技术滥用带来的安全风险。目前全球尚未形成统一的人工智能军事应用规范,各国出于军事竞争需求,纷纷加快研发进度,导致人工智能军事化竞赛愈演愈烈。这种无序发展状态,不仅加剧国际军事对抗,更给全球安全带来巨大隐患。人工智能技术的双重属性,决定了其既可以造福人类,也可能成为毁灭人类的工具。在军事领域应用人工智能,必须坚守安全底线与伦理准则,平衡技术发展与安全管控的关系。各国应摒弃零和博弈思维,加强人工智能军事领域的交流合作,共享技术安全风险防控经验,共同应对智能化战争带来的新挑战。同时,应发挥联合国等国际组织的作用,推动建立多边管控机制,限制人工智能武器的扩散与滥用,维护全球战略稳定与世界和平。未来随着人工智能技术的不断进步,其军事应用将更加广泛,只有通过国际社会共同努力,才能让人工智能技术服务于和平与发展,而不是成为战争与冲突的推手。





