在军事科技迅猛发展的今天,一则来自五角大楼的报告,如巨石投入舆论的深潭,激起千层浪。报告显示,AI武器系统首次参与实战指挥决策,这一突破性进展标志着战争形态正迎来前所未有的变革。
从2024年起,美国国防部承认在伊拉克和叙利亚的85次空袭行动中,机器学习算法被用于识别目标。这是AI技术在实战中崭露头角的开端。美国中央司令部在当年2月2日的7次空袭里,运用了军用人工智能项目Maven中的目标识别算法,覆盖伊拉克和叙利亚多地。这些算法能精准识别潜在目标,尽管最终武器系统仍由人工操作,但AI的助力让空袭效率大幅提升,如在识别敌人火箭、导弹、无人机和民兵设施时,展现出远超以往的敏锐度。
回溯2017年,五角大楼就已启动代号为“Maven”的军用人工智能项目,积极寻觅能为无人机画面开发对象识别软件的供应商。当时,美国海军陆战队上校德鲁·库克尔就表示,期望将Maven软件与政府平台集成以收集情报。可见,美军对AI技术在军事领域的应用早有布局。
随着2023年大语言模型的横空出世,美军加快了AI技术军事化的步伐。8月,国防部成立利马特遣部队,研究生成人工智能在军队中的应用;10月,国家安全局设立人工智能安全中心,监督AI开发并将其整合到国防和国家安全系统。美国国防部首席人工智能官克雷格·马特尔描绘出大语言模型指导作战决策的诱人场景:战斗指挥官能在10分钟内获取战略决策所需信息,战场态势感知周转时间大幅缩短。
不过,军用大语言模型的发展并非一帆风顺。美国中央司令部尝试运行人工智能推荐引擎,建议军事行动中的武器组合和攻击计划时,发现大语言模型准确性远未达到“军用级别”,每个涉及AI的步骤都需人工检查。数据安全也是棘手问题,美国国防部无法接受通用大语言模型存在的数据安全隐患,如美国太空军禁止工作人员使用ChatGPT,担心军事机密泄露。
为解决这些问题,美国国防部与初创公司Scale AI合作,测试军用生成式人工智能模型,开发评估军用大语言模型的工具和数据集框架,以识别潜在风险。
AI武器系统参与实战指挥决策,影响深远。它让战争决策速度大幅提升,使战场态势瞬息万变;但也引发诸多担忧,如AI决策失误的责任界定、数据安全风险以及对传统战争伦理的冲击。联合国等国际组织对此高度关注,呼吁制定相关规则,避免AI在战争中被滥用。
未来,AI在军事领域的发展充满变数。是成为维护和平的有力工具,还是沦为加剧冲突的危险武器?这不仅考验着各国的智慧,更关乎全人类的安全与未来。我们必须保持警惕,密切关注AI军事应用的发展,共同探索如何让AI技术为人类和平与安全服务。 #2025新星计划1期#