冷静看待生成式AI军事应用-每日焦点

2023-05-23 06:00:34 来源:解放军报


(资料图片)

近段时间,以ChatGPT为代表的生成式AI成为各方关注的焦点。诚然,加速推进生成式AI在军事领域的应用具有重要意义,但在天马行空畅想其应用场景的同时,更要清醒冷静地对其适用性、可控性及有效性进行系统论证。

把准适用性,界定应用范围。任何技术都不是万能的,必然存在着一定适用范围,判断其适用性是技术应用的前提条件。尽管生成式AI看上去非常智能,但并不意味着它能在所有领域大展拳脚。应用前要先了解其作用发挥的前提条件和优缺点,知其所能和所不能。例如,ChatGPT擅长模仿人类语言提炼知识、总结经验,但也存在需要海量高质量训练数据、无法理解知识性错误、无法实时更新、逻辑推理能力弱等缺陷。因此它更适合信息收集、信息初加工等低创造应用场景,诸如在模拟训练中充当虚拟助手、从海量情报信息中提取关键信息、对目标进行自动识别与跟踪、模仿人类语言实施信息诱骗等低风险任务。为此,应该在挖掘生成式AI军事应用场景的同时,界定其军事应用范围,找准它和军事需求的契合点,确保把颠覆性技术应用出颠覆性效果。

把准可控性,降低应用风险。由于军事领域的特殊性,对生成式AI军事应用的准确性、时效性和安全性提出了更高要求。因此,若直接将生成式AI移植到军事领域势必会面临诸多不可控因素。不可控因素主要来源于两方面:一是训练数据集数量不够、质量不高、算法机制不明等系统内部原因造成的不可控。例如,ChatGPT的本质仍然是深度学习,它的工作原理只是在已输入词语的基础上,根据最符合训练集统计的概率分布来预测下一个单词是什么,借助海量的训练数据和强大的算力对网络参数进行学习。一般而言,数据集和模型越大,训练效果越好。然而,当涉及到训练数据集不包含的某个专业领域的知识时,ChatGPT就可能胡编乱造。二是对手通过数据污染、模型窃取等恶意攻击行为导致AI系统不可控。今年3月份,美国安全和新兴技术局发布了《聚焦军事决策优势降低AI风险》的报告,报告称在目前的各类研究和应用中,查找AI系统漏洞十分困难,短期内AI易受欺骗的问题仍无法解决。因此,在应用过程中需把握生成式AI军事应用的可控性,并采取措施规避可能出现的风险,包括建立安全的大数据管理和保护机制,研发更加透明和可解释的AI算法和模型,加强对算法和模型的审计和监管,加强AI系统的安全和可控性测试。

把准有效性,关注应用效费比。评估生成式AI军事应用的有效性,可从效率、用户和成本三个方面进行。效率指标主要衡量生成式AI军事应用能否有效提升战斗力,例如,能否减少人员伤亡、优化军事行动流程、更敏捷地感知和应对威胁、提高武器弹药的精确度和命中率、提高作战指挥的准确性和效率等。用户指标主要体现用户对AI系统的满意度、需求和建议,包括AI系统的可靠性、响应时间、可扩展性、可维护性、安全性以及易用性等。成本指标包括AI系统的研发成本、应用维护成本、风险成本等。例如,ChatGPT模型的训练成本很高,包含计算资源费用、数据集费用、人力成本等。以ChatGPT在今年1月的独立访客1300万计算,初始投入成本就达8亿美元,每日仅电费就大约5万美元。尤其在当前,生成式AI可解释性及鲁棒性不强,人机协同易出现信任感缺失和理解不一致的问题,由此带来的附加成本也是需要重点考虑的因素。因此,为确保生成式AI军事应用达到预期目标,应对其有效性进行科学评估,最大限度提升应用效费比。首先,应通过构建与作战场景高度一致的仿真验证环境,评估AI系统性能;其次,研究如何在正确的时间以正确的方式将生成式AI集成到决策和作战中,确定AI系统自主决策的层级及范围,最大限度避免风险;再次,应加强决策者与研发人员的沟通,提高决策者判断AI系统输出可靠性的能力,增强人机信任感。(曾子林)

标签:

为您推荐

新闻快讯