人工智能军事应用诸多法律问题待解

来源:本站 浏览

小编:  近年来,人工智能科技广泛应用于国防和军队建设

  近年来,人工智能科技广泛应用于国防和军队建设。人工智能军事应用不仅催生新的作战手段和作战方法,而且,加速推动战争形态向智能化演变。因此,人工智能军事应用不仅是简单的科技或军事问题,更是长远的战略博弈和政治全局问题,已经成为世界主要国家竞争的新领域。

  在这一背景下,军事科学院军事法制研究院于近日围绕“人工智能军事应用法律问题”这一主题,召开学术研讨会。

  人工智能军事应用不仅会改变一国的综合国力,而且会影响国际军事格局。目前,已有近30个国家先后出台人工智能发展战略报告,清晰规划未来5年至10年人工智能发展蓝图,力图使人工智能成为国家实力和国防实力倍增的武器。

  同时,人工智能军事应用的快速发展,也使其成为国际社会军备控制的新焦点。联合国、国际组织等把人工智能军事应用,特别是智能化武器系统可能给人类带来的风险和挑战,作为国际军控进程的重要议题。

  会上,军事科学院军事法制研究院院长谭亚东作了题为“直面现实挑战,抢抓发展机遇,聚力开创人工智能军事应用法制研究新局面”的主旨发言,来自外交部、军委机关、战区机关,以及北京大学、国防大学和国防科技大学等军地科研院校的60多名专家学者展开交流。

  针对人工智能发展现状、人工智能技术在军事领域的应用情况,与会者认为,人工智能分为弱、强和超级智能三个阶段,目前,仍处于人工智能发展的弱智能阶段,或是专项人工智能阶段,距离完全自主的、与人类相近甚至超过人类智能的通用智能阶段还有很长一段路程。

  人工智能军事应用,或者有专家称其为军事智能,是智能科学理论与技术在军事领域的应用和发展,以及催生的军事力量编程和作战理论的持续变革,以使武装力量更好地应对未来智能化战争。人工智能科技飞速发展将对智能化武器的可预测、可靠性和可回溯性等提出技术方面的挑战。

  与会代表认为,全球范围内人工智能法律研究仍处于同位起跑的探索期,已引起主权国家、国际组织和专家学者的高度重视和广泛热议。概括起来,人工智能军事应用法律研究的总体态势可用“三多三少”来归纳,即西多东少、民多军少、理多实少。

  目前,美英等西方国家研究成果较多,中国和韩国等东方国家研究成果相对较少;自动驾驶、智慧法庭等民用领域人工智能法律问题研究多于军事领域,地方研究人工智能军事应用法制问题研究人员多于军队体系;脱离人工智能法理问题研究的成果比较多,条文化、法案化、程序化的应用研究成果相对较少。摸清人工智能军事应用研究现状,旨在正确把握研究态势,找准自身研究方位,并采取相应对策措施。

  人工智能武器作为人类社会发展至今最为先进、也最具争议的武器系统,是否能经得起现有国际规则特别是武力使用规则的检视,是与会者关注的又一个重要议题。

  二战后,国际社会对使用武力的情形达成了一定共识,形成了严格规范。人工智能武器不但能够帮助研发国和使用国以武力相威胁,而且,一旦作为武力使用,其所造成的人员伤亡或物体损毁的后果也更为严重,对国际现有的武力使用原则和规则将构成严重挑战。

  国家根据诉诸战争权有权使用武力,但其方式方法受到国际人道法的制约。国际人道法是以《日内瓦公约》及其附加议定书为基石,辅以一系列相关特定法律文书和习惯国际法的法律体系,旨在从人道角度保护战争和武装冲突的受害者。

  与会代表认为,智能武器一方面可以通过增强观察和运算能力,提高军事评估的准确性,可不断完善程序系统、精确的火控系统等组织最优打击方案,从而能够比人类更好地遵守国际人道法的基本原则;另一方面也可能会对区分原则、比例原则和进攻时预防措施提出严重挑战,对回应新技术快速发展和快速应用的马顿斯条款也造成严重影响。

  军事智能化武器系统是一个综合体,除了包括自动武器外,国际社会普遍关注的是自主武器系统。因此,自主武器系统的法律问题也是焦点问题之一。

  与会代表认为,目前,国际社会针对自主武器系统热议较多,但究竟什么是自主武器系统,其主要特征是什么还没有达成广泛共识。

  2018年4月,中国代表向联合国框架内特定常规武器公约下的政府专家组提交了立场文件,将致命性、自主性、不可终结、不分皂白的效果、自我演进概括为自主武器系统的五大特征。

  在自主武器系统的法律地位这一问题上,目前尚未达成共识。如杀人机器人究竟是属于战斗员还是武器系统,众说纷纭;自主水下潜航器是属于《海洋法公约》语境下的军舰、潜艇,或是海商法语境下的船舶属具、船舶,抑或是国际人道法语境下的自主武器系统,观点各异。

  专家认为,确立责任承担制度是确保自主武器系统使用武力和武器合法性必不可少的要件。研究自主武器系统法律责任问题,需要拓宽责任链条:如果发生违反国际法行为,除了涉及使用自主武器系统的战斗员、人类操作员及其上级指挥官的个人责任,也会涉及部署该武器官员的个人责任,武器的开发者、设计者、程序员的个人责任。同时,也涉及到取得并部署这一武器的国家需要承担的国家责任。

  在人类控制这一问题上,对于自主武器系统,分歧最大的在于是否脱离人类的控制。多数专家认为,在设计、研发、使用、部署自主武器系统时,一定要保留人类控制,减少道德和伦理风险。

  在与会专家看来,这次人工智能军事应用法律问题研讨会着眼法理研究需要,研判军事智能化大势,前瞻长远布局谋划,意义重大。

  科技与政治是一对孪生兄弟,科技与法律的关系也极为密切。在国际格局面临百年未有之大变局的情形下,人工智能军事应用法律问题研讨会搭建了军地战略专家、法律专家以及技术专家合作的交流平台,倡导以开展人工智能军事应用法律问题重大工程为抓手,构建官学互动的柔性造法模式,遵循先国内法再国际法的由内促外规则创制路径,强化政治、法律和技术的互动互促,为构建安全、可控、适用的人工智能军事应用法律体系初步奠定了理论基础。

  此次研讨会是以人工智能军事应用法律问题为主题的首次研讨会,为中国参与人工智能国际规则制定奠定了基础。与会者建议,借鉴国际现有规制人工智能武器的进程,以此次研讨会为起点,人工智能军事应用法律问题研究既要借台唱戏,主动与有关国际组织建立稳定性、机制性联系,积极发声亮相表达立场,也要自己搭台唱戏,定期组织人工智能军事应用领域的法律学术研讨会,贡献中国智慧和中国方案。

当前网址:http://www.hbxwzx.com/junshi/2020-05-21/180094.html

免责声明:本文仅代表作者个人观点,与北方资讯网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

你可能喜欢的: