主管单位:吉林省新闻出版局
主办单位:吉林省舆林报刊发展中心
编辑出版:《警戒线》杂志社
国内刊号:CN 22-1415/D
国际刊号:ISSN 2095-9893
出版地:吉林省长春市
发行范围:国内外公开发行
投稿邮箱 :jjxbjb@126.com
随着新科技革命的纵深发展、智能算法的优化升级,人工智能技术可能带来新的挑战与治理困境。因此,积极做好人工智能的政策引导与合理规制,推进智能技术安全风险评估预警研究,对实现人工智能健康持续发展显得尤为重要。
人工智能技术应用存在风险
人工智能技术对于智慧社会建设意义非凡。人工智能技术的繁荣,也离不开人类社会的场景应用。然而我们在大力推进人工智能与实际生活接轨时,必须高度警惕人工智能在技术应用、法律道德以及社会关系等领域的潜在风险。
第一,人工智能技术的场景应用风险。目前,人工智能技术应用涉及智慧医疗、智慧交通、智慧司法及智能教育等方方面面。在智慧交通方面,无人驾驶技术不仅提升了驾驶员的安全性,还为其节省出更多的自由时间,经算法分配可缓解交通拥堵状态。但无人驾驶网络系统一旦受到黑客或者市场竞争对手的恶意攻击,极有可能使人类生命财产安全受到巨大威胁。在智慧医疗方面,人工智能技术在诸如医疗辅助机器、智能药物研发、智能医学影响、个人智能健康管理等智能诊疗方面发挥巨大作用。然而当前人工智能还处在初级阶段,系统本身存在漏洞,若大面积临床应用易引发医疗事故;智慧医疗一旦发生医患纠纷,就会存在责任主体无法明确的问题。在智慧司法领域,人工智能技术已得到初步推广,最高人民法院与最高人民检察院分别提出“智慧法院”和“智慧检务”。《法治蓝皮书·中国法院信息化发展报告(2019)》也指出,智慧法院在“信息化助理司法为民”“信息化辅助审判执行和司法管理”和“信息化服务国家社会”三大方面全面推进。但是人工智能技术并不能完全取代司法工作者,它消解司法的本质和法官的主体性。另外,人工智能技术的算法存在“黑箱”缺乏有效监督,无法保证审判结果的公正、客观,难以使人信服,甚至出现人工智能技术下的冤假错案。
第二,人工智能技术背后的法律道德风险。“科学技术本身是中性的,无所谓善恶,科技对人类及环境的负责作用完全是人类自身的责任。”人工智能技术在法律道德方面同样面临风险。首先,人工智能领域的立法相对滞后。技术壁垒、现实不对称以及法律的权威性等原因,造成了人工智能领域的立法滞后。在民法、知识产权法、交通法以及刑法等诸多领域,不仅缺乏有效的法律供给,而且相关技术还与现行法律秩序相冲突。其次,个人隐私和信息安全受到威胁。人工智能技术的应用与发展,离不开对数据的采集与利用,数据不断更新与扩张则会引发信息泄露、侵犯隐私的风险。最后,人工智能法律伦理方面存在困境。人工智能技术经过算法的不断升级换代,或许可完全绕过人脑固有的思维方式,形成“新智能思维”强制模拟人类思维,从而使人类陷入思维无法触及的地带,达到新兴技术生命周期的“峡谷”。
第三,由人工智能所引发的社会关系风险。在人工智能时代,我们需要更加重视两对关系,即人与人关系、人与机器的关系。在人与人关系方面,随着人工智能与实业相结合,部分职业被机器所取代,传统行业面临重组,从而造成结构性失业。在人与机器关系方面,学界一直存在争论。随着深度学习为智能系统不断优化升级,智能机器将会在某些领域达到甚至超越人类的水平,人工智能一旦在自主意识和情感领域取得新进展,那么人与机器之间的关系会变得复杂。此外,对于绝大多数的用户而言,他们不会试图研究甚至难以了解算法的内在逻辑,同时维护人员也很难全面掌握、解释智能技术在深入学习后的选择机制,从而形成算法的“黑箱”,严重情况下会演进为算法歧视。
人工智能安全风险评估优化路径
为确保人工智能技术平稳安全落地,我们不能被动地在发生危险后紧急处理相关问题,而要在第一时间掌握技术的最新动态,积极做好人工智能安全风险评估和预警工作。
第一,完善人工智能安全应用的法律覆盖和兜底。当前,我国在人工智能技术安全运用领域还存在大量法律空白。对此,立法者应制定相关法规,为智能技术的应用安全提供法律保障,防控人工智能技术带来的潜在风险。一方面,立法者要全面审视现有法律体系,并使其不断适应社会需求,同时注重立法加强用户信息和隐私的保护、个人数据合法使用、人工算法的普适公平,以及智能技术失效后的救济管理,明确人工智能法律主体以及相关权利、义务和责任,构建实现新技术的法律基础。另一方面,设立人工智能发展规划和前沿技术领域的负面清单,从法律底线构建“安全防火墙”。在国家层面立法实现对人工智能的算法设计、产品开发、数据采集和产品应用的全流程规制,在可能引发人工智能不可预知性和不确定性的技术领域,立法设立红区或研发限制规范,推进人工智能技术健康发展与应用。
第二,健全人工智能安全等级和风险预估机制。由于人工智能的发展存在很多的不确定性,亟须加强人工智能潜在风险的评估,促使人工智能安全可控发展。首先,政府应联合相关高校、智库和科技公司等对人工智能技术的应用进行安全等级评估,不同安全等级运用不同层次的智能安防技术,确保人工智能技术应用的安全性、有序性。其次,针对人工智能技术应用进行风险预估,预防人工智能在场景应用中存在的潜在风险,防止技术手段在实际运用中可能出现的故障、失效、被入侵等隐患。如通过人工智能技术建立对抗性学习算法研究,利用“技术制约技术”的理念,优化智能技术开发架构,降低人工智能带来的隐患。最后,政府安全部门应联合相关执法机构,完善对人工智能技术应用主体的监控机制,建立伦理与风险审查机制,降低人工智能技术受到人为因素影响的概率。
第三,做好人工智能风险防控领域前瞻性研究。面对智能技术的安全威胁,人们应采取积极应对的态度,秉持“早发现、早治疗、早升级”的理念促进人工智能的良序发展。一是成立具有国家战略高度的人工智能风险防控系统与实体研究机构,切实加强各类人工智能安全应用平台建设和人工智能学科专业建设与人才培养;形成以政府为主导、企业为主体、市场为导向的产学研相结合的模式,鼓励开发相关人工智能技术,拓宽人工智能技术的安全应用领域。二是贯彻人类命运共同体理念,积极开展多边国际智能安全技术合作。中国应积极参与人工智能全球治理,主动搭建人工智能伦理规范、制度建设和国际规制等全球合作平台,在智能技术安全风险管控、国家安全治理等重大国际议题上,贡献中国智慧与力量,共同应对全球性挑战。
总而言之,我们需要从实际出发,因地制宜、因时制宜,从顶层设计层面加强对人工智能新技术融入经济社会的规划和引导,准确把握技术和产业发展趋势,不断规范不同领域人工智能安全应用,进而避免盲目追求人工智能技术的应用,而忽视了智能技术造福于人的本质目标。
(作者单位:华东政法大学中国法治战略研究中心)