特稿:规制人工智能 不妨疏堵结合
发布时间:2019-11-01 13:47 | 来源:中国法制与新闻网
文本刊记者 赵丽
9月开学季,许多高校在新生报到期间都引进了人脸识别系统,新生到校不再需要复杂的报到流程,只要通过人脸识别系统便可以轻松完成报到。同时,为方便考勤,在上课的教室内,学校也安装了人脸识别系统。但人工智能的功能远不止于此。据了解,通过人脸识别系统,上课期间学生发呆、玩手机等行为都可以被感知。此事引发了舆论的广泛争议,一些网友称此举有侵犯学生隐私和尊严之嫌。对此,9月5日,教育部科学技术司司长雷朝滋在接受记者采访时说,对学生的个人信息要非常谨慎,能不采集就不采,能少采集就少采集。
毋庸置疑,人工智能是引领新一轮科技革命和产业变革的颠覆性技术,但它在为人类创造福祉的同时,也蕴涵着巨大的风险和不确定性。法律应当如何规制人工智能,从而在鼓励创新的同时保护人类社会的基本价值并将风险保持在可控范围之内?这是一个已经引起广泛讨论和需要立法回应的问题。
疏堵结合与底线思维
《法制与新闻》记者采访中,有专家认为,对于各种AI软件,一种处理方法是,如果预感和预测到将对社会有重大威胁,就应全面禁止。还有一种方法是,现在还没出问题就可以放行,但绝非放任,等出了问题再来解决。
“两种方式做起来的难度是比较大的,主要的难度就是怎样平衡监管的需求和新技术、新应用发展的需求。”中国传媒大学网络法与知识产权研究中心主任王四新认为,监管得太严,肯定会伤害这种新技术、新应用,也会增加企业的成本负担;如果不监管,那一旦有了不可预测的情况发生,政府就会很被动,对个体造成的伤害可能也无法挽回。
对此,中国传媒大学政法学院法律系副主任郑宁的看法是,对于新技术要保持一定的宽容度,不能出现问题就一棍子打死,“全面禁止不是市场经济的做法,有些问题要让市场和社会去解决,必要时有关部门再干预”。
王四新和郑宁的意思其实就是“疏堵结合”,它和“底线思维”共同构成了诸多专家的人工智能必须具有的法律边界观点。
欣喜的是,国际和国内在这方面都已经做出了有益的探索。
2018年,电气和电子工程师协会(IEEE)发布了《人工智能设计的伦理准则》白皮书2.0版,希望合乎伦理地设计、开发和应用人工智能和自主技术。
欧盟于今年4月8日发布了《人工智能伦理准则》,列出了“可信赖人工智能”的7个关键条件——人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制,以确保人工智能足够安全可靠。
2018年10月,习近平总书记强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。在此背景下,“2019世界人工智能安全高端对话”于8月30日在上海重磅开启。在这一天,国内首个人工智能安全发展的导则——《人工智能安全与法治导则(2019)》发布。该导则从算法安全、数据安全、知识产权、社会就业和法律责任等五大方面,对人工智能发展的安全风险作出科学预判,提出人工智能安全与法治应对策略,守卫人工智能发展的“安全基因”。
耶鲁大学技术与伦理研究中心主任、黑斯廷斯中心高级顾问温德尔?瓦拉赫(Wendell Wallach)在全球人工智能技术大会的主题演讲中提出对AI的国际监督,“我们是否应该将决策权交给机器?如何制定机器人的道德准则?我们成立了国际AI治理大会,列出42个不同的原则清单。”他探讨建构一种人工道德智能体,让AI具有基本的道德敏感性,并逐步使AI具备道德决策能力。他还提出用一种审慎监管的方式——设置一条“红线”,在保障大众利益的前提下,为科技留出发展空间,并用这种方式使公众了解人工智能伦理的边界。
在全球人工智能安全治理进程中,中国是重要参与者。近年来,我国相继发布《新一代人工智能发展规划》、《促进新一代人工智能产业发展三年行动计划(2018-2020年)》,制定了到2030年我国人工智能“三步走”的战略目标。
发展为主控制为辅
据上海交通大学凯原法学院教授郑戈介绍,我国在人工智能方面的总体政策在国务院于2017年7月发布的《新一代人工智能发展规划》中得到了系统表述。该文件一开始便强调制定规划的目的在于“抢抓人工智能发展的重大战略机遇,构筑我国人工智能发展的先发优势”,明确了发展为主、控制潜在风险为辅的战略布局。
“在‘分三步走’的循序渐进实现具体战略目标的安排中,到2020年为止的第一步主要侧重于理论和技术发展、确保人工智能产业竞争力进入国际第一方阵和人才培养,而对人工智能伦理规范和政策法规的要求只是在部分领域初步建立。”郑戈说,在目前这个阶段,我国不会针对人工智能进行体系化的立法,试图为技术发展留下足够广阔的想象力空间。只有在自动驾驶等技术发展已经相对成熟、产品亟待进入市场的应用领域,才会尝试进行地方性、试验性的立法。
在王四新看来,要构建非常完备的内部制度,或者说构建一个比较好的体制和机制,对于这些发展过程中出现的问题,有一些特殊的流程。同时,还要建立有效的反馈机制。
“对于深度伪造,要具体问题具体分析。如果不影响国家安全、公共安全、公民个人权利,比如电影特效,就不用太多干预,如果有影响才应当加以监管。具体的法律责任要看违法的严重程度,然后来判断承担民事责任、行政责任还是刑事责任。”郑宁说。
防泄露防滥用
“人工智能为社会提供产品和便利的同时,如何监管才是最现实和最严峻的问题。”郑宁说,我们身处风险社会,任何新技术都是双刃剑,在给人们带来便利的同时,也会产生一定的风险,因此需要加强政府监管、企业自律、行业自治等,实现各方合作治理,“AI技术的监管难点包括监管技术较为滞后、监管法律缺位,同时还要注意到,AI涉及研发者、使用者等多个主体,因此法律责任主体的界定比较困难。”
“技术风险只能通过法治的完善来防范和化解。我们要充分利用法律的引导、规制和促进功能,将人工智能的发展纳入法治轨道,从根本上保证其发展的安全性、可靠性与可控性,在释放人工智能创造力和规制人工智能安全发展之间保持平衡,实现法律与技术进步的良性互动。”郑宁说。
“针对这种立法,可能在未来需要跨过一些坎。首先要转变观念,从关注个人信息的泄露转到滥用的方向。我认为障碍就在于观念问题,现在的主流看法都在强调泄露,而不在防止滥用上。”北京师范大学法学院网络与智慧社会法治研究中心主任刘德良说,在观念转变之后,再组织专家商讨、提案,或许情形很复杂,主体也不一样、侵犯的权益也不尽相同,要系统地规范什么叫滥用,滥用有哪些类型,如何从民法、行政法、刑法有效防止滥用。如果没有立法,司法也没有意义。
那么,防止泄露、绝对的保密是否无法做到,未来相关领域的立法重点应该在如何防止这些信息或数据的滥用?针对这样的问题,刘德良给出的建议是,相关法律法规的建立完善要具有可操作性,不能不利于大数据和人工智能产业的发展,“大数据、人工智能产业本身就需要数据搜集,现在我们的个人信息已经存在于N个商家和机构中,泄露了也不知道从哪里泄露的,防止的不是泄露,关键在于不能滥用。”
“从立法上要让进行身份识别的机构或者平台(比如银行、支付平台、电信公司、保险公司)去承担责任。如果用户的个人信息被盗用、滥用,有两种思路去问责:一是对这些机构、平台进行过错推定,除非能证明履行了核实比对义务,这种义务的标准随着技术、时代的变迁也会不断升级改变,需要司法按照这个标准去判定取证,来确定是否尽到义务,才可以免责,否则就要和假冒者一起承担连带责任;二是更加严苛,承担无过错责任。”刘德良说,如果法律有这种规定,就会倒逼这些机构、平台认真核查比对,甚至会想方设法开发更新的技术手段,来有效避免身份假冒滥用。如果不这样立法,掌握个人信息的机构、平台就会把风险转嫁给被假冒者,让个人承担风险。
在结尾,我们或许可以回到1942年,彼时,科幻小说家艾萨克?阿西莫夫提出了“机器人三定律”:
第一,机器人不得伤害人类,或看到人类受到伤害而袖手旁观;
第二,在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令;
第三,在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己;
后来他又加入了“第零法则”:机器人不得伤害整体人类,或坐视整体人类受到伤害。
在人工智能时代,这些可能应该是所有人工智能产品设计研发使用中所应坚持的“底线”。这样的“底线”,就是人工智能发展不容突破的人类安全和道德的刚性要求,需要全社会共同来监督和维护。
责任编辑:张彤