欢迎来到学术参考网

人工智能治理:从科技中心主义到科技人文协作

发布时间:2023-12-06 06:36

  摘要:随着人工智能技术的发展应用,算法推荐、深度合成、人脸识别、自动驾驶汽车、人工智能医疗等成为现实,但也引发了人们对隐私保护、算法歧视、安全与责任、技术滥用、社会伦理等问题的担忧。呼吁加强人工智能治理成为2019年人工智能发展的主线之一,各国陆续出台政策或立法对人工智能技术及其应用进行必要的监管。人工智能监管需要采取科技人文协作的方式,构建多层次的治理体系,符合比例原则和利益平衡,确保实现安全、可信、负责任的人工智能。


  关键词:人工智能;治理;伦理;跨学科


  中图分类号:TP18文献标识码:A文章编号:1004-8634(2020)05-0098-(10)


  DOI:.2020.05.011


  作为有望引领第四次工业革命、重塑经济社会发展形态的新兴技术,人工智能(AI)已经成为全球科技竞争的焦点。2017年以来,全球30多个国家(如中、美、日、德、英等)和地區(如欧盟)已出台了AI战略,抢占技术、应用和产业高地。(FutureofLifeInstitute,“NationalandInternationalAIStrategies”,Retrievedfromhttps://national-international-ai-strategies/?cn-reloaded=1.)在此背景下,人工智能作为底层技术(如深度学习、强化学习)、功能性应用(如人脸识别、语音识别)和应用领域(如安防、交通、医疗)组成的产业生态系统,正从互联网领域加速扩张渗透到实体经济等诸多领域和各行各业,并与大数据、云计算、物联网(IoT)等深度融合,推动经济社会数字化、智能化发展,并塑造新的经济和社会形态。中国作为全球最大的互联网市场,为人工智能的发展提供了肥沃的土壤,在数字世界与物理世界融合、人工智能与实体经济融合、从数字化到智能化转型等背景下,人工智能新技术给中国经济社会的高质量、可持续发展提供了前所未有的机遇,需要适宜的制度土壤来孕育面向未来的产业格局和国家竞争力。


  但在另一方面,人工智能的广泛应用,也引发了社会各界对人工智能的法律、伦理和社会影响的持续关注和激烈讨论,呼吁重视AI伦理,加强AI治理,践行科技向善,发展安全可信、负责任的人工智能。回顾2019年,AI伦理原则和AI伦理审查,以及AI算法决策、深度伪造和合成内容、人脸识别、自动驾驶汽车和“城市空中出行”(UAM)、AI医疗等细分领域监管,是全球人工智能治理的焦点话题,表明国内外对人工智能治理的持续高度重视。总结各国经验,对人工智能需要采取多方主体共同参与的多元、多层次治理模式,从而构筑适宜技术创新和产业发展的制度土壤,以打造面向未来的科技引擎。


  一、AI伦理和治理成基本共识,各界探索落地机制


  1.中美欧采取不同的AI路径,创新与伦理平衡是AI治理的关键


  全球来看,中美欧是AI领域的主要“玩家”,代表着不同的发展路径。互联网等数字技术发展薄弱、在数字经济领域显著落后于美国的欧盟,采取了更加侧重立法和监管的路径,其AI战略的三大支柱之一即“建立与人工智能发展和应用相适应的法律和伦理框架”。(曹建峰、方龄曼:《欧盟人工智能伦理与治理的路径及启示》,《人工智能》2019年第4期。)《通用数据保护条例》(GeneralDataProtectionRegulation,简称GDPR)影响着全球个人信息保护立法,欧盟希望在AI立法和监管上成为全球的领导者。2019年欧盟不仅提出了系统性的伦理框架,而且开始酝酿人工智能的相关立法,以2019年4月发布的《可信AI伦理指南》和《关于构筑对以人为本的人工智能的信任的通讯》等政策文件为代表。但欧盟对立法和监管的过度强调,能否最终转化为其在AI技术、产业上的国际竞争力,是值得深入探讨的。另外,就像通过GDPR、数字税、互联网反垄断调查等一系列举措来限制美国大型互联网企业一样,欧盟希望通过AI政策提升其自身竞争力的意图也是不言而喻的。


  相反,美国作为AI领域的领头羊,采取了轻监管、促创新的路径,以政策不阻碍AI技术和产业发展、降低创新的门槛和成本为优先考虑,并在发展过程中采取渐进式监管而非激进的监管,来应对新出现的问题。目前美国已在积极废除或修订交通、医疗等重点应用领域内限制、阻碍AI技术发展应用的既有监管规则。2019年2月,美国正式出台AI战略(其中提出制定AI监管指南并设定AI治理标准)。而且美国提出了联邦政府参与、主导AI标准的系统性计划。美国的国家人工智能战略虽然姗姗来迟,但为表明在人工智能领域维持并巩固其全球领导地位的决心,预计其将采取一系列措施和行动。例如,为了推动实施美国AI战略,2020年1月美国联邦政府发布了《人工智能应用的监管指南》,要求联邦政府在针对人工智能技术和相关产业采取监管和非监管措施时,要以减少AI技术应用的障碍、促进技术创新为宗旨,《指南》同时提出了管理人工智能应用的十大原则,并呼吁更多采用行业细分的政策指南或框架、试点项目和实验(如为AI应用提供安全港)、自愿性的行业标准等非监管的措施。因此可以预见,相比草率地推行强硬的立法和监管,未来美国的AI政策会更加侧重标准、指南等敏捷灵活的方式。


  就中国而言,除了密集出台促进人工智能发展的产业政策外,中国也已开始加强AI伦理、标准等方面的建设,《新一代人工智能治理原则——发展负责任的人工智能》回应了国际社会对中国不重视AI伦理和治理的质疑,国务院副总理刘鹤在2019年重庆智博会上提出了发展智能技术需要坚持四个原则并呼吁“科技向善”。未来在AI治理上,中国需要结合自身产业发展实际,遵循促创新、促发展的路径,同时采取多元化的方式防范技术的伦理风险,避免偏向欧盟的强监管模式给技术创新和产业发展形成掣肘。


  2.国际社会探索建立广泛认可的AI伦理原则,推进敏捷灵活的AI治理


  国际层面,AI领域的竞争已从技术和产业应用扩张到国际规则的制定,尤其是AI伦理和治理规则的制定。2019年5月,经济合作与发展组织(OECD)成员国批准了全球首个由各国政府签署的AI原则——《负责任地管理可信AI的原则》,包括包容性增长、可持续发展和福祉原则,以人为本的价值观和公平原则,透明性和可解释性原则,稳健性和安全可靠原则,以及责任原则。这些原则已被G20采纳,今后有望成为AI领域的国际准则。


  整体而言,从联合国的“AI向善国际峰会”(AIforGoodGlobalSummit)和推动建立“AI伦理国际对话”的努力到OECD和G20人工智能原则,国际层面的AI治理已进入实质性阶段,初步确立了以人为本、安全可信、创新发展、包容普惠等基调,以及敏捷灵活的治理理念。


  此外,根据世界知识产权组织(WIPO)的报告,科学知识和创新呈现出越来越全球化的趋势。(WIPO,“WorldIntellectualPropertyReport(WIPR)2019”,Retrievedfromhttps://wipr/en/2019/.)在此背景下,为了实现可持续发展目标,AI领域的国际合作尤其重要。所以需要包容性、全球化的路径。中国需要积极参与、主导AI领域的国际治理和国际规则制定,输出AI伦理和治理理念,增强话语权。


  3.科技行业日益重视AI伦理,但落地机制仍需探索行业共识


  行业层面,互联网、人工智能等数字技术的影响日益广泛、纵深和复杂,对“科技向善”的呼吁已经成为行业共识。在此背景下,微软、谷歌、腾讯等国内外主流科技公司纷纷提出各自的AI伦理原则,积极防范AI滥用风险并缓解AI应用可能引发的负面问题。例如,腾讯在国内率先提出“科技向善”理念,将其与“用户为本”一起作为新的使命愿景,并提出人工智能研究与应用需要遵循的“四可”(可用、可靠、可知、可控)原则。


  但对于以什么样的方式和标准来落地AI伦理原则和要求,行业缺乏共识。伦理审查委员会作为科技行业开始探索的一种机制,目前存在较大争议。2019年3月,谷歌成立外部顾问性质的AI伦理委员会,但由于引发了较大争议,不久之后便被解散。2019年谷歌子公司DeepMind也遣散了其AI医疗部门的伦理审查委员会。微软则成立了内部的AI伦理委员会,旨在制定内部政策,确保AI业务和AI平台符合其核心价值和原则并造福社会。中国已在组建国家科技伦理委员会,科技行业除在制定AI伦理原则外,还需要探索更具体的举措,让伦理原则真正落地到AI研究与应用活动中,对技术和产业发展形成正向引导和规范。


  二、细分领域监管持续推进,立法需合理平衡风险防范与发展诉求


  1.欧盟探索AI算法分类分级监管机制,避免过度规制商业领域应用


  AI算法自动化决策系统在数字内容分发、在线广告、电子商务、金融等领域的广泛应用,可以提高决策的效率、准确性或者避免人类决策者自身可能持有的偏见,但也引发了社会各界对歧视、隐私、安全等问题的关注。中国和欧盟、加拿大等已在立法上对这些问题予以了回应。


  中国《数据安全管理办法》《个人信息安全规范》《网络信息内容生态治理规定》等立法,针对定向推送、算法推荐、个性化展示、信息系统自动决策提出了要求,规范算法系统的应用。(参见《数据安全管理办法草案》第23条,《网络信息内容生态治理规定》第12条,《个人信息安全规范的最新修订草案》7.5、7.7。)例如,对于定向推送或个性化展示,要求标明“定推”字样或通过不同的栏目、板块、页面分别展示,并提供退出选项和信息删除;开展定向推送活动禁止歧视、欺诈等;对于满足条件的信息系统自动决策,建立个人信息安全影响评估和用户投诉机制;个性化算法推荐体现主流价值导向,建立人工干预机制。


  欧盟的《通用数据保护条例》,从个人信息保护的角度,针对不存在人为干预的完全自动化决策(包括画像)做出了规定,但其赋予个人拒绝权仅限于产生法律效果或类似重大效果的应用场景,而非针对所有的应用场景,因此并不约束新闻、广告等数字内容的算法推荐。其后,欧盟进一步调整监管思路,2019年4月发布的《算法责任与透明治理框架》提出建立分类分级监管机制,且不要求对算法进行公开或解释。具体而言,在算法监管方面,分类即针对政府和公共部门使用的算法系统和商业领域的算法系统建立不同的监管,前者需要建立“算法影响评估”(AlgorithmicImpactAssessment)机制;分级即对一般的商业算法系统采取事后追究法律责任的方式,但对具有与政府和公共部门算法系统应用类似的重大影响的商业算法系统可考虑建立“算法影响评估”机制。这种做法能避免给企业带来不成比例的成本和管理负担,有助于人工智能的发展应用。2020年2月欧盟发布的《人工智能白皮書》呼吁,进一步建立人工智能监管框架,对“高风险”的人工智能应用进行较强监管。(曹建峰:《欧美收紧人工智能监管,中国企业将如何应对?》,载微信公众号“腾讯研究院”,2020年3月2日上传。)


  在算法透明方面,欧盟立法者认为,技术透明不等于“对算法的每一个步骤、算法的技术原理和实现细节进行解释”,简单公开算法系统的源代码也不能提供有效的透明度,反倒可能威胁数据隐私或影响技术安全应用。考虑到AI的技术特征,理解AI系统整体是异常困难的,对理解AI做出的某个特定决策也收效甚微。因此,对于现代AI系统,通过解释某个结果如何得出而实现透明,将面临巨大的技术挑战,也会极大地限制AI的应用;相反,在AI系统的行为和决策上实现有效透明,会更可取,也能提供显著的效益。因此,考虑到人工智能的技术特征,GDPR并没有要求对特定自动化决策进行解释,而仅要求提供关于内在逻辑的有意义的信息,并解释自动化决策的重要性和预想的后果。除了监管之外,欧盟立法者认为,还应通过教育、新闻报道、揭秘等方式提高公众的算法素养。


  全球来看,“算法影响评估”机制得到越来越多的讨论。除欧盟外,加拿大、美国等也在探索相关措施。例如,2019年2月5日加拿大出台的《自动化决策指令》(DirectiveonAutomatedDecision-making),将算法监管的重心放在政府部门,《指令》针对政府部门在做出行政行为的过程中使用自动化决策系统(AutomatedDecisionSystem),提出了算法影响评估、透明度(例如决策前通知、决策后提供解释、软件准入许可、公布源代码等)、质量保证(如测试和监测结果、数据质量、同行审查、员工培训、意外事故处置、安全、合规、人类干预等)、救济、报告等要求。2019年4月美国国会议员提出的《算法责任法案》则要求针对符合条件的主体的高风险自动化决策系统,建立自动化决策系统影响评估机制(AutomatedDecisionSystemImpactAssessment),评估自动化决策系统及其开发过程(包括系统的设计和训练数据),以评估其在准确性、公平、偏见、歧视、隐私、安全等方面的影响。然而在现阶段,“算法影响评估”机制这一新倡议在全球范围内存在巨大争议,仍有很多落地问题悬而未决,需要理性对待。


  2.深度伪造和合成内容引监管关注,立法防范风险同时留出发展空间


  深度伪造(Deepfake)和合成内容随着生成对抗网络(GAN)等机器学习技术的发展而出现,其最常见的方式是AI换脸,如deepfake、face2face等技术,此外还包括语音模拟、人脸合成、视频生成等,这些技术统称为深度伪造或者说深度合成。深度伪造及相关的AI技术在文娱、教育、医疗等诸多领域具有积极的应用价值,如实現虚拟主播、替身演出、虚拟歌手、戏仿和自我表达(如AI换脸应用“ZAO”让普通人实现明星梦)、医疗数据生成等,但也给网络平台治理提出了新的挑战,主要表现为利用深度学习等AI技术制作高度逼真且真假难辨的图片、音频、视频等深度伪造内容来从事各种欺骗和欺诈活动,将网络攻击场景和信息安全问题带到一个全新的层面,如色情报复、敲诈勒索、假冒身份、散布虚假信息等,给个人和企业利益以及公共安全带来威胁。(张钦坤、曹建峰:《从〈网络信息内容生态治理规定〉看互联网新技术的治理》,《信息安全与通信保密》2020年第2期。)而且深度伪造生成方法开源软件的增多,极大地降低了操纵、伪造音视频的门槛。报告显示,网上的深度伪造视频的总数比2018年12月翻了一番,达到近15000个,其中伪造的色情视频占比高达96%。


  美国最早对深度伪造进行规制,2020年以来,美国尤其担心深度伪造对大选和国家安全的影响,开始探索立法应对措施,防范潜在的滥用风险。(曹建峰、方龄曼:《“深度伪造”的风险及对策研究》,《信息安全与通信保密》2020年第2期。)2019年6月,美国国会先后提出了《深度伪造责任法案》和《2019年深度伪造报告法案》。此外,美国加州、德州、马萨诸塞州、弗吉尼亚州等也陆续推出了相关立法。这些立法提出的主要措施包括:


  第一,划定应用边界,禁止政治干扰、色情报复、假冒身份等非法目的的深度伪造,否则可能构成刑事犯罪。例如,美国加州的法律草案规定,禁止在投票选举前60日内传播明知是伪造或合成的候选人视频,除非包含视频属于伪造的免责声明。美国得克萨斯州2019年9月1日生效的一项法案,把在选举前30日内制作、散布深度伪造视频意图伤害候选人或影响选举结果的行为认定为刑事犯罪。此外,美国弗吉尼亚州2019年7月1日生效的反色情复仇修正法案,把“制作、传播虚假的裸体或性视频、图像”意图胁迫、骚扰或恐吓他人的行为认定为刑事犯罪。《深度伪造责任法案》规定,利用深度伪造技术实施数字冒名顶替行为也应被视为假冒身份行为。


  第二,设置披露义务,要求制作者、上传者以适当方式披露、标记合成内容,如采取嵌入数字水印、文字、语音标识等方式。《深度伪造责任法案》规定,利用深度伪造技术合成虚假内容放置网络上传播的,制作者应当采用嵌入数字水印、文字、语音标识等方式披露合成信息。违反披露义务的制作者或者恶意删除披露信息的行为人需承担民事责任,行为恶劣、造成严重后果的还会面临罚金、人身监禁等刑事处罚。


  第三,加强技术攻防,呼吁开发检测识别技术和反制技术。《深度伪造责任法案》要求成立深度伪造特别小组,其职责包括:研究开发针对包括深度伪造在内的图像、音视频操纵技术的检测识别和反制技术;为研究此类技术的其他政府部门提供行政和科学支持;与私营企业或学术机构合作开发检测识别工具等。此外,《2019年深度伪造报告法案》要求美国国土安全部(DHS)定期发布关于深度伪造技术的评估报告。


  中国相关立法也开始关注深度伪造问题,制定中的《数据安全管理办法》以及已出台的《民法典人格权编》《网络音视频信息服务管理规定》《网络信息内容生态治理规定》等都做出了相应规定,侧重人格侵权和内容安全。(参见《民法典人格权编》第799条,《数据安全管理办法草案》第24条,《网络信息内容生态治理规定》第23条,《音视频信息服务管理规定》第11—13条。)具体包括:禁止利用信息技术手段伪造的方式侵犯他人的肖像权和声音;针对自动合成的信息内容标明“合成”字样;禁止利用深度伪造等新技术从事禁止性活动。


  从国外监管趋势来看,规范深度伪造和合成内容的应用,需要政府、企业、公众、用户等多方主体共同参与,除分类分场景监管外,还可采取制定行业公约和技术标准、研发视频鉴伪和溯源技术、提高公众的警惕防范意识和数字素养等多元化的方式,同时鼓励行业探索更多运用场景,引导技术向善发展,提振产业发展信心。未来需要加强源头治理,构建以制作者的标注、标记义务为核心的治理机制,同时鼓励发展应用鉴别对抗技术。


  在源头治理方面,如前所述,当前美国的做法主要是要求制作者、上传者对深度伪造内容进行标注,从而从源头上对深度伪造进行规范。这一源头治理的做法具有合理性,因为没有标注的深度伪造内容一旦传播出去,第三方就很难鉴别,检测技术的开发、成熟也面临着诸多困难,而且难以跟上深度伪造技术进化的步伐。所以,开发溯源技术并进行源头标记是最有效的措施。此外,考虑到行业内当前还没有通用的、高准确率的视频鉴伪网络,相应的鉴伪技术也尚在起步阶段,还有很长一段路要走,所以美国并未强制要求平台对用户上传的或第三方的视频是否属于“深度伪造”或“自动合成”进行检测识别,也未以此为由要求平台承担责任,因为这将给企业带来不成比例的管理负担和成本。


  在技术对抗方面,当前谷歌、Facebook、腾讯等国内外主流科技公司都开始通过多种举措,发展甄别深度伪造和合成内容、对抗深度伪造技术滥用的方法和工具,包括:构建并开放深度伪造数据集,为研究、开发检测识别技术提供基准;支持、发起深度伪造检测挑战赛,与行业携手推动检测技术的研究与开发;开发深度伪造检测识别和标注工具;培训专门的合成内容审查人员,加强对视频内容的真实性审核。可见,面对人工智能等新技术的潜在风险,行业内越来越重视自律性质的风险管理措施。


  3.人脸识别引发法律和伦理争议,政策选项在于规范而非禁止


  2019年,人脸识别技术广泛应用,从设备解锁、刷脸核身、刷脸支付到安检、安防、犯罪侦查等,在带来效率、便利并增进社会福祉的同时,也不断引发歧视偏见、隐私保护、个人自由、伦理边界等诸多争议。例如,Facebook因使用照片自动标记功能而招致潜在赔偿额高达350亿美元的人脸识别集体诉讼,可能改写美国隐私诉讼要求有形损害的规则(无形损害也可作为提起隐私诉讼的理由)。据悉,Facebook已同意和解该案,将向原告支付5.5亿美元和解费。此外,2019年8月瑞典数据保护机构针对当地一所高中利用人脸识别记录学生出勤的行为,开出了GDPR生效以来的第一张人脸识别罚单,认为学校的数据收集行为违反必要性原则且缺乏正当性依据。中国也出现了相关诉讼,郭兵诉杭州野生动物世界被认为是国内人脸识别第一案。


  随着相关争议的不断发酵,美欧开始推进人脸识别立法,尝试为政府部门使用人脸识别技术建立较高的法律门槛。2019年以来,美国已有多个城市(如旧金山、萨默维尔以及奥克兰)禁止政府部门使用人脸识别技术;美国国会提出了《商业人脸识别隐私法案》,要求使用人脸识别技术前须获得终端用户的“明确同意”(AffirmativeConsent)。然而,美国个别城市的“保守”态度引发了美国商会(CTEC)的担忧,CTEC认为过早禁止人脸识别技术将阻碍技术的利用和创新,并会冲击相关产品的市场。为此,2019年12月CTEC起草了《面部识别政策原则》(FacialRecognitionPolicyPrinciples),期望协助政策制定者在平衡技术与隐私的前提下制定监管提案,建议国会在减少面部识别技术相关风险的基础上,确保人脸识别技术能得到安全开发和有效监管。


  英国对人脸识别技术的态度较为理性,在R(Bridges)vTheChiefConstableofSouthWales一案中,英国高等法院判决认为警方对实时人脸识别技术(LFR)的使用是合法的;英国信息专员公署(ICO)发布的《关于执法部门在公共场所使用实时人脸识别技术的建议》则呼吁政府针对实时人脸识别技术的部署和使用,建立强行性规则和较高的法律门槛,充分平衡各方利益,即执法部门必须提供充分的证据来证明在每一个特定的场景下使用人脸识别技术是严格必需的、有效的且符合利益平衡原则和比例原则。(ICO,“Blog:LiveFacialRecognitionTechnology–PoliceForcesNeedtoSlowDownandJustifyItsUse”,Retrievedfromhttps://about-the-ico/news-and-events/blog-live-facial-recognition-technology-police-forces-need-to-slow-down-and-justify-its-use/.)此外,歐盟也在推进制定人脸识别技术的特殊监管规则,如2020年1月被媒体披露的欧盟人工智能监管政策白皮书中已针对人脸识别技术提出了潜在监管方案,其中一项即为“在评估人脸识别技术影响的方法和风险管理措施被开发出来之前,可能会暂时(3-5年)禁止在公共场所使用该项技术”。但2020年2月的《欧盟人工智能白皮书》透露出欧盟对人脸识别技术的态度已经大为缓和,并未禁止人脸识别技术的使用,但规定了限定使用情形,并要求建立安全措施,即必须确保特定使用情形是合法正当的,符合比例原则,并采取充分的安全措施。而对于在公共场所使用人脸识别技术,欧盟委员会后续将讨论确定正当的使用场景以及共同的安全措施。


  在中国,AI换脸应用“ZAO”收集人脸信息、人脸识别技术进课堂、北京地铁拟利用人脸识别技术对乘客进行分类安检等争议性事件引发社会各界的激烈讨论。从实时人脸识别到分析步态、预测情绪的AI技术的快速进步,给监管提出了更多挑战。结合国外监管趋势来看,科学理性的政策选择在于规范而非禁止,明确合法性依据和合规要求是应有之意。政策制定者应当看到人脸识别的积极价值,在权衡利弊的基础上对其进行适度监管和规范,在人脸识别技术的发展上寻求科技创新与隐私保护的“最大公约数”,而非一刀切地予以禁止或者放任不管。更进一步而言,鉴于人脸作为个人生物识别信息的敏感性,人脸识别技术的妥善应用需要明确技术应用的法律和伦理边界,建立法规标准。一方面需要针对不同的应用场景配置不同的监管要求,明确人脸识别技术应用的合法性依据和利益平衡、比例原则等问题;另一方面需要消除算法系统中的歧视和偏见,以合理平衡个人权利保护、公共利益和产业发展。就中国而言,行业的健康有序发展离不开标准和规范的支持,中国目前已在制定人脸识别国家标准,确保人脸识别系统功能、性能及安全要求,保障算法与应用的准确率,引导人脸识别技术健康发展。


  4.立法助推自动驾驶汽车落地,“城市空中出行”呼吁监管革新


  当前,全球多国已将发展自动驾驶汽车技术上升为国家战略,通过立法、标准、技术指南、伦理准则等全方位举措加速推进其应用落地。(曹建峰、祝林华:《多国出台政策法规:为自动驾驶创新发展保驾护航》,《机器人产业》2018年第2期。)2019年是自动驾驶汽车从测试逐步走向商业化应用的一年,谷歌旗下自动驾驶技术公司Waymo等行业领头羊开始推出自动驾驶出租汽车服务,立法和监管政策也在加速这一发展趋势。例如,美国加州已于2018年允许自动驾驶汽车客运服务试点项目。2019年6月,美国佛罗里达州制定的自动驾驶立法,不仅将在道路上操作自动驾驶汽车合法化,而且提出了“自动驾驶汽车共享网络”这一全新的客运交通服务,为自动驾驶汽车的应用普及奠定了坚实的法律基础。美国国家层面,在2018年未能最终通过自动驾驶汽车法案后,2019年美国国会继续推动相关立法,以期通过法律和监管创新来加速自动驾驶汽车的商业化发展,终于在2020年1月美国交通部发布了《自动驾驶汽车政策4.0:确保美国在自动驾驶汽车技术上的领导地位》(EnsuringAmericanLeadershipinAutomatedVehicleTechnologies:AutomatedVehicles4.0),其在过去发布的三版自动驾驶汽车政策指南的基础上,系统提出了美国政府对自动驾驶汽车技术的监管原则,表明了美国大力推动自动驾驶汽车技术发展落地、抢占国际制高点的决心。(USDepartmentofTransportation,“EnsuringAmericanLeadershipinAutomatedVehicleTechnologies:AutomatedVehicles4.0”,Retrievedfromhttps://av/4.)


  就中国而言,在2018年出台《智能网联汽车道路测试管理规范(试行)》允许路测后,各地已在出台推动智能网联汽车应用落地的政策。2019年9月,《上海市智能网联汽车道路测试和示范应用管理办法(试行)》的出台,使得上海成为国内首个为企业颁发智能网联汽车示范应用牌照的城市,并推动测试牌照区域互认。北京、广州、长沙、武汉等城市已允许载人、载物、编队行驶等測试情形,如2019年12月13日北京出台《北京市自动驾驶车辆道路测试管理实施细则(试行)》,允许载人及载物测试、编队行驶测试等。智能网联汽车向商业化和市场化迈进了一步。长远来看,中国自动驾驶汽车技术和产业发展普及需要在安全标准、道路测试、商业试点、高精地图、责任保险等多方面配套推进政策措施,并积极废除或修改阻碍自动驾驶汽车发展应用的既有法规和标准,才能确保在制造业、信息与通信技术(ICT)融合的自动驾驶汽车领域抢占全球高地。


  此外,以电动垂直起降航空器(eVTOL)为核心的未来“城市空中出行”(UAM)也呼吁监管革新。未来交通领域的变革不限于自动驾驶汽车,商用的电动垂直起降航空器,即所谓的“飞行汽车”,也已成为美欧的重点布局。目前UberElevate、Airbus、Lilium、Volocopter等航空制造商已在尝试推出“空中出租车”服务。城市交通未来将有更大的想象空间,到2030年城市空中出行行业的市场价值有望达到79亿美元。美欧已在从无到有地建立城市空中出行监管,需要解决很多监管挑战,如设备设计认证、适航管理等。2019年7月,欧洲航空安全局(EASA)出台了针对小型eVTOL航空器操作的特殊规定,针对这类新的飞行设备建立了基本的监管框架。美国FAA也在推进制定合适的安全立法,并已于2019年4月就无人机送货服务向谷歌子公司Wing颁发了第一个适航认证。eVTOL作为新生事物,在中国存在诸多监管障碍和法律空白。长远来看,为了应对eVTOL带来的监管挑战并推动其应用普及,需要加快建立eVTOL设计和操作的监管框架,并可考虑建立一套以UAM为核心的新体系,兼顾安全、公共利益和行业发展诉求。


  5.人工智能赋能医疗健康产业发展,应用落地离不开监管革新


  在医疗健康领域,人工智能正被广泛应用于医学影像、辅助诊疗、疾病预测、药物研发、健康管理等,有望变革医疗健康行业。全球医疗市场对“AI医疗”的需求巨大,据互联网数据中心(IDC)统计,到2025年人工智能应用市场规模将达到1270亿美元,其中医疗健康行业将占市场规模的五分之一。


  但AI医疗的发展面临着AI医疗设备准入和审批、医疗数据库建设与共享、责任承担、隐私保护等诸多问题。美国、日本、印度、新加坡等已在探索制定促进AI医疗服务应用落地的法律和监管规则。例如,由于AI技术可不断利用新获取的数据来精进算法,AI模型的自主性、适应性和持续迭代成了监管难点,给传统的医疗设备监管框架提出了挑战。因此,美国食品药品监督管理局(FDA)已为AI医疗设备提出了新的监管框架,从而允许AI医疗设备在获得审批、投入市场之后不断迭代改进。


  就中国而言,2019年6月发布的《深度学习辅助决策医疗器械软件的审评要点及相关说明》,进一步明确了AI医疗设备的审批标准。可以预见,AI医疗领域的市场准入、数据共享与数据安全、责任承担等问题将极大影响产业走向,呼吁监管革新。一方面,AI医疗分级监管与审批已成为国际趋势,在行业发展探索阶段,对部分风险较小的细分领域加快审批速度,优先发展,有利于提供更多实践经验。另一方面,中国丰富的医疗数据资源亟待整合,加快数据平台建设实现医疗数据的结构化与标准化,构建医疗数据分享与利用机制,可能成为中国下一阶段AI医疗发展的重要优势。


  三、合理有效的人工智能治理离不开科技人文协作


  近几年来,各国对人工智能的监管及治理均在加强,这是对当今世界技术发展趋势的积极回应,是以人文之手积极引导技术之力。人工智能有望像历史上的火种和电力一样,重塑人类生活和人类社会的未来——加速的自动化和智能化,无处不在的连接,物理与数字世界的融合,甚至人类与技术的融合。我们正在步入高度依赖技术的社会,生物层、物理层、技术层有可能融合成为三位一体。未来,包括企业在内的所有组织机构都会数字化、智能化。目前呈现出来的主要趋势则是无处不在的数据和算法正在催生新型的人工智能驱动的经济和社会形式。巨大潜力的背后,是不确定的风险。如前所述,人工智能在隐私、歧视、安全、责任、就业等经济、伦理和社会方面的问题正在显现,未来可能出现的通用人工智能和超级人工智能则可能带来更深远而广泛的安全、伦理等问题。


  在这样的背景下,对人工智能等新技术进行更多的人文和伦理思考,就显得尤为必要且迫切。正如华裔AI科学家李飞飞所言,要让伦理成为人工智能研究与发展的根本组成部分。基辛格也说,面对人工智能的兴起,人们在哲学、伦理、法律、制度、理智等各方面都还没做好准备,因为人工智能等技术变革正在冲击既有的世界秩序,我们无法完全预料这些技术的影响,而且这些技术可能最终导致我们的世界所依赖的各种机器为数据和算法所驱动且不受伦理或哲学规范的约束。显然,在当前人工智能等新技术背景下,我们比历史上任何时候都更加需要“科技向善”理念,更加需要技术与伦理的平衡,以确保新技术朝着更加有利于人类和人类社会的方向发展。一方面,技术意味着速度和效率,要发挥好技术的无限潜力,要善用技术,追求效率,从而创造出更多的社会效益和经济效益。另一方面,人性意味着深度和价值,要追求人性,维护人类价值和自我实现,避免技术发展和应用突破人类伦理底线。因此,只有保持警醒和敬畏,在以效率为准绳的“技术算法”和以伦理为准绳的“人性算法”之间实现平衡,才能确保“科技向善”。而这一平衡的实现,离不开科技人文协作。因为现代科学技术与经济社会以异乎寻常的速度整合和相互建构,但其高度的专业化、知识化和技术化使圈外人很难对其中的风险和不确定性有准确的认知和判断,没有来自科学共同体内部的风险预警和自我反思,任何一种社会治理模式都很难奏效。


  目前而言,科技人文协作主要体现在以下三层面。其一,技术人员的伦理道德教育,这是从科技中心主义向科技人文协作转变的必要基础。只有科研人员具有良好的科技伦理意识,才能避免未来出现类似之前基因编辑婴儿的人文灾难,才能确保技术人员不仅仅局限于把技术和产品研究出来,而是更多地思考他们开发的技术和产品的广泛社会影响,并对技术发展应用的潜在影响及其防范进行反思和进行预警性思考。其二,伦理道德的技术实践,即如何将公平、责任、透明、安全等伦理要求嵌入AI系统,从系统设计之初就确保其遵循一定的伦理价值,这在本质上是将伦理等人文要求转变为技术实践,需要不同知识背景的从业者的通力合作。其三,新的跨学科合作形式,此次人工智能发展浪潮兴起后,国内外都涌现了很多旨在推动跨学科研究和人工智能领域技术人文协作的研究机构,成为科技人文协作的典型代表;此外,科技企业内部也在构建多学科的AI伦理委员会,以确保人工智能技术发展应用的正确方向。总之,此次人工智能发展浪潮中,科技人文协作趋势的兴盛,表明各界已经认识到技术中心主义的局限性,即虽然技术是推动人类社会发展进步的原动力,但技术不是万能的,单凭技术不能解决所有的社会问题,而且考虑到人工智能技术的潜在颠覆性,该领域的科技人文协作,对于确保人类社会的秩序不被人工智能技术毁坏乃至颠覆,是至关重要的。2019年各国对人工智能的监管和治理探索正是这种科技人文协作思潮在公共政策层面的反映。


  四、展望:构建多层次的新技术治理体系,实现安全可信、负责任的AI


  人工智能的健康可持续发展离不开良好治理,良好治理旨在实现安全可信、负责任的人工智能。未来AI技术可能变得更加强大,出现所谓的强人工智能和超人工智能。我们需要管理好比我们自身更强大(如现阶段的人工智能在某些领域已经超過了人类)的AI技术,最大限度地释放AI技术在社会、经济、环境等方面的巨大价值,并将其风险和危害控制在最低限度。未来对AI技术的良好治理需要着重考虑以下三点。


  1.构建多层次的治理体系,采取敏捷灵活的治理方式


  多层次的治理体系比单一维度的立法和监管更能适应人工智能所具有的快速发展迭代、日益复杂化等特征。顶层的法律规范可以划定技术应用的边界。在基本理念上,立法需要避免统一的、一刀切式的、激进的监管方式,而应以领域细分和风险防范管理为导向,遵循包容审慎、敏捷灵活、鼓励创新等监管理念,同时考虑不同应用场景的不同影响、监管对技术和产业的影响、技术和商业可行性、企业负担等因素,采取分类分级、分阶段的方式进行适度监管。


  此外,由于技术及商业模式快速发展迭代,草率的立法不可能产生正面的效果,而且成文或专门的立法恐难跟上技术步伐,故应避免过于严格和过于细致的法律要求,可以采取事后监管、事后追责等轻监管的方式。中层的行业和企业自律也将发挥重要作用,需要鼓励践行科技向善、负责任创新与研究等理念,支持行业自律。具体而言,可以采取行业标准、自律公约、最佳实践做法、技术指南、伦理框架等敏捷灵活的治理方式来规范、引导人工智能的发展应用,实现科技向善。底层的教育和意识培养同样不可或缺,一方面需要提升社会公众的数字素养、算法素养等技术素养;另一方面需要针对技术人员和从业者开展伦理教育,使其做到自律,自觉地将伦理要求嵌入AI技术系统。


  2.立法和监管需充分考虑国际竞争、技术的经济社会价值等视角,推动先行先试


  在当前激烈的国际竞争背景下,中国针对人工智能等新技术的立法和监管需要着重考虑国际竞争视角,避免产生阻碍、延缓技术发展应用的不利效果,削弱中国的科技和产业竞争实力。因为在全球竞争重心日益转向人工智能等新技术的大背景下,过早或过度的监管都可能削弱一国在AI领域的竞争力。与此同时,立法和监管还应充分考虑技术的经济社会价值,保证技术红利在经济社会发展中的最大释放,避免因偶发性的负面问题而“过度反应”或“因噎废食”,从而采取应激、激进的监管措施。


  此外,中国正在密集推动人工智能创新发展试验区建设,自动驾驶、5G、大数据等领域也在涌现发展示范区,人工智能与实体经济融合已成为国家重要布局;这些前沿科技领域的发展和应用落地往往需要突破既有的法律和监管壁垒。因此,有必要在这些领域出台更包容新技术的政策和立法,探索制定前瞻性规则,移除法律和监管障碍,推动先行先试,给予适度宽松的发展空间,给AI应用提供安全港(SafeHarbor),通过试验、测试、试点等方式加速AI从研发到商业落地的转变,同时,审查和调整政策、监管框架和评估机制以鼓励创新和竞争。


  3.推动人工智能治理的跨学科参与和国际合作


  面向未来,AI等新技术的健康发展离不开技术、社科、人文等不同背景的人员的通力协作。科技行业需要从当前的技术中心主义模式转向技术人文协作模式,AI研究与发展需要广泛吸纳不同种族、性别、文化和社会经济阶层以及不同领域(如经济、法律、哲学、社会学、人类学、心理学等)人员的观点。监管也需要采取利益相关方共同参与的模式,广泛听取行业主体、专家和公众的意见,避免决策者与从业者脱节。此外,在当前的全球化背景下,一个可持续发展的地球也需要各国在AI技术、产业、伦理、治理等方面加强合作,从而让人工智能实现以人为本、包容普惠、安全可持续的发展。

上一篇:人工智能领域科技新闻标题的翻译技巧探究

下一篇:病毒、智能科技与空间 ——对新冠疫情的哲学反思