行政管理毕业论文

您当前的位置:学术堂 > 毕业论文 > 本科毕业论文 > 行政管理毕业论文

人工智能规制政策制定的风险与治理

来源:人文杂志 作者:刘丹鹤;孙嘉悦
发布于:2023-03-02 共11922字

  摘要:人工智能诞生以来的海量技术创新突破,催生其从一个边缘性学科成为学术界、产业界关注的焦点,并成为各国的关键战略技术,各国政府也相继出台了规范人工智能发展的相关规制政策以应对风险。近期,火爆出圈的“新物种”ChatGPT颠覆了人与技术的关系,其“自主学习”特质更是引发了学者们的种种担忧,围绕人工智能是否会威胁人类这一时代命题进行了深入探讨。而人工智能发展的政策规制面临由于技术的不确定所引发的社会风险、政策制定者预测未来所需的各种信息及知识不足的风险、政策滞后性风险等问题,使政策效果预期与运行结果产生偏差。因此,如何规范人工智能发展政策的决策程序并提升人工智能政策的理性水平是解决现代社会技术风险规制的重要课题。

  关键词:人工智能;政策制定;风险;治理;ChatGPT;

  近年来,人工智能作为一种具有广泛应用前景、深刻改变世界的颠覆性技术已深深嵌入人们的生活。智能时代、智能社会已成为当今时代的显着代名词,但随着人工智能的快速发展,与之伴生的相关问题不断凸显且日渐引发人们广泛讨论。拥有超强人工智能语言处理能而瞬间成为全球热点的ChatGPT,不仅可以检索信息,还可以聊天、撰写论文、文学创作等,代表着新一代聊天机器人的出现,更是信息产业的巨大变革。正如其它计算机程序一样,并不完美的ChatGPT同样存在诸多技术滥用风险和道德困境。究其原因:人工智能技术指数级迅猛发展与人们的思想观念、政策取向、伦理规制等之间的非协调性,导致人类在享有技术便利性的同时,也面临着系列不确定性风险。这些不确定性可能由于人工智能带来的巨大经济利益而被人们视为正当化,如何消减和平滑这些不确定对经济、教育、社会所带来的巨大冲击,已成为现今人工智能政策研究领域所探讨的紧迫课题。现有文献对人工智能的研究大多从伦理和哲学的视角切入,而较少从政策和治理层面进行探讨。本文旨在分析人工智能的不确定性特质,审视人工智能政策在制定过程中所带来的一系列风险问题,为政府在制定、整合和改进人工智能政策方面提供理论借鉴。

  一、人工智能风险的技术审视

  人工智能是指通过分析其环境而具有一定程度的自主性行动,以实现特定目标而显示智能行为的系统。1近来研究更趋向于将人工智能定义为建立在现代算法基础上,以历史数据为支撑而形成的具有感知、推理、学习、决策等思维活动并能够按照一定目标完成相应行为的计算系统。2目前众多基于人工智能的系统已广泛应用如搜索引擎通过处理海量数据,将原本混乱的互联网以人类可理解的、可感知的形式呈现出来;无人驾驶通过传感器感知环境而实现转向、加速和制动。这些为增强与替代人类的活动和任务提供了变革潜力,逐渐提升了人类的感知、思考和对世界采取行动的能力。

  人工智能具有以往技术无法企及的增强人类活动的特点,且在某种程度上以独立的、不可预测的方式通过采取精准行动而做出决策。一些学者认为,以大数据和算法匹配的人工智能正在不可逆转地重塑人类生活、工作和交往的方式,但与此同时也带来了公共安全风险、算法偏见问题、责任伦理问题等一系列的挑战。3回溯人工智能发展历程,不管是符号主义、联结主义还是行为主义,其发展的核心是由数据驱动算法的不断升级和优化。数据是“基本驱动力”,4而算法是“一种有限、确定、有效并适合用计算机程序来实现的解决问题的方法”。5从技术底层逻辑来看,人工智能存在的不确定性风险主要来源于数据与算法:其一是数据的不当收集和处理。人工智能的发展以海量信息作支撑,各类数据信息采集覆盖于数字化空间中,如个人身份、网络行为等。如不采取合理的治理措施,人类将面临隐私“裸奔”的尴尬局面,进而触发极大的伦理风险。其二是算法内在缺陷及其不当使用。在技术层面,算法就是一些复杂的电脑代码程式,并不具有情感或价值偏见,但是由于在编码、运用过程中离不开设计者和开发者的主观意志,有可能将个人情感、社会观、价值观嵌入技术中,造成如算法失算、算法歧视、算法“黑箱”、审查难等问题,6从而导致人工智能的“脱靶”现象,即背离既定的正面目标而产生相反的破坏活动。像ChatGPT,其强大的信息检索和数据存储功能确实给人类生活、工作带来了福祉,但如不对输出加以控制,可能生成种族主义、性别歧视之类有偏见的内容或有害指令信息,扰乱社会公平和正义。如贝克所言:“这个社会在技术上越来越完善,它甚至能够提供越来越完美的解决办法,但与此息息相关的后果和种种危险却是受害人根本无法直觉到的。”7

人工智能

  二、人工智能规制政策制定面临的风险

  人工智能风险是指因人工智能技术自身的不确定性所导致的人类经济结构、社会秩序、伦理道德乃至生存安全等方面的可能性后果。8可以预见,在未来几年甚至几十年,人工智能的复杂性和社会影响度都将大大增加,由于涉及一系列不易定义衡量、多样化的社会需求及相关利益的博弈,制定相关政策时面临诸多风险和挑战,包括在决策过程中应考虑哪些类型的风险,如何平衡多重风险之间的相互关系,政府如何确保人工智能将使多数人受益而不是少数人,等等。但是由于政策制定者一方面对什么是“人工智能”以及“人工智能政策风险”的认知存在着不确定性,另一方面由于政策制定者预测未来所需的各种信息和知识的不足,以及人类认知理性的不足,使预期与未来结果产生一定的偏差,因而风险不可能完全避免。对于上述问题,并不能通过某种机械过程加以解决,而需要对政策目标、国家和公民社会的作用和责任进行民主反思。9

  1.规制政策制定前的人工智能潜在风险评估

  威廉·奥格本(W.F.Ogburn)曾指出,社会需要时间来适应重要的科技变迁。10现今人工智能技术改变人类社会的步伐已超越人们的想象,但社会却无法针对快速发展的智能技术所带来的现实风险进行即时调试与修正,面对人工智能可能导致的工作岗位不断消失、隐私安全的破坏、社会阶层的不平等等逐渐呈现出的社会问题与潜在冲突,以及围绕在人工智能技术发展中的伦理争议问题,决策者在政策制定中必须予以考量和有效解决。

  (1)人工智能带来的就业替代和社会秩序冲击。

  随着自动化和先进机器学习技术的新浪潮涌现,智能机器将越来越能够执行高技能和非常规的任务,人工智能系统在我们生产生活中的广泛应用在带给我们便利的同时,也加剧了人们对劳动力替代问题的担忧。11人工智能的显着优势在于可以克服一些计算密集型、智力甚至是人类创造性方面的局限,在教育、医疗、金融和制造业等领域开辟新的应用,从而对生产力和绩效产生影响。自动化、智能化技术加速普及的趋势意味着人工智能正取代许多产业领域特别是服务部门的劳动力,最终实现生产力的提高,并伴随着大量“技术性失业”。因此,人工智能广泛运用于经济社会的各个领域可以大幅提高生产效率,其所带来的表象后果是就业岗位的流失,更为深层的影响是就业性质的变化、工作的可靠性和工作岗位的质量下降以及社会流动性的缺乏等等,而这些都会引发人们的担忧和不满,带来社会秩序的不稳定。

  (2)人工智能带来的隐私困境和私域数据产权侵犯。

  隐私原意是指不愿他人知晓的私人信息,且与他人和社会利益无关,即“不受干涉或免于侵害的独处的权利”。12进入以数据和算法为核心特征的智能社会,数据成为信息的一种表达方式,而智能社会的内在本性是不停“追逐”数据,即“从一切事物中提取尽可能多的数据,特别是关于个人特殊信息的数据”。13面对一切可数据化、可计算的世界,包括人在内的一切变成数字、符号,表达个体独特属性的隐私被完全数据化,个体信息由“私密”走向“公开”,导致信息共享与隐私保护间的平衡受到冲击。如智能家居远距离的数据控制使私人领域受到威胁,个体生活处于边沁所描述的布满监视的“全景式监狱”场景。

  人工智能背景下,置身于智能社会的人们每日向服务商提供可以永久保存的海量数据,引发公众对人工智能设备的安全性、数据匿名性、保密性和完整性的担忧。以追求商业利润与机会为目标的企业必将利用大数据关联技术,确定零星数据之间的潜在联系而进行精准营销,人们的身份、家庭、行为、偏好等等高度细化的私密性数据可能会被存储在人工智能网络中并被共享使用。更为突出的问题是,目前数据的法律归属问题并未明确权责,且大量数据收集行为是私底下完成的,从而带来一系列用户数据隐私和数据权益保护问题。作为变革性机器人的ChatGPT借助海量数据库而存在,如需获得良好的功能性,它必须收集足够多、足够新的知识和信息。一旦ChatGPT在收集、处理数据信息时出现未授权或超范围使用情况,个人隐私、商业机密等重要信息将不可避免地被泄露,并有可能产生违法犯罪行为。这给人工智能政策带来的困境是,如何激励技术、法律、社会和其他干预措施加以治理的同时确保人工智能民主化的过程中也能保障隐私。14

  (3)人工智能带来的数字鸿沟和社会不平等的加剧。

  “数字鸿沟”一词最早来自《洛杉矶时报》,意指 “信息通信技术在普及和使用中的不平衡现象,这种不平衡既体现在不同国家之间,也体现在同一个国家内部的不同区域、不同人群中”。15以数据、算法为基础的人工智能革命,技术更迭所带来的福利已嵌入人们的生活,但信息技术、互联网和数字化普及率较低的群体将难以甚至无从获得技术的溢出效应。由于个体间对技术、知识等享有的差异决定了技术“红利”并不会普及到每个人,社会的不平等、数字鸿沟将产生负向累积循环。如果说以往数字鸿沟关注点是经济、社会地位的分化等方面,那么人工智能广泛参与人类生活则可能出现“智力”上的分化,一方是极少数能掌握人工智能开发和运行的技术精英强势群体,另一方是不能掌握或熟练运用智能的大众弱势群体。伴随着人工智能技术和知识的不断更新,相比大众弱势群体,技术精英群体更能紧跟技术发展的步伐,原本就不熟悉人工智能技术的大众弱势群体会不自觉地规避这些知识,陷入自我认知下沉和恶性循环的境地。

  人工智能在加大个体“智力”分化同时,会影响社会公平与公正,最终导致社会等级的分裂。在以数据和算法驱动的技术革命中,拥有高质量数据的群体将从这场革命中获得最大的收益,而不能拥有高质量数据的群体将逐渐被社会所抛弃。也就是说,人工智能可以创造新的社会模式,但如不加以合理调试,就会严重破坏社会结构,一些没有拥有高质量数据的群体或者缺乏相关知识的群体可能失去劳动的价值,而被边缘化或被智能社会所排斥。“数字鸿沟”“数据赤字”和“数字穷人”将会成为智能社会难解的社会困境,扰乱社会秩序和等级制度。像“数字穷人”可能成了美丽新世界“多余的人”,他们被高度发达的智能社会无情地抛弃了,存在变得没有意义、荒谬化了。16

  2.规制政策制定中的信息不对称问题及风险界定

  为消解人工智能风险,政府需要对人工智能的研究和应用制定科学的、安全的标准或准则。但这些规制准则是否具有科学、安全的价值判断,涉及特定风险背后的因果逻辑联系知识,其前提是政策制定者应具有判断人工智能究竟是否会对公众安全造成危害的因果关系的能力。现实情形是政策制定者并没有积累处理技术发展相关问题的知识和经验,往往是在一种信息不对称、不确定的情境下制定政策。从而形成不同专家群体间的意见冲突,造成相关利益群体间对抗的局面,不利于政策出台和预期效果的实现。

  (1)人工智能技术专家和政策决策者之间的信息不对称。

  政策决策者与专家之间呈现一种现有理论体系都无法揭示的复杂关系,其中包含了许多权变因素,从而无法建立一个关于决策者运用专家知识的综合模型。17虽然人工智能已无缝连接我们的生活,但很少有人清楚地了解人工智能这些“深度学习”算法是如何影响他们决策的,即使决策者也缺乏必要的专业知识,导致难以在这样一个深度技术化的世界中去有效治理社会。这些信息与知识更多地掌握在人工智能相关专家以及人工智能系统的供应商手里,他们比政策决策者和公众拥有了更多的信息。如果政策决策者不能从一开始就清楚地确定或评估人工智能的潜在风险和所需的控制措施,政策决策者和技术专家之间的信息知识差距就可能导致政策的有效性大打折扣,不利于政策规制充分实现其效能。正是由于对人工智能技术及其理论的了解有限,政策决策者在界定他们试图解决的问题以及确定哪些问题是重要的方面时可能会遇到困难,这可能会带来丧失机会和低效使用资源的问题。即使准确地识别了正确的问题,也可能会提出无效或繁琐的解决方法,这给政策制定者围绕人工智能的制度配置与供给带来了严峻挑战。

  (2)不同领域专家群体之间的信息不对称。

  人工智能政策的制定需要确保在制定政策的过程中充分吸纳不同专业领域的信息和知识。如2018年,欧盟组成人工智能专家组(HLEG),其成员为来自工业界、学术界和民间社会的52名专家,包括伦理学家、律师、机器学习研究人员等其他利益相关者。18大多数情况下,由于不同领域的专家接受的是各自学科体系的方法训练,缺乏一致性的研究范式,常常会在政策决策中产生意见分歧。以人工智能驾驶的“安全”为例,由于技术专家和人文社会科学学者对安全阈值的认知不同而无法达成共识,易产生“模糊边界”。人工智能技术专家通常认为他们可以完全掌控技术的发展走向,技术的进步可以解决智能驾驶安全的具体技术问题,对于技术之外像社会影响之类的问题却较少考虑。人文社会科学学者却主张智能驾驶需要解决的不单单是技术问题,而且涉及价值、文化、经济等因素的问题,需要伦理学、法学、政治学等领域的相关知识。现实的困境是长期以来科学技术与人文社会科学研究的分离,以致信息、知识的不对称将阻碍政策制定中潜在重要信息的流动和交互,从而导致理解障碍和政策制定风险。

  3.规制政策制定后的滞后风险问题检视

  政策制定一般是指政策主体、利益群体间不断互动、不断博弈的过程,由于利益群体间的信息不对称、政治力量的不均衡,极有可能出现过程或结果上的偏差,导致政策滞后效应——“从政府为实现某种目标,决定实施某种政策到该种政策对经济活动产生实际影响之间的一段时间间隔,导致计划或政策与经济活动之间出现因果不同步现象。”19

  (1)动态最优政策的内生滞后困境。

  政策制定是一个时间过程,从政策提议到一个完整的政策出台,包括政策咨询、政策论证等多项议程。任何新技术的发展政策制定都是基于某个时间点而对未来所作的决策,基本规则是依据现有信息对未来后果的认知来进行决策。如马克·塞特菲尔德所言:“由于一个变量的过去值对已定的外生变量、系数及结构方程有影响,而且已定的外生变量、系数及结构方程又赋予了决定此变量的系统以特征。因而,当一个变量之长期值依赖于这一变量的过去值时,滞后就出现了。”20此种决策在逻辑上存在一定的风险,未来是变动不居的,此时合理的政策未必在未来就合理,技术的快速发展极有可能会对现有决策基础造成冲击。如果决策时间过于冗长,政策制定机构间未有效沟通,就会出现时滞现象,从而在影响政策执行力的同时,造成执行结果偏离决策,增加公众利益损害的风险。伴随着人工智能技术的快速发展,现在被认为是安全的准则,未来则可能被认为过于严格或过于宽松,也可能由于技术创新而出现更安全与有效的技术。政策的内生滞后困境使得人工智能规制政策难以跟上技术进步的节奏。

  (2)人工智能规制政策的特殊时滞风险。

  政策决策的过程中一般会出现诸多偏离原有因果关系的现象而产生政策滞后的风险,如决策者的非理性、政策诉求沟通不畅、市场失灵等,但有时政策滞后更多的是由于时间问题而造成的时滞现象。面对边界无定形、不断发展的人工智能,时间问题所导致的政策滞后风险是政策者面临的一个困境,具体表现在以下几方面:一是人工智能新型技术不断涌现,政策滞后可能会使事前监管的所有尝试完全落空,失去最好的治理时机,对社会、经济等发展产生一定的风险;二是时间问题所导致政策偏离使公众的诉求没有得到回应,政府的合法性基础会遭受质疑;三是由于制定时未考虑政策环境的反复变化,在政策实施阶段加大顺利实施的难度,可能会出现满足一部分政策诉求的同时无意中阻碍了另一种人工智能应用的发展,并导致意想不到的后果。政策的滞后性不可避免,为防止出现这种尴尬的局面以及更好地实现人工智能政策目标,需要建立动态反馈评估机制予以治理,及时调整或终结无效的人工智能规制政策。

  三、人工智能风险多元治理机制政策选择

  目前,人工智能风险已然成为社会和政策关注的焦点。当技术的快速发展已超越政策制定群体所能把握其内涵、评估其风险的能力之时,政策制定过程中人工智能风险已不再是一个技术知识问题,而是技术社会化后所产生的经济社会问题。对于决策者而言,以上种种由人工智能的运用所引发的风险并不是被发现而是被建构出来的,需要从伦理准则、治理模式、决策机制等多层次构建体系化的风险治理机制。

  1.嵌入责任伦理准则,建立政策评估原则

  伦理是政策的价值基础,人工智能政策制定中嵌入伦理准则是政策发挥作用、实现政策目标、体现政策价值之所在。每一项技术通常都具有一定的价值负载性,所以探讨人工智能而引申参与决策主体的伦理责任是治理机制的必然。

  (1)责任伦理在人工智能政策制定中的先导性。

  责任伦理最早由马克斯·韦伯提出,真正将责任伦理赋予时代特征的是哲学家汉斯·约纳斯。与传统责任伦理不同,约纳斯的责任伦理既是“‘责任’精神在伦理学中的复归,又具有朝向‘未来’的向度”,以此来直面现代技术的挑战。21其核心观点认为,在技术的框架内并不能克服技术的风险和危险,对技术本质的认识以及对技术的警惕是责任伦理首要的任务。22约纳斯在主体性反思的基础上对责任主体赋予了新的“前瞻性”伦理价值观,即责任主体不仅需要对当前行为负责,更需对未来负责。因此,在政策制定中“技术先行”的做法并不可靠,以责任伦理作为制定人工智能政策的先导性准则必须嵌入政策评估的各个环节,明确各参与主体责任,自觉认同、遵守人工智能相应的伦理规范,如此方可有效化解人工智能的潜在风险,实现技术的可持续创新。如欧盟制定的《值得信赖的人工智能伦理准则》,以“以人文本”基准,强调人工智能本身不是目的,而是一种有前途的工具,可增加人类的繁荣,带来社会的进步与技术的创新。23

  (2)构建人工智能政策评估的四大原则。

  通常意义上,政策的制定一般由政府、公众、社会组织、科学共同体等参与决策,由于各主体的文化背景、伦理观念、价值判断标准各异,对技术进行评价的过程中往往会出现分歧而影响决策。这就需要在政策设计中构建以责任伦理为核心的伦理准则,凸显责任意识的伦理诉求,便于各方主体达成共识,克服人工智能发展与伦理间的断裂。伦理准则以 “应该做”“可以做”“如何做”为指向,在人工智能政策和伦理间搭建一座桥梁,强调和遵循四大原则:一是公众利益优先原则。这是最基本的一条伦理准则,也是最高准则。人工智能政策的价值目标在于为人类谋求福利,实现受众利益的最大化,同时减小其潜在的成本和风险。二是预防性原则。这是指如果某项技术会给人类带来某种伤害,那么此项技术最好被限制或不允许,除非技术设计者能证明其不会对人类、社会、文化等造成任何伤害。预防性原则表明政策制定者以理性、积极的方式关切技术的风险,而不是在无视风险的情况下决策。三是公平正义原则。其目的是最大化实现政策资源的合理有效分配。最大程度化解数字鸿沟、数字穷人等社会不平等现象。四是可持续原则。在对人工智能引发的伦理困境予以收益、 安全、风险评估审查的基础上,要确保个人和社会的福祉和共同利益,实现技术的可持续进步和推进最具前景的创新研究。

  2.构建协商民主机制,实践风险协同治理

  詹姆斯·N.罗西瑙(James N. Rosenau)认为,治理是政府、公众、社会组织、科学共同体等多元主体共同参与,通过平等的合作、协商、对话等方式解决科技问题的持续互动过程。24因此,治理是关于在多元观点和利益背景下“国家行为者”和“社会行为者”间互动和协调的机制,旨在规范社会关注的风险问题。由于新兴科学和技术的未来发展、社会效益和风险的不确定性,政策制定过程中越来越多的行为者共同参与治理,以共同促进技术发展。如,2009年欧盟发布的《未来和新兴技术》《在以人为中心的人工智能中建立信任》《一个良好人工智能社会的伦理框架:机遇、风险、原则和建议》以及《人工智能协同计划》等设计的诸多相关伦理规范和政策都是各方利益主体共同参与制定。这表明,应对技术风险的治理机制在由单一政府主体转向多元主体参与,通常是于对话、协商甚至竞争、相互博弈中寻找最佳的解决方案。25

  (1)协商民主机制的政策诉求整合效应。

  协商民主(deliberative democracy)产生于20世纪后期,政治哲学家约翰·罗尔斯、德国哲学家于根·哈贝马斯是其代表人物,其“民主性”体现在“集体决策过程中所有受其影响的各方代表都能够参与进来”。26人工智能规制政策涉及多元利益主体,政策制定不能是政府单一主体行为,需要我们改变传统意义上政府统揽资源和权力的治理模式,以更好地满足多方主体的政策诉求。与代议制不同,协商民主能够有效回应多元文化间对话和多元社会认知的某些核心问题,27在尊重公民社会公民权利的基础上,各利益相关方通过平等和自由的商谈、审议等方式参与到公共决策中,力求达到一个比较合理的政策共识和各方诉求的“最大公约数”。就我国政策实践而言,参与政策制定的主体仍是由政府主导的一元体制,虽已成立诸如人工智能专家委员会、医学伦理专家委员会等各类专业委员会就新兴技术的发展问题展开跨专业的合作与协商,但无论是技术专家还是公众在参与深度和广度方面还不够,仍处于决策的外围。因此,我们要探索和推行协商民主机制,以此整合政策制定过程中各方诉求,最大程度规避风险危机。

  (2)人工智能风险协同治理机制的实现路径。

  智能时代构建协商民主机制可以从以下方面着手:一是建立以政府为主导,由科学共同体、企业、公众、社会组织等多元主体组成的专家咨询委员会,尤其是提高公众和非政府组织的参与力度,借力于协商使来自不同行业、阶层的专家关注人工智能的风险本质,以社会理性能接受的程度作为人工智能政策决策的基础,消解人工智能对社会的各方面冲击。二是建立面向专家咨询委员会的听证、咨询以及协商机制和有效的信息沟通机制,为各主体参与协商提供保障,如制定咨询委员会职责条例、定期信息通报制度等。三是将网络、人工智能等新技术嵌入民主协商。在实践性、信任感和民主供给层面深刻改变协商民主的运行机制的同时,28优化参与协商民主途径,降低协商的交易成本,提高协商民主的效率。如通过网络、数据挖掘、人工智能等技术手段收集、处理和分析公众意见,实践“网络协商”和“微协商”,不仅可弥补场外公众“缺场”,且可利用算法对数据求得最优结果,保障协商的有效性和可靠性。

  3.建立决策评估反馈机制,动态跟踪调整政策

  完整的政策过程由政策制定、执行和评估三个环节组成。做好政策后续跟踪评价,建立动态的反馈机制对现行政策予以调整和修正,是政策管理的重要环节,有利于改变“重决策前评估、轻决策后评估”,“重风险评估、轻跟踪评估”等弊端。

  (1)人工智能规制政策的动态性原则。

  林德布洛姆认为政策制定是制定者对政策不断补充和修正的动态“过程”。“政策不是一经制定就一劳永逸了的,它必须要永无止境地加以制定和再制定,制定政策是一个对某种期望目标的逐次接近过程”。29其原因在于:一是人作为决策主体,时间、精力的有限性决定了不可能兼顾所有政策目标,决策并不能做到绝对理性;二是知识的发展性与不确定性决定了决策不能止步于当前环境与条件,而是应对快速更新的技术保持敏感,在必要的情形下及时改进策略;三是技术的不确定性和人类认知能力的不足决定了在决策中并不能理性、科学地评价和预测技术的潜在危害,从而造成政策执行偏离原有目标。人工智能风险治理是一个复杂、开放的系统,基于动态性原则制定规制政策可有效纠正错误,预防和控制人工智能规制政策效果的负时滞效应。

  (2)人工智能规制政策多元主体风险评估反馈机制的构建。

  我国现有政策存在针对性不强、时效性不高的现象,主要原因是不注重决策后的政策反馈和评估,没有及时修正政策偏差。政策实践中应建立由政府、科研机构、企业、公民等多方参与的人工智能政策风险评估机制,跟踪监测风险,既可回应社会风险问题,又可以消解不必要的疑虑,促使未来人工智能的治理决策更加科学和理性。政策制定者可通过民意调查、意见反馈、跟踪调查以及咨询相关利益方的意见等方式,根据实际情况调整政策缩小人工智能不确定性并达成共识。政策跟踪评估反馈机制,包括决策前、中、后三个阶段评估,决策前评估在政策决策中经常使用,但决策中和决策后的评估往往容易被忽略。决策前评估咨询通常由政府主导,相关利益主体参与进来,从技术的潜在风险、技术的可行性、社会可接受伦理准则和经济上的成本与收益等方面对人工智能做系统的评估。决策中评估对政策形成起着“承上启下”的作用,为政策的有效实施提供依据。尤其是技术专家的介入,可就一些人工智能技术方面的问题进行专业跟进,以便对决策做进一步的调整和修改。忽略决策中评估可能会导致制定政策的过程中出现偏差,因为没有及时修正而带来社会风险和政策资源的巨大浪费。决策后评估是通过评估发现人工智能政策制定之时的遗漏、过时的假设、政策缺乏执行的原因,以随时调整和完善相关决策,及时弥补或中止错误决策的执行,最终实现应有的政策效果。

  四、结语

  技术需要被治理,以确保获得利益和减少风险。尤其是像ChatGPT人工智能这类新兴技术的社会形塑,由于缺乏可供借鉴的政策模式参考,政策制定过程中面临的可能性风险或许已超越目前决策者的想象。政策制定中的“自有风险”,涉及未来人工智能的发展、公众对人工智能的接纳程度和公众对政策机构的信任问题。科学合理、公平正义、有形有效的政策将会推动人工智能有着更为广泛前途的应用,真正有助于生活质量的改善和经济社会的发展,而不是相反。为此,政策制定之时应考虑的目标是:在利用人工智能为公民谋取福祉的同时,保证其安全且符合人类价值观;进行规制治理时,需要兼顾规制潜在风险和促进创新之间的矛盾。总之,人工智能的政策规制是引导性的、回应性的,而非禁止性、限制性的,否则会扼杀技术创新,阻碍技术的可持续发展。

  注释

  1Inga Ulnicane,“Artificial Intelligence in the European Union Policy,Ethics and Regulation,” in The Routledge Handbook of European Integrations,Taylor & Francis,2022,pp.254~269.

  2贾开、蒋余浩:《人工智能治理的三个基本问题:技术逻辑、风险挑战与公共政策选择》,《中国行政管理》2017年第10期。

  3杨婕:《推动完善我国新一代人工智能伦理治理体系》,《信息安全与通信保密》2020年第1期。

  4A.D.Thierer,A.Castillo,R.Russell,“Artificial Intelligence and Public Policy,” SSRN Electronic Journal,2017,https://ssrn.com/abstract=3191530.

  5陈定定、朱启超主编:《人工智能与全球治理》,社会科学文献出版社,2020年,第219页。

  6Osonde A.Osoba,William Welser IV,An Intelligence in Our Image:The Risks of Bias and Errors in Artificial Intelligence,Santa Monica,CA:RAND Corporation,2017,https://www.rand.org/pubs/research_reports/RR1744.html.

  7[德]乌尔里希·贝克、[德]约翰内斯·威尔姆斯:《自由与资本主义》,路国林译,浙江人民出版社,2001年,第127页。

  8郑容坤:《人工智能风险的意蕴生成与治理路径》,《党政研究》2020年第2期。

  9Stix Charlotte,“Actionable Principles for Artificial Intelligence Policy:Three Pathways,” Science and Engineering Ethics,vol.27,no.1.2021,p.15.

  10[美]威廉·奥格本:《社会变迁》,王晓毅等译,浙江人民出版,1989年,第41页。

  11王君、 张于喆、张义博:《人工智能等新技术进步影响就业的机理与对策》,《宏观经济研究》 2017年第10期。

  12S,D.Warren,L.D.Brandeis,“The Right to Privacy,” Harvard Law Review,vol.4,no.5,1890,pp.193~220.

  13董淑芬、李志祥:《大数据时代信息共享与隐私保护的冲突与平衡》,《南京社会科学》2021年第5期。

  14Ryan Calo,“Artificial Intelligence Policy:A Primer and Roadmap,” University of Bologna Law Review,vol.3,no.2,2018,pp.180~218.

  15胡鞍钢、周绍杰:《新的全球贫富差距:日益扩大的 “数字鸿沟”》,《中国社会科学》2002年第3期。

  16孙伟平:《人工智能导致的伦理冲突与伦理规制》,《教学与研究》2018年第8期。

  17R.Landry,N.Amara,M.Lamari,“Utilization of Social Science Research Knowledge in Canada,” Research Policy,vol.30,no.2,2001,p.30.

  18Eleanore Hickman,Martin Petrin,“Trustworthy AI and Corporate Governance:The EU's Ethics Guidelines for Trustworthy Artificial Intelligence from a Company Law Perspective,” European Business Organization Law Review,vol.4,no.4,2021,pp.593~625.

  19钟裕民:《公共政策滞后:概念综述与反思》,《理论导刊》2009年第11期。

  20[美]塞特菲尔德:《制度滞后模型》,《经济译文》1995年第4期。

  21吴迪:《从“现代技术”批判到“未来责任”伦理——汉斯·约纳斯责任伦理学的理论建构》,《科学经济社会》2018年第4期。

  22张旭:《技术时代的责任伦理学:论汉斯·约纳斯》,《中国人民大学学报》2003年第2期。

  23Inga Ulnicane,“Artificial Intelligence in the European Union Policy,Ethics and Regulation,” in The Routledge Handbook of European Integrations,Taylor & Francis,2022,pp.254~269.

  24[美]詹姆斯·N.罗西瑙:《没有政府的治理》,张胜军译,江西人民出版社,2001年,第34~59页。

  25庞金友:《AI治理:人工智能时代的秩序困境与治理原则》,《人民论坛》2018年第10期。

  26Jon.Elster,Deliberative Democracy,Cambridge:Cambridge University Press,1998,pp.1~18.

  27吴晓林、左高山:《西方 “协商民主 ”理论的三重困境 ———基于政治伦理的分析》,《人文杂志》2010年第6期。

  28伍俊斌、于雅茹:《网络协商民主的信息技术维度分析》,《学习论坛》2021年第1期。

  29沈莘:《从先验理性到经验理性——对林德布洛姆“渐进主义”决策理论的解读》,《思想政治史》2020年第3期。

作者单位:北京理工大学人文与社会科学学院
原文出处:刘丹鹤,孙嘉悦.人工智能规制政策制定的风险与治理[J].人文杂志,2023,No.322(02):121-128.
相关内容推荐
相关标签:
返回:行政管理毕业论文