道德判断视角下人工智能的伦理反思

(整期优先)网络出版时间:2023-01-07
/ 2

道德判断视角下人工智能的伦理反思

李昕宇,罗晓嘉

广东财经大学 广州 510000

摘要:人类社会需要美德伦理来维系持续深远的社群关系,确保庞大社群中的每一个成员都能建设性的相处。作为现代科技集大成者,被誉为“第二类人”的人工智能同样也在这个社群中发挥着比肩与人类的作用,人工智能亦需要美德伦理来确保其和人类相处的稳定。所以,作为类人的人工智能必须也按照一些伦理原则行事。人工智能应超越“机器直觉”作出道德判断,来保证其能够按照普世的伦理原则行事,为整个社群的道德发展做出至关重要的贡献。

关键词:人工智能;伦理原则;道德判断

一、问题的提出

人工智能越来越多的参与到了我们的生产实践活动中,某种意义上,他们已经逐渐成为人类社会中的一员。这种史无前例的现象引发了人们对于人工智能如何参与进人类社会的担忧。事实上,这种担忧并无不妥。例如,作为人工智能底层逻辑的算法,就一度引发了诸如信息茧房、算法歧视等有损人类尊严的恶性反应[1]。不止是人类的尊严,新型的人工智能产品:自动驾驶汽车甚至对人类的生存权发起调整,面对事故时优先拯救车内的人还是车外的人?甚至一些激进的学者提出了“机器自保”理论[2],强调自动驾驶汽车也有权保护车体的完整性。

毫无约束的人工智能对人类尊严乃至生存权构成了威胁,造成了极大的伦理风险和法律挑战。这种威胁在道德和法律的层面是不可接受。不可否认,作为科技的缔造者,人类对人工智能的发展有着先天的优越感:一方面人工智能是人类创造出追求美好生活的智能产品。理性的人工智能不应该产生上述问题,但是人工智能的经常会做出损害人类利益的决策,这就要求人工智能做出道德判断,使其做出的决策和行为符合社会整体利益的要求。

二、道德判断的理论争议

道德判断的价值总是充满争议,这种争议围绕着道德判断的可行性与必要性展开。如果要将道德判断运用到人工智能的美德伦理中,必然要解决这两方面的争议。用道德判断为人工智能的科技向善提供一个可能的解决方案[3]

关于必要性的争议首先是从工具主义的视角展开,工具主义者认为人工智能仅是科技发展下的工具产物[4],为人类所用,并没有超越人类的趋势。这种工具属性是自人工智能诞生时就被赋予的,由人类创造,其使用价值也是通过人类的需求创造出来。人工智能的价值体现在能极大的满足人类生产生活的需求,如果人类不再由创造的需求价值,那么人工智能的价值也不会再存在。其次,由于工具主义并不承认人工智能的主体性地位[5],主体性地位是决定其是否有自由意志的前提,而人工智能的工具属性决定了其并不具备伦理和法律上的主体性地位,所以自由意志也无从谈起。没有自由意志,人工智能则无法独立做出决策,更不需要道德判断的辅助。

关于可行性的争议是基于人工智能主体的肯定展开的,持有这种观点的人认为:人工智能已经高度发展,不再局限于工具主义,能够做出自动化的决策。算法推荐就是极好的例子,算法是一种交互性的智能系统,算法的完善离不开使用者的反馈。这种反馈并不是传统意义上的交流,而是算法通过自主学习获取用户的个人信息与偏好习惯,并模拟出用户画像用来完善算法的推荐机制。但是这种自动化决策有时是负面的,这也从侧面证明了人工智能的自动化决策离人类做出的合乎道德的决策还有很大的差距,所以更需要道德判断进行辅助,促使人工智能的决策更符合人类的道德原则。

三、道德判断的理论证成

显而易见,人类社会中的道德主体不仅要做出道德判断,而且必须能够构建和理解对这些判断的解释。每个主体既影响同一社会中他人的道德判断,又受其影响。道德判断的根本目的,是满足人类希望人工智能做出符合其道德要求的决策或者行事,使人工智能更符合人类社会的逻辑。

道德判断有助于构建人和人工智能之间的信任。人类社会拥有一套长效的运行规则,包括法律和道德。这套规则的行之有效首先是建立在这个社会中的每一个个体都对这套规则充分的信任,相信在这套规则下可以追求一个美好生活。人工智能也不例外,越来越多的人工智能侵权事件加剧了人类对其的不信任。由于人工智能的复杂性,出于本能,人类对其的态度较为分化。这就造成双方的不信任,一方面出于对人工智能侵权的恐惧,这种新型的法律风险目前尚无有效的规则措施,被侵权人可能无法得到有效的救济。那些希望从人工智能中获益的人会寻找他们可以信任的人工智能来合作而不受背叛,这种信任的前提就是人工智能要做出符合人类道德标准的决策和行为,使人类免于被侵权的恐惧。

道德判断有助于促进合作,成功的合作表明了合作伙伴的可信度,并产生更多的信任,通过相互信任来集中资源。人工智能作为我们社会的一员,也需要受到道德的要求,证明可以信任和值得信任。所以,道德判断使人与人工智能之间产生信任,并通过这种信任达成合作,共同为人类的福祉而努力。

四、道德判断的实践路径

如何使人工智能进行道德判断,本质在于是将人类的道德原则嵌入进人工智能。这样一来,在道德和伦理方面人工智能就会逐渐被人类所接受和认可。“道德的人工智能”有三个具体的要求:首先是人工智能的生成符合道德和伦理的要求;其次是人工智能在其运行的过程中不能诱导人类做出不符合道德的行为;最后是人工智能终将会成为一个道德主体。

目前可以采取两种路径。第一种是事前的备案路径,这种路径的核心在于将道德规则视为可以在机器中智能化转换的符号,那么人工智能就可以通过道德判断,计算出符合道德要求的决策和行为。事前的备案要求人工智能的开发者在开发机器时就将人类普遍遵守的道德规范和伦理要求以编程的方式写入人工智能。这样做的意义在于,通过事前的方式使人工智能从诞生意识就将道德考量加入计算当中。这种路径的的争议在于:第一,道德规范是多元的,事前备案路径不可能囊括所有的道德规范,不太可能达成共识;第二,当不同的道德规则出现冲突,如何调和这种冲突也并不清晰;第三,是人工智能的开发本身由人类完成,在将道德规则嵌入人工智能时很容易将自身偏好带入,甚至造成价值偏见。第二种路径是情景驱动路径,指人工智能需要根据不同情景来使用不同的道德规则,做出精细化、情景化的道德判断,进而做出符合要求的道德决策。这种路径要求人工智能具有极高的“道德模拟”能力。其意义有以下几点:首先,是通过自我映射,为需要做出道德判断的场景中的每一各主体进行考量,其次是根据不同场景更新不同的道德规范,将可能产生的道德后果代入进现时的情景。

人与人工智能身处共同的社会中,双方需要紧密合作,为人类的福祉作出卓越贡献。道德判断是协助人工智能做出符合人类要求的道德决策和行为的重要手段,也是弥合双方不信任鸿沟的重要手段之一。

参考文献

[1]洪丹娜:《算法歧视的宪法价值调适:基于人的尊严》,载《政治与法律》,2020年第8期。

[2]隋婷:《自动驾驶电车难题的伦理算法研究》,载《自然辨证法》,2020年第10期。

[3]杨爱华:《人工智能中的意识形态风险与应对》,载《求索》,2021年第1期。

[4]洪凌啸:《误区与正道:法律人工智能算法问题的困境、成因与改进》,载《四川师范大学学报》,2020年第1期。

[5]马驰:《谁可以成为法律主体—兼谈人工智能法律主体资格问题》,载《甘肃社会科学》,2022年第4期。


作者简介:李昕宇(1997.4-),男,河北石家庄人,研究方向:人工智能法学、法哲学。

罗晓嘉(1997.01-),女,广东信宜人,研究方向:民法。