English 办公
您所在的位置: 首页 > 媒体师大 > 正文

媒体师大

【红网】[研讨会综述]大数据时代的信息伦理与人工智能伦理

2018-01-02 17:23   来源:   作者:潘宇翔   点击:

2017年12月24日,第四届全国赛博伦理学暨人工智能伦理学研讨会在湖南长沙召开。本次会议由中国自然辩证法研究会科学技术与工程伦理专业委员会、湖南师范大学公共管理学院哲学系、湖南师范大学人工智能道德决策研究所、国家社科基金重大项目“大数据环境下信息价值开发的伦理约束机制研究”课题组、教育部人文社科重点研究基地湖南师范大学道德文化研究中心和《伦理学研究》杂志社联合举办。

中国自然辩证法研究会科学技术与工程伦理专业委员会副理事长、湖南师范大学人工智能道德决策研究所所长、公共管理学院副院长李伦教授主持开幕式,湖南师范大学哲学一级学科负责人张怀承教授致开幕词。来自中国科学院、上海大学、上海交通大学、国防科技大学、华东师范大学、华南理工大学、华中师范大学、重庆邮电大学、中南大学、湖南大学、湖南师范大学、长沙理工大学、湖南社会科学院、杭州涂子沛数据科技咨询有限公司和红网等单位50多名代表参加了会议。

大会围绕“大数据时代的信息伦理与人工智能伦理”这一主题,探讨人工智能的道德哲学、道德算法、设计伦理和社会伦理等问题。大会共设四场学术报告会,分别由国防科技大学曾华锋教授、中南大学雷良教授、湖南大学舒远招教授和长沙理工大学易显飞教授主持。

湖南师范大学人工智能道德决策研究所所长李伦简要介绍了该所的发展历程、宗旨和任务、研究团队和在研项目、学科和研发平台等,并做了题为“人工智能伦理研究的四大板块”的报告。他认为,根据人工智能的特征及其与社会的关联以及目前全球人工智能伦理研究的成果,人工智能伦理研究可概括为四大板块:人工智能道德哲学、人工智能道德决策、人工智能设计伦理和人工智能社会伦理。这些板块相互关联,又拥有相对独立的讨论域。人工智能道德哲学主要关注传统道德哲学如何面对人工智能的挑战,以及人工智能如何促进道德哲学的发展;人工智能道德算法主要研究如何理解和实现人工智能道德决策的问题,使人工智能能够做出合乎道德的决策;人工智能设计伦理研究人工智能得设计和制造应遵循哪些伦理准则,使人工智能的设计与社会价值观保持一致;人工智能社会伦理主要研究如何善用和阻止恶用人工智能,使人工智能造福于人类。

一、人工智能道德哲学

华东师范大学颜青山认为,人工智能的道德地位问题是一个真正新的道德难题,这个问题的准确表述是:我们如何确定人工智能是或不是一个人格实体?解决这个难题涉及既有的“他心难题”和其变种“机心难题”。然而,任何解决他心难题的方案对人工智能都可能是失效的。“机心难题”本质上是一个元伦理学或道德形而上学问题,但这个在元伦理学层次无法解决的问题似乎可以在规范伦理学的层次上得到解决,我们可以利用规范伦理学绕过这个问题。他根据人格伦理学和手段伦理学的规则提出对待人工智能的原则——“选言命令式”:一个实体及其运行,要么冒犯了人,要么尊重了人。应该将一个冒犯人的实体看作既非目的也非手段的实体:当它是心灵实体时,限制其自由;当它是非心灵实体时中止其运行。应当尊重一个尊重你的实体的运行规则:当它是心灵实体时,尊重其本身;当它是一个非心灵实体时,尊重制造它的人。

湖南师范大学刘大为在报告中指出,卢卡斯-彭罗斯论证是指利用哥德尔不完全性定理可以得出人心胜过机器(图灵机),心灵是不可计算的。费弗曼指出彭罗斯论证的疏忽,试图调和机械论和反机械论的完全对立,并提出开放模式的公理系统表示心灵的数学能力。卢卡斯-彭罗斯论证需要加上一些理想化的假设,尤其应该对彭罗斯论证中“F是健全的”这一断言予以澄清和补充,并在借鉴卢卡斯-彭罗斯论证和费弗曼论证的基础上,考虑数学理解力和环境的重要性,尝试提出基于完全开放的数学形式系统的心灵模型。

中南大学李熙通过“无免费午餐定理”说明了机器学习为了获得通用性为什么必须诉诸形而上的“善”,但仅有形而上的基本“善”远不能保证智能体的⾏为符合人类的主流价值观,为确保人类利益,还需要为机器赋予人类的价值观,最直接的方式是为机器赋予符合人类利益的效用函数,但智能体在计算期望效用最大化、以追逐功利主义的“善”的过程中,不可避免的会侵占人类的资源。为了让机器符合人类利益、避免wireheading、保留关机中断权从而把风险降到最低限度,需要巧妙融合形而上的“善”与功利主义的“善”,进行“先验”与“效用”的转化,并灵活运用逆强化学习或价值强化学习。

湖南师范大学张含认为,延展心智论题近年来在认知科学与心智哲学领域获得了广泛的关注与讨论。按照延展心智论题,作为心智重要组成部分的信念、欲求等心理状态并非局限于人类生理系统的界限之内,在某些情况下它们还可以由外部物理载体所实现。延展心智论题一经提出就挑起了一场旷日持久的“心智边界之争”。哲学家、认知科学家理查德·赫斯明克将“心智边界之争”推进至“自我边界之争”,主张颅骨体肤并非自我与世界的固定边界,自我与心智同样可以延展于世界之中。他对所谓“延展自我”进行批判性分析,捍卫自我的传统边界。

二、人工智能道德算法

湖南师范大学孙保学认为,人工智能算法伦理研究的内涵即为算法在道德上的可接受性问题。这种可接受性的价值导向会使研究者的兴趣和关注点主要聚焦于某些问题上,尤其是以下两类算法:一是人类很难预测其行为后果的算法;二是算法造成的事实背后的决策逻辑难以解释的算法。算法所引起的伦理问题与其他技术引起的伦理问题具有明显的不同。正是在这个意义上,这两类算法给伦理学带来了新的挑战,也因此它们更具有讨论的价值。而算法伦理的问题域需要从算法的自主性特征、应用性场景和归责性困境三个方面来划定,并以此有基础对算法的伦理风险进行了分析。

华中师范大学张卫认为,随着自动驾驶汽车的出现,“电车难题”又呈现出新的特点:第一,传统“电车难题”中的道德决策者是人,而自动驾驶情景中的道德决策者是安装在汽车之中的人工智能系统。第二,传统“电车难题”中的决策者自身不是决策结果的直接利益相关者。自动驾驶情景则不同,购买和使用自动驾驶汽车的车主既是事件的决策者,也是事件的直接利益相关者。自动驾驶汽车在面临不可避免伤害的情况中的两难抉择变为:自动驾驶程序应该是以尽量减少伤亡为原则,还是不论以何种代价都要保护车内乘客。

湖南师范大学余露以罗尔斯式算法为例讨论了自动驾驶汽车的伦理算法及其限度。她认为罗尔斯的算法在自动驾驶汽车的应用中可能面临如下三个方面的异议:一是生存与生存价值何者更为重要;二是会带来反向不公,安全系数较高的自动驾驶汽车将成为“目标”;三是这是反直觉的。对于这些异议我们需要重新认识罗尔斯“最大化最小规则”,首先最大化最小规则并不是不确定性选择的可靠指导,它仅在某些具有专门特征的境况下有效。其次这一规则还有其他的限制条件:正义的主题是社会的基本结构,并不是临时给个人分配某些数额的财产或其他东西;自由的优先性;公平的机会优先于差别原则。

重庆邮电大学李杨从实验伦理的角度谈论了自动驾驶汽车,并对于人工智能道德决策提出了建议。他调研的结果显示:一、人们对人工智能抱有高度期望;二、人们将道德责任转向其他不在场的人而非人工智能;三、在人工智能的伦理研究中采用实验和调查的方法能够为我们提供充分的数据资源进行分析和判断,进而可以通过人们对待人工智能的态度出发来构建人工智能的道德体系,使其做出符合公众期望的道德决策理解人类对待人工智能行为道德与否的态度和期望,由此谋划出一套适应于公众道德意识的人工智能的道德规范和道德决策程序,用于指导人工智能的道德决策。

湖南师范大学王淑庆认为,要使人工智能体的行动符合相关伦理规范,最好使其具有道德决策的能力,可设想的必要工作之一是把伦理原则或规则形式化。尽管形式伦理学的初衷并不是面向人工智能,然而其做法却适用于人工智能。伦理规范的形式表达必须基于某种逻辑语言及其推理规则,而经典逻辑是不够的,所以有必要发展和行动、道德相关的逻辑来适应形式伦理学的需求。从单主体的角度看,能动性逻辑是形式伦理表达最为合适的逻辑。人工智能体之间或人机之间要实现协作行动,目前最为可行的逻辑基础是多语境系统。

三、人工智能设计伦理

华南理工大学闫坤如从五个方面讨论了人工智能机器人的设计伦理。第一,从机器人设计目的上明确机器人用途。明确机器人的设计用途,使智能机器人的种类高度的专业化,减少“万事通”型机器人,使机器人能够在人类日常生活中负责明确而具体的任务,做到专机专用。第二,机器人以安全性为设计目标。这个要求主要从机器人的安全角度而言的,机器人参与到人类的生活中,要严格遵守法律法规,不得利用机器人的法律真空做出逾越法律的事情,不得利用开发之便窃取用户、集体和国家的信息和机密。第三,机器人的设计者要对可能出现伦理问题做出足够的论证。如何使机器人在面临类似伦理困境时做出最有益于人类的抉择,是设计者们要提前思虑的问题。第四,机器人的设计要关注公平和正义。机器人设计不应造成扩大主体间权力、地位上的差距,导致实际上不公平和不正义。

湖南师范大学文贤庆认为,人工智能作为一种技术必然带有价值偏好。首先,技术出现其中的社会体制、实践和态度已经预先存在社会价值;其次,技术本身是有条件的;最后,技术使用环境中总会出现突发情形。也就是说,人工智能的设计不可能是价值中立的,它总是受到个人主观意图和社会价值的左右。如果说设计伦理还只是揭示了人工智能作为技术不可避免地带有价值偏好,必然导致伦理问题,那么人工智能带来的应用伦理问题将会把这些具体问题进一步展开。

中国科学院董军以关注隐性知识的心血管疾病分析为实例,认为人工智能经过60多年的成长,基本观念似已“飞入寻常百姓家”,而其进步依然有待宏观的方法论指导和微观的认知神经科学结论的支撑。从智能模拟的核心是思维模拟出发,问题之一是长期积累的经验中的难以言表的隐性知识的挖掘与刻画,包括对象特征识别、推理规则精化等,需要机器学习和逻辑推理的融合

北京华远国际旅游有限公司陈自富针对人工智能历史上若干经典的冲突,从科学研究纲领方法论的问题转换角度加以分析,认为作为技术科学的人工智能的理论的多元化竞争格局将是长期的,科学和技术实践中对经验上的反常具有较强的解释能力和容忍度,很难从个别的判决性实验出发来构成一个研究纲领退化的问题转换,往往需要更多的反常和更长的时间,因此应该基于这些特点,对人工智能未来理论如何发展做出更加全面的预测或判断。

四、人工智能社会伦理

上海大学孙伟平认为,人工智能是深刻改变世界、有远大发展前途、同时后果难以准确预料的颠覆性技术。目前人工智能正以指数级的速度高速增长,但人们的思想观念滞后,政策取向不清晰,伦理规制缺失,法律法规不健全,这导致了巨大的不确定性和风险。因此,有必要对人工智能及其应用后果进行全方位的价值反思,将人工智能纳入健康发展的轨道。他认为,人工智能具有积极的社会效应,同时也带来了诸多的社会价值冲突和伦理困境,如挑战人的本质,逼迫人对自身进行反思;冲击传统的伦理关系,挑战人类的道德权威;造成“数字鸿沟”从而解构社会;甚至取代、控制或统治人类。因此,必须制定智能社会的价值原则与综合对策,首先要立足“可能性”审慎地决定“应该”怎么办,其次要确立不容逾越的基本价值原则,最后需启动“兴利除弊”的社会系统工程。

海南政法职业学院童光政指出,大数据时代的信息伦理与人工智能伦理问题是大数据和人工智能发展不可回避的重要问题。在大力发展技术的同时,要高度重视因此而带来的社会问题,需要用伦理和法律的规范加以约束和引导。其次,这套规范体系既要在技术上可操控实现,又要符合一定的价值取向,这就需要科技界、伦理学界、法学界等多学科协同开展探索。最后,人工智能的发展改变就业结构、冲击法律和社会伦理、侵犯个人隐私、影响经济安全和社会稳定等等。面对这些新挑战,我们要深入讨论并提出一套规范价值体系,如秩序、安全、平等、正义、高效等价值,在此基础上提出人工智能在各领域应用中的具体规范,确保人工智能安全、可靠、可控发展。

上海交通大学杜严勇认为,人工智能技术的快速发展引发了人们对其安全问题的普遍担忧。无论人工智能是否会超越人类智能,研究人工智能的安全问题都是人工智能社会伦理的核心问题。他认为解决安全问题至少有内部、外部两种进路。从内部进路来看,首先对人工智能产品进行伦理设计是解决其安全问题的基本进路之一。其次为保证人类社会的和谐稳定,人们需要对一些发展尚不成熟、容易引起安全问题与社会争议的技术的应用范围进行限定。再次,限制人工智能的自主程度和智能水平,建立人工智能安全标准与规范。从外部进路来看:第一,科学家的社会责任与国际合作。第二,公众的接纳及其观念的调整。第三,人工智能安全评估与管理。

国防科技大学石海明认为,在人工智能社会,新时代军事的意蕴将发生较大的改变。他从四个层面展开了这一讨论。其一,后人类时代:人类进化之路的启示;其二,自然观与战争观:科技颠覆思想;其三,后人类战争崛起:萌芽与未来;其四,人工智能:通向后人类战争的桥梁。

国防科技大学张煌认为,伴随无人机系统智能化水平和自治能力的不断提高,它由原来纯粹的作战手段转变为逐渐具备战争主体部分功能。无人作战条件下人机集成共同扮演主体角色,冲击了正义战争理论对于责任主体与责任分配的固有认识,引发了一系列的争议。无人机导致的责任分配困境,还体现在如何应对“责任转嫁”的问题。此外,具有智能化特征的无人机日益成为战争责任的主体,还可能会削弱定义军人职责的道德根基。

著名大数据专家、涂子沛数据科技咨询有限公司董事长涂子沛首先回顾了人工智能的发展的三个阶段,认为每一次发展的背后都是计算能力和数据容量的突破。在第一阶段,人工智能是在人赋予其知识之后来执行推理和分析的任务;人工智能发展到第二阶段后,人类赋予人工智能知识;第三阶段是机器学习。他对图像人脸识别、语音识别等迅速发展的技术进行了讨论,认为人与技术之间的关系呈现出一种异化,人越来越像机器,机器愈发具有自主性,这些问题都需要社会各界广泛的讨论。

原文链接:http://ldhn.rednet.cn/c/2018/01/02/4518982.htm

上一条:【潇湘晨报】鸽子蛋“空降”宿舍,愁坏了小伙子

下一条:【湖南日报】国际师生迎新年

关闭