设为首页 - 加入收藏
广告 1000x90
您的当前位置:论文网 > 哲学论文 > 国学论文 > 正文

对人工智能面临伦理困境进行研究

来源:[db:来源] 编辑:admin 时间:2017-11-03

  日前,已进行测试多年的谷歌无人驾驶汽车发生事故,致人受伤,这一事件再次将人工智能牵涉的伦理问题推到风口浪尖。人工智能研究与生俱来具有“哲学特质”。学者认为,不同人工智能专家推出的人工智能产品背后有不同哲学预设和思路,由两个不同编程思维的机器预测同一件事就会得出不一样的结论;同样,也不能指望通过造一台机器解决所有问题,因为造机器的人本身是有限性的。

  人类智慧的物化结果目前,众多互联网巨头都在人工智能领域投入巨大资金,并且在诸如语音识别、图像识别、自动驾驶汽车技术等人工智能领域的研究已经初见成果。“包括人工智能在内每一项技术的诞生、发展和进步,一定程度上都是以机器来替代人类体力和智力作为技术发展逻辑的终点。”上海社会科学院哲学研究所副研究员计海庆说。有专家分析认为,在一些灾难事件背后,往往都有人为因素导致或加重灾难性后果的存在。“在某些特殊情境和极端条件下,人性弱点往往会放大灾难后果。”计海庆认为,在某些情况下,技术的应用有助于克服人类的负面情绪。拥有人工智能的自动机器(或软件)能够比人更准确、可靠和完整地执行某些任务。一套足够成熟的人工智能系统,可以在一定程度上减少甚至纠正人为不安全因素。

  复旦大学哲学学院教授徐英瑾强调,应该看到即使再智能的机器也是科学家通过统计学、数据挖掘原理等,将科学的规则以编程形式让机器自动运行,因此,其归根结底还是人类智慧的物化结果。机器人伦理意识成焦点事实上,随着人工智能技术的广泛应用,在这些领域广泛应用的机器人也面临类似伦理困境:机器人能否成为伦理主体?比如,自动驾驶汽车提升了生活的便捷性,更增强了安全性。然而,面对复杂的公路情况,我们真的可以将可能牵涉“生杀大权”的伦理选择交给机器人吗?对此,中国社会科学院哲学研究所研究员甘绍平认为,“机器人与具有自由选择能力的人有根本的区别。”在他看来,前者的行为取决于原因,后者的自主决断取决于理由,而决定意味着对不同理由的思考和选择。原因从属于自然界的必然性,理由则起源于人际交往、社会关联的运行规则和对文化历史经验累积的反思与醒悟。道德选择的前提是自由意志。

  意志自由只属于能够对理由进行思考、判定、权衡与抉择的人。机器人不可能拥有自由意志,也不可能具备伦理决策的理解力。中国政法大学哲学系教授费多益对机器人的伦理意识这一提法进行了质疑,“机器只能在理想情况而不是在综合复杂的情形下进行识别,后者恰恰与人类主观经验密不可分。机器总是机械、精确地执行人类为它编制好的程序,它的算法完全无法刻画人类视觉思维中的容错性,而这种容错性,正是人类值得骄傲的心智特征。”徐英瑾则认为,虽然目前机器人还远未智能到成为伦理主体,但机器人具有伦理意识并不是完全没有可能。为实现这一目标,需要人类研究伦理意识和程序之间的关系,以一套编程语言表达这套规则。但他也指出,目前机器人可以扮演“参谋”的角色,即当我们面对不同选择时,由它提供每一种选择面临不同结果的概率,人类有最终决定权,并承担所有责任。毕竟这一“参谋”提供的选择源于客观理性,可以平衡人类的直觉思维,利于人类在直觉与机器方案之间再做平衡选择。警惕人工智能副作用在人工智能应用的各个领域都不乏审慎的声音,人们担心日益成熟的技术可能成为一把“双刃剑”。



中教数据库 www.yxlww.cn

中教数据库 版权所有 京ICP备12007566号-2

Top