赞
踩
浅谈人工智能的伦理问题
资料整理,仅供参考
2018 年3月 18日晚上 10 点左右,伊莱恩·赫兹伯格(Elaine Herzberg)骑着自行车穿过亚利桑那州坦佩市的一条街道,突然间被一辆自动驾驶汽车撞翻,最后不幸身亡。这是一辆无人自动驾驶汽车,尽管车上还有一位驾驶员,但车子由一个完全的自驾系统(人工智能)所控制。与其他涉及人与AI技术二者之间交互的事件一样,此事件引发了人们对人工智能中道德和法律问题的思考。系统的程序员必须履行什么道德义务来阻止其研发产品导致人类的生命受到威胁?谁对赫兹伯格的死负责?是该自动驾驶汽车公司测试部们?人工智能系统的设计者,甚至是机载传感设备的制造商?
关于人工智能的伦理讨论一直在进行,从人工智能研究的开始,重点主要集中在讨论可能性和对未来影响的理论工作,但对人工智能实际应用中研究讨论较少。尽管学术界对人工智能伦理道德的关系进行探讨已经持续了几十年,但并没有得出普遍的人工智能伦理是什么,甚至应该如何定义命名也没有统一规范化。近年来,随着社会科技技术的不断发展,人工智能的发展取得重大的突破。人工智能相关伦理研究讨论日益广泛,影响着我们的生活。在当前AI伦理受到越来越多讨论研究的背景下,本文主要通过对一些案例分析人工智能的伦理问题,结合本学期《工程伦理》课程所学,谈谈自己的理解与收获。
“人工智能”被设计为一种为从环境中获取因素的系统,并基于这些外界的输入来解决问题,评估风险,做出预测并采取行动。在功能强大的计算机和大数据时代之前,这种系统是由人类通过一定的编程及结合特定规则实现,随着科学技术的不断进步,新的方法不断出现。其中之一是机器学习,这是目前AI最活跃最热门的领域。应用统计学的方法,允许系统从数据中“学习”并做出决策。关注技术的进步,我们更关注的是在极端情况下的伦理问题。例如在一些致命的军事无人机中使用AI技术,或者是AI技术可能导致全球金融体系崩溃的风险等。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。