赞
踩
人工智能和包括机器人在内的智能化自动系统的普遍应用,不仅仅是一场结果未知的开放性的科技创新,更将是人类文明史上影响甚为深远的社会伦理试验。诚如霍金所言,人工智能的短期影响由控制它的人决定,而长期影响则取决于人工智能是否完全为人所控制。
人工智能的伦理问题之所以受到前所未有的关注,关键原因在于其能实现某种可计算的感知、认知和行为,从而在功能上模拟人的智能和行动。有鉴于此,人工智能学家引入了智能体(agents,又称智能主体)的概念来定义人工智能:对能够从环境中获取感知并执行行动的智能体的描述和构建。于是,可将各种人工智能系统称为人工智能体或智能体。如果仅将智能体看作一般的技术人造物,其研究进路与其他科技伦理类似,主要包括面向应用场景的描述性研究、凸显主体责任的责任伦理研究以及基于主体权利的权利伦理研究。但在人们赋予智能体以拟主体性的同时,会自然地联想到,不论智能体是否像主体那样具有道德意识,它们的行为可以看作是与主体伦理行为类似的拟伦理行为。进而可追问:能不能运用智能算法对人工智能体的拟伦理行为进行伦理设计,即用代码编写的算法使人所倡导的价值取向与伦理规范得以嵌入到各种智能体之中,令其成为遵守道德规范乃至具有自主伦理抉择能力的人工伦理智能体?
不可否认的是,人工智能在工作精细度上确实比我们人类好得多,能够重复的做一件单调的事而不懈怠,当然对商家来说,不需支付工资,是廉价的劳动力,有更大的利润空间。但在人工智能逐渐取代人类工作的时候,社会也开始广泛的关注AI所带来的伦理道德问题。就人工智能取代工作本身而言,会对人们的心理健康产生负面影响。生物伦理学家、奥巴马总统前医疗顾问伊齐基尔·伊曼纽尔(Ezekiel Emanuel)表示:“如果你思考下能让人们的生活变得有意义的东西,你会发现三件事:有意义的人际关系、强烈的兴趣以及有意义的工作。其中有意义的工作是定义某人生活的重要因素。在有些地区,当工厂关门时失去工作,可能导致自杀、药物滥用以及抑郁症危险的增加。”
更加可怕的是,一旦我们人类的自主性减少,对机器只会使用而忘记他们的原理时,系统的自我演变带来的后果可能让我们后悔莫及。
许多大牌公司(比如谷歌)已经成立道德委员会,来监督AI的开发和部署。有人认为,这种机制应该被广泛采用。达灵说:“我们不想扼杀创新,但到达某种程度时,我们可能想要创造某种结构。”
IEEE专门针对人工智能的发展起草了一份道德价值和伦理指南。在他们看来,AI的发展应该要与人类的道德价值观和伦理原则相符合。在这份长达136页的框架文件中,IEEE 提出了相应的发展指南和知道准则,希望能够为整个AI 产业的发展建立一个可供参考的“道德标准”。
如果我们能够制定行业标准和道德标准,并全面了解AI存在的风险,然后建立以伦理学家、技术专家以及企业领导人为核心的监管机制非常重要。这是利用AI为人类谋福利的最佳方式。斯特兰说:“我们的工作是减少人们对科幻电影中机器人接管世界的担忧,更多关注技术如何能够被用于帮助人类思考和决策,而非完全取代它。”
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。