当前位置:   article > 正文

收集 IT 领域伦理与道德的事实或观点_如果在没有痛觉神经作为惩罚手段的情况下,机器人无法进行有效控制,我们是否应该为

如果在没有痛觉神经作为惩罚手段的情况下,机器人无法进行有效控制,我们是否应该为

第一板块:以一个网站或app为目标,整理、收集其中您认为有伦理风险的做法(要求每个事实有截图,有简要说明):

一些百合网上普遍被认为存在伦理风险的做法:

事关千万网民私人信息的信息安全问题:(下面是有关报道)
这里写图片描述

是否按照个人意愿分配:(下面是有关报道)
这里写图片描述

可能出现多种违法事件:(下面是有关报道)
这里写图片描述

这里写图片描述

这里写图片描述

第二板块:以特定行业或技术为目标,通过网络检索,整理、收集相关伦理风险的观点(要求每个观点有引用,说明来源):

AI 技术与伦理

https://www.techworld.com/data/establishing-data-ethics-in-age-of-ai-3659269/这是一篇题为Developing a data ethics framework in the age of AI的文章,文中提出了AI时代的伦理框架,这也是我们提出观点的一个参考:

下面是一篇题为人工智能引发的科学技术伦理问题的论文:https://wenku.baidu.com/view/beac3d073c1ec5da50e270f2.html
文中对AI技术的发展提出了如下几个伦理问题:
1)人工智能的情感问题
2)人工智能的责任问题

对于第一个问题:
又有如下问题来自豆瓣上的讨论:
https://www.douban.com/group/topic/44706237/
第一个伦理问题:如果在没有痛觉神经作为惩罚手段的情况下,机器人无法进行有效控制,我们是否应该为了更好的驱使它们给它们加入痛觉神经元?
第二个伦理问题:我们对于以利用AI痛觉神经元进行虐待机器人的行为是否该表示谴责?
第三个伦理问题:对于一部分无主的(主人死亡或者遗弃之类的)机器人,我们是应该进行销毁还是回收重新分配,或者给予自由身份?
第四个伦理问题:我们是否应当支持某些人呼吁的给予机器人与人类同等身份的观点,比如自由权,选举权?(请注意一点,机器人天然拥有比人类更大的竞争优势)

对于第二个问题
下面是一位教授的答案:(原文来自:http://www.qstheory.cn/science/2015-06/09/c_1115561256.htm
公平分配人工智能福利
Russ Altman(美国斯坦福大学生物工程、基因学、医学和计算科学教授)
人工智能在加速生物和医学领域的科学发现及改变医疗卫生方面有惊人潜力。人工智能系统有望帮助弄清若干新型数据:基因组学、蛋白质组学和新陈代谢组学等“组学”的测量值;电子病历;健康信号的数字传感器监控。
聚类分析能判断新综合征,分离那些曾被认为是相同的疾病以及统一那些根本缺陷相同的疾病。模式识别技术能将疾病与疗法相匹配。例如,我和同事正在识别对调节免疫系统的药物可能有响应的患者群体。
在协商中,内科医生可能会使用来自“虚拟群体”的患者数据——他们就好像彼此坐在一起,评估诊断、选择疗法和统计结果。他们将可能在一个此类系统中进行医疗决策,或使用基于患者数据的模拟实验预测结果。
但我有两个担忧。首先,人工智能技术将加剧目前的医疗卫生不平衡状况,除非能发现一种方式,让所有病人受益。例如,在美国,失业人员会经历各种水平的护理。只有特殊群体或能支付得起的人,才能获益于先进的诊断技术,这是不公平、不合理的。
第二,我担忧临床医生理解和解释高性能人工智能系统所得出的结果的能力。大多数卫生保健提供者不会接受一个来自决策支持系统的没有明确描述如何和为何能出现效果的复杂治疗建议。因此,研究人员需要让医生、护士、患者和其他人明白他们应该如何使用人工智能,并且如何公平地使用。

总结:
AI时代的AI自身的问题几乎都围绕1)人工智能的情感问题2)人工智能的责任问题两个问题,也许深入探讨这两个问题,我们就能合理构建AI时代的伦理框架。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/972148
推荐阅读
相关标签
  

闽ICP备14008679号