当前位置:   article > 正文

【报告笔记】大数据与人工智能的伦理挑战_电子科技大学大数据周涛有b站吗

电子科技大学大数据周涛有b站吗

以下是听《第五届全国大数据与社会计算学术会议》之《专题报告2:社会计算与数据伦理》的要点记录。

完整原文和视频回放,请移步”集智学园”:https://campus.swarma.org/

B站直播链接:https://live.bilibili.com/8091531


《大数据与人工智能的伦理挑战——周涛(电子科技大学)》

今天分享大数据与人工智能的伦理挑战。

(1)中立性

算法表面中立,在学习中却可能形成隐形的歧视,甚至放大这些鸿沟。算法角度是合理的,但是社会往前发展,不能仅建立在数字化的优化上,而是要考虑很多人文的东西。

例如高级职位推荐,女性占比8%-15%,系统开始偏向男性推荐,加剧性别差异。同理的还有秘书推荐给女性,卡车司机推荐给男性。

随着系统对人购买力的打分,会有价格歧视。

美国低矮桥,在设计的时候,就有把穷人挡在外面的意思。

(2)时效性 

算法预测犯罪不犯罪。酒驾有些国家可以。燃放烟花爆竹是为了预防火灾,有些人觉得失去了某些东西。现在人驾驶可以,未来无人驾驶普及,可能觉得人驾驶就不安全。因此,技术现在觉得安全,将来可能不够安全。

人们认为,“浪子回头,金不换”。但计算机可能不这么认为,因为它有无穷的记忆力。监控压力下,人们就只能兢兢业业地沿着主流价值观做事说话,独立性、自主性丢失。

(3)沉迷

短视频通过不同推荐,让你连续看短视频的时间更长。专门做算法让你欲罢不能。技术很强,这里的任何一方都是得利的,没有一个力量去摧毁它。但是它对于整个社会的贡献是很少的。

还有Dark AI,对社会的研究是积极、还是消极,是值得关注和思考的问题。

(4)边界问题

计算机识别微表情,就可以无接触策划,接收声音、表情,就可以准确识别人的情绪。

社会的组成基石,是真相,但是也需要谎言。哪怕对至亲家人,非恶意的谎言,会是一种保护。

增强学习、对抗神经网络:名人fake,模拟领导人讲话。最终问题是,模糊真与假的边界,普通人没办法说明是真实的。

(5)伦理问题

(6)隐私问题

《数据安全法》,比《网络空间安全法》,范围更大。马上还要出一个《个人信息保护法》。

但是也不能保护过度,像欧洲,个人隐私保护得都影响产业发展。

有一类隐私,比较好理解,是摄像头偷拍。

还有一类是仔细检查网上行为。这类隐私很难鉴别。比如网络公开信息,都不属于隐私,但是你的点击行为,通过分析,就可以分析性取向、兴趣、喝不喝酒、党派。这就很夸张了。你可能真实不想让人知道,但是我们可以通过公开数据发现这个问题。

因此,对于什么是隐私,我们需要鉴别。

公开数据是不是隐私:从公开数据,用似然估计深度分析个体,算不算违法。

匿名数据是不是隐私:还有scientific data,表面看是全匿名,但是却能被人利用,通过有限得信息推导出来。

你的数据会不会影响别人:基因数据。某人公开自己的基因,发现某个致病基因,会不会影响一类人的正常生活。

大数据和人工智能会给人类世界带来影响,这种影响是结构性的。希望类似孟老师这样的有社会责任感的人,能更多地思考积极和消极的反应。

——整理自(集智俱乐部):《第五届全国大数据与社会计算学术会议》专题报告2:社会计算与数据伦理。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小惠珠哦/article/detail/893351
推荐阅读
相关标签
  

闽ICP备14008679号