当前位置:   article > 正文

防止人工智慧学习歧视 IBM开始著手修正

3.ai fairness 360 (aif360): 这是ibm研究部门开发的一个可扩展的开源工具包,目的

研究发现,人工智能不只学了人类好的部分,也学了种族与性别歧视等坏的部分,IBM实验室现在开源了AI Fairness 360(AIF360)工具包,用来减轻人工智能的学习偏差。

机器学习逐渐可以代替人们做出高风险的决策,IBM提到,虽然机器学习的本质就是一种统计歧视(Statistical Discrimination)的形式,但是当部分拥有特权的群体处于系统优势的时候,歧视会变得令人反感。机器学习的训练数据,无论是采样不足或是过度采样,甚至标签存在偏差,最终都会造成不良的模型。

IBM着手修正人工智能可能存在的偏差问题,现在对外开源AIF360项目,这是一个Python软件套件,由广泛的算法平等研究社群开发,内含有9种不同的算法,开发者能以类似Scikit-learn函式库的范式,呼叫使用这些算法。AIF360不仅仅是提供人工智能模型的偏差指针,更是提供减轻偏差的方法,并专注于可用性与软件工程改良上。

AIF360内建3个范例,领域包括信用评分、预测医疗支出以及以性别分类脸部图片。IBM表示,虽然他们过去已经在健康保险领域上,与许多客户合作多年,针对特定人群量身订做保险方案,但是就从未加入算法评等研究。而这个结果离真正公平的结果是有一段差距的。

AIF360能以交互式的体验,引导使用者了解套件的概念以及功能,开发者可能会在一开始对于不同案例使用的指针或是算法产生困惑,AIF360则会提供参考数据作为引导。IBM期望,透过这个开源项目可以凝聚相关研究人员,并把研究成果转换成各产业可以使用的解决方案。

文章转自:http://www.wehub.org.tw/post.asp

转载于:https://my.oschina.net/u/3705430/blog/2208433

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Guff_9hys/article/detail/799159
推荐阅读
相关标签
  

闽ICP备14008679号