研究发现,人工智能不只学了人类好的部分,也学了种族与性别歧视等坏的部分,IBM实验室现在开源了AI Fairness 360(AIF360)工具包,用来减轻人工智能的学习偏差。
机器学习逐渐可以代替人们做出高风险的决策,IBM提到,虽然机器学习的本质就是一种统计歧视(Statistical Discrimination)的形式,但是当部分拥有特权的群体处于系统优势的时候,歧视会变得令人反感。机器学习的训练数据,无论是采样不足或是过度采样,甚至标签存在偏差,最终都会造成不良的模型。
IBM着手修正人工智能可能存在的偏差问题,现在对外开源AIF360项目,这是一个Python软件套件,由广泛的算法平等研究社群开发,内含有9种不同的算法,开发者能以类似Scikit-learn函式库的范式,呼叫使用这些算法。AIF360不仅仅是提供人工智能模型的偏差指针,更是提供减轻偏差的方法,并专注于可用性与软件工程改良上。
AIF360内建3个范例,领域包括信用评分、预测医疗支出以及以性别分类脸部图片。IBM表示,虽然他们过去已经在健康保险领域上,与许多客户合作多年,针对特定人群量身订做保险方案,但是就从未加入算法评等研究。而这个结果离真正公平的结果是有一段差距的。
AIF360能以交互式的体验,引导使用者了解套件的概念以及功能,开发者可能会在一开始对于不同案例使用的指针或是算法产生困惑,AIF360则会提供参考数据作为引导。IBM期望,透过这个开源项目可以凝聚相关研究人员,并把研究成果转换成各产业可以使用的解决方案。
文章转自:http://www.wehub.org.tw/post.asp