当前位置:   article > 正文

trusted区域_用于Python的IBM Trusted AI工具包与AI偏差作斗争

ibm research trusted ai

trusted区域

IBM的研究人员正在开发各种方法,以减少机器学习模型中的偏差并识别训练AI的数据集中的偏差,目的是避免在AI驱动的应用程序的行为和决策中受到歧视。

作为名为Trusted AI project的研究的结果,该公司发布了三个基于Python的开源工具包。 本月早些时候发布的最新工具包AI Explainability 360包括可用于解释机器学习模型所做出决策的算法。

[在InfoWorld上深入学习机器学习最好的机器学习和深度学习库 | 机器学习和深度学习的最佳开源软件 通过InfoWorld大数据和分析报告时事通讯深入分析和大数据。 ]

可以从GitHub访问三个用于Python的IBM Trusted AI工具包。 有关这三个软件包的一些信息:

  • AI Explainability 360(又称AIX360)提供的算法涵盖了机器学习模型和代理可解释性指标的不同维度。 可扩展的工具包可以帮助用户了解这些模型如何在AI应用程序生命周期中通过各种方式预测标签。 算法研究从实验室转化为金融,人力资本管理,教育和医疗保健等领域的实际实践。 AIX360工具箱于2019年8月8日推出,可以从此链接下载 。 您可以通过此链接访问API文档。
  • AI Fairness 360或AIF360提供了指标来检查数据集和机器学习模型中是否存在不必要的偏差,并包含减轻偏差的算法。 借助该工具包,IBM旨在防止开发可能会给某些特权组带来系统优势的机器学习模型。 训练数据中的偏见,由于标签的偏见,欠采样或过采样,导致模型的决策带有偏见。 AIF360于2018年9月推出,包括九种算法,可以以标准方式调用。 AIF360包含有关信用评分,预测医疗费用以及按性别对面部图像进行分类的教程。 可以在此链接中找到AIF360代码。 可通过此链接访问文档。
  • Adversarial Robustness Toolbox是一个Python库,支持开发人员和研究人员防御DNN(深度神经网络)免受对抗性攻击,从而使AI系统更加安全可靠。 DNN容易受到对抗性示例的攻击,这些示例是故意修改的输入(例如图像),以使DNN产生所需的响应。 该工具箱可用于构建防御技术和部署实际防御。 捍卫DNN的方法涉及测量模型的健壮性和模型强化,这些方法包括预处理DNN输入以使用对抗性样本来增强训练数据,并利用运行时检测方法来标记可能被对手篡改的任何输入。 由IBM Research Ireland于2018年4月发布的Adversarial Robustness Toolbox可在此链接上找到。

展望未来,IBM还正在考虑发布用于AI模型问责制的工具。 目的是在模型的整个生命周期中,将保持来源和数据跟踪,因此可以信任模型。

翻译自: https://www.infoworld.com/article/3434009/ibm-trusted-ai-toolkits-for-python-combat-ai-bias.html

trusted区域

本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号