赞
踩
trusted区域
IBM的研究人员正在开发各种方法,以减少机器学习模型中的偏差并识别训练AI的数据集中的偏差,目的是避免在AI驱动的应用程序的行为和决策中受到歧视。
作为名为Trusted AI project的研究的结果,该公司发布了三个基于Python的开源工具包。 本月早些时候发布的最新工具包AI Explainability 360包括可用于解释机器学习模型所做出决策的算法。
[在InfoWorld上深入学习机器学习 : 最好的机器学习和深度学习库 | 机器学习和深度学习的最佳开源软件 通过InfoWorld大数据和分析报告时事通讯深入分析和大数据。 ]
可以从GitHub访问三个用于Python的IBM Trusted AI工具包。 有关这三个软件包的一些信息:
展望未来,IBM还正在考虑发布用于AI模型问责制的工具。 目的是在模型的整个生命周期中,将保持来源和数据跟踪,因此可以信任模型。
翻译自: https://www.infoworld.com/article/3434009/ibm-trusted-ai-toolkits-for-python-combat-ai-bias.html
trusted区域
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。