在过去的一年里,我们看到人们对机器学习和深度神经网络的兴趣发生了转变。到目前为止,工具和技术的发展一直是由对这些模型非凡能力的兴奋所驱动的。然而,目前人们越来越担心这些模型可能会造成意外伤害。例如,一个模型可能在不经意间被训练成通过简单地排除处境不利的申请人而做出有利可图的信贷决策。幸运的是,我们看到人们对道德偏见的测试这将有助于发现潜在的有害决定。工具,如石灰,AI公平360或假设工具能够帮助发现培训数据和可视化工具(如谷歌方面或面潜水可以用来发现训练数据语料库中的子组。除了这项技术,我们还使用了lime(本地可解释的模型不可知论解释),以理解任何机器学习分类器的预测以及分类器(或模型)在做什么。