在过去的一年里,我们看到人们对机器学习和深度神经网络的兴趣发生了转变。直到现在,工具和技术的开发一直是由对这些模型的非凡能力的兴奋所驱动的。然而,目前人们越来越担心这些模型可能会造成意外伤害。例如,可以在无意中训练一个模型,通过简单地排除弱势申请者,从而做出有利可图的信贷决定。幸运的是,我们看到人们对道德偏见的测试这将有助于发现潜在的有害决定。工具,如石灰,AI公平360或假设工具可以帮助发现培训数据和可视化工具(如谷歌方面或面潜水可以用来发现训练数据语料库中的子组。除了这种技术之外,我们还使用了lime(局部可解释的模型不可知的解释),以便理解任何机器学习分类器的预测以及分类器(或模型)正在做什么。