深度神经网络在很多问题上都显示出了惊人的记忆力和准确性。给定足够的训练数据和适当选择的拓扑,这些模型在特定选择的问题空间中满足并超过人类的能力。然而,它们本质上是不透明的。尽管模型的某些部分可以被重用转移学习在美国,我们很少能给这些元素赋予人类可以理解的意义。相反,一个可解释的模型允许我们说出一个决定是如何做出的。例如,决策树产生描述分类过程的推理链。在某些受监管的行业,或者当我们担心决策的道德影响时,可解释性变得至关重要。随着这些模型被更广泛地整合到关键业务系统中,考虑这些问题是很重要的可解释性作为一级模型选择标准.尽管神经网络很强大,但当可解释性要求很严格时,神经网络可能不是一个合适的选择。