雷达上的
雷达上的

可解释性作为一级模型选择标准

Veröffentlicht: 2019年11月20日
现在的版本没有
这个光点不在当前版本的雷达上。如果它是最后几个版本中的一个,那么它很可能仍然是相关的。如果这个信号的年代更久远,它可能就不再相关,我们今天的评估可能就不同了。不幸的是,我们没有足够的带宽来持续检查以前版本的雷达的光点 了解更多
2019年11月
试验 值得追求的。了解如何建立这种能力是很重要的。企业应该在能够处理风险的项目上尝试这种技术。

深度神经网络在很多问题上都显示出了惊人的记忆力和准确性。给定足够的训练数据和适当选择的拓扑,这些模型在特定选择的问题空间中满足并超过人类的能力。然而,它们本质上是不透明的。尽管模型的某些部分可以被重用转移学习在美国,我们很少能给这些元素赋予人类可以理解的意义。相反,一个可解释的模型允许我们说出一个决定是如何做出的。例如,决策树产生描述分类过程的推理链。在某些受监管的行业,或者当我们担心决策的道德影响时,可解释性变得至关重要。随着这些模型被更广泛地整合到关键业务系统中,考虑这些问题是很重要的可解释性作为一级模型选择标准.尽管神经网络很强大,但当可解释性要求很严格时,神经网络可能不是一个合适的选择。

雷达

下载技术雷达第25卷

英语|西班牙语|葡萄牙商业银行|中文

雷达

了解科技

现在就订阅

访问我们的档案,阅读以前的卷

Baidu