索信达:机器学习模型的“可解释性”研究

  • 时间:
  • 浏览:2
  • 来源:10分6合网投平台-10分彩投注平台_10分快3娱乐平台

近日,索信达控股有限公司(简称:索信达)旗下金融人工智能实验室对外发布《机器学习模型的“可解释性”研究》,重点阐述了机器学习模型的“可解释性”的重要意义以及索信达在机器学习可解释性领域的创新实践。

近日,索信达控股有限公司(简称:索信达)旗下金融人工智能实验室对外发布《机器学习模型的“可解释性”研究》,重点阐述了机器学习模型的“可解释性”的重要意义以及索信达在机器学习可解释性领域的创新实践。

索信达在研究中指出,神经网络的发展,为机器学习和人工智能领域带来了显著的突破,复杂化的网络形态层出不穷,在计算机视觉和自然语言处里领域获得了极大的成功。除了模型的预测表现,透明度和可解释性也是机器学习模型是否值得信赖的重要考核标准。

索信达金融人工智能实验室负责人邵平表示,随着机器学习的发展,不同的算法纷纷涌现,特别是在深度学习领域,不同的神经网络模型在图像识别、语音识别、自然语言处里等方面都之前 取得了一定的成果。之前 模型的效果往往是以牺牲模型的可解释性为代价,在深度学习中网络模型这麼复杂化,原应 了它的解释性很差,大伙儿 这麼向非专业人士解释清楚得到的结果。之前 这麼充分的可解释性,那先 模型在医药、金融等领域的应用将受到就说 限制。例如 ,银行的信用评分模型不仅要预测精确,各种决策理由也要令人信服。

在银行业,大伙儿 有权询问为那先 我本人的信用评分比较低,而业务人员都后能 仅仅解释为之前 您的模型评分低。而在医疗你这名极负“责任”的领域,使用模型来诊断疾病更加时需可解释性。但讽刺的是,即使神经网络可解释性差,在乳腺癌切片的图像诊断上,机器学习模型可不时需达到89%的准确性,而训练过的病理学家都后能 并能 73%的平均准确率。由此可见,大伙儿 既无法之前 其可解释性差而放弃使用你这名高效模型,亦都后能 完整依赖你这名“黑箱子”来帮助人类做出重大决策。

据索信达介绍,《机器学习模型的“可解释性”研究》在其官方微信公众号首发,上半主次内容将围绕模型的可解释性来对比和介绍传就说 计学模型和神经网络模型的特点,介绍神经网络模型原理及其与统计学模型的关系,以及关于神经网络可解释性的发展与研究方向。下半主次内容将重点介绍索信达采用四种 更复杂化、预测精度高的新型可解释神经网络模型在银行业中的创新实践与应用,帮助银行创造更大的业务价值。

(本内容属于网络转载,文中涉及图片等内容如有侵权,请联系编辑删除)