欢迎来到锁爱三生!
首页
学术动态
首页 > 正文

【预告】机器学习可解释性研究现状与思考

来源: 日期:2023-10-14 作者: 浏览次数:

报告题目:机器学习可解释性研究现状与思考

报告时间:2023年10月18日下午3点

报告地点:北区四号教学楼208

报告摘要:机器学习是人工智能诸多领域的共性基础与关键技术,机器学习理论、模型与算法的可解释性关乎到人们可否可信有效地使用人工智能。随着深度学习的兴起,机器学习的可解释性研究成为了人工智能科学家广泛关注的焦点。通过对统计机器学习与深度学习的剖析,可解释性可从语义可解释性与原理可解释性进行归纳。然而,在基于机器学习进行决策时,由于受到数据噪音、标注偏好等复杂因素影响,或由于缺乏足够证据和先验知识,决策结果与真实情况由于随机产生的一致性时有发生。此随机一致性将导致决策缺乏客观性与可重复性,给机器学习理论与模型的可信性造成解释性灾难,给经典可学习理论与方法带来了挑战。为此,如何重构具有原理可解释性的可学习理论成为了人工智能的一个基本科学问题。报告在总结归纳机器学习可解释性研究的基础上,汇报近年来针对该问题进行的一些尝试性探索,以期引起人工智能领域的一些学术思考与战略思考。

专家介绍:钱宇华,男,博士,教授、博士生导师,国家高层次人才入选者,山西大学大数据科学与产业研究院院长,计算智能与中文信息处理教育部重点实验室副主任。主持国自然重点、优青、重点研发等项目10余项;在AI、ACM TOIS、JMLR、ML、IEEE TPAMI、IEEE TKDE等国际期刊发表论文100余篇。成果广泛应用于国防科技服务、遥感图像分析、医疗诊断分析、生物数据挖掘、社会网络分析等领域。曾获山西省自然科学奖一等奖,CCF优博,百篇优博提名奖,2018-2021年全球高被引科学家。