你将学到的
  • captum 介绍与使用
  • 特征影响权重分析
  • 神经网络内部结构的影响分析
  • 归因方法概述
  • 神经网络内部结构影响权重分析
  • 神经网络的决策依据分析

端到端的 AI 技术,一个广为诟病的问题是其不透明性或不可解释性,在面临一些重大决策的情况下,比如患者被 AI 建议使用了某种很罕见的治疗方案、或者 AI 被用来进行司法判决时,AI 系统能够给出判断的依据甚至能够与人类交换想法,无疑是至关重要的。在 AI 的可解释性研究道路上,许多工具应运而生。2019 年,Facebook 发布的 Captum 是一个基于 Pytorch 的一个模型解释库,本课程主要基于 Captum,以文本、图像为实战案例,尝试窥探 AI 这个黑匣子的内部机理。

图片描述

课程特色

  • 理论结合实际,符合学习规律
  • 多种模态的案例实战
  • 每个案例都能直观看到可视化效果

你可以收获的

  • 加强对深度学习的内部机理的理解
  • 对实际任务背后的 AI 进行可视化解释
  • 从可解释性的角度优化模型

先学课程

前置知识

  • Python 的使用,机器学习、深度学习基本原理,PyTorch 的基本使用

课程信息

  • 学习周期:课程有效期 2 个月,2 个月后无法进行在线实验,但可查看文档内容。高级会员有效期内可一直学习,到期后课程失效,且无法查看文档。部分云主机实验环境因成本较高,存在开启次数限制。关于课程退款等相关注意事项说明,请阅读 用户付费协议
  • 版权说明:课程内容为蓝桥云课原创或蓝桥云课在原作者授权下制作。未经书面同意,擅自爬取、转载和再分发课程内容,均将受到严肃追责。
  • 企业团报:企业购买,请点击 企业用户咨询
课程教师

西笑君 资深算法工程师 共发布过 4 门课程

查看老师的所有课程 >
会员
开通会员,即刻开始学习
加入编程交流社群👇