你将学到的
  • BERT 预训练模型
  • XLNet 预训练模型
  • 文本生成任务
  • GPT-2 预训练模型
  • 文本分类任务
  • 序列标注任务

PyTorch-Transformers 是一个以 PyTorch 深度学习框架为基础构建的自然语言处理预训练模型库,由 Hugging Face 团队创建,早前为 pytorch-pretrained-bert,如果已正式成为独立项目。

本课程中,我们将了解到自然语言处理领域多种预训练模型构建的思想和原理,并用 PyTorch-Transformers 模型库中的模型和预训练参数进行实验,让你能快速掌握预训练模型的使用方法。

先学课程

课程难度

  • 中等

适合用户

本课程适用于对深度学习应用于自然语言处理领域感兴趣的用户。如果你已经有 Pytorch 构建深度学习模型的使用经验,或其他深度学习的相关经验,学习本课程会更轻松一些。

课程信息

  • 学习周期:课程有效期 2 个月,2 个月后无法进行在线实验,但可查看文档内容。高级会员有效期内可一直学习,到期后课程失效,且无法查看文档。部分云主机实验环境因成本较高,存在开启次数限制。关于课程退款等相关注意事项说明,请阅读 用户付费协议
  • 版权说明:课程内容为实验楼原创或实验楼在原作者授权下制作。未经书面同意,擅自爬取、转载和再分发课程内容,均将受到严肃追责。
  • 企业团报:企业购买,请点击 企业用户咨询
课程教师

实验楼xjm 共发布过 1 门课程

查看老师的所有课程 >
蓝桥楼+
实验楼会员
会员
开通会员,即刻开始学习