保存成功
订阅成功
保存失败,请重试
提交成功

Kaggle 的 NLP 比赛单打银牌 Trick 分享

¥3会员免费看
搬砖的小少年

谷歌 Bert 为王的时代,如何通过一些奇淫技巧的语言模型去匹敌 Bert 这种巨兽呢,Bert 模型对于硬件要求极高,就算微调一个 Epoch 也需要十几二十个小时,如何利用有限的硬件资源在优秀的文本预处理方案以及构建巧妙地语言模型帮助下在竞赛中取得好成绩。

在本场 Chat 中,会讲到如下内容:

  1. NLP 中对于文本数据的一些优秀的预处理方案
  2. 对于模型效果提升的一些 Trick(比如周期性学习率等)
  3. 短文本分类效果好的深度学习模型如何构建
  4. 介绍模型中每一层对于效果提升的作用以及原理

适合人群: NLP 算法工程师以及各平台 NLP 短文本分类比赛的技术人员

分享活动取消·本场 Chat 终止
详情
活动已取消
订阅须知

预订后,您将在 19.12.20 之前获得一篇专享文章。

请务必 关注 GitChat 服务号 以查看活动进度及获取活动通知。

届时文章未达标,款项将退回到微信账户。

微信扫描登录
关注提示×
扫码关注公众号,获得 Chat 最新进展通知!
入群与作者交流×
扫码后回复关键字 入群
Chat·作者交流群
入群码
该二维码永久有效
严选标准
知道了
Chat 状态详情
开始预订
预订结果公布19.12.07

预订达标,作者开始写作

审核未达标,本场 Chat 终止

作者文章审核结果公布19.12.20

审核达标,文章发布

审核未达标,本场 Chat 终止

Chat 完结
×
已购列表