保存成功
订阅成功
保存失败,请重试
提交成功

中文词向量:Word2vec 从熟悉到入门

¥3会员免费看
戎码一生

Word2vec 也叫 Word Embeddings,中文名“词向量”,作用就是将自然语言中的字词转为计算机可以理解的稠密向量(Dense Vector)。在 Word2vec 出现之前,自然语言处理经常把字词转为离散的单独的符号,这种编码方式称为 One-Hot Encoder。

在自然语言处理领域也就是在 Bert 跟 Xlnet 模型出现以前(2019 年是 NLP 领域突飞猛进的一年,Bert 模型采用根据上下文语义动态训练字向量的方式,泛化性更强),几乎所有的训练深度学习模型都采用训练词向量的方式,Word2vec 使用最多。虽然 Bert 模型力压传统深度模型,但是由于 Bert 模型的参数多(参数在1亿左右)、体量大等原因,并不能被广泛使用。

在本次 Chat 中,您将学习到:

  1. Word2vec 模型架构解析
  2. Jieba 分词原理详解
  3. Skip-gram 原理详解
  4. Demo1:使用 Skip-gram 训练词向量
  5. CBOW 原理详解
  6. Demo2:使用 CBOW 训练词向量
  7. 词向量的两种保存方式

适合人群:对 AI 领域有着浓厚的兴趣,致力于从事中文自然语言处理的学员。

144 人已订阅
会员免费看
¥3 原价订阅
微信扫描登录
关注提示×
扫码关注公众号,获得 Chat 最新进展通知!
入群与作者交流×
扫码后回复关键字 入群
Chat·作者交流群
入群码
该二维码永久有效
严选标准
知道了
Chat 状态详情
开始预订
预订结果公布19.10.29

预订达标,作者开始写作

审核未达标,本场 Chat 终止

作者文章审核结果公布19.11.19

审核达标,文章发布

审核未达标,本场 Chat 终止

Chat 完结
×
已购列表