保存成功
订阅成功
保存失败,请重试
提交成功

机器学习必备的数学知识,一次学会

¥15会员免费看
白朔天
5
严选 Chat了解严选标准

面对机器学习,初学者的阻塞点往往不在于机器学习本身,而是数学。机器学习是计算机技术,但它的底层是数学。通常,在机器学习相关的教材中,通篇都是复杂的数学公式。初学者如果数学基础不牢固,面对满篇的数学公式时,就会逐步失去学习信心、减少学习动力,而达不到预期的学习效果,最终只能沦落个“半吊子”的水平。

有鉴于此,本 Chat 将会拆解机器学习主流模型,找到主流模型背后依赖的数学知识点。再讲这些数学相关的知识点,进行统一整合归并。因此,这篇 Chat 的背景是机器学习,而讲述的内容是数学知识。我会用尽可能简单的方式,取其精华、去其糟粕,让你尽可能以极低成本,迅速掌握机器学习必备的数学知识。相信有了这些必备知识之后,你就能轻松读懂其他机器学习教材并快速入门机器学习啦。

本 Chat 内容:

  • 机器学习主流模型依赖的数学知识要点拆解
  • 梯度,利用梯度下降法求解函数极值
  • 向量与矩阵,求各种积、求逆
  • 求导大法,函数求导、向量求导、矩阵求导
  • 概率计算,对于事物不确定性概率的计算、极大似然的原理
  • 信息量的度量,熵、条件熵、信息增益、信息增益率
  • 统计量,均值、方差、最小二乘
  • 统计学的圣经,中心极限定理、假设检验

适合人群:

  • 每次打开书都被公式搞垮的机器学习初学者

最后一句,写好每篇 Chat 是对我的要求,更是对你的尊重。

852 人已订阅
会员免费看
¥15 原价订阅
查看文章评论/提问
余大愚21 天前
看不懂,还是一堆数学公式,没有基础常识铺垫,行文中出现得词汇和符号不能理解。和以前看到的一些介绍文章大同小异,很失望!
Visual C++2 个月前
还有后续内容吗?
白朔天(作者)2 个月前
内容方面可以说说你的关注点。肯定会有后续内容,只是围绕大家的诉求会更好一些~
qq_389140103 个月前
而且使用导数大小判断离最小点距离远近这个结论不是通用的吧,换个曲线就不适用了。
白朔天(作者)3 个月前
确实,这个结论并不是通用的。sigmoid函数就是一个反例。但是对于凸函数而言,这个结论是成立的。如果是非凸的函数,不修正梯度下降法是有可能找不到极值的(例如双峰函数,陷入局部最优的鞍点)。这块内容涉及的数学知识比较深,所以文中用了一种不严谨的方式来行文。拓展一个更有意思的问题,“为什么逻辑回归模型不使用最小二乘的平方误差,而偏偏要用极大似然函数”。其实经过推导就会发现,逻辑回归中如果用平方误差,那么损失函数就不是个凸函数,也就不满足上面说的结论。容易陷入局部最优。而如果损失函数用似然函数,那么推导后就会发现损失函数是个凸函数。也满足了上面的结论。
qq_389140103 个月前
而且这个目标最小值的横坐标与这个观测点(绿色、橙色)的横坐标的距离,与导数的绝对值正相关。即,导数的绝对值越大,极值点越近;反之亦然。 这里写反了吧,应该是绝对值越大,极值越远?
白朔天(作者)3 个月前
谢谢细心的朋友~是的,这块写错了。周末就在和编辑沟通修改,应该正在处理中。。。
边城浪子3 个月前
通俗易懂,很好的入门课
微信扫描登录
关注提示×
扫码关注公众号,获得 Chat 最新进展通知!
入群与作者交流×
扫码后回复关键字 入群
Chat·作者交流群
入群码
该二维码永久有效
严选标准
知道了
Chat 状态详情
开始预订
预订结果公布19.11.07

预订达标,作者开始写作

审核未达标,本场 Chat 终止

作者文章审核结果公布19.11.22

审核达标,文章发布

审核未达标,本场 Chat 终止

Chat 完结
×
已购列表