学习机器学习:第一天

在开始深入研究机器学习时,我将开始撰写这一系列博客文章,以跟踪我的进步。 目的主要是使我对我要追求的目标负责; 让我自己写下自己所做的事情,即使我感到懒惰或拖延,也有望使我保持专注并让我从事工作。

深入学习ML是我想做的一段时间,但很长一段时间以来,我一直在全力以赴。 这个目标与想要在某个班级取得好成绩或获得一定的实习机会是完全不同的:这些目标有具体的工作需要努力,要达到的检查点要达到,但是学习ML似乎有点抽象,我并不是真的在做以获得特定结果。 尽管如此,我将花很多时间写我所学到的东西以及在ML上花费了多少时间。 来了!

日期:2017年12月19日,星期二

投入时间:1.5

评论:

今天讨论了几种不同类型的损失函数,特别是MSE损失,铰链损失和交叉熵损失。 了解了不同的概率模型如何引起MSE和交叉熵,以及L2正则化铰链损耗使最大裕度特性产生。 (http://cs231n.github.io/linear-classify/)

用导数明确显示交叉熵损失可以使分类模型远离模型时(如开始训练时),可以更快地在分类设置中学习,这也很酷。

还查看了正则化:https://github.com/rohan-varma/machine-learning-courses/blob/master/cs231n/notes/Regularization.md