以前一直没搞明白,虽然每次都告诉自己,相关性不等于因果关系,但相关性到底怎么来的,从来没有琢磨过。今天翻到了[马同学图解线性代数](https://book.douban.com/subject/36057421/),已经买了好久了,就是没有时间看。这个图解真不是吹的,让我的榆木疙瘩似乎打开了一条缝,看到了那么一丝丝光,哈。
余弦相似性,从向量的角度来考虑,其实就是求两个向量的夹角的余弦值,公式[......]
以前一直没搞明白,虽然每次都告诉自己,相关性不等于因果关系,但相关性到底怎么来的,从来没有琢磨过。今天翻到了[马同学图解线性代数](https://book.douban.com/subject/36057421/),已经买了好久了,就是没有时间看。这个图解真不是吹的,让我的榆木疙瘩似乎打开了一条缝,看到了那么一丝丝光,哈。
余弦相似性,从向量的角度来考虑,其实就是求两个向量的夹角的余弦值,公式[......]
最近在读一本很有意思的书:[矩阵力量](https://github.com/Visualize-ML)
从多个角度来分析线性代数的基本概念。回归这一块,第一次领悟到线性代数的威力。
所谓的线性回归,实际是从原始的数据维度,投影到另外一个维度,回归系数就是投影到新维度上的系数,残差就是两个维度带来的误差。
多项式回归更有意思,设计矩阵X实际可以写成多个列向量,第一列全为1,第二列为因变量x,[......]
最近发现两个线性代数学习的好材料。
最近几年一直在努力学习线性代数,这个号称数学里最简单的东西,把我折磨得不要不要的。搞了很多书,从2012年开始,就搞了一本MIT的Gilbert Strang教授的教材,硬头皮看了一点点[教学视频](https://ocw.mit.edu/courses/mathematics/18-06-linear-algebra-spring-2010/),感谢网易做的[......]