linear algebra review
讲矩阵,向量,运算,转置逆,太简单,我还是认真听+快跳,因为我学习的目的,是通过不难的视频先建立框架,培养兴趣。
multiple feature
gradient descent for multiple variable
gradient descent的变化
1feature scaling --方法1,2mean normalization
2learning rate
normal equation
他是不可逆的可能1有相关的量2太多的feature(矩阵线性相关嘛),两种方法区别