Contents
  1. 1. 2020年寒假第一周周报(Jan. 6th ~ Jan. 12th)
    1. 1.1. 本周学习内容
      1. 1.1.1. 线性代数
      2. 1.1.2. 机器学习
        1. 1.1.2.1. 线性回归
          1. 1.1.2.1.1. 假设函数(Hypothesis)
          2. 1.1.2.1.2. 代价函数(Cost Function)
          3. 1.1.2.1.3. 梯度下降(Gradient Descent)
        2. 1.1.2.2. 逻辑回归
          1. 1.1.2.2.1. 假设函数
          2. 1.1.2.2.2. 代价函数
          3. 1.1.2.2.3. 梯度下降
        3. 1.1.2.3. 正则化
    2. 1.2. 本周工作总结
    3. 1.3. 下周学习安排

2020年寒假第一周周报(Jan. 6th ~ Jan. 12th)

本周学习内容

线性代数


  1. 矩阵的基本运算:
    -加减:相同维度的矩阵对应元素加减
    -标量积:矩阵的每个元素分别与标量相乘
    -点乘:行向量和列向量相乘得到一个标量或者一个1*1矩阵,依此规律得到结果
    -转置:A(ij)=A^T(ji)
    -逆矩阵:A*A^(-1)=I
    -单位矩阵:AI=IA=AI
  2. 矩阵的行列式
    -行列式=0,则矩阵为奇异矩阵,不可逆,否则为非奇异矩阵,可逆。

机器学习


线性回归


假设函数(Hypothesis)

假设函数

代价函数(Cost Function)

代价函数

梯度下降(Gradient Descent)

更新参量

向量化

逻辑回归


假设函数

假设函数

代价函数

代价函数

梯度下降

同线性回归

正则化


在代价函数中加入惩罚项,防止高阶特征的参数过大导致过度拟合

本周工作总结

本周我主要完成了线性回归和爬虫程序的制作,通过一遍遍的尝试,我使我的程序在变快的同时也变得更加精确。这不仅磨炼了我的毅力,也使我获得了更多的经验。下周继续努力!

下周学习安排

  • 继续学习线性代数
  • 完成神经网络基础的学习并完成相关程序的编写
  • 每天学习英语

#END

Contents
  1. 1. 2020年寒假第一周周报(Jan. 6th ~ Jan. 12th)
    1. 1.1. 本周学习内容
      1. 1.1.1. 线性代数
      2. 1.1.2. 机器学习
        1. 1.1.2.1. 线性回归
          1. 1.1.2.1.1. 假设函数(Hypothesis)
          2. 1.1.2.1.2. 代价函数(Cost Function)
          3. 1.1.2.1.3. 梯度下降(Gradient Descent)
        2. 1.1.2.2. 逻辑回归
          1. 1.1.2.2.1. 假设函数
          2. 1.1.2.2.2. 代价函数
          3. 1.1.2.2.3. 梯度下降
        3. 1.1.2.3. 正则化
    2. 1.2. 本周工作总结
    3. 1.3. 下周学习安排