1、向量
2、矩阵
3、导数
4、数值计算
5、概率分布
6、参数估计
7、回归分析
线性回归:是统计学中对若干样本数据的自变量和因变量之间线性关系的一种回归模型。怎么理解呢?简单来说自变量指的是输入参数,因变量指的是输出值。而样本数据就是指的大量的实验数据。回归分析研究的是一组数据与另外一组数据之间的关系。线性回归采用的是线性函数进行建模
最小二乘法是线性回归的中典型方法。基本原理是最优拟合的直线应该是各个实验点到直线的距离之和尽可能小。这里计算的是平方和。我们建立的线性函数在二维坐标中体现为是一条直线,而实验数据是二维坐标中的一个个零散分布的点。
梯度下降法也是线性回归分析中常用的方法之一。它的中心思想是求解损失函数的最小值。
逻辑回归:它是一种分类方法,分为二元逻辑回归和多元逻辑回归。对于二元逻辑回归即给定一个输入,输出True和False来确定它是否属于某个类别,并给出它属于这个类别的概率。
8、判定问题
P问题:它表示在多项式时间内可以解决的决策问题。这里顺便提一下时间复杂度,它指的是一个程序解决问题需要花费的时间与这个问题的规模的映射关系。多项式时间指的是时间复杂度是n的多项式,而决策问题通常是判断一个问题是正确还是错误,获取该问题的答案等。我们常见的问题是数组排序、最短路径求解等。
NP问题:指的是在多项式时间内被解决的非决定性问题,它指一个问题的解可以在多项式时间内被验证。可以看出P问题和NP问题概念很像,但是目前P问题不等同与NP问题。P问题最终会返回问题的答案,但是NP问题有可能返回。NP问题包含P问题。
NPC问题:引入了规约的概念,指的是一个问题可以转换为另外一个问题。比如说一元一次方程求解可以转换成一元二次方程(设置k为0)