机器学习

机器学习

1、命令行解析的标准模块:argparse

2、pandas中的DataFrame.loc iloc, reset_index diff shitf periods axis reshape vstack hstack

3、一阶差分

4、回归问题, 模型的截距,特征,

5、数据预处理(sklearn preprocessing), minmax方式对数据进行规范化

6、为什么要进行归一化:

  • 数据存在不同的评价指标,其量纲或量纲单位不同,处于不同的数量级。解决特征指标之间的可比性,经过归一化处理后,各指标处于同一数量级,便于综合对比。
  • 求最优解的过程会变得平缓,更容易正确收敛。即能提高梯度下降求最优解时的速度
  • 提高计算精度。

7、归一化方法常用方法有两种:

线性归一化(minmax_scale)

Z-score标准差标准化方法。

minmax_scale()变换函数为min-max标准化,也称为离差标准化,是对原始数据的线性变换,min-max标准化 方法的缺陷在当有新数据加入时,可能会导致X.max和X.min的值发生变化,需要重新计算。

8、拟合MinMaxScaler.fit_transform, 插值

常用的拟合方法有如最小二乘曲线拟合法等,在MATLAB中也可以用polyfit 来拟合多项式。拟合以及插值还有逼近是数值分析的三大基础工具,通俗意义上它们的区别在于:拟合是已知点列,从整体上靠近它们;插值是已知点列并且完全经过点列;逼近是已知曲线,或者点列,通过逼近使得构造的函数无限靠近它们。

过拟合问题

如何辨别overfitting问题

9、保存模型:#引入sklearn中自带的保存模块

from sklearn.externals import joblib

10、相互正交 

对角矩阵

非方阵的矩阵

正规方程

随机梯度下降(SGD)学习

其转置矩阵

方形矩阵

对角矩阵

可用于连续(continuous)和无序的类别(categorical)特征。

普遍在线性回归中用到的损失函数是均方误差(MSE):Mean Square Error

11、SVM

12、流程:

1.划分数据到训练集和测试集;

2.标准化,零均值和单位方差

        3.训练

13、回归 与分类 的区别

回归模型是连续性的,一个x映射到一个y值上。

分类是离散型的,多个x映射到一个y值上。

线性回归:梯度下降,求参数的偏导数。

逻辑回归:是分类算法。

14、有监督学习(有标记) 无监督学习(无标记)

15、连续可导, 导数

16、 cost最小。

17、逻辑回归

def w_calc(xmat, ymat, alpha=0.001,maxIter=1):

    W = np.mat(np.random.randn(3,1))

    for i in range(maxIter):

print(‘========’, i)

        H = 1 / (1 + np.exp(-xmat * W))

print(H);

        dw = xmat.T * (H – ymat)

print(dw);

        W -= alpha * dw

print(W);

    return W

18、单位阶跃,

19、交叉熵函数

20、损失函数

21、梯度下降法

22、回归,

23、sigmoid函数 

f(x) = 1 / ( 1 +  exp(-x))

24、正态分布

25、防止过拟合引入正则化

26、正则化:L1正则化与L2正则化的区别

27、损失函数的求解

mse

28、极大似然函数

29、python虚拟环境 原理

30、 with语句

31、NLP自然语言处理,自然语言工具包(NLTK)

32、tensorFlow

https://tensorflow.google.cn/guide

标量:“0 秩”张量, tf.constant(4), 标量包含单个值,但没有“轴”

张量:张量是具有统一类型(称为 dtype)的多维数组, 所有张量都是不可变的:永远无法更新张量的内容,只能创建新的张量。

向量:“向量”(或称“1 秩”张量)就像一个值的列表。向量有 1 个轴:

“矩阵”(或称“2 秩”张量)有 2 个轴:

33、点乘:mul ,矩阵乘法 matmul

34、马尔科夫链(Markov Chain)

35、scikit-learn中拟合结果的评价指标

在sklearn中包含四种评价尺度,分别为mean_squared_error、mean_absolute_error、explained_variance_score 和 r2_score。

36、降维算法:矩阵分解算法,decomposition 

pca 主成分分析

37、神经网络

用于图像识别。

38、梯度下降:小批量,随机,大批量。

39、贝叶斯算法:

40、岭回归

41、https://colab.research.google.com/notebooks/welcome.ipynb

参考:

线性回归

https://nbviewer.jupyter.org/github/MLEveryday/practicalAI-cn/blob/master/notebooks/04_Linear_Regression.ipynb

Python之Sklearn使用教程

https://www.jianshu.com/p/6ada34655862

sklearn 中文文档

http://www.scikitlearn.com.cn/

机器学习:波士顿房价数据集

https://www.cnblogs.com/wjunneng/p/7323862.html

CUDA

https://www.paddlepaddle.org.cn/install/quick

奇异值分解(SVD) — 线性变换几何意义

http://blog.sciencenet.cn/home.php?mod=space&uid=696950&do=blog&quickforward=1&id=699380

sklearn

http://www.scikitlearn.com.cn/0.21.3/2/#1112-sgd

jmp

https://www.jmp.com/support/help/zh/14-2/flmtoc.shtml

linear regression and logistics regression | 用最通俗易懂的语言讲解线性回归与逻辑回归

https://www.youtube.com/watch?v=0G2KklkUP9M

setosq

https://setosa.io/#/

神经网络

https://playground.tensorflow.org/

产品经理的人工智能学习库

唐宇迪

https://www.bilibili.com/video/BV1kt411f7ts?p=2
https://www.bilibili.com/video/BV1vt4y1D7za?p=1
https://www.bilibili.com/read/cv761924
https://www.bilibili.com/video/BV1HK411n7wN/?spm_id_from=333.788.videocard.4

梯度下降算法

https://www.bilibili.com/video/BV1Ht411m72i?p=3

机器学习白板系列

https://www.yuque.com/books/share/f4031f65-70c1-4909-ba01-c47c31398466/hu0291

李宏毅 深度学习

https://www.bilibili.com/video/BV15b411g7Wd?from=search&seid=17299644627193380910

李沐,手把手教你深度学习;

吴恩达,Deeplearning;

jeremy howard,fastai;

michael collins,NLP;

吴恩达->cs229

林轩田->机器学习基石

李宏毅-> 深度学习

李飞飞 -> cs231n 面向视觉识别的卷积神经网络

Chris manning -> cs224 自然语言处理

张志华

https://www.bilibili.com/video/BV1jt411b76n/?spm_id_from=333.788.videocard.7

机器学习01——线性回归算法详解https://www.bilibili.com/video/BV1DT4y1j7Xe/

机器学习02——梯度下降https://www.bilibili.com/video/BV1Nt4y1D79p/

机器学习03——逻辑回归算法原理推导https://www.bilibili.com/video/BV19p4y1i7NP/

机器学习04——决策树原理概述https://www.bilibili.com/video/BV19p4y1i7NP/

机器学习05——随机森林https://www.bilibili.com/video/BV1uf4y1d7QU/

机器学习06——贝叶斯算法概述https://www.bilibili.com/video/BV1kp4y1U71L/

机器学习07——支持向量机算法详解https://www.bilibili.com/video/BV1et4y197PA/

机器学习08——KMEANS算法详解https://www.bilibili.com/video/BV11t4y197v5/

机器学习09——DBSCAN聚类算法详解https://www.bilibili.com/video/BV1kC4y187vN/

机器学习10——神经网络算法详解https://www.bilibili.com/video/BV1kC4y187vN/

机器学习11——xgboost集成算法详解https://www.bilibili.com/video/BV1vC4y187Lh/

机器学习12——集成算法详解https://www.bilibili.com/video/BV1u54y1z7nH/

机器学习13案例实战——Python实现逻辑回归任务概述https://www.bilibili.com/video/BV16k4y1q7Bd/

唐宇迪_第三阶段_04_TensorFlow框架

https://www.bilibili.com/video/BV1gt41147fq?from=search&seid=10460876956656115804
https://www.nowcoder.com/ta/job-code-high-week

keras官网

https://keras.io/zh/

发表评论