机器学习基础从入门到求职电子书PDF下载|百度网盘下载

编辑评论:

《机器学习基础:从入职到求职》的定位是帮助求职者快速入门,掌握机器学习相关的基础核心知识,降低学习成本,节省更多时间。

20201118110230.png

编辑推荐

适合的受众:机器学习的初级和中级读者、机器学习工作的求职者

《机器学习基础:从入门到求职》的定位是帮助求职者快速入门,掌握机器学习相关的基础核心知识,降低学习成本,节省更多时间。

但是,《机器学习基础:从入门到求职》并没有介绍如何求职以及如何面试。相反,它在前言中列出了与机器学习算法相关的常见问题。读者阅读前言后,可以自行判断哪些方面需要改进。然后学习本书的相关章节,会让你更接近机器学习求职的起点。

简介

本书是机器学习算法的理论+实践读物,主要包括六个部分:机器学习基础理论、回归模型、分类模型、聚类模型、降维模型和深度学习模型。机器学习基础理论包括第1章和第2章,主要介绍机器学习的理论基础和工程实践基础。第三章是回归模型部分,主要包括模型的建立、学习策略的确定和优化算法的求解过程。最后结合三种常见的线性回归模型,实现了一个房价预测的案例。第 4 章到第 11 章详细介绍了几种常见的分类模型,包括朴素贝叶斯模型、K-最近邻模型、决策树模型、逻辑回归模型、支持向量机模型、随机森林模型、AdaBoost 模型和 Boosted Tree 模型,每个模型给出了更详细的推导过程和实际应用案例。第12章系统介绍了五种常见的聚类模型,包括K-Means聚类、层次聚类、密度聚类、谱聚类和高斯混合聚类,对每种模型的原理、优缺点和工程应用实践进行了较为详细的描述。第13章系统介绍了四种常用的降维方法,包括奇异值分解、主成分分析、线性判别分析和局部线性嵌入,并给出了详细的理论推导和分析。最后两章是词向量模型和深度神经网络模型。词向量模型详细介绍了Word2Vec和Doc2Vec模型的原理推导和应用;深度神经网络模型系统介绍了与深度学习相关的各种基础知识。本书适合对人工智能和机器学习感兴趣的同学、求职者和上班族,以及想以机器学习为工具的跨行业人士(基础高等数学、线性代数、概率基础就够了) ),建议您阅读本书的前言,了解具体的识别方法。

机器学习求职60题

类型 1:基本概念

问题1:过拟合和欠拟合(定义、原因和解决方法是什么)。

问题2:L1正则化和L2正则化(常见的正则化方法有哪些?它们的作用是什么?有什么区别?为什么加入正则化项可以防止模型过拟合)。

问题 3:模型方差和偏差(你能解释一下机器学习中的方差和偏差吗?哪些模型减少了模型方差?哪些模型减少了模型偏差?举个例子)。

问题4:奥卡姆剃刀(谈谈机器学习中的奥卡姆阶梯原理)。

问题5:模型评价指标(回归模型和分类模型常用的评价指标有哪些?它们的含义是什么?解释一下AUC?你平时实践中使用了哪些评价指标?为什么选择这些指标)。

问题6:风险函数(谈谈经验风险和结构风险的含义、异同点)。

问题7:优化算法(机器学习中常见的优化算法有哪些?梯度下降法和牛顿法的原理推导)。

问题8:激活函数(神经网络模型中常用的激活函数有哪些?说说它们的特点)。

问题9:核函数(核函数的定义和作用是什么?常用的核函数有哪些?你用过哪些核函数?说说高斯核函数中参数的作用)。

Problem 10: Gradient Vanishing and Gradient Explosion(解释梯度消失和梯度爆炸问题及其各自的解决方案)。

问题 11:有监督和无监督学习

问题12:生成模型和判别模型(你知道生成模型和判别模型吗?它们的特点是什么?哪些模型是生成模型,哪些是判别模型)。

类型2:模型原理类

问题13:线性回归(线性回归模型原理、损失函数、正则化项)。

第十四题:KNN模型(KNN模型原理、三要素、优化方案及模型优缺点)。

问题 15:朴素贝叶斯(朴素贝叶斯模型的原理推导、拉普拉斯平滑、最大化后验概率的含义以及模型的优缺点)。

问题16:决策树(决策树模型原理、特征评价指标、剪枝过程及原理,几种常见的决策树模型,各自的优缺点)。

问题17:随机森林模型(RF模型的基本原理,RF模型的两个“随机”。下面从bias和variance的角度来谈谈RF模型的优缺点,以及RF模型和梯度的区别)提升树模型)。

问题18:AdaBoost(AdaBoost模型的原理推导,从偏差和方差的角度看AdaBoost和AdaBoost模型的优缺点)。

问题19:梯度提升树模型(GBDT模型的原理推导,使用GBDT模型进行特征组合的过程,GBDT模型的优缺点)。

问题20:XGBoost(XGBoost模型的基本原理,XGBoost模型与GBDT模型的异同,XBGoost模型的优缺点)。

问题21:Logistic回归模型(LR模型的原理和本质,LR模型的损失函数,能不能用均方损失,为什么)。

问题22:支持向量机模型(SVM模型的原理,什么是“支持向量”?为什么要用拉格朗日对偶?说说KKT条件、软区间SVM和硬区间SVM的异同。SVM呢?实现非线性分类?SVM常用的核函数有哪些?SVM模型有哪些优缺点)。

问题23:K-Means聚类(K-Means聚类的过程和原理是什么?有哪些优化方案?各有什么优缺点)。

问题24:层次聚类(层次聚类的过程、原理、优缺点)。

问题 25:密度聚类(密度聚类的基本原理和优缺点)。

问题26:谱聚类(谱聚类的基本原理和优缺点)。

问题27:高斯混合聚类(高斯混合聚类的原理和优缺点)。

问题28:EM算法(EM算法的推导过程和应用场景)。

第29题:特征分解和奇异值分解(特征分解和奇异值分解的原理、异同、应用场景)。

第30题:主成分分析(PCA模型的原理、过程和应用场景)。

第31题:线性判别分析(LDA模型的原理、过程和应用场景)。

问题32:局部线性嵌入(LLE模型的原理、过程、应用场景)。

第33题:词向量(Word2Vec模型和Doc2Vec模型的分类,它们各自的原理推导、应用和参数调整)。

问题34:深度神经网络(深度神经网络模型原理,反向传播的推导过程,常用的激活函数,如何解决梯度消失和梯度爆炸的问题?说说Dropout,early stop,Regularization )。

类型3:模型对比类

问题35:LR模型和SVM模型的异同。

问题 36:LR 模型和朴素贝叶斯模型的异同。

问题 37:KNN 模型和 K-Means 模型的异同。

问题 38:ID3、C4.5 和 CART 模型之间的异同。

问题 39:PCA 模型和 LDA 模型的异同。

问题 40:Bagging 和 Boosting 模型的异同。

问题41:GBDT模型和XGBoost模型的异同。

问题42:Word2Vec模型中CWOB模式和Skip模式的异同。

问题43:Word2Vec模型和Doc2Vec模型的异同。

类型 4:模型技能

问题44:模型调优(选择上面提到的任何一种模型,说说它的调优方法和过程)。

问题45:特征组合(特征组合的常用方式有哪些?各有什么特点)。

问题 46:特征工程(通过实践解释你对特征工程的理解)。

问题47:缺失值问题(说说你遇到过的缺失值处理问题,你知道哪些缺失值处理方法?

问题48:样本不平衡问题(你知道样本不平衡问题吗?你是怎么处理的?效果如何?除了上采样和下采样,你能不能自己设计任何新颖的方法)。

问题49:特征筛选(特征筛选的常用方法有哪些?结合自己的实践经验,说说它们的原理和特点。)

问题50:模型选择(一般如何选择合适的模型?有实例吗?)

问题51:模型组合(你知道哪些模型组合方法?除了使用AdaBoost和RF等模型,你有没有使用Bagging和Embedding方法组合模型?用实例说明)。

问题 52:AB 测试(了解 AB 测试?为什么使用 AB 测试)。

问题53:降维(为什么要使用降维?你知道哪些降维方法?你用过哪些降维方法?用实际使用说明)。

问题 54:项目(你做过哪些相关的项目?选择一个你觉得印象最深刻的项目并解释一下)。

问题55:陷坑(你在使用机器学习模型时踩过哪些坑?你最后是怎么解决的)。

类型 5:求职技巧

问题 56:我应该为机器学习求职准备哪些项目?如何准备每一封信函?

问题57:机器学习相关的学习内容有哪些?留学路线应该如何确定?推荐的学习材料有哪些?

问题 58:机器学习作业的交付方式有哪些?什么时候交货最好?投放目标应该如何选择?

问题 59:申请机器学习职位的最佳简历是什么?应该如何描述完成的项目?

问题 60:面试时介绍自己的恰当方式是什么?应如何纠正求职态度?如何应对压力?如何控制面试过程?如何回答面试官最后的“你还想问我什么”问题?如何面对最终的HR面试?

阅读剩余
THE END