查看: 505|回复: 0
打印 上一主题 下一主题

网易云课堂《菜菜的机器学习sklearn课堂》

[复制链接]

9万

主题

9万

帖子

28万

积分

管理员

管理员

Rank: 9Rank: 9Rank: 9

积分
286205
QQ
跳转到指定楼层
楼主
发表于 2020-3-10 21:35:12 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
目录连载

章节1:决策树与泰坦尼克号生存预测
课时1第一章课件+数据
课时21. 引言,sklearn入门07:54
课时32. 决策树:概述08:52
课时43.1 分类树:参数Criterion07:11
课时53.2 分类树:实现一棵树,随机性参数27:11
课时63.3 分类树:剪枝参数调优(1)12:08
课时73.4 分类树:剪枝参数调优(2)07:36
课时83.5 分类树:重要属性和接口15:37
课时94.1 回归树:参数,属性和接口.mp408:44
课时104.2 回归树:交叉验证 (1)06:26
课时114.3 回归树:交叉验证(2)04:07
课时124.4 回归树案例:用回归树拟合正弦曲线29:13
课时135.1 案例:泰坦尼克号生存者预测 (1)34:41
课时145.2 案例:泰坦尼克号生存者预测 (2)10:04
课时155.3 案例:泰坦尼克号生存者预测 (3)16:12
课时165.4 案例:泰坦尼克号生存者预测 (4)03:14

章节2:随机森林与医疗数据集调参
课时17第二章课件+数据
课时181 集成算法概述12:26
课时192.1 随机森林分类器37:53
课时202.2 参数boostrap & oob_score + 重要属性和接口32:03
课时212.3 [选学] 袋装法的另一个必要条件05:30
课时223.1 随机森林回归器10:13
课时233.2 案例:用随机森林填补缺失值 (1)25:20
课时243.3 案例:用随机森林填补缺失值 (2)14:28
课时253.4 案例:用随机森林填补缺失值 (3)29:57
课时263.5 案例:用随机森林填补缺失值 (4)09:01
课时274. 机器学习中调参的基本思想17:29
课时285.1. 案例:随机森林在乳腺癌数据上的调参 (1)16:42
课时295.2 案例:随机森林在乳腺癌数据上的调参 (2)24:02

章节3:数据预处理与特征工程
课时30第三章课件+数据
课时310 概述 + 12期课纲15:42
课时321.1 数据预处理1:数据归一化17:31
课时331.2 数据预处理2:数据标准化08:44
课时341.3 数据预处理3:缺失值 (1)07:51
课时351.4 数据预处理4:缺失值 (2)14:58
课时361.5 数据预处理5:处理分类型数据34:47
课时371.6 数据预处理6:处理连续型数据17:30
课时382.1 特征选择1:过滤法-方差过滤 (1)14:40
课时392.2 特征选择2:过滤法-方差过滤 (2)28:12
课时402.3 特征选择3:过滤法-卡方过滤18:37
课时412.4 特征选择4:过滤法-F检验和互信息法 (1)09:31
课时422.5 特征选择5:过滤法-互信息法(2) + 总结03:24
课时432.6 特征选择6:嵌入法 (1)07:15
课时442.7 特征选择7:嵌入法 (2)20:50
课时452.8 特征选择8:包装法 + 总结18:01

章节4:降维算法PCA与手写数字案例
课时46第四章课件+数据
课时471 降维算法概述13:08
课时482.1 降维究竟怎样实现?23:07
课时492.2 参数 + 案例:高维数据的可视化 (1)33:42
课时502.2 参数 + 案例:高维数据的可视化 (2)04:32
课时512.3 参数 + 案例:人脸识别中的components_应用.mp441:45
课时522.3 PCA中的SVD,重要参数svd_solver23:31
课时532.4 重要接口 + 案例1:用人脸识别看PCA降维后的信息保存量15:59
课时542.4 重要接口 + 案例2:用PCA实现手写数字的噪音过滤15:05
课时552.5 原理,流程,重要属性接口和参数的总结05:51
课时563.1 案例:PCA实现784个特征的手写数字的降维 (1)24:45
课时573.2 案例:PCA实现784个特征的手写数字的降维 (2)08:11

章节5:逻辑回归和信用评分卡
课时58第五章课件+数据
课时590 前言03:25
课时601.1 逻辑回归概述:名为“回归”的分类器14:54
课时611.2 为什么需要逻辑回归08:37
课时621.3 sklearn当中的逻辑回归05:01
课时632.1.1 二元逻辑回归的损失函数09:22
课时642.2.1 正则化:重要参数penalty & C28:46
课时652.2.2 逻辑回归的特征工程 (1)08:15
课时662.2.2 逻辑回归的特征工程 (2)06:15
课时672.2.2 逻辑回归的特征工程 (3)15:53
课时682.2.2 逻辑回归的特征工程 (4)04:18
课时692.3.1 重要参数max_iter - 梯度下降求解逻辑回归的过程06:49
课时702.3.2 梯度的概念与解惑11:01
课时712.3.3 步长的概念与解惑18:52
课时722.4 二元回归与多元回归:重要参数solver & multi_class12:26
课时732.5 样本不均衡与参数class_weight05:19
课时743.1 案例:评分卡与完整的模型开发流程06:36
课时753.2.1~2 案例:评分卡 - 数据预处理(1) - 重复值与缺失值26:42
课时763.2.3 案例:评分卡 - 数据预处理 (2) - 异常值14:44
课时773.2.4 案例:评分卡 - 数据预处理 (3) - 标准化03:21
课时783.2.5 案例:评分卡 - 数据预处理 (4) - 样本不均衡问题07:43
课时793.2.6 案例:评分卡 - 数据预处理 (5) - 保存训练集和测试集数据05:08
课时803.3 案例:评分卡 - 分箱 (1) - 概述与概念10:47
课时813.3.1 案例:评分卡 - 分箱 (2) - 等频分箱 (1)06:58
课时823.3.1 案例:评分卡 - 分箱 (3) - 等频分箱 (2)09:31
课时833.3.2 案例:评分卡 - 分箱 (4) - 选学说明02:06
课时843.3.3 案例:评分卡 - 分箱 (5) - 计算WOE与IV06:09
课时853.3.4 案例:评分卡 - 分箱 (6) - 卡方检验、箱体合并、IV值等22:32
课时863.3.5 案例:评分卡 - 分箱 (7) - 包装分箱函数04:44
课时873.3.6 案例:评分卡 - 分箱 (8) - 包装判断分箱个数的函数06:09
课时883.3.7 案例:评分卡 - 分箱 (9) - 对所有特征进行分箱07:15
课时893.4 案例:评分卡 - 映射数据 (1)06:44
课时903.4 案例:评分卡 - 映射数据 (2)08:02
课时913.5 案例:评分卡 - 建模与模型验证11:41
课时923.6 案例:评分卡 - 评分卡的输出和建立16:59

章节6:聚类算法与量化案例
课时93第六章课件+数据
课时940 概述01:32
课时951.1 无监督学习概述,聚类vs分类09:34
课时961.2 sklearn当中的聚类算法04:18
课时972.1 Kmeans是如何工作的?11:39
课时982.2 & 2.3 簇内平方和,时间复杂度16:48
课时993.1.1 KMeans - 重要参数n_clusters26:30
课时1003.1.2 聚类算法的模型评估指标 (1)12:58
课时1013.1.2 聚类算法的模型评估指标 (2) - 轮廓系数05:50
课时1023.1.2 聚类算法的模型评估指标 (3) - CHI09:44
课时1033.1.3 案例:轮廓系数找最佳n_clusters (1)10:02
课时1043.1.3 案例:轮廓系数找最佳n_clusters (2)10:59
课时1053.1.3 案例:轮廓系数找最佳n_clusters (3)23:18
课时1063.2 重要参数init & random_state & n_init:初始质心怎么决定?08:24
课时1073.3 重要参数max_iter & tol:如何让聚类停下来?04:09
课时1083.5 重要属性与接口 & 函数k_means06:22
课时1094 案例:Kmeans做矢量量化 (1):案例背景03:59
课时1104 案例:Kmeans做矢量量化 (2)18:00
课时1114 案例:Kmeans做矢量量化 (3)06:52
课时1124 案例:Kmeans做矢量量化 (4)14:26

章节7:支持向量机与医疗数据集调参(上)
课时113第七章课件+数据
课时1140 本周要学习什么01:52
课时1151.1 支持向量机概述:最强大的机器学习算法09:35
课时1161.2 支持向量机是如何工作的 & sklearn中的SVM15:09
课时1172.1.1 线性SVC的损失函数 (1)18:03
课时1182.1.1 线性SVC的损失函数 (2)10:22
课时1192.1.2 函数间隔与几何间隔04:41
课时1202.1.3.1 损失函数的拉格朗日乘数形态14:52
课时1212.1.3.2 拉格朗日对偶函数 (1)13:28
课时1222.1.3.2 拉格朗日对偶函数 (2)08:07
课时1232.1.3.3 求解拉格朗日对偶函数极其后续过程03:49
课时1242.1.4 SVM求解可视化 (1):理解等高线函数contour11:44
课时1252.1.4 SVM求解可视化 (2):理解网格制作函数meshgrid与vstack07:53
课时1262.1.4 SVM求解可视化 (3):建模,绘制图像并包装函数12:11
课时1272.1.4 SVM求解可视化 (4):探索建立好的模型02:24
课时1282.1.4 SVM求解可视化(5):非线性数据集上的推广与3D可视化08:17
课时1292.1.4 SVM求解可视化(6):Jupyter Notebook中的3D交互功能03:08
课时1302.2.1 & 2.2.2 非线性SVM与核函数:重要参数kernel10:54
课时1312.2.3 案例:如何选取最佳核函数 (1)26:07
课时1322.2.3 案例:如何选取最佳核函数 (2)15:52
课时1332.2.4 案例:在乳腺癌数据集上探索核函数的性质33:08
课时1342.2.5 案例:在乳腺癌数据集上对核函数进行调参 (1)05:37
课时1352.2.5 案例:在乳腺癌数据集上对核函数进行调参 (2)12:00
课时1362.3.1 SVM在软间隔数据上的推广12:47
课时1372.3.2 重要参数C & 总结08:19

章节8:支持向量机与Kaggle案例:澳大利亚天气数据集
课时138支持向量机 (下) 课件 + 源码 + 数据
课时1390 目录:本周将学习什么内容02:33
课时1401.1 简单复习支持向量机的基本原理06:43
课时1411.2 参数C的深入理解:多个支持向量存在的理由12:30
课时1421.3 二分类SVC中的样本不均衡问题08:19
课时1431.3 如何使用参数class_weight (1)05:14
课时1441.3 如何使用参数class_weight (2)09:06
课时1452 SVC的模型评估指标03:29
课时1462.1 混淆矩阵与准确率05:42
课时1472.1 样本不平衡的艺术(1):精确度Precision07:27
课时1482.1 样本不平衡的艺术(2):召回率Recall与F1 measure07:07
课时1492.1.3 对多数类样本的关怀:特异度Specificity和假正率04:28
课时1502.1.4 sklearn中的混淆矩阵01:55
课时1512.2 ROC曲线:Recall与假正率FPR的平衡02:06
课时1522.2.1 概率与阈值18:01
课时1532.2.2 SVM做概率预测08:41
课时1542.2.3 绘制ROC曲线 (1)04:00
课时1552.2.3 绘制ROC曲线 (2)07:52
课时1562.2.3 绘制ROC曲线 (3)05:22
课时1572.2.4 sklearn中的ROC曲线和AUC面积10:11
课时1582.2.5 利用ROC曲线求解最佳阈值06:53
课时1593 选学说明:使用SVC时的其他考虑01:59
课时1604 案例:预测明天是否会下雨 - 案例背景03:52
课时1614.1 案例:导库导数据,探索特征13:22
课时1624.2 案例:分集,优先处理标签11:34
课时1634.3.1 案例:描述性统计,处理异常值10:10
课时1644.3.2 案例:现实数据上的数据预处理 - 处理时间35:43
课时1654.3.3 案例:现实数据上的数据预处理 - 处理地点 (1)03:42
课时1664.3.3 案例:现实数据上的数据预处理 - 处理地点 (2)10:43
课时1674.3.3 案例:现实数据上的数据预处理 - 处理地点 (3)11:15
课时1684.3.3 案例:现实数据上的数据预处理 - 处理地点 (4)10:12
课时1694.3.4 案例:现实数据上的数据预处理 - 填补分类型变量的缺失值12:07
课时1704.3.5 案例:现实数据上的数据预处理 - 编码分类型变量04:15
课时1714.3.6 & 4.3.7 案例:现实数据集上的数据预处理:连续型变量07:37
课时1724.4 案例:建模与模型评估 (1)04:49
课时1734.4 案例:建模与模型评估 (2)03:25
课时1744.5.1 案例:模型调参:追求最高的recall04:55
课时1754.5.2 案例:模型调参:追求最高的精确度 (1)12:07
课时1764.5.2 案例:模型调参:追求最高的精确度 (2)04:23
课时1774.5.3 案例:模型调参:追求精确度与recall的平衡14:56
课时1784.6 SVM总结与结语01:42

章节9:回归大家族:线性,岭回归,Lasso,多项式
课时179回归大家族:课件 + 代码
课时1800 本周要学习什么.mp403:51
课时1811 概述,sklearn中的线性回归大家族04:57
课时1822.1 多元线性回归的基本原理和损失函数11:02
课时1832.2 用最小二乘法求解多元线性回归的过程13:09
课时1842.3 多元线性回归的参数,属性及建模代码27:44
课时1853.1 回归类模型的评估指标:是否预测准确?15:32
课时1863.2 回归类模型的评估指标:是否拟合了足够的信息?29:29
课时1874.1 多重共线性:含义,数学,以及解决方案34:35
课时1884.2.1 岭回归处理多重共线性13:00
课时1894.2.2 sklearn中的岭回归:linear_model.Ridge21:40
课时1904.2.3 为岭回归选择最佳正则化参数23:46
课时1914.3.1 Lasso处理多重共线性11:40
课时1924.3.2 Lasso的核心作用:特征选择16:36
课时1934.3.3 Lasso选择最佳正则化参数27:30
课时1945.1.1 & 5.1.2 线性数据与非线性数据09:05
课时1955.1.3 线性vs非线性模型 (1):线性模型在非线性数据集上的表现16:34
课时1965.1.3 线性vs非线性模型 (2):拟合,效果与特点15:10
课时1975.2 离散化:帮助线性回归解决非线性问题30:39
课时1985.3.1 多项式对数据做了什么?26:27
课时1995.3.2 多项式回归提升模型表现11:08
课时2005.3.3 多项式回归的可解释性18:52
课时2015.3.4 多项式回归:线性还是非线性模型? + 本周结语09:41

章节10:朴素贝叶斯
课时202朴素贝叶斯课件 + 源码
课时2030 本周要讲解的内容01:44
课时2041.1 为什么需要朴素贝叶斯04:03
课时2051.2 概率论基础 - 贝叶斯理论等式06:01
课时2061.2.1 瓢虫冬眠:理解条件概率 (1)08:12
课时2071.2.1 瓢虫冬眠:理解条件概率 (2)09:10
课时2081.2.1 瓢虫冬眠:理解条件概率 (3)05:36
课时2091.2.2 贝叶斯的性质与最大后验估计06:36
课时2101.2.3 汉堡称重:连续型变量的概率估计 (1)04:02
课时2111.2.3 汉堡称重:连续型变量的概率估计 (2)08:53
课时2121.3 sklearn中的朴素贝叶斯02:34
课时2132.1.1 认识高斯朴素贝叶斯19:56
课时2142.1.2 高斯朴素贝叶斯擅长的数据集04:08
课时2152.1.3 探索贝叶斯 - 拟合中的特性与运行速度 (1)02:29
课时2162.1.3 探索贝叶斯 - 拟合中的特性与运行速度 (2) - 代码讲解 (1)21:42
课时2172.1.3 探索贝叶斯 - 拟合中的特性与运行速度 (3) - 代码讲解 (2)03:20
课时2182.1.3 探索贝叶斯 - 拟合中的特性与运行速度 (4) - 分析与结论12:47
课时2192.2.1 概率类模型的评估指标 (1) - 布里尔分数12:40
课时2202.2.1 概率类模型的评估指标 (2) - 布里尔分数可视化06:01
课时2212.2.2 概率类模型的评估指标 (3) - 对数损失Logloss13:12
课时2222.2.3 概率类模型的评估指标 (4) - 可靠性曲线 (1)08:11
课时2232.2.3 概率类模型的评估指标 (5) - 可靠性曲线 (2)27:04
课时2242.2.4 概率类模型的评估指标 (6) - 概率分布直方图10:33
课时2252.2.5 概率类模型的评估指标 (7) - 概率校准 (1)18:39
课时2262.2.5 概率类模型的评估指标 (8) - 概率校准 (2)03:07
课时2272.3.1 多项式朴素贝叶斯 (1) - 认识多项式朴素贝叶斯05:14
课时2282.3.1 多项式朴素贝叶斯 (2) - 数学原理05:50
课时2292.3.1 多项式朴素贝叶斯 (3) - sklearn中的类与参数04:28
课时2302.3.1 多项式朴素贝叶斯 (4) - 来构造一个分类器吧11:29
课时2312.3.2 伯努利朴素贝叶斯 (1) - 认识伯努利朴素贝叶斯02:47
课时2322.3.2 伯努利朴素贝叶斯 (2) - sklearn中的类与参数03:08
课时2332.3.2 伯努利朴素贝叶斯 (3) - 构造一个分类器03:21
课时2342.3.3 探索贝叶斯 - 朴素贝叶斯的样本不均衡问题13:42
课时2352.3.4 补集朴素贝叶斯 - 补集朴素贝叶斯的原理  (1)04:36
课时2362.3.4 补集朴素贝叶斯 - 补集朴素贝叶斯的原理 (2)05:29
课时2372.3.4 补集朴素贝叶斯 - 处理样本不均衡问题03:40
课时2383.1.1 案例:贝叶斯做文本分类 (1) - 单词计数向量技术07:49
课时2393.1.1 案例:贝叶斯做文本分类 (2) - 单词计数向量的问题04:35
课时2403.1.2 案例:贝叶斯做文本分类 (3) - TF-IDF技术06:55
课时2413.2 案例:贝叶斯做文本分类 (4) - 探索和提取文本数据15:29
课时2423.3 案例:贝叶斯做文本分类 (5) - 使用TF-IDF编码文本数据03:37
课时2433.4 案例:贝叶斯做文本分类 (6) - 算法应用与概率校准12:29

章节11:XGBoost
课时244XGBoost课件 + 代码
课时2450 本周要学习什么06:01
课时2461 XGBoost前瞻:安装xgboost,xgboost库与skleanAPI12:44
课时2472.1 梯度提升树(1):集成算法回顾,重要参数n_estimators13:14
课时2482.1 梯度提升树(2):参数n_estimators下的建模21:23
课时2492.1 梯度提升树(3):参数n_estimators的学习曲线13:37
课时2502.1 梯度提升树(4):基于方差-偏差困境改进的学习曲线12:38
课时2512.2 梯度提升树(5):控制有放回随机抽样,参数subsample15:17
课时2522.3 梯度提升树(6):迭代决策树:重要参数eta20:51
课时2532.3 梯度提升树(7):迭代决策树:重要参数eta03:37
课时2543.1 XGBoost的智慧 (1):选择弱评估器:重要参数booster04:40
课时2553.2 XGBoost的智慧 (2):XGBoost的目标函数,使用xgboost库建模28:01
课时2563.3 XGBoost的智慧 (3):求解XGBoost的目标函数 - 推导过程18:15
课时2573.3 XGBoost的智慧 (4):XGboost的目标函数 - 泰勒展开相关问题05:46
课时2583.4 XGBoost的智慧 (5):参数化决策树,正则化参数lambda与alpha16:09
课时2593.5 XGBoost的智慧 (6):建立目标函数与树结构的直接联系11:24
课时2603.5 XGBoost的智慧 (7):最优树结构,求解w和T20:32
课时2613.6 XGBoost的智慧 (8):贪婪算法求解最优树10:05
课时2623.7 XGBoost的智慧 (9):让树停止生长:参数gamma与工具xgb.cv34:11
课时2634.1 XGBoost应用 (1):减轻过拟合:XGBoost中的剪枝参数08:42
课时2644.1 XGBoost应用 (2):使用xgb.cv进行剪枝参数的调参35:15
课时2654.2 XGBoost应用 (3):使用pickle保存和调用训练好的XGB模型10:46
课时2664.2 XGBoost应用 (4):使用joblib保存和调用训练好的XGB模型07:39
课时2674.3 XGBoost应用 (5):XGB分类中的样本不平衡问题 - sklearnAPI12:18
课时2684.3 XGBoost应用 (6):XGB分类中的样本不平衡问题 - xgboost库15:48
课时2694.4 XGBoost应用 (7):XGB应用中的其他问题09:18

章节12:神经网络







游客,如果您要查看本帖隐藏内容请回复


管理员
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|IT视频教程资源网 ( 粤ICP备2022015727号 )网站地图

GMT+8, 2024-6-10 01:30 , Processed in 0.214838 second(s), 24 queries .

快速回复 返回顶部 返回列表

客服
热线

微信 webshop6
7*24小时微信 客服服务

扫码添
加微信

添加客服微信 webshop6 获取更多

关注
公众号

关注微信公众号 webjianzhan