这是用户在 2025-8-8 5:37 为 https://www.bilibili.com/video/BV1WL4y1H7rD?spm_id_from=333.788.videopod.episodes&vd_source=04ad6c5f... 保存的双语快照页面,由 沉浸式翻译 提供双语支持。了解如何保存?

【sklearn机器学习】菜菜的sklearn机器学习完整版(中)

12.2万
955
2021-12-06 21:35:28
正在缓冲...
为TA充电后即可观看
20:46
27:54 / 34:36
自动
  • 720P 准高清
  • 480P 标清
  • 360P 流畅
  • 自动(720P)
选集
【sklearn机器学习】菜菜的sklearn机器学习完整版(中)
  • 6 0 概述
  • 6 1.1 无监督学习概述,聚类vs分类
  • 6 1.2 sklearn当中的聚类算法
  • 6 2.1 Kmeans是如何工作的?
  • 6 2.2 & 2.3 簇内平方和,时间复杂度
  • 6 3.1.1 KMeans - 重要参数n_clusters
  • 6 3.1.2 聚类算法的模型评估指标 (1)
  • 6 3.1.2 聚类算法的模型评估指标 (2) - 轮廓系数
  • 6 3.1.2 聚类算法的模型评估指标 (3) - CHI
  • 6 3.1.3 案例:轮廓系数找最佳n_clusters (1)
  • 6 3.1.3 案例:轮廓系数找最佳n_clusters (2)
  • 6 3.1.3 案例:轮廓系数找最佳n_clusters (3)
  • 6 3.2 重要参数init & random_state & n_init:初始质心怎么决定?
  • 6 3.3 重要参数max_iter & tol:如何让聚类停下来?
  • 6 3.4 重要属性与接口 & 函数k_means
  • 6 4 案例:Kmeans做矢量量化 (1):案例背景
  • 6 4 案例:Kmeans做矢量量化 (2)
  • 6 4 案例:Kmeans做矢量量化 (3)
  • 6 4 案例:Kmeans做矢量量化 (4)
  • 7 0 本周要学习什么_trim
  • 7 1.1 支持向量机概述:最强大的机器学习算法
  • 7 1.2 支持向量机是如何工作的 & sklearn中的SVM
  • 7 2.1.1 线性SVC的损失函数 (1)
  • 7 2.1.1 线性SVC的损失函数 (2)
  • 7 2.1.2 函数间隔与几何间隔
  • 7 2.1.3.1 损失函数的拉格朗日乘数形态
  • 7 2.1.3.2 拉格朗日对偶函数 (1)
  • 7 2.1.3.2 拉格朗日对偶函数 (2)
  • 7 2.1.3.3 求解拉格朗日对偶函数极其后续过程
  • 7 2.1.4 线性SVM的求解过程的可视化 (1):理解等高线函数contour
  • 7 2.1.4 线性SVM的求解过程的可视化 (2):理解网格制作函数meshgrid与vstack
  • 7 2.1.4 线性SVM的求解过程的可视化 (3):建模,绘制图像并包装函数
  • 7 2.1.4 线性SVM的求解过程的可视化 (4):探索建立好的模型
  • 7 2.1.4 线性SVM的求解过程的可视化 (5):非线性数据集上的推广与3D可视化
  • 7 2.1.4 线性SVM的求解过程的可视化 (6):Jupyter Notebook中的3D交互功能
  • 7 2.2.1 & 2.2.2 非线性SVM与核函数:重要参数kernel
  • 7 2.2.3 案例:如何选取最佳核函数 (1)
  • 7 2.2.3 案例:如何选取最佳核函数 (2)
  • 7 2.2.4 案例:在乳腺癌数据集上探索核函数的性质
  • 7 2.2.5 案例:在乳腺癌数据集上对核函数进行调参 (1)
  • 7 2.2.5 案例:在乳腺癌数据集上对核函数进行调参 (2)
  • 7 2.3.1 SVM在软间隔数据上的推广
  • 7 2.3.2 重要参数C & 总结
  • 8 0 目录:本周将学习什么
  • 8 1.1 简单复习支持向量机的基本原理
  • 8 1.2 参数C的深入理解:多个支持向量存在的理由
  • 8 1.3 二分类SVC中的样本不均衡问题:重要参数class_weight
  • 8 1.3 如何使用参数class_weight (1)
  • 8 1.3 如何使用参数class_weight (2)
  • 8 2 SVC的模型评估指标
  • 8 2.1 混淆矩阵与准确率
  • 8 2.1 样本不平衡的艺术(1):精确度Precision
  • 8 2.1 样本不平衡的艺术(2):召回率Recall与F1 measure
  • 8 2.1.3 对多数类样本的关怀:特异度Specificity与假正率FPR
  • 8 2.1.4 sklearn中的混淆矩阵
  • 8 2.2 ROC曲线:Recall与假正率FPR的平衡
  • 8 2.2.1 概率与阈值
  • 8 2.2.2 SVM做概率预测
  • 8 2.2.3 绘制ROC曲线
  • 8 2.2.4 sklearn中的ROC曲线和AUC面积
  • 8 2.2.5 利用ROC曲线求解最佳阈值
  • 8 3 选学说明:使用SVC时的其他考虑
  • 8 4 案例:预测明天是否会下雨 - 案例背景
  • 8 4.1 案例:导库导数据,探索特征,jupyter中的快捷键
  • 8 4.2 案例:分集,优先处理标签
  • 8 4.3.1 案例:描述性统计,处理异常值
  • 8 4.3.2 案例:现实数据上的数据预处理 - 处理时间
  • 8 4.3.3 案例:现实数据上的数据预处理 - 处理地点
  • 8 4.3.4 案例:现实数据上的数据预处理 - 填补分类型缺失值
  • 8 4.3.5 案例:现实数据上的数据预处理 - 编码分类型变量
  • 8 4.3.6 & 4.3.7 案例:现实数据集上的数据预处理 - 处理连续型变量
  • 8 4.4 案例:建模与模型评估
  • 8 4.5.1 案例:模型调参:追求最高的recall
  • 8 4.5.2 案例:模型调参:追求最高的精确度
  • 8 4.5.3 案例:模型调参:追求精确度与recall的平衡
  • 8 4.6 SVM总结与结语
  • 9 0 本周要学习什么_trim
  • 9 1 概述,sklearn中的线性回归大家族
  • 9 2.1 多元线性回归的基本原理和损失函数
  • 9 2.2 用最小二乘法求解多元线性回归的过程
  • 9 2.3 多元线性回归的参数,属性及建模代码
  • 9 3.1 回归类模型的评估指标:是否预测准确?
  • 9 3.2 回归类模型的评估指标:是否拟合了足够的信息?
  • 9 4.1 多重共线性:含义,数学,以及解决方案
  • 9 4.2.1 岭回归处理多重共线性
  • 9 4.2.2 sklearn中的岭回归:linear_model.Ridge
  • 9 4.2.3 为岭回归选择最佳正则化参数
  • 9 4.3.1 Lasso处理多重共线性
  • 9 4.3.2 Lasso的核心作用:特征选择
  • 9 4.3.3 Lasso选择最佳正则化参数
  • 9 5.1.1 & 5.1.2 线性数据与非线性数据
  • 9 5.1.3 线性vs非线性模型 (1):线性模型在非线性数据集上的表现
  • 9 5.1.3 线性vs非线性模型 (2):拟合,效果与特点
  • 9 5.2 离散化:帮助线性回归解决非线性问题
  • 9 5.3.1 多项式对数据做了什么?
  • 9 5.3.2 多项式回归提升模型表现
  • 9 5.3.3 多项式回归的可解释性
  • 9 5.3.4 多项式回归:线性还是非线性模型
倍速
  • 2.0x
  • 1.5x
  • 1.25x
  • 1.0x
  • 0.75x
  • 0.5x
字幕
中文(自动生成)
字幕设置
字幕大小
适中
  • 最小
  • 较小
  • 适中
  • 较大
  • 最大
字幕颜色
白色
  • 白色
  • 红色
  • 紫色
  • 深紫色
  • 靛青色
  • 蓝色
  • 亮蓝色
描边方式
无描边
  • 无描边
  • 重墨
  • 描边
  • 45°投影
默认位置
底部居中
  • 左下角
  • 底部居中
  • 右下角
  • 左上角
  • 顶部居中
  • 右上角
背景不透明度
其它设置
恢复默认设置
100
更多播放设置
播放方式
视频比例
播放策略
其他设置
1人正在看
已装填 27 条弹幕
字号
标准
模式
滚动
顶部
底部
颜色
发送
优先使用播放器内置策略播放
优先使用 AV1 编码视频播放
优先使用 HEVC/H.265 编码视频播放
优先使用 AVC/H.264 编码视频播放
自动平衡不同视频间的音量大小
平衡音量同时保留更多声音细节
关闭音量均衡
宽屏模式
关闭弹幕 (d)
视频底部15%部分为空白保留区
特殊颜色、运动形式的弹幕
反馈
进入全屏 (f)
上一个 ([)
下一个 (])
  • 复制视频地址(精准空降)
  • 视频色彩调整
  • 视频音效调节
  • 快捷键说明
  • 更新历史 4.9.44-c4b6bdc2
  • 视频统计信息
885
430
4220
571
AI小助手
测试版
记笔记
B站私信我,领取菜菜的sklearn完整版【课件】~
有态度的知识搬运工~,qq:1913427066
弹幕列表
弹幕列表
屏蔽设定
高级弹幕
弹幕列表填充中...
视频选集
(84/98)
自动连播
6 0 概述
01:05
6 1.1 无监督学习概述,聚类vs分类
09:35
6 1.2 sklearn当中的聚类算法
04:20
6 2.1 Kmeans是如何工作的?
11:40
6 2.2 & 2.3 簇内平方和,时间复杂度
16:49
6 3.1.1 KMeans - 重要参数n_clusters
26:31
6 3.1.2 聚类算法的模型评估指标 (1)
12:59
6 3.1.2 聚类算法的模型评估指标 (2) - 轮廓系数
05:51
6 3.1.2 聚类算法的模型评估指标 (3) - CHI
09:45
6 3.1.3 案例:轮廓系数找最佳n_clusters (1)
10:03
6 3.1.3 案例:轮廓系数找最佳n_clusters (2)
11:00
6 3.1.3 案例:轮廓系数找最佳n_clusters (3)
23:19
6 3.2 重要参数init & random_state & n_init:初始质心怎么决定?
08:25
6 3.3 重要参数max_iter & tol:如何让聚类停下来?
04:10
6 3.4 重要属性与接口 & 函数k_means
06:23
6 4 案例:Kmeans做矢量量化 (1):案例背景
04:00
6 4 案例:Kmeans做矢量量化 (2)
18:01
6 4 案例:Kmeans做矢量量化 (3)
06:53
6 4 案例:Kmeans做矢量量化 (4)
14:27
7 0 本周要学习什么_trim
01:52
7 1.1 支持向量机概述:最强大的机器学习算法
09:36
7 1.2 支持向量机是如何工作的 & sklearn中的SVM
15:10
7 2.1.1 线性SVC的损失函数 (1)
18:04
7 2.1.1 线性SVC的损失函数 (2)
10:23
7 2.1.2 函数间隔与几何间隔
04:42
7 2.1.3.1 损失函数的拉格朗日乘数形态
14:53
7 2.1.3.2 拉格朗日对偶函数 (1)
13:29
7 2.1.3.2 拉格朗日对偶函数 (2)
08:08
7 2.1.3.3 求解拉格朗日对偶函数极其后续过程
03:50
7 2.1.4 线性SVM的求解过程的可视化 (1):理解等高线函数contour
11:45
7 2.1.4 线性SVM的求解过程的可视化 (2):理解网格制作函数meshgrid与vstack
07:54
7 2.1.4 线性SVM的求解过程的可视化 (3):建模,绘制图像并包装函数
12:12
7 2.1.4 线性SVM的求解过程的可视化 (4):探索建立好的模型
02:25
7 2.1.4 线性SVM的求解过程的可视化 (5):非线性数据集上的推广与3D可视化
08:18
7 2.1.4 线性SVM的求解过程的可视化 (6):Jupyter Notebook中的3D交互功能
03:09
7 2.2.1 & 2.2.2 非线性SVM与核函数:重要参数kernel
10:55
7 2.2.3 案例:如何选取最佳核函数 (1)
26:08
7 2.2.3 案例:如何选取最佳核函数 (2)
15:53
7 2.2.4 案例:在乳腺癌数据集上探索核函数的性质
33:09
7 2.2.5 案例:在乳腺癌数据集上对核函数进行调参 (1)
05:38
7 2.2.5 案例:在乳腺癌数据集上对核函数进行调参 (2)
12:01
7 2.3.1 SVM在软间隔数据上的推广
12:48
7 2.3.2 重要参数C & 总结
08:20
8 0 目录:本周将学习什么
02:18
8 1.1 简单复习支持向量机的基本原理
06:44
8 1.2 参数C的深入理解:多个支持向量存在的理由
12:31
8 1.3 二分类SVC中的样本不均衡问题:重要参数class_weight
08:20
8 1.3 如何使用参数class_weight (1)
05:15
8 1.3 如何使用参数class_weight (2)
09:07
8 2 SVC的模型评估指标
03:31
8 2.1 混淆矩阵与准确率
05:43
8 2.1 样本不平衡的艺术(1):精确度Precision
07:28
8 2.1 样本不平衡的艺术(2):召回率Recall与F1 measure
07:09
8 2.1.3 对多数类样本的关怀:特异度Specificity与假正率FPR
04:29
8 2.1.4 sklearn中的混淆矩阵
01:56
8 2.2 ROC曲线:Recall与假正率FPR的平衡
02:07
8 2.2.1 概率与阈值
18:02
8 2.2.2 SVM做概率预测
08:42
8 2.2.3 绘制ROC曲线
17:16
8 2.2.4 sklearn中的ROC曲线和AUC面积
10:12
8 2.2.5 利用ROC曲线求解最佳阈值
06:54
8 3 选学说明:使用SVC时的其他考虑
02:00
8 4 案例:预测明天是否会下雨 - 案例背景
03:53
8 4.1 案例:导库导数据,探索特征,jupyter中的快捷键
13:23
8 4.2 案例:分集,优先处理标签
11:35
8 4.3.1 案例:描述性统计,处理异常值
10:11
8 4.3.2 案例:现实数据上的数据预处理 - 处理时间
35:44
8 4.3.3 案例:现实数据上的数据预处理 - 处理地点
35:55
8 4.3.4 案例:现实数据上的数据预处理 - 填补分类型缺失值
12:08
8 4.3.5 案例:现实数据上的数据预处理 - 编码分类型变量
04:16
8 4.3.6 & 4.3.7 案例:现实数据集上的数据预处理 - 处理连续型变量
07:38
8 4.4 案例:建模与模型评估
08:15
8 4.5.1 案例:模型调参:追求最高的recall
04:56
8 4.5.2 案例:模型调参:追求最高的精确度
16:32
8 4.5.3 案例:模型调参:追求精确度与recall的平衡
14:57
8 4.6 SVM总结与结语
01:43
9 0 本周要学习什么_trim
03:38
9 1 概述,sklearn中的线性回归大家族
04:58
9 2.1 多元线性回归的基本原理和损失函数
11:03
9 2.2 用最小二乘法求解多元线性回归的过程
13:10
9 2.3 多元线性回归的参数,属性及建模代码
27:45
9 3.1 回归类模型的评估指标:是否预测准确?
15:34
9 3.2 回归类模型的评估指标:是否拟合了足够的信息?
29:30
9 4.1 多重共线性:含义,数学,以及解决方案
34:36
9 4.2.1 岭回归处理多重共线性
13:01
9 4.2.2 sklearn中的岭回归:linear_model.Ridge
21:41
9 4.2.3 为岭回归选择最佳正则化参数
23:47
9 4.3.1 Lasso处理多重共线性
11:41
9 4.3.2 Lasso的核心作用:特征选择
16:37
9 4.3.3 Lasso选择最佳正则化参数
27:31
9 5.1.1 & 5.1.2 线性数据与非线性数据
09:06
9 5.1.3 线性vs非线性模型 (1):线性模型在非线性数据集上的表现
16:35
9 5.1.3 线性vs非线性模型 (2):拟合,效果与特点
15:11
9 5.2 离散化:帮助线性回归解决非线性问题
30:40
9 5.3.1 多项式对数据做了什么?
26:28
9 5.3.2 多项式回归提升模型表现
11:09
9 5.3.3 多项式回归的可解释性
18:53
9 5.3.4 多项式回归:线性还是非线性模型
09:42
客服
顶部
赛事库 课堂 2021拜年纪