视频选集 【食用须知】 0000机器学习视频说明 0101绪论基本概念 0102假设空间归纳偏好 0201模型评估与选择 0202经验误差与过拟合 0203测试集分割留出法 0204K折交叉验证 0205测试集分割自助法 0206验证集 0207均方误差 0208错误率与精确度公式 0209查准率与查全率 0210P-R反向关系原理 0211P-R反向关系图像与F1 0212P-R加权调和平均Fbeta 0213macro_microP-R 0214使用P-R曲线比较不同模型 0215ROC曲线 0216排序损失rank-loss 0217AUC与rank-loss 0218代价敏感曲线引入 0219代价曲线思路 0220实例说明一个阈值对应一条直线 0221多条直线围成代价敏感曲线 0222横纵轴归一化说明 0223假设检验目的 0224泛化问题与概率论课程推荐 0225二项分布【这部分群里也没代码自己敲】 0226代码实现二项分布【这部分群里也没代码自己敲】 0227假设检验举例e=0.3【这部分群里也没代码自己敲】 0228假设e_0大于等于0.3【这部分群里也没代码自己敲】 0229多个测试集一种算法的假设检验 0230第二章先到这吧溜了溜了 0301线性回归开始了哈哈 0302线性关系基本模式 0303一元线性回归 0304线性函数矩阵表示法 0305一元矩阵w偏导 0306一元矩阵对b求偏导 0307多元线性回归 0308求导没推给个例子 0309对数线性回归与广义线性回归 0310对数或逻辑线性回归 0311线性判别分析LDA与多分类学习略 0312类别不平衡问题 0313梯度下降法 0314批量梯度下降 0315随机梯度下降 0316学习率局部最优全局最优 0317_【重制】逻辑回归 0318_【重制】逻辑回归的目标与核心问题 0319_【重制】sigmoid的诞生 0401决策树基本形式与本章安排 0401信息熵:什么是信息什么是熵 0402熵的度量:均匀分布 0403熵的度量:一般分布 0404信息的度量:信息增益 0405决策树ID3算法举例:好坏西瓜 0406好坏西瓜继续分叉 0407增益率简述 0408决策树CART算法基尼指数 0409基尼指数计算:第一次分叉 0410基尼指数计算:第二次分叉 0411基尼指数计算:第三次分叉与分叉终止 0412CART算法回归树 0413剪枝处理 0414预剪枝一 0415预剪枝二 0416后剪枝 0417连续值C4.5二分法信息增益最大准则 0418决策树缺失值处理 0419多变量决策树阅读资料 0501_【补充】内容简介 0502_【补充】熵的针对的问题与要求 0503_【补充】信息熵公式来源推导 0504_【补充】信息熵公式推导 0505_【补充】信息熵公式的理解 0506_【补充】信息熵的性质与总结 0507_【补充】联合熵 joint entropy 0513_神经网络基本单位 0514_感知器 0515_多层神经网络 0600_【重制】支持向量机讲解大纲 0601_【重制】支持向量机感知器模型 0602_【重制】支持向量机的分类 0603_【重制】线性可分支持向量机 0604_【重制】线性可分支持向量机求解 0605_【重制】线性支持向量机与松弛因子 0606_【重制】非线性支持向量机 0609_【补充】拉格朗日乘子法1:极值点目标与约束相切 0610_【补充】拉2:梯度与等高线的切线垂直 0611_【补充】拉3:有限值条件的极值问题转化为求解等式方程问题 0612_【补充】拉4:形式推广 0701贝叶斯分类器综述 0702贝叶斯定理_一个应用 0703贝叶斯定理 0704预热_一个半朴素贝叶斯的例子 0705贝叶斯决策论 0706最大似然估计 0707极大似然估计_一次实验 0708极大似然估计_多次实验 0709极大似然估计_公式与取对数 0710朴素贝叶斯分类器 0711拉普拉斯修正 0712EM算法 0713求助_半朴素贝叶斯分类器与贝叶斯网 0801集成学习 0802集成学习的威力 0803AdaBoost原理看个例子包懂 0804AdaBoost算法代码实现 0805AdaBoost简单函数封装 0806AdaBoost循环封装 0807Gradient_boosting简述 0809Gradient_Boosting效果 0810训练样本不同来实现好而不同的不同 0811抽样的考虑 0812Bagging自助抽样 0813Bagging外包估计 0814Bagging代码示例 0815随机森林 0816结合策略:平均法 0817结合策略:投票法 0818结合策略:学习法 0819多样性 0901聚类 0902性能度量 0903外部指标 0904内部指标 0905距离度量与非距离度量 0906距离度量_有序数据 0907距离度量_无序数据 0908距离度量_混合与加权 0909K均值 0910K-mean动图 0911学习向量量化 0912密度聚类 0913层次聚类 0914高斯混合聚类_多元高斯分布 0915高聚代码_多元高斯分布 0916高聚代码_第一次迭代 0917高聚代码_alpha与mu的更新 0918高聚代码_sigma更新与全部整合 0919不同聚类算法效果 对比 1001k近邻学习 1002维数灾难现象 1003n维超立方体边界问题 1004n维超立方体内接球 1005n维空间样本密度与样本数 1006降维方法分类 1007PCA在干什么 1008KPCA思路 1009KPCA协方差矩阵与特征向量推导 1010核矩阵与核函数 1011核矩阵的特征向量 1012利用核函数直接求Y 1013核方法深入研究建议 1014什么是流形 1015Isomap等度量映射 1016LLE局部线性嵌入 1017度量学习 1101特征选择与稀疏学习 1102子集搜索 1103子集评价 1104特征选择概述 1105过滤式选择Filter-Relief 1106包裹式选择Wrapper 1107嵌入式选择Embedded 1108正则化 1301半监督学习 1302生成式方法 1303代码_生成式方法 1305_代码_生成式方法改 1306图半监督学习 1307传播矩阵的确定 1308加权的传播矩阵 1309迭代计算 1310二分类问题直接求解Fu 1311sklearn手写数字识别案例 1312sklearn_label_propagation 1313sklearn_lable_spreading案例 1314主动学习案例 1315sklearn图半监督与svm对比 1316半监督SVM 1317基于分歧的方法 1318半监督聚类 1401隐马尔科夫模型 1402隐马尔可夫模型 1403维比特算法 1404案例代码