年度归档: 2024 年

34 篇文章

thumbnail
机器学习系列 (5) -最大熵模型
参考文章:https://blog.csdn.net/hgnuxc_1993/article/details/114897839 参考视频:7.3 最大熵模型:拉格朗日乘子法_哔哩哔哩_bilibili 最大熵模型的数学基础 什么是熵? 熵是用来表示随机变量不确定性的度量。 拉格朗日乘子法 原始问题 对偶问题 当满足KKT条件时,原始问题和对偶问题…
thumbnail
回归模型系列(1)-Linear regression model
待更新..... 连续型因变量 general linear regression 二分类因变量 logistic regression Logistic回归:适用于任何二分类结局的建模,特别是稀有事件;也是最常见的二分类模型。 目的是估计结局的优势比 (Odds Ratio, OR)。 输出的回归系数是OR的对数,可以解释为结局事件的“发生优势”…
thumbnail
回归模型系列(2)-OR RR HR IRR
注:医学研究回归模型的效应值有很多种,乱用误用现象频出,本篇文章搜集了知乎、csdn网的相关知识以求区分和正确解释这些效应值。 OR值 odds: 称为几率、比值、比数,是指某事件发生的可能性(概率)与不发生的可能性(概率)之比。用p表示事件发生的概率,则:odds =p/(1-p)。OR:比值比,为实验组的事件发生几率(odds1)/对照组的事件…
thumbnail
机器学习系列(6)–支持向量机SVM
本节内容主要来自周志华老师的《机器学习》系列,李航《统计学习方法》。 参考视频8 支持向量机(2):感知机与支持向量机_哔哩哔哩_bilibili 待更新. 支持向量机基础 感知机和logistic回归的关系 logistic回归可转为感知机模型 支持向量机和感知机的关系 观察感知机损失函数可发现,感知机所找到的超平面不唯一 支持向量机名字解析:支…
thumbnail
回归模型系列(3)-滞后模型与分布滞后模型
注:参考视频分布滞后模型与自回归模型-上_哔哩哔哩_bilibili 基础概念 滞后变量 滞后效应是什么? 一般来说,因为解释变量对被解释变量的影响不可能在短时间内完成。所以,解释变量需要通过一段时间才能完全作用于被解释变量。(存在时间滞后)简洁:被解释变量受自身或其它变量过去值影响的现象称为滞后效应。 滞后变量是什么? 滞后变量:过去时期的、对当…
thumbnail
机器学习系列(2)–贝叶斯分类器与极大似然估计和贝叶斯估计
参考资料:李航《统计学习方法》视频:4.6【习题篇】朴素贝叶斯法:贝叶斯估计_哔哩哔哩_bilibili 生成模型与判别模型 生成模型 判别模型 区分 全概率公式与贝叶斯公式 条件概率 贝叶斯定理 贝叶斯分类 朴素贝叶斯分类器 当每个实例x有n个特征,且每个特征相互独立 分母求和都为p(X=x) ,分子大小代表了y取不同值时的概率,即x的归属 详解…
thumbnail
机器学习系列(3)–梯度下降与感知机模型
参考资料:文章内容主要来自吴恩达老师的机器学习课程及周志华老师的《机器学习》,李航老师的《统计学习方法》 参考视频:2.3 感知机——学习算法之对偶形式:算法解说_哔哩哔哩_bilibili 梯度下降 原理 梯度下降法(gradient descent)是一种常用的一阶(first-order)优化方法,是 求解无约束优化问题最简单,最经典的方法之…
thumbnail
机器学习系列(1)-过拟合问题与正则化
注:文章内容主要来自吴恩达老师的机器学习课程和周志华老师的《机器学习》 欠拟合和过拟合 仅使用简单线性回归会导致欠拟合,引入多项式回归当阶数逐渐过大时会导致过拟合 欠拟合导致偏差、方差均增高 过拟合情况下偏差较低,但方差增高 随模型阶数增加,偏差(训练集误差)逐渐降低,方差(测试集误差)先降低达到最低点后逐渐升高 过拟合解决方法 增加样本量;选择合…