`
gaofen100
  • 浏览: 1188567 次
文章分类
社区版块
存档分类
最新评论

经验风险最小化

 
阅读更多

前面提到,机器学习的目的就是根据一些训练样本,寻找一个最优的函数,使得函数对输入X的估计Y'与实际输出Y之间的期望风险(可以暂时理解为误差)最小化。期望风险最小化依赖于样本的输入X与其输出Y之间的函数映射关系F(x,y),而这个映射关系,在机器视觉和模式识别系统中,一般指代先验概率和类条件概率。然而,这两者在实际的应用中,都是无法准确获取的,唯一能够利用的就只有训练样本的输入X及其对应的观测输出Y。而机器学习的目的又必须要求使得期望风险最小化,从而得到需要的目标函数。不难想象,可以利用样本的算术平均来代替式理想的期望,于是就定义了下面的式子来作为实际的目标风险函数

是利用已知的经验数据(训练样本)来计算,因此被称之为经验风险。用对参数求经验风险来逐渐逼近理想的期望风险的最小值,就是我们常说的经验风险最小化(ERM)原则。

显然,利用经验风险来代替真实的期望风险是有代价的。首先,经验风险并不完全等于期望风险;其次,用经验风险来近似代替期望风险在理论上并没有完善的依据;最后,用经验风险来代替期望风险计算得到的误差属于经验误差,而并非真实期望误差;尽管有这样那样的问题存在,在先验概率和类条件概率无法准确获取的情况下,用经验风险来“想当然”的代替期望风险从而解决模式识别等机器学习问题的思路在这一领域依然大量存在。

分享到:
评论

相关推荐

    1经验风险最小化.pdf

    这个是对经验风险最小化的基本阐述,用于自己日常的机器学习参考。同时这个仅作为参考材料,促进理解,更权威的定义,请查阅相关权威书籍,期刊,论文。

    论文研究-基于邻域风险最小化概率密度估计的自适应盲分离算法.pdf

    为实现由不同统计特性和概率分布平滑特性信号得到混合信号的盲分离,对...通过仿真实验,验证了该算法能分离统计特性不同的混合信号,相比于基于经验风险最小化的方法,该方法在收敛速度和精度方面的性能有很大提高。

    m依赖过程经验风险最小化算法的泛化性能 (2009年)

    为了研究基于m依赖过程经验风险最小化算法的推广能力,我们将基于独立同分布序列的相关结论推广到m依赖过程情形中,进一步利用m依赖过程的Bernstein不等式,建立该序列经验风险最小化原则一致收敛的指数界。

    支持向量机SVM基于结构风险最小化准则

    Vapnik 提出的支持向量机(Support Vector Machine, SVM)以训练误差作为优化问题的约束条件,以置信范围值最小化作为优化目标,即SVM是一种基于结构风险最小化准则的学习方法,其推广能力明显优于一些传统的学习...

    随机凸优化的经验风险最小化:O(1 / n)-和O(1 / n ^ 2)型风险边界

    随机凸优化的经验风险最小化:O(1 / n)-和O(1 / n ^ 2)型风险边界

    混合噪声的matlab代码-TERM:倾斜式经验风险最小化(ICLR'21)

    混合噪声的matlab代码倾斜经验风险最小化 该存储库包含本文的实现 ICLR 2021 通常将经验风险最小化(ERM)设计为在平均损失上表现良好,这可能导致估计值对异常值敏感,泛化效果差或对子组进行不公平对待。 尽管许多...

    期权matlab代码-StochOptMatlab:一组随机优化方法,包括随机块BFGS方法,用于最小化平均函数(经验风险最小化)

    这是用于最小化函数平均值(经验风险最小化)的随机优化方法的matlab代码套件。 安装与设定 启动Matlab并确保将工作目录设置为当前程序包的主目录。 在MATLAB提示符下,运行 setuppaths 该脚本在MATLAB路径中添加了...

    随机优化的粒子滤波方法在大规模经验风险最小化中的应用

    随机优化的粒子滤波方法在大规模经验风险最小化中的应用

    数据挖掘原理与SPSS Clementine应用-支持向量机教程

    14.1.2经验风险最小化问题 14.1.3 VC维与学习一致性理论 14.1.4结构化风险最小化 14.2支持向量机的基本原理 14.2.1线性支持向量机 14.2.2广义线性支持向量机 14.2.3非线性支持向量机 14.2.3.1到高维空间的影射 14.2....

    城市道路交通量短时预测的GSVMR模型_任其亮

    在分析现有城市道路交通量短时预测方法缺陷的基础上, 针对目前广泛采用的基于经验风险最小化的BP 网络易于陷入局部最优解等缺点, 结合遗传算法容易寻找全局最优解与支持向量机回归法具有结构风险最小化的特点, 提 ...

    基于向量空间的web分类

    由于采用了结构风险最小化原则代替经验风险最小化原则,使得较好地解决了小样本学习的问题;又由于采用了核函数思想,使它把非线性空间的问题转换到线性空间,降低了算法的复杂度。正是因为其完备的理论基础和出色的...

    支持向量机原理.pdf

    1.首先介绍了学习支持向量机所需要的准备知识,包括VC维的定义、经验风险最小化原则、结构风险最小化原则; 2.重点讲解了支持向量机的原理,首先深入讲解支持向量机的最基础类型——线性可分支持向量机,在此基础上...

    论文研究-受噪声影响的复.pdf

    引入了复gλ随机变量、准范数的定义,提出了受噪声影响的复gλ样本的经验风险泛函、期望风险泛函以及经验风险最小化原则严格一致性的定义;给出并证明了受噪声影响的复gλ样本的学习理论的关键定理,为系统建立基于...

    论文研究--相似测度.pdf

    提出了拟概率空间中复经验风险泛函、复期望风险泛函以及复经验风险最小化原则等定义。证明并讨论了基于复拟随机样本的统计学习理论的关键定理和学习过程一致收敛速度的界,为系统建立基于复拟随机样本的统计学习理论...

    风险最小化的博弈分析.docx

    风险最小化的博弈分析.docx

    EmpiricalRisks.jl:Julia实施预测变量和损失函数以最小化经验风险

    该Julia程序包提供了一组预测变量和损失函数,主要用于支持(正规化)经验风险最小化方法的实施。 测试状态: 当前,以下较高级别的软件包取决于EmpiricalRisks : 使用常规优化技术解决中等大小的问题。 使用...

    论文研究-拟概率空间上结构风险最小化原则.pdf

    首先,给出了拟概率空间上结构风险最小化原则。然后,为了解决在拟概率空间上结构风险是否一致收敛到期望风险,也就是根据这个最小化原则结构风险是否能收敛到最小可能的风险,给出并证明了结构风险最小化原则的一致...

    支持向量机与神经网络的区别

    简而言之,神经网络是个“黑匣子”,优化目标是基于经验风险最小化,易陷入局部最优,训练结果不太稳定,一般需要大样本; 而支持向量机有严格的理论和数学基础,基于结构风险最小化原则, 泛化能力优于前者,算法...

    斯坦福大学公开课 :机器学习课程.txt

    梯度下降[第3集] 欠拟合与过拟合的概念[第4集] 牛顿方法[第5集] 生成学习算法[第6集] 朴素贝叶斯算法[第7集] 最优间隔分类器问题[第8集] 顺序最小优化算法[第9集] 经验风险最小化 [第10集] 特征选择[第11集] 贝叶斯...

    常见的经典机器学习笔记

    【第9讲】 经验风险最小化 【第10讲】 交叉验证、特征选择 【第11讲】 贝叶斯统计、机器学习应用建议 【第12讲】 $k$-means算法、高斯混合模型及最大期望算法 【第13讲】 最大期望算法及其应用、因子分析模型 【第14...

Global site tag (gtag.js) - Google Analytics