欢迎来到三一文库! | 帮助中心 三一文库31doc.com 一个上传文档投稿赚钱的网站
三一文库
全部分类
  • 研究报告>
  • 工作总结>
  • 合同范本>
  • 心得体会>
  • 工作报告>
  • 党团相关>
  • 幼儿/小学教育>
  • 高等教育>
  • 经济/贸易/财会>
  • 建筑/环境>
  • 金融/证券>
  • 医学/心理学>
  • ImageVerifierCode 换一换
    首页 三一文库 > 资源分类 > DOC文档下载  

    机器学习常用模型及优化.doc

    • 资源ID:12606647       资源大小:372.50KB        全文页数:10页
    • 资源格式: DOC        下载积分:4
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录 QQ登录   微博登录  
    二维码
    微信扫一扫登录
    下载资源需要4
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    机器学习常用模型及优化.doc

    _第一章模型建立1.1回归模型:条件:1. 数据2. 假设的模型结果:用模型对数据学习,预测新数据一元线性回归模型(最小二乘法)它通过最小化误差的平方和寻找数据的最佳函数匹配我们以最简单的一元线性模型来解释最小二乘法。什么是一元线性模型呢?监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归假设从总体中获取了n 组观察值( X1, Y1),( X2, Y2 ), ,(Xn ,Yn )平方损失函数精品资料_逻辑回归模型将线性回归中的一次模型变成逻辑回归函数,即sigmoid 函数。或者:其他的思路和想法与线性回归一样, 所以说逻辑回归的模型是一个非线性模型,但是它本质上又是一个线性回归模型损失函数(误差函数)为:softmax 回归它是逻辑回归的扩展从分类的角度来说,逻辑回归只能将东西分成两类(0,1 ), softmax 可以分成多类逻辑回归中,模型函数(系统函数)为:精品资料_Softmax 回归中,模型函数(系统函数)为:1.2 神经网络模型神经元首先来一个三输入单输出的神经元, 输入输出都是二进制(0,1 )。举例来说:X1 表示天气是否好X2 表示交通是否好X3 表示是否有女朋友陪你Y 表示你是否去电影院看电影要让这个神经元工作起来,需要引入权重,w1,w2,w3 。这样就有了:(1)W1 表示 ”天气是否好 ”对你做决定的重要程度W2 表示 ”交通是否好 ”对你做决定的重要程度W3 表示 ”是否有女朋友陪你 ”对你做决定的重要程度Threshold 越低表示你越想去看电影,风雨无阻你都想去。Threshold 越高精品资料_表示你越不想去看电影,天气再好也白搭。Threshold 适中表示你去不去电影院要看情况,看心情。神经网络现在扩展一下:这样就出现神经网络了,可以看出这是很多神经元组合成的。把上面的( 1)式中的 threshold 用偏移量 -b 表示,并且移到不等式左边,出现下面( 2)式:(2)例子就不举了, 原文是实现与非门的一个例子,说明这个东西可以进行逻辑推理,它就很有潜力了,电脑就是靠逻辑加运算来实现各种功能。现在要用这个东西学习识别手写字体,我们的想法是这样的:精品资料_举例来说,电脑错把9 当成了 8,那么我们希望通过自动调整w 或 b 来对output 进行调整,以达到正确的结果。这时网络会自己“学习”了。具体是这样的:1if(w+b)0.5output0if(w+b)<0.5其中( ) 是 sigmoid 函数:下面是 sigmoid 函数的图形它是阶梯函数的一个平滑:输出通过 w 和 b 进行微调的式子是这样的:精品资料_这个式子比较抽象,它只是战略性的一个式子,下面引入cost 函数来进行战术实践。 Cost 函数是评价模型准确与否的一个函数,它可能越大越好,也可能越小越好,看你怎么构造了。这里用均方误差来构造:这个函数越小越好, 所以通过使这个函数变得最小来得到最好的w 和 b,也就是达到最好的学习效果。1.3最大似然估计X 的一个样本 X1 ,X2, ,Xn 独立同分布, 其观测值为 x1 ,x2,xn。P( Xx)p( x;) ,其中参数未知根据 X1, X2, ,Xn 的观测值 x1,x2 , ,xn 来估计模型参数。假如这组数据服从B(1,p) , p 未知P( Xx) px (1 p)1 x(x=0,1)n(1 xi )L( p)P( X1 x1,., X nxn )p x1 . xn (1 p) i 1求 d ln L( p) 0 得到 L( p) 取极大值时的 p,即为所求 dp第二章模型优化2.1遗传算法有个博客讲的很好, 用袋鼠跳问题形象的比喻这个问题,类似的算法还有模拟退火法。精品资料_2.2梯度下降法一句话来说就是求损失函数或似然函数的极值,我们自己算的话就是求个导就完事了,但是有些函数的导数特别难求,这时候就需要梯度下降法, 交给电脑迭代几次就算出来了举例来说,求损失函数的最小值:2.3牛顿法对于非线性优化, 假设任务是优化一个目标函数,求解其极大极小值, 转化为求问题,是不是回到了上面的问题?二阶泰勒级数:f ( x x) f ( x) f ( x) x1f (x) x22二阶泰勒级数成立的充要条件是x 无限趋于 0,两边约去 f ( xx) 和 f ( x) ,并对x 求导,得到:精品资料_f ( x)f ( x) x0解得:xf ( xn )f ( xn )所以得到迭代式:xn 1xnf ( xn )f ( xn )红色是牛顿法, 绿色是梯度下降法, 牛顿法更容易收敛。 高维情况的牛顿迭代公式:xn 1xn Hf (xn ) 1f (xn ), n0其中, H 是 hessian 矩阵:Hessian 矩阵的引入使得高维情况下牛顿法较为少用,但是有人已提出解决方案 Quasi-Newton method 。精品资料_精品资料_Welcome ToDownload !欢迎您的下载,资料仅供参考!精品资料

    注意事项

    本文(机器学习常用模型及优化.doc)为本站会员(scccc)主动上传,三一文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三一文库(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    经营许可证编号:宁ICP备18001539号-1

    三一文库
    收起
    展开