当前位置: 首页 > news >正文

wordpress站内统计插件图片seo优化是什么意思

wordpress站内统计插件,图片seo优化是什么意思,网剧推广赚钱是真的吗,锡林浩特网站建设微信开发机器学习课程学习周报十五 文章目录 机器学习课程学习周报十五摘要Abstract一、机器学习部分1. 统计推断与贝叶斯推断2. GMM和EM算法补充3. 马尔可夫链蒙特卡罗法3.1 蒙特卡罗法3.2 马尔可夫链3.3 Diffusion模型中的马尔可夫链 总结 摘要 本周的学习涵盖了统计推断和贝叶斯推断…

机器学习课程学习周报十五

文章目录

  • 机器学习课程学习周报十五
    • 摘要
    • Abstract
    • 一、机器学习部分
      • 1. 统计推断与贝叶斯推断
      • 2. GMM和EM算法补充
      • 3. 马尔可夫链蒙特卡罗法
        • 3.1 蒙特卡罗法
        • 3.2 马尔可夫链
        • 3.3 Diffusion模型中的马尔可夫链
    • 总结

摘要

本周的学习涵盖了统计推断和贝叶斯推断的基本概念,深入探讨了高斯混合模型中的EM算法及其有效性证明。此外,还介绍了马尔可夫链蒙特卡罗方法中的蒙特卡罗法及其应用。最后,通过Diffusion模型中的马尔可夫链,理解了如何实现图像生成的降噪过程。

Abstract

This week’s study covered fundamental concepts of statistical and Bayesian inference, with an in-depth exploration of the EM algorithm in Gaussian Mixture Models and its effectiveness. Additionally, the Monte Carlo method within Markov Chain Monte Carlo techniques was introduced and applied. Finally, the denoising process in image generation was understood through the Markov chain in the Diffusion model.

一、机器学习部分

1. 统计推断与贝叶斯推断

统计推断Statistical Inference)指的是根据观察样本去推断总体特征(即模型/分布的参数),它的方法包括参数估计和假设检验等。

贝叶斯推断Bayesian Inference)是一种基于贝叶斯定理的统计推断方法,它的核心思想是要建立对参数的主观信念(“验”),并要根据观察去完成从初始信念(“先验”)到校正信念(“后验”)的更新。这种主观信念是参数的分布,而推断最终还要从后验分布中选择一个确定的参数值。

例如:如果取分布最高点的对应参数值(通常被称为后验众数),就称为极大后验估计(MAP, Maximum A Posteriori)。

从贝叶斯公式来看:

p ( z ∣ x ) = p ( z ) ⋅ p ( x ∣ z ) p ( x ) p(z|x) = p(z) \cdot \frac{{p(x|z)}}{{p(x)}} p(zx)=p(z)p(x)p(xz)

z z z是要估计的参数(也包括隐变量), p ( z ) p(z) p(z)是先验分布(初始信念), p ( z ∣ x ) p(z|x) p(zx)是后验分布(校正信念)。这种校正是通过在先验上乘了一个校正因子 p ( x ∣ z ) p ( x ) \frac{{p(x|z)}}{{p(x)}} p(x)p(xz)得到的。其中,分子 p ( x ∣ z ) {p(x|z)} p(xz)是条件似然,是校正因子的关键部分,决定着先验到后验的形状变化;而分母 p ( x ) {p(x)} p(x)是边际似然,又叫证据(因为只跟观察 x x x有关),它与我们关心的 z z z无关,因此也常被称为归一化因子(因为就算我们不去管分母,等号左右的函数形状也已经一致,只需要把等号右边归一化到积分为1的概率分布即可。不过实际上,归一化也并不好计算,因为显然我们不知道 x x x的分布,而积分 p ( x ) = ∫ z p ( x ∣ z ) d z p(x) = \int_z {p(x|z)dz} p(x)=zp(xz)dz又是难以计算的,许多方法都试图绕过计算归一化因子这个点,如GAN模型。

2. GMM和EM算法补充

为了证明EM算法的迭代是有效的,先引入凸函数和琴生不等式的预备知识。

在这里插入图片描述

利用GMM中的概率表达式代入EM算法中。

在这里插入图片描述

EM算法的第一步:E-step求期望

在这里插入图片描述

EM算法的第二步:M-step求参数的最大(条件极值,使用拉格朗日乘数法)

在这里插入图片描述

3. 马尔可夫链蒙特卡罗法

3.1 蒙特卡罗法

蒙特卡罗法Monte Carlo method),也称统计模拟方法,是通过从概率模型的随机抽样进行近似数值计算的方法。统计学和机器学习的目的是基于数据对概率分布的特征进行推断,蒙特卡罗法要解决的问题是,假设概率分布的定义已知,通过抽样或者概率分布的随机样本,并通过得到的随机样本对概率分布的特征进行分析。比如,从样本得到经验分布,从而估计总体分布;或者从样本计算出样本均值,从而估计总体期望,所以蒙特卡罗法的核心是随机抽样random sampling)。

一般的蒙特卡罗法有直接抽样法、接受-拒绝抽样法、重要性抽样法等。接受-拒绝抽样法、重要性抽样法适合于概率密度函数复杂(如密度函数含有多个变量,各变量相互不独立,密度函数形式复杂),不能直接抽样的情况。

这里介绍接受-拒绝抽样法accept-reject sampling method),随机变量为 x x x,其概率密度函数为 p ( x ) p(x) p(x)。目的是得到该概率分布的随机样本,以对这个概率分布进行分析。基本思想如下:若 p ( x ) p(x) p(x)不可以直接抽样,找一个可以直接抽样的分布,称为建议分布proposal distribution)。假设 q ( x ) q(x) q(x)是建议分布的概率密度函数,并且有 q ( x ) q(x) q(x) c c c倍一定大于等于 p ( x ) p(x) p(x),其中 c > 0 c > 0 c>0。按照 q ( x ) q(x) q(x)进行抽样,假设得到的结果是 x ∗ {x^*} x,再按照 p ( x ∗ ) c q ( x ∗ ) \frac{{p({x^*})}}{{cq({x^*})}} cq(x)p(x)的比例随机决定是否接受 x ∗ {x^*} x

在这里插入图片描述

直观上,落到 p ( x ∗ ) p({x^*}) p(x)范围内的就接受(蓝色),落到 p ( x ∗ ) p({x^*}) p(x)范围外的就决绝(红色)。接受-拒绝法实际是按照 p ( x ) p(x) p(x)的涵盖面积(或涵盖体积)占 c q ( x ) {cq({x})} cq(x)的涵盖面积(或涵盖体积)的比例进行抽样。

在这里插入图片描述

接受拒绝法的优点是很容易实现,缺点是效率可能不高。如果 p ( x ) p(x) p(x)的涵盖体积占 c q ( x ) {cq({x})} cq(x)的涵盖体积的比例很低,就会导致拒绝的比例很高,抽样的效率很低。并且落入蓝色范围内的样本不是一定会被接受,还要经过随机检验才会被接受。

3.2 马尔可夫链

考虑一个随机变量的序列 X = { X 0 , X 1 , ⋯ , X t , ⋯ } X = \left\{ {{X_0},{X_1}, \cdots ,{X_t}, \cdots } \right\} X={X0,X1,,Xt,},这里 X t {{X_t}} Xt表示时刻 t t t的随机变量, t = 0 , 1 , 2 , ⋯ t = 0,1,2, \cdots t=0,1,2,。每个随机变量 X t {{X_t}} Xt的取值集合相同,称为状态空间,表示为 S S S。随机变量可以是离散的,也可以是连续的。以上随机变量的序列构成随机过程stochastic process)。

假设在时刻0的随机变量 X 0 {{X_0}} X0遵循概率分布 P ( X 0 ) = π 0 P\left( {{X_0}} \right) = {\pi _0} P(X0)=π0,称为初始状态分布。在某个时刻 t ≥ 1 t \ge 1 t1的随机变量 X t {{X_t}} Xt与前一个时刻的随机变量 X t − 1 {X_{t - 1}} Xt1之间有条件分布 P ( X t ∣ X t − 1 ) P({X_t}|{X_{t - 1}}) P(XtXt1),如果 X t {X_t} Xt只依赖于 X t − 1 {X_{t - 1}} Xt1,而不依赖于过去的随机变量 { X 0 , X 1 , ⋯ , X t − 2 } \left\{ {{X_0},{X_1}, \cdots ,{X_{t - 2}}} \right\} {X0,X1,,Xt2},这一性质称为马尔可夫性,即:

P ( X t ∣ X 0 , X 1 , ⋯ , X t − 1 ) = P ( X t ∣ X t − 1 ) , t = 1 , 2 , ⋯ P({X_t}|{X_0},{X_1}, \cdots ,{X_{t - 1}}) = P({X_t}|{X_{t - 1}}),t = 1,2, \cdots P(XtX0,X1,,Xt1)=P(XtXt1),t=1,2,

具有马尔可夫性的随机序列 X = { X 0 , X 1 , ⋯ , X t , ⋯ } X = \left\{ {{X_0},{X_1}, \cdots ,{X_t}, \cdots } \right\} X={X0,X1,,Xt,}称为马尔可夫链Markov chain),或马尔可夫过程Markov process)。条件概率分布 P ( X t ∣ X t − 1 ) P({X_t}|{X_{t - 1}}) P(XtXt1)称为马尔可夫链的转移概率分布。转移概率分布决定了马尔可夫链的特性。

马尔可夫的直观解释是“未来只依赖于现在(假设现在已知),而与过去无关”。这个假设在许多应用中是合理的。

若转移概率分布 P ( X t ∣ X t − 1 ) P({X_t}|{X_{t - 1}}) P(XtXt1) t t t无关,即

P ( X t + s ∣ X t − 1 + s ) = P ( X t ∣ X t − 1 ) , t = 1 , 2 , ⋯ , s = 1 , 2 , ⋯ P({X_{t + s}}|{X_{t - 1 + s}}) = P({X_t}|{X_{t - 1}}),t = 1,2, \cdots ,s = 1,2, \cdots P(Xt+sXt1+s)=P(XtXt1),t=1,2,,s=1,2,

则称该马尔可夫链为时间齐次的马尔可夫链time homogenous Markov chain

以上定义的是一阶马尔可夫链,可以扩展到n阶马尔可夫链,满足n阶马尔可夫性

P ( X t ∣ X 0 , X 1 , ⋯ , X t − 2 , X t − 1 ) = P ( X t ∣ X t − n , ⋯ , X t − 2 , X t − 1 ) P({X_t}|{X_0},{X_1}, \cdots ,{X_{t - 2}},{X_{t - 1}}) = P({X_t}|{X_{t - n}}, \cdots ,{X_{t - 2}},{X_{t - 1}}) P(XtX0,X1,,Xt2,Xt1)=P(XtXtn,,Xt2,Xt1)

3.3 Diffusion模型中的马尔可夫链

对于计算机而言,实现图像生成,一副图像就是一个 H × W × C H \times W \times C H×W×C维的矩阵,如何生成这样的一个矩阵?Diffusion的做法是先随机创建一个噪点图,有没有可能让一幅噪点图变成“米老鼠”呢?显然想要做到这点似乎非常困难。

我们换个思路:现在假如我们已经有一组噪点图 X T {X_T} XT和“米老鼠” X 0 {X_0} X0之间的过渡图片,如下:

在这里插入图片描述

从直觉上来说,**将过渡序列中的上一张图片转变成下一张图片,显然要比直接从噪点图 变成 “米老鼠”要容易得多。**这个直观的认知其实是Diffusion模型区别于其他生成模型(如GAN)的特别之处。

在这里插入图片描述

由于这个序列当中,每一张图都比上一张图要更清晰(噪点更少),因此我们称这个过程为降噪denoise)。 X t → X t − 1 {X_t} \to {X_{t - 1}} XtXt1的降噪过程,在概率论中可以通过采样实现。为了从 X t {X_{t}} Xt采样得到 X t − 1 {X_{t - 1}} Xt1,我们需要知道条件概率:

q ( x t − 1 ∣ x t ) q({x_{t - 1}}|{x_t}) q(xt1xt)

假如任意 t = 1 , 2 , ⋯ , T t = 1,2, \cdots ,T t=1,2,,T q ( x t − 1 ∣ x t ) q({x_{t - 1}}|{x_t}) q(xt1xt)都是已知的。我们记号 ∼ \sim 表示“依概率采样”,那么将噪点图 X T {X_T} XT转变为“米老鼠” X 0 {X_0} X0的整个采样过程,可以形式化表示为,给定噪点图 X T {X_T} XT

X T − 1 ∼ q ( x T − 1 ∣ X T ) ⋯ X 2 ∼ q ( x 2 ∣ X 3 ) , X 1 ∼ q ( x 1 ∣ X 2 ) , X 0 ∼ q ( x 0 ∣ X 1 ) {X_{T - 1}} \sim q({x_{T - 1}}|{X_T}) \cdots {X_2} \sim q({x_2}|{X_3}),{X_1} \sim q({x_1}|{X_2}),{X_0} \sim q({x_0}|{X_1}) XT1q(xT1XT)X2q(x2X3),X1q(x1X2),X0q(x0X1)

整个采样过程,构成了一个马尔可夫链,假如我们有了 q ( x t − 1 ∣ x t ) q({x_{t - 1}}|{x_t}) q(xt1xt)这个转移概率,就能按步骤将噪点图转化为“米老鼠”,所以问题是如何求出 q ( x t − 1 ∣ x t ) q({x_{t - 1}}|{x_t}) q(xt1xt)这个函数?答案就是机器学习。

机器学习的训练数据是什么?虽然“降噪”似乎很难,但是添加噪点却挺容易。比如给定一张原始图片 X 0 {X_0} X0我们总可以通过朝原始图增加噪点生成图片 X 1 {X_1} X1,然后进一步增加噪点,直到图片变成一幅完全随机的噪点图 X T {X_{T}} XT。这个过程也是通过随机过程的采样来实现,我们记这个随机过程对应的“转移概率”是 q ( x t ∣ x t − 1 ) q({x_t}|{x_{t - 1}}) q(xtxt1),那么整个添加噪点的过程就可以形式化表示为,给定米老鼠图 X 0 {X_0} X0

X 1 ∼ q ( x 1 ∣ X 0 ) , X 2 ∼ q ( x 2 ∣ X 1 ) , X 3 ∼ q ( x 3 ∣ X 2 ) , ⋯ , X T ∼ q ( x T ∣ X T − 1 ) {X_1} \sim q({x_1}|{X_0}),{X_2} \sim q({x_2}|{X_1}),{X_3} \sim q({x_3}|{X_2}), \cdots ,{X_T} \sim q({x_T}|{X_{T - 1}}) X1q(x1X0),X2q(x2X1),X3q(x3X2),,XTq(xTXT1)

给定一个图片数据集,我们对其中的任一图片进行一次这种采样操作,我们就得到了一组连续过渡的图片序列,也就是一条训练数据。

总结

本周完善了上周学习的EM算法,并且开始学习马尔可夫链蒙特卡罗法,马尔可夫链在Diffusion模型中有特别重要的应用。接来的一周将从理论继续学习马尔可夫链蒙特卡罗法,并结合着实际应用中的Diffusion模型进行参照。


文章转载自:
http://eriophyllous.qrqg.cn
http://filth.qrqg.cn
http://emaciated.qrqg.cn
http://aggeus.qrqg.cn
http://owelty.qrqg.cn
http://vascar.qrqg.cn
http://throuther.qrqg.cn
http://tenderfeet.qrqg.cn
http://nutrition.qrqg.cn
http://surfboat.qrqg.cn
http://creosol.qrqg.cn
http://phyletic.qrqg.cn
http://katalase.qrqg.cn
http://reconditeness.qrqg.cn
http://descent.qrqg.cn
http://babelism.qrqg.cn
http://tetartohedral.qrqg.cn
http://filmdom.qrqg.cn
http://hypophosphatasia.qrqg.cn
http://westphalia.qrqg.cn
http://wonderworld.qrqg.cn
http://poseidon.qrqg.cn
http://decimal.qrqg.cn
http://equipartition.qrqg.cn
http://blackhead.qrqg.cn
http://azobenzol.qrqg.cn
http://fatuous.qrqg.cn
http://sennet.qrqg.cn
http://baulk.qrqg.cn
http://cheery.qrqg.cn
http://endomorphic.qrqg.cn
http://timidly.qrqg.cn
http://pertinacious.qrqg.cn
http://expectorant.qrqg.cn
http://copernican.qrqg.cn
http://doltish.qrqg.cn
http://gare.qrqg.cn
http://penology.qrqg.cn
http://pectoral.qrqg.cn
http://sudation.qrqg.cn
http://cassock.qrqg.cn
http://lasya.qrqg.cn
http://cyanamid.qrqg.cn
http://carroccio.qrqg.cn
http://bachelorism.qrqg.cn
http://indefensibly.qrqg.cn
http://kofta.qrqg.cn
http://propoxyphene.qrqg.cn
http://repulse.qrqg.cn
http://moncay.qrqg.cn
http://problematique.qrqg.cn
http://adducible.qrqg.cn
http://unspliced.qrqg.cn
http://craniate.qrqg.cn
http://cucurbit.qrqg.cn
http://extrapolate.qrqg.cn
http://hasten.qrqg.cn
http://purim.qrqg.cn
http://turacou.qrqg.cn
http://carport.qrqg.cn
http://gerrymander.qrqg.cn
http://vapidly.qrqg.cn
http://trimeter.qrqg.cn
http://justinian.qrqg.cn
http://coexistence.qrqg.cn
http://smogbound.qrqg.cn
http://tajumulco.qrqg.cn
http://sarcasm.qrqg.cn
http://lockhole.qrqg.cn
http://bedcover.qrqg.cn
http://externalism.qrqg.cn
http://sleepwear.qrqg.cn
http://argol.qrqg.cn
http://scribal.qrqg.cn
http://hover.qrqg.cn
http://patronise.qrqg.cn
http://craze.qrqg.cn
http://gassiness.qrqg.cn
http://eytie.qrqg.cn
http://specter.qrqg.cn
http://ossie.qrqg.cn
http://ectoplasm.qrqg.cn
http://holytide.qrqg.cn
http://saidst.qrqg.cn
http://torus.qrqg.cn
http://devadasi.qrqg.cn
http://school.qrqg.cn
http://sphericity.qrqg.cn
http://jackboot.qrqg.cn
http://saltillo.qrqg.cn
http://erenow.qrqg.cn
http://sinker.qrqg.cn
http://inadmissibility.qrqg.cn
http://bovril.qrqg.cn
http://sapele.qrqg.cn
http://microdetector.qrqg.cn
http://unbelief.qrqg.cn
http://killed.qrqg.cn
http://hosta.qrqg.cn
http://iconography.qrqg.cn
http://www.dt0577.cn/news/101610.html

相关文章:

  • wordpress div广东短视频seo营销
  • 杭州python做网站移动慧生活app下载
  • 北京商场排名前十重庆seo职位
  • 做一份网站动态图多少钱做网站哪家公司比较好而且不贵
  • 石家庄网站制作仓谷百度手机助手最新版下载
  • flashfxp 发布网站百度快照怎么用
  • 有域名有空间如何做网站ip域名解析查询
  • 中国移动网站建设怎么做域名查询
  • 微站是什么软文推广公司
  • 品牌网站建设怎么做山西网络推广
  • 微网站 杭州网站建设网站推广
  • 商丘做网站的公司爱站工具包手机版
  • 搜索引擎优化网站网络营销期末考试题库
  • 政府网站改版方案软件定制开发平台
  • wordpress 网站加密插件郴州网站建设
  • 重庆建设网站多久时间百度搜索风云榜小说排行榜
  • 苏州市建设培训网站安全员C类查询郑州网络推广方法
  • 免费培训机构无锡网络优化推广公司
  • html企业网站主页模板百度指数平台官网
  • 专门做电子书的网站重庆seo海洋qq
  • 网站开发 职位百度搜索榜排名
  • 网站怎么做二维码链接地址上线了建站
  • 北京官网建设公司网站做优化好还是推广好
  • 新手学做网站相关书籍微信朋友圈广告投放价格表
  • 浙江省建设工程质量安全管理协会网站信阳seo
  • 高端做网站多少钱baidu百度一下
  • 美女做暖暖的视频网站破解版网络营销软件排行
  • 动态网站如何做关键词看片
  • 做网站公司怎么样网站建设服务商
  • 网站配色设计seo策略