当前位置: 首页 > news >正文

无锡做网站企业怎么弄一个自己的链接

无锡做网站企业,怎么弄一个自己的链接,Wordpress页面手机不适配,东阿聊城做网站的公司强化学习算法总结 2 4.动态规划 待解决问题分解成若干个子问题,先求解子问题,然后得到目标问题的解 需要知道整个状态转移函数和价值函数,状态空间离散且有限 策略迭代: 策略评估:贝尔曼期望方程来得到一个策略的 V ( s ) V(s…

强化学习算法总结 2

4.动态规划

待解决问题分解成若干个子问题,先求解子问题,然后得到目标问题的解

需要知道整个状态转移函数和价值函数,状态空间离散且有限

  • 策略迭代:
    • 策略评估:贝尔曼期望方程来得到一个策略的 V ( s ) V(s) V(s)
    • 策略提升:
  • 价值迭代

4.1 策略迭代算法

  • 策略评估

V ( S ) = ∑ a π ( a ∣ s ) Q ( s , a ) = ∑ a π ( a ∣ s ) ( r ( a , s ) + γ ∑ s P ( s ′ ∣ s , a ) V π ( S ′ ) ) V(S) = \sum_a \pi(a|s)Q(s,a) = \sum_a \pi(a|s)(r(a,s)+ \gamma\sum_s P(s'|s,a)V^\pi(S')) V(S)=aπ(as)Q(s,a)=aπ(as)(r(a,s)+γsP(ss,a)Vπ(S))

知道状态转移函数和未来状态价值就可以估计当前的状态:我们只需要求解 V ( s ) V(s) V(s)

这里就是利用贝尔曼方程,来不断地更新 V ( s ) V(s) V(s),
V ( S ) k + 1 = ∑ a π ( a ∣ s ) Q ( s , a ) = ∑ a π ( a ∣ s ) ( r ( a , s ) + γ ∑ s P ( s ′ ∣ s , a ) V k ( S ′ ) ) V(S)^{k+1} = \sum_a \pi(a|s)Q(s,a) = \sum_a \pi(a|s)(r(a,s)+ \gamma\sum_s P(s'|s,a)V^k(S')) V(S)k+1=aπ(as)Q(s,a)=aπ(as)(r(a,s)+γsP(ss,a)Vk(S))

  • 策略提升

    只要当前状态下的策略的得到的状态动作函数比 V ( S ) V(S) V(S)高一些
    π ′ ( s ) = a r g m a x a Q π ( s , a ) \pi'(s) = argmax_aQ^\pi(s,a) π(s)=argmaxaQπ(s,a)

  • 策略迭代

π 0 策略评估 V π 0 ( S )策略提升 π 1 \pi^0 策略评估 V\pi_0(S)策略提升 \pi^1 π0策略评估Vπ0S)策略提升π1

  • 代码
    • 策略评估

w h i l e max ⁡ > θ d o : m a x = 0 f o r s i n r a n g e ( S ) : v = V ( s ) (所有 Q ( s , a )求和 ) V ( S ) = ( b e l l m a n f u c t i o n ) m a x = m a x ( m a x , V ( s ) − v ) while \ \max \ >\theta \ do: \\ \ max = 0 \\ \ for \ s \ in \ range(S):\\ \ v = V(s)(所有Q(s,a)求和)\\ \ V(S) = (bellman fuction)\\ \ max = max(max,V(s) - v) while max >θ do: max=0 for s in range(S): v=V(s)(所有Q(s,a)求和) V(S)=(bellmanfuction) max=max(max,V(s)v)

​ * 策略提升

f o r s i n S : π ( s ) = a r g m a x ( Q ( s , a ) ) for\ s\ in\ S:\\ \pi (s) = argmax(Q(s,a)) for s in Sπ(s)=argmax(Q(s,a))

4.2 价值迭代算法

V k + 1 ( s ) = m a x a { r ( s , a ) + γ ∑ s P V k } V^{k+1}(s) = max_a\{ r(s,a)+\gamma\sum_sPV^k\} Vk+1(s)=maxa{r(s,a)+γsPVk}

可以理解为只执行一轮的策略迭代算法

5 时序差分算法

在数据分布未知的情况下来对模型进行更新,通过智能体与环境的交互进行学习。无模型的强化学习。

  • 在线强化学习:使用当前策略下采样得到的数据进行学习
  • 离线强化学习:使用经验回访池

5.1 时序差分

V ( S t ) = V ( s t ) + α [ G t − V ( s t ) ] V(S_t) = V(s_t) +\alpha[G_t - V(s_t)] V(St)=V(st)+α[GtV(st)]

G t G_t Gt表示整个序列采集结束之后,得到的回报。而很多时候我们是没有办法
V ( s t ) + = α [ r t + γ V ( s t + 1 ) − V ( s t ) ] V(s_t) += \alpha[r_t + \gamma V(s_{t+1}) -V(s_t) ] V(st)+=α[rt+γV(st+1)V(st)]
用时序差分法估计到了状态价值函数 V ( s ) V(s) V(s)

5.2 SARSA

Q ( s , a ) + = α [ r ( s , a ) + γ Q ( s , a ) − Q ( s , a ) ] Q(s,a) += \alpha[r(s,a) + \gamma Q(s,a) - Q(s,a)] Q(s,a)+=α[r(s,a)+γQ(s,a)Q(s,a)]

$$
\begin{equation}
\pi(a|s)=\left{
\begin{aligned}
argmax(Q(s,a))& \ & if \ prob < \ 1- \epsilon \
random & \ & \

\end{aligned}
\right.
\end{equation}
$$

5.3 多步Sarsa

MC方法是无偏估计但是方差比较大

TD 是有偏估计,因为每一个对下一个状态的价值都是估计的
Q ( s t , a t ) + = α [ r t + γ Q ( s t + 1 ) + γ 2 Q ( s t + 2 ) + γ 3 Q ( s t + 3 ) . . . − Q ( s , a ) ] Q(s_t,a_t)+= \alpha[ r_t + \gamma Q(s_{t+1}) + \gamma^2 Q(s_{t+2})+ \gamma^3 Q(s_{t+3})... -Q(s,a) ] Q(st,at)+=α[rt+γQ(st+1)+γ2Q(st+2)+γ3Q(st+3)...Q(s,a)]
代码实现上,是前几次不执行只是进行数据的收集,第n次开始进行多步Sarsa

5.4 Q-learning

Q ( s , a ) + = α [ r ( s , a ) + γ m a x a Q ( s , a ) − Q ( s , a ) ] Q(s,a) += \alpha[r(s,a) + \gamma max_aQ(s,a) - Q(s,a)] Q(s,a)+=α[r(s,a)+γmaxaQ(s,a)Q(s,a)]

Q-learning的时序差分算法在算下一个状态的Q的时候会取最大的那个

Sarsa会先 ϵ − g r e e d y \epsilon -greedy ϵgreedy 选择s,a然后计算TD_error,然后估计Q(s’,a’)(比如放在环境中跑一下)

Q-learning next_s和a之后,会找到最大的Q(s’,a’),不依赖于 ϵ − g r e e d y \epsilon -greedy ϵgreedy 的a

  • 在线策略算法和离线策略算法

    在线策略算法:行为策略(采样数据的策略)和 目标策略(用于更新的策略)是同一个策略

    离线策略算法:行为策略和目标策略并不是同一个策略

7 DQN算法

Q网络的损失函数
w ∗ = a r g m i n w 1 2 N ∑ i = 1 N [ r i + γ m a x i Q w ( s i ′ , a ′ ) − Q w ( s i , a i ) ] w^* = argmin_w \frac{1}{2N}\sum_{i=1}^N[r_i+\gamma max_i Q_w(s'_i,a') - Q_w(s_i,a_i)] w=argminw2N1i=1N[ri+γmaxiQw(si,a)Qw(si,ai)]

  • 经验回放

    制作一个数据回放缓冲区,每次环境中得到的<s,a,r,s’>都进行存放

  • 目标网络

​ 采用TD_error作为我们的误差,但是包含着网络的输出,所以在更新网络参数的时候,目标也在不断地更新

​ 因为优化目标是让
Q → r + γ m a x Q ( s ′ + a ′ ) Q \rightarrow r+\gamma max Q(s'+a') Qr+γmaxQ(s+a)

http://www.dt0577.cn/news/1838.html

相关文章:

  • 网站怎样做公众号网站排名优化软件有哪些
  • 在线公司网站查询广告推销网站
  • 做题网站中计算多项式的值怎么做郑州学校网站建设
  • 网站建设方法许昌seo公司
  • wordpress账号密码分享网站seo推广排名
  • 信创网站建设推广平台网站热狗网
  • 网络工作室名称大全站长seo软件
  • 合肥企业网站推广网络推广的方式有哪些?
  • 网站分析该怎么做每日精选12条新闻
  • 免费网站开发模板百度官方平台
  • 什么叫网站索引搜索引擎优化实训心得
  • 定制网站建设案例展示seo网站推广是什么
  • 画册设计模板图片网站seo批量查询工具
  • 不同网站模块分析360浏览器网页版入口
  • 郑州网站建设修改网络营销推广seo
  • 广州一起做的网站龙斗seo博客
  • 建筑网站 知乎人民日报最新消息
  • 做网站用什么源码最好百度搜索使用方法
  • 网站的上一页怎么做竞价托管多少钱一个月
  • 学校网站怎样建设全网营销推广软件
  • 上海市普陀区建设规划局网站精准引流推广
  • 怎么做网站教程seo推广方法
  • 做网站大图片最有效的广告宣传方式
  • 传奇网站模板psd网络关键词
  • 做家电家具回收用哪个网站好鄂州网站seo
  • 做的网站百度搜索不出来的关键词优化是什么工作
  • 百度网盟推广怎么选择投放网站小红书搜索关键词排名
  • 环保厅网站建设的必要性整合营销传播工具有哪些
  • net的网站建设泰安短视频seo
  • 广州购物网站开发手机怎么制作网站