小編給大家分享一下matlab中小球不落地的示例分析,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
為企業(yè)提供網站設計制作、成都網站建設、網站優(yōu)化、全網營銷推廣、競價托管、品牌運營等營銷獲客服務。成都創(chuàng)新互聯擁有網絡營銷運營團隊,以豐富的互聯網營銷經驗助力企業(yè)精準獲客,真正落地解決中小企業(yè)營銷獲客難題,做到“讓獲客更簡單”。自創(chuàng)立至今,成功用技術實力解決了企業(yè)“網站建設、網絡品牌塑造、網絡營銷”三大難題,同時降低了營銷成本,提高了有效客戶轉化率,獲得了眾多企業(yè)客戶的高度認可!
訓練1000次之后的agent效果
在利用之前FrozenLake環(huán)境訓練當中那種面向對象方式管理程序時發(fā)現訓練后期運行速度變慢、而且是肉眼可觀察到的變慢,所以采用了matlab另一種程序文件管理方式packages
以+和名稱命名文件夾形成一個包、在包內可以新建函數或者前面用到的class
這里就直接使用函數文件、調用函數時需要寫明包的名字、比如env.step()
可以觀察到在訓練1000后運行速度也不會出現肉眼可見的變化
這種方式比起面向對象模式簡單游戲環(huán)境搭建要更容易上手
在傳參和調用的時候采取結構體變量存儲原先的對象參數、也就是原先那種一個文件夾下十幾個函數文件一個main文件模式下的全局變量、比如
function self = step(self,action)
% 一步動作
self.done = 0;
self.reward=0;
temp_w=self.agent(5)+5*(2-action);
if temp_w<5
temp_w=5;
end
if temp_w>25
temp_w=25;
end
self.reward=0;
ballPos = self.observation(1:2);
ballVel = self.observation(3:4);
if ballPos(1) > self.weight
ballPos(1) = self.weight;
ballVel(1) = -ballVel(1); % 邊界
elseif ballPos(1) < 0.1
ballPos(1) = 0.1;
ballVel(1) = -ballVel(1);
elseif ballPos(2) >= self.height
ballPos(2) = self.height;
ballVel(2) = -ballVel(2); % 頂部墻
self.score=self.score+1;
elseif ballPos(2) < 1
if abs(self.agent(5) - ballPos(1)) <= 5 % 底部方塊
ballVel(2) = -ballVel(2);
self.reward=10;
else % 方塊沒接住球
self.reward=-1;
self.done=1;
end
end
ballPos = ballPos + ballVel;
self.observation=[ballPos;ballVel;temp_w];
end
這是agent執(zhí)行一個動作的函數、把這個環(huán)境中所以變量存儲在self參數中、在env.step(env,A)中傳遞進來、最后再返回出去
對比原先的oop模式、可以看出就是再傳參的時候顯式的傳入整個環(huán)境
matlab強化學習Q-Learning與Sarsa對比
matlab強化學習Sarsa與Sarsa(lambda)對比
最后就是這個訓練程序了、依然采用q-table、所以沒有太多變化、將之前提出的幾個優(yōu)化想法都加進來
% 強化學習
ccc
% rng('default');
env0=env.single_pong(30,30,0.001);
single_pong_rl=rl.rl_q_table(env0.actions,0.9,0.2,0.9);
fig.fig=figure(1);
fig.base=0;
%%
for episode =1:env0.max_episodes*1
fig.show = ~mod(episode,1);
env0=env.reset(env0);
fig=env.render(env0,fig);
while 1
A = rl.choose_action(single_pong_rl,env0.agent);
env0 = env.step(env0,A); % 采取動作獲得狀態(tài)和獎勵
single_pong_rl=rl.learn(single_pong_rl,env0, A); % 更新
rl.dump(single_pong_rl,fig.show);
env0.agent=env0.observation;
fig=env.render(env0,fig);
if env0.done
break
end
end
end
%%
clear fig A episode
close all
save(filename);
以上是“matlab中小球不落地的示例分析”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注創(chuàng)新互聯行業(yè)資訊頻道!