控制算法手記——深度強(qiáng)化學(xué)習(xí)控制
文:李磊2024年第四期
近年來,隨著相關(guān)算法、仿真平臺(tái)、訓(xùn)練框架、硬件和工具鏈的成熟,深度強(qiáng)化學(xué)習(xí)DRL(Deep Reinforcement Learning)控制方法在無人機(jī)、腿足機(jī)器人(四足、雙足、人形等)、自動(dòng)駕駛等機(jī)器人運(yùn)動(dòng)控制領(lǐng)域展露頭角,取得了令人印象深刻的控制效果,體現(xiàn)出了優(yōu)越的魯棒性和泛化能力。
文/李磊
近年來,隨著相關(guān)算法、仿真平臺(tái)、訓(xùn)練框架、硬件和工具鏈的成熟,深度強(qiáng)化學(xué)習(xí)DRL(Deep Reinforcement Learning)控制方法在無人機(jī)、腿足機(jī)器人(四足、雙足、人形等)、自動(dòng)駕駛等機(jī)器人運(yùn)動(dòng)控制領(lǐng)域展露頭角,取得了令人印象深刻的控制效果,體現(xiàn)出了優(yōu)越的魯棒性和泛化能力。對(duì)于這些典型的欠驅(qū)動(dòng)系統(tǒng)(Underactuated System),強(qiáng)化學(xué)習(xí)端到端(End-to-End)的控制方案正在取代基于模型的控制中(規(guī)劃-跟蹤控制-狀態(tài)估計(jì))分層、模塊化控制方案,成為學(xué)術(shù)界和工業(yè)界追逐的潮流。
基于模型的控制方案中,劃分各個(gè)控制模塊的做法在某種意義可以視為手動(dòng)特征工程,而這一點(diǎn)恰好正好是深度學(xué)習(xí)這類方法的優(yōu)勢(shì)(自動(dòng)特征工程)。然而,拋去自動(dòng)特征工程的優(yōu)勢(shì),端到端方案也面臨著獎(jiǎng)勵(lì)稀疏、可解釋性差、訓(xùn)練-部署實(shí)施周期長(zhǎng)的問題,抹去了基于模型的模塊化方法帶來的模塊化設(shè)計(jì)、調(diào)試便利和物理可解釋性強(qiáng)等優(yōu)勢(shì),加上動(dòng)力學(xué)對(duì)象本身帶來的穩(wěn)定性、可靠性憂慮,阻礙了深度強(qiáng)化學(xué)習(xí)方法在實(shí)際中的部署。事實(shí)上,從事深度強(qiáng)化學(xué)習(xí)控制的人來自不同的專業(yè)背景(來自計(jì)算機(jī)領(lǐng)域、或者機(jī)電、控制、自動(dòng)化等領(lǐng)域)對(duì)于深度強(qiáng)化學(xué)習(xí)控制勢(shì)必會(huì)發(fā)展采取不同的態(tài)度。
從另一方面來看,對(duì)于欠驅(qū)動(dòng)系統(tǒng)的運(yùn)動(dòng)控制,必須考慮長(zhǎng)期效應(yīng)使得優(yōu)化控制(Control as Optimization)已經(jīng)成為主流控制范式,無論是軌跡優(yōu)化TO、模型預(yù)測(cè)控制MPC還是強(qiáng)化學(xué)習(xí)方法,本質(zhì)是用不同的方法求解同一類運(yùn)動(dòng)控制問題,也出現(xiàn)了諸如基于模型+深度強(qiáng)化學(xué)習(xí)相結(jié)合的控制方法,以更好利用兩者的優(yōu)勢(shì)。
基于上述背景,本文在參考相關(guān)資料的基礎(chǔ)上(見文章結(jié)尾介紹),希望對(duì)以下問題做出初步梳理,以便加強(qiáng)理解:深度強(qiáng)化學(xué)習(xí)的背后的基本原理是什么?其求解最優(yōu)控制的思路與傳統(tǒng)基于模型的優(yōu)化控制(MPC、TO)有何差異?由于暫時(shí)尚無機(jī)會(huì)從事相關(guān)方面的系統(tǒng)研究,因此相關(guān)分析主要依據(jù)公開文獻(xiàn)整理和總結(jié)而來,不當(dāng)之處,歡迎討論糾正。
1 強(qiáng)化學(xué)習(xí)介紹
強(qiáng)化學(xué)習(xí)RL(Reinforcement Learning)針對(duì)作為主體的智能體(Agent)與作為客體的未知環(huán)境(Unkonwn Environment)交互的多步、序貫決策過程,通過試錯(cuò)(Trial-and-Error)方法,求解最優(yōu)策略(最大化累積獎(jiǎng)勵(lì)或長(zhǎng)期回報(bào),這些長(zhǎng)期回報(bào)對(duì)應(yīng)著預(yù)設(shè)的性能指標(biāo))的一類問題。環(huán)境未知、持續(xù)多步的決策過程(當(dāng)前決策會(huì)帶來長(zhǎng)期影響)是強(qiáng)化學(xué)習(xí)問題需要解決的兩大挑戰(zhàn)。
與其他機(jī)器學(xué)習(xí)方法不同,強(qiáng)化學(xué)習(xí)擁有的是環(huán)境,而不是數(shù)據(jù),其目的并不是發(fā)現(xiàn)已有數(shù)據(jù)(從環(huán)境中隨機(jī)采樣)背后的特征、規(guī)律和分布特點(diǎn)(非監(jiān)督學(xué)習(xí)),或者找到數(shù)據(jù)之間的復(fù)雜映射關(guān)系(監(jiān)督學(xué)習(xí)),而是通過自主選擇與環(huán)境交互的方式,產(chǎn)生有價(jià)值的交互數(shù)據(jù)(這里的價(jià)值是相對(duì)于目標(biāo)而言的,即能夠幫助求解最優(yōu)策略的數(shù)據(jù)),找到更好適應(yīng)環(huán)境的的方式(獲得更多獎(jiǎng)勵(lì))。深度強(qiáng)化學(xué)習(xí)(Deep RL)則利用深度神經(jīng)網(wǎng)絡(luò)這類方法強(qiáng)大的特征提取和近似能力,在回報(bào)函數(shù)引導(dǎo)下提取狀態(tài)信息的深層特征并建立這些深層特征與長(zhǎng)期回報(bào)的決策相關(guān)性的過程,其求解復(fù)雜決策問題的思路仍然以強(qiáng)化學(xué)習(xí)的求解優(yōu)化問題的基本思路為主(值迭代和策略迭代),增加的是如何設(shè)計(jì)和訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)以盡可能無偏、確定性地(方差)近似各種價(jià)值函數(shù),這些價(jià)值函數(shù)表征著當(dāng)前動(dòng)作和狀態(tài)的長(zhǎng)期回報(bào)。因此對(duì)于深度強(qiáng)化學(xué)習(xí)來說,最重要的不是深度神經(jīng)網(wǎng)絡(luò),而是對(duì)強(qiáng)化學(xué)問題基本原理和所涉及的具體決策場(chǎng)景的深入理解。
2 強(qiáng)化學(xué)習(xí)基本原理
強(qiáng)化學(xué)習(xí)其通常面臨兩個(gè)問題:數(shù)據(jù)效率(Data Efficiency)和計(jì)算效率(求解最優(yōu)策略),我們既要考慮產(chǎn)生有價(jià)值的交互數(shù)據(jù),又要考慮如何從交互數(shù)據(jù)中學(xué)習(xí)最佳策略。其中數(shù)據(jù)效率即如何有針對(duì)性地(而不是隨機(jī)產(chǎn)生或者完全自由探索產(chǎn)生的數(shù)據(jù),這些數(shù)據(jù)可能在與最優(yōu)策略相關(guān)的區(qū)域分布較少,從數(shù)據(jù)難以得到較好的策略,如考試中老師劃重點(diǎn)可能會(huì)幫助我們得到高分,盲目復(fù)習(xí)可能得分較低)產(chǎn)生我們感興趣的或者對(duì)于目標(biāo)有幫助的交互數(shù)據(jù)。比如,在多個(gè)選項(xiàng)中進(jìn)行決策時(shí),對(duì)于較差的選項(xiàng),我們不需要知道有多差,對(duì)于看起來較好的選項(xiàng),我們需要準(zhǔn)確低估計(jì)到底有多好,以便選擇最好的,因此需要較多看起來比較好的選項(xiàng)相關(guān)的數(shù)據(jù),但是終究我們無法真正確定是不是還有更好的,因此我們需要的交互數(shù)據(jù)應(yīng)該既是“與當(dāng)前判斷最佳選項(xiàng)比較接近的”,但又必須是“有所不同的”,這也是強(qiáng)化學(xué)習(xí)中十分重要的基礎(chǔ)問題:探索-利用(Exploration-exploitation)平衡問題,即在未知環(huán)境下,如何通過有限次的主動(dòng)交互(有效的交互數(shù)據(jù)),相對(duì)準(zhǔn)確估計(jì)并確定最佳選項(xiàng)。
對(duì)于持續(xù)多步的決策過程,基于馬爾科夫決策過程MDP假設(shè)(MDP假設(shè)下一步的狀態(tài)僅僅由當(dāng)前狀態(tài)和動(dòng)作決定,即只需要根據(jù)當(dāng)前狀態(tài)和動(dòng)作便可以計(jì)算下一步狀態(tài)的分布)帶來的每一步對(duì)應(yīng)的成本/獎(jiǎng)勵(lì)可加性和動(dòng)態(tài)規(guī)劃思想,強(qiáng)化學(xué)習(xí)將當(dāng)前動(dòng)作以及后續(xù)持續(xù)多步?jīng)Q策過程的影響分離開,并利用通過巧妙地定義各種價(jià)值函數(shù)(按照最優(yōu)策略走才能兌現(xiàn)價(jià)值)排除掉后續(xù)不同決策組合帶來的無窮可能性, 將互相關(guān)聯(lián)的多步?jīng)Q策對(duì)長(zhǎng)期回報(bào)影響轉(zhuǎn)化為單步?jīng)Q策問題的回報(bào)影響,為利用值迭代或者策略梯度方法奠定基礎(chǔ),從而簡(jiǎn)化最優(yōu)策略的求解。
不同于監(jiān)督學(xué)習(xí),強(qiáng)化學(xué)習(xí)中深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中并沒有明確的標(biāo)簽/監(jiān)督信息,只能靠獎(jiǎng)勵(lì)函數(shù)進(jìn)行引導(dǎo)(強(qiáng)化學(xué)習(xí)的目標(biāo)是最大化累積獎(jiǎng)勵(lì),因此引導(dǎo)的方向是增加體現(xiàn)出較高價(jià)值/累積獎(jiǎng)勵(lì)的狀態(tài)-動(dòng)作映射的權(quán)重,以便智能體記住有用的技能/動(dòng)作,這種較高價(jià)值的狀態(tài)-動(dòng)作映射出現(xiàn)得越多,學(xué)習(xí)過程越快,也越能準(zhǔn)確得到最有效的動(dòng)作),如果引導(dǎo)信息較少(即稀疏回報(bào)問題),則無疑會(huì)增加強(qiáng)化學(xué)習(xí)的訓(xùn)練難度和成功率,這也是強(qiáng)化學(xué)習(xí)目前應(yīng)用于一些復(fù)雜技能學(xué)習(xí)的難點(diǎn)。因此基于對(duì)任務(wù)目標(biāo)、流程和業(yè)務(wù)細(xì)節(jié)的理解格外重要,這些理解能夠引導(dǎo)獎(jiǎng)勵(lì)函數(shù)函數(shù)的設(shè)計(jì)(因此,實(shí)際才有獎(jiǎng)勵(lì)工程的說法,一些控制人物的獎(jiǎng)勵(lì)函數(shù)項(xiàng)可以達(dá)到十項(xiàng)以上)。
具體到深度強(qiáng)化學(xué)習(xí)的不同方法,基于值迭代的方法(如各類DQN算法)本質(zhì)上是擬合逼近獎(jiǎng)勵(lì)函數(shù)定義下的客觀存在的、真實(shí)的動(dòng)作-狀態(tài)價(jià)值(因此可以利用經(jīng)驗(yàn)回放等離線數(shù)據(jù)改進(jìn)狀態(tài)價(jià)值估計(jì)),然后利用估計(jì)好的狀態(tài)-動(dòng)作價(jià)值函數(shù)進(jìn)行決策;而策略梯度算法AC(Actor-Critic即演員-評(píng)論家)架構(gòu)中,Actor與環(huán)境交互產(chǎn)生單步狀態(tài)轉(zhuǎn)移數(shù)據(jù),Critic網(wǎng)絡(luò)估計(jì)單步狀態(tài)-動(dòng)作優(yōu)勢(shì)函數(shù)(將策略的影響劃分到單步上),逐漸增大能夠帶來較大回報(bào)的單步狀態(tài)-動(dòng)作概率,最終使得能夠帶來最大價(jià)值回報(bào)的動(dòng)作能夠以最高的幾率被選中,即實(shí)現(xiàn)最優(yōu)策略。值得注意的是,無論對(duì)于值迭代方法和策略梯度方法,探索-利用平衡問題貫穿始終,以避免錯(cuò)失潛在最優(yōu)動(dòng)作。
綜上,從與環(huán)境交互產(chǎn)生數(shù)據(jù)和基于交互數(shù)據(jù)優(yōu)化策略兩個(gè)方面來說,強(qiáng)化學(xué)習(xí)的基本原理可總結(jié)如下:
為此,我們只有對(duì)智能體進(jìn)行初步訓(xùn)練,當(dāng)它有了初步的分辨能力之后就能夠判斷并產(chǎn)生相對(duì)更加“重要”的數(shù)據(jù)。然后,智能體又會(huì)用這些數(shù)據(jù)優(yōu)化自身的策略,并能夠更準(zhǔn)確地判斷哪些數(shù)據(jù)更加“重要”。隨后,它又能夠更有針對(duì)性地從環(huán)境中產(chǎn)生更加有價(jià)值的數(shù)據(jù),并進(jìn)一步優(yōu)化自身的策略。將這個(gè)過程迭代下去,便是一個(gè)“越學(xué)越強(qiáng)”的過程。這也正是“強(qiáng)化學(xué)習(xí)”這個(gè)名稱的由來。 ——《強(qiáng)化學(xué)習(xí)》余欣航
3 與優(yōu)化控制的聯(lián)系
得益于強(qiáng)化學(xué)習(xí)對(duì)價(jià)值的定義(即考慮當(dāng)前動(dòng)作帶來的長(zhǎng)期影響)以及策略網(wǎng)絡(luò)類似于狀態(tài)反饋控制的形式,深度強(qiáng)化學(xué)習(xí)控制即具備強(qiáng)大的規(guī)劃能力(Predictive)也具備即時(shí)反應(yīng)能力(Reactive),加上深度神經(jīng)網(wǎng)絡(luò)自動(dòng)關(guān)聯(lián)和提取隱藏特征(對(duì)于狀態(tài)輸入)以及萬能逼近(對(duì)于策略網(wǎng)絡(luò))的優(yōu)勢(shì),這也是深度強(qiáng)化學(xué)習(xí)能夠?qū)崿F(xiàn)端到端規(guī)劃控制一體化的根本原因,也是目前深度強(qiáng)化學(xué)習(xí)在無人機(jī)、腿足機(jī)器人等欠驅(qū)動(dòng)動(dòng)力學(xué)系統(tǒng)成為SOTA算法的原因。
在使用強(qiáng)化學(xué)習(xí)解決實(shí)際動(dòng)力學(xué)控制問題時(shí),我們必須將問題轉(zhuǎn)化為強(qiáng)化學(xué)習(xí)的標(biāo)準(zhǔn)數(shù)學(xué)模型-MDP,然而才能使用強(qiáng)化學(xué)習(xí)相關(guān)工具和算法解決問題,這就涉及到動(dòng)作空間、狀態(tài)空間以及獎(jiǎng)勵(lì)函數(shù)的設(shè)計(jì)以及對(duì)應(yīng)任務(wù)回合(Episode)設(shè)定(如該回合中的環(huán)境設(shè)定、任務(wù)中止條件等,對(duì)應(yīng)著與環(huán)境產(chǎn)生何種交互數(shù)據(jù))。目前,深度強(qiáng)化學(xué)習(xí)控制一般采用先在仿真環(huán)境中訓(xùn)練出策略,后實(shí)際遷移部署的范式,需要格外注意的是:
l 狀態(tài)空間的設(shè)計(jì)應(yīng)該滿足MDP假設(shè),包含歷史動(dòng)作、指令信息、環(huán)境信息等影響當(dāng)前動(dòng)力學(xué)特性的信息;
l 深度強(qiáng)化學(xué)習(xí)控制中,Sim2Real的差距是一個(gè)值得注意的問題,其本質(zhì)問題時(shí)仿真環(huán)境中產(chǎn)生的環(huán)境交互數(shù)據(jù)不一定能夠代表實(shí)際環(huán)境中的狀態(tài)(如狀態(tài)分布規(guī)律、狀態(tài)轉(zhuǎn)移特性)。如對(duì)于機(jī)器人系統(tǒng)來說,機(jī)器人自身動(dòng)力學(xué)特性(控制延遲、噪聲、誤差以及外部干擾等)以及環(huán)境參數(shù)(如地形物理和幾何特性)本身就是狀態(tài)的一部分,在仿真環(huán)境中未必能準(zhǔn)確反映,應(yīng)該采用合適的方法處理(如參數(shù)隨機(jī)化等)。
從傳統(tǒng)優(yōu)化控制的視角(環(huán)境/模型已知)來看,深度強(qiáng)化學(xué)習(xí)控制和優(yōu)化控制的聯(lián)系可以用圖1表示。其中在求解最優(yōu)策略方面,策略梯度和值迭代分別借鑒了控制泛函(龐特里亞金極大值原理)和動(dòng)態(tài)規(guī)劃的思想,這兩種優(yōu)化控制方法由于數(shù)值求解難度較大(如維度爆炸)目前在機(jī)器人優(yōu)化控制領(lǐng)域(狀態(tài)、控制連續(xù))已經(jīng)較少應(yīng)用。
圖1 深度強(qiáng)化學(xué)習(xí)與優(yōu)化控制聯(lián)系
機(jī)器人優(yōu)化控制領(lǐng)域常見的為直接方法,即利用模型信息(離線環(huán)境信息),推導(dǎo)出目標(biāo)函數(shù)、約束條件等解析表達(dá)式,將問題Formulate成模型預(yù)測(cè)控制MPC/軌跡優(yōu)化TO問題,并直接轉(zhuǎn)化為非線性規(guī)劃NLP(Nonlinear Programming)問題,按照是否同時(shí)優(yōu)化狀態(tài)變量和控制輸入,進(jìn)一步可以分為單步打靶法(Single Shooting method)和(多步打靶法和直接配點(diǎn)法)。單步打靶類方法如(動(dòng)態(tài)微分規(guī)劃DDP或者迭代線性二次調(diào)節(jié)器iLQR)借鑒了狀態(tài)價(jià)值函數(shù)和狀態(tài)-動(dòng)作價(jià)值函數(shù)的概念,并基于策略迭代的思路求解最優(yōu)控制,加上通過一些數(shù)值方法能夠處理相關(guān)約束,近年來逐步得到推廣應(yīng)用。
而對(duì)于其他方法,則是利用非線性規(guī)劃思路,通過數(shù)值迭代(注意非價(jià)值迭代或者策略迭代)直接整體求解出相關(guān)整體最優(yōu)控制和控制,是與強(qiáng)化學(xué)習(xí)控制截然不同的求解思路。值得注意的是,從近似動(dòng)態(tài)規(guī)劃的角度來看,MPC可以理解為將未來代價(jià)近似為0(未來長(zhǎng)期代價(jià)可以認(rèn)為沒這么重要,可以忽略),而僅僅做預(yù)測(cè)窗口內(nèi)的優(yōu)化(一般為秒級(jí)別內(nèi)的機(jī)器人動(dòng)態(tài)),這種處理方式保證了實(shí)時(shí)求解的速度,但由于忽略長(zhǎng)期動(dòng)態(tài)影響,可能會(huì)帶來穩(wěn)定性方面的考慮。然而,從另一方面來看,目前大多強(qiáng)化學(xué)習(xí)算法都通過負(fù)獎(jiǎng)勵(lì)項(xiàng)處理約束(這也是強(qiáng)化學(xué)習(xí)的獎(jiǎng)勵(lì)項(xiàng)較多的原因之一),安全強(qiáng)化學(xué)習(xí)或者限制MDP過程的最優(yōu)決策是值得注意的方向。
4 總結(jié)
本文嘗試對(duì)深度強(qiáng)化學(xué)習(xí)的背后的基本原理以及其與傳統(tǒng)基于模型的優(yōu)化控制(MPC、TO)有何差異進(jìn)行了初步分析和梳理,其中涉及到大量的細(xì)節(jié)仍有待深入分析和實(shí)踐驗(yàn)證。如同其他控制算法一樣,雖然深度強(qiáng)化學(xué)習(xí)控制在機(jī)器人運(yùn)動(dòng)控制領(lǐng)域目前已經(jīng)成為潮流,但實(shí)際應(yīng)用中,應(yīng)該結(jié)合其本質(zhì)原理和具體問題分析進(jìn)行應(yīng)用。
在試圖梳理相關(guān)概念的過程中,讀到很多有啟發(fā)性的圖書和讀書筆記,這里一一列出,并表示感謝。西湖大學(xué)趙老師的《強(qiáng)化學(xué)習(xí)的數(shù)學(xué)原理》,脈絡(luò)清晰、循序漸進(jìn)地解釋了強(qiáng)化學(xué)習(xí)背后的基本數(shù)學(xué)原理及其對(duì)應(yīng)的求解方法(貝爾曼最優(yōu)方程),對(duì)深度強(qiáng)化學(xué)習(xí)進(jìn)行了祛魅。余欣航老師的《強(qiáng)化學(xué)習(xí)》教材(最近剛出版,已經(jīng)入手收藏,本文一些文字幾乎是復(fù)制這本書)則以富有洞見的文字清楚解釋了強(qiáng)化學(xué)習(xí)重要概念(如探索與平衡)和主要思路,并且加入優(yōu)化控制的視角,加深了對(duì)相關(guān)概念的理解。魏寧老師的深度強(qiáng)化學(xué)習(xí)落地指南則從實(shí)際落地的角度,格外強(qiáng)調(diào)了在對(duì)實(shí)際業(yè)務(wù)問題深度理解的基礎(chǔ)上,如何有針對(duì)性地進(jìn)行動(dòng)作、狀態(tài)與獎(jiǎng)勵(lì)函數(shù)的協(xié)同設(shè)計(jì),避免盲目套用算法。王源老師的《強(qiáng)化學(xué)習(xí)與最優(yōu)控制》讀書筆記,則從近似動(dòng)態(tài)規(guī)劃(差分思想)的強(qiáng)度,將MPC/TO、強(qiáng)化學(xué)習(xí)放在了同一個(gè)視角下進(jìn)行了對(duì)比分析。最后加上MIT的Russ Tedrake 教授在欠驅(qū)動(dòng)動(dòng)力學(xué)系統(tǒng)中著重強(qiáng)調(diào)的必須考慮長(zhǎng)期動(dòng)態(tài)影響以及對(duì)優(yōu)化控制方法的分析,以上都是非常好的深度強(qiáng)化學(xué)習(xí)控制入門學(xué)習(xí)資料,一并推薦。
中傳動(dòng)網(wǎng)版權(quán)與免責(zé)聲明:
凡本網(wǎng)注明[來源:中國(guó)傳動(dòng)網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國(guó)傳動(dòng)網(wǎng)(www.surachana.com)獨(dú)家所有。如需轉(zhuǎn)載請(qǐng)與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個(gè)人轉(zhuǎn)載使用時(shí)須注明來源“中國(guó)傳動(dòng)網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。
本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請(qǐng)保留稿件來源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。
如涉及作品內(nèi)容、版權(quán)等問題,請(qǐng)?jiān)谧髌钒l(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運(yùn)動(dòng)控制公眾號(hào)獲取更多資訊

關(guān)注直驅(qū)與傳動(dòng)公眾號(hào)獲取更多資訊

關(guān)注中國(guó)傳動(dòng)網(wǎng)公眾號(hào)獲取更多資訊

掃碼關(guān)注小程序
時(shí)刻關(guān)注行業(yè)動(dòng)態(tài)



填寫郵件地址,訂閱更多資訊:
撥打電話咨詢:13751143319 余女士
郵箱:chuandong@chuandong.cn
- 運(yùn)動(dòng)控制
- 伺服系統(tǒng)
- 機(jī)器視覺
- 機(jī)械傳動(dòng)
- 編碼器
- 直驅(qū)系統(tǒng)
- 工業(yè)電源
- 電力電子
- 工業(yè)互聯(lián)
- 高壓變頻器
- 中低壓變頻器
- 傳感器
- 人機(jī)界面
- PLC
- 電氣聯(lián)接
- 工業(yè)機(jī)器人
- 低壓電器
- 機(jī)柜