亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度強化學(xué)習(xí)已經(jīng)達到了盡頭?

DPVg_AI_era ? 來源:lq ? 2019-04-29 08:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近日,Reddit一位網(wǎng)友根據(jù)近期OpenAI Five、AlphaStar的表現(xiàn),提出“深度強化學(xué)習(xí)是否已經(jīng)到達盡頭”的問題。此問題一出便引起了眾網(wǎng)友的熱烈討論,觀點向一邊倒:根本沒到盡頭!

深度強化學(xué)習(xí)已經(jīng)達到了盡頭?

前幾日,OpenAI Five擺擂三天,以99%的勝率秒殺人類玩家。但值得注意的是,OpenAI Five是接受了45000年的訓(xùn)練,而人類只通過一天的時間便找到了戰(zhàn)勝它的策略。

OpenAI Five和AlphaStar都是深度強化學(xué)(DRL)最大規(guī)模、最精細的實現(xiàn)方式。但即便是AlphaStar上場,估計結(jié)果都是一樣的。

Reddit網(wǎng)友便針對此現(xiàn)象,拋出了這樣一個問題:

有很多研究正在進行,以使DRL更具數(shù)據(jù)效率,并使深度學(xué)習(xí)對于分布不均和對抗性的例子更加強大,但與人類的差距是如此極端以至于我懷疑是不是快要達到深度學(xué)習(xí)的極限了?亦或還是有希望能夠推動范式的發(fā)展?

許多網(wǎng)友比較傾向的觀點是:根本沒有達到所謂的極限,而只是可能到了人們不再用“智能”這樣的詞來談?wù)揇RL的地步。

網(wǎng)友hobbesfanclub認為:

我覺得我們才剛剛開始。每天都有很多東西被釋放出來,我甚至都跟不上。幾天前我認為是最先進的技術(shù)突然間就不存在了,因為在這個領(lǐng)域里有大量的工作要做。對于我們這些在這一領(lǐng)域工作的人來說,這些進步仍然是令人難以置信的,在我看來,真正令人印象深刻的是,這些技術(shù)在整體上仍然非常年輕……

網(wǎng)友adventuringraw認為:

這是一個很有趣的問題,關(guān)于深度學(xué)習(xí)本身也有類似的討論——我們已經(jīng)達到神經(jīng)網(wǎng)絡(luò)的極限了嗎?如果沒有根本性的范式轉(zhuǎn)變,是否更不可能?

但是你看,在神經(jīng)網(wǎng)絡(luò)上有各種各樣的方法,這些方法在2012年可能會讓一些人大吃一驚。很明顯,GAN、VAE、神經(jīng)風(fēng)格遷移、深度強化學(xué)習(xí)本身就屬于神經(jīng)網(wǎng)絡(luò)范疇內(nèi),與其說深學(xué)習(xí)被取代了,不如說它被置于“堆?!敝铝恕K且粋€組成部分,一個解決問題的策略,一種思考方式。即使是深度網(wǎng)絡(luò)自己,也是建立在過去各種進步和見解的基礎(chǔ)上的。

我個人的想法是:這似乎是無模型方法的一個基本問題。你需要在特征空間中進行密集的覆蓋,或者換句話說,你知道在一個已經(jīng)完全探索過的領(lǐng)域里該做什么,但你不一定能夠推斷和推理出新的環(huán)境,你需要一個全局模型來進行推理。

我之前看過基于Google Brain的'SimPLe'模型的RL論文,開始向基于模型的RL過渡并不是一個全新的概念。但是在我們得到一個能夠在空間中進行抽象推理的智能體之前,還有一些嚴(yán)重的問題有待解決:

它如何學(xué)習(xí)空間中相關(guān)的獨立實體、動作、等等?

它能在無人監(jiān)督的情況下完成嗎?

它如何將當(dāng)前的世界理解壓縮為一個更低的維度表示,從而完美地捕捉到解決當(dāng)前問題最需要的維度?

它能學(xué)會周圍環(huán)境的地圖嗎?

創(chuàng)建分層長期計劃的最佳方法是什么?

......

即使只使用圖像分類,我們?nèi)匀缓茈y提取基于形狀的特征而不是基于紋理的特征。一般來說,局部模式似乎比全局模式更容易獲取,所以我想OpenAI Five更容易利用局部模式所采用的策略,這使得它很容易受到具有正確洞察力的玩家的攻擊。

我一直在讀Judea Pearl的《因果關(guān)系》(Causality),有一些有趣的東西是值得思考的。我不認為他的因果關(guān)系模型是我們需要讓智能體明確地向世界學(xué)習(xí)什么東西,但是若是讓一個智能體能夠完全適應(yīng)新環(huán)境并在宏觀規(guī)模上進行規(guī)劃的整體似乎是需要它能夠反事實地推理,并對它自己的世界有一個強有力的理解。

考慮到我們才剛剛開始了解創(chuàng)建一個魯棒的圖像分類器需要什么(即使是在有監(jiān)督的環(huán)境中,更不用說無監(jiān)督的環(huán)境了),我認為在深度強化學(xué)習(xí)完全成長之前,我們已經(jīng)有了一些基礎(chǔ)理論。

但非常瘋狂的事情是,我們似乎正在逐步消除了這些障礙。而另一方面,卻出現(xiàn) 了一個可以玩Dota2、學(xué)會合作、學(xué)會對世界進行推理的無監(jiān)督系統(tǒng),這似乎讓人覺得我們快要到達技術(shù)的頂尖了,但實際上并沒有。所以我對于OpenAI沒有到達那個點并不感到驚訝。但對于接下來即將發(fā)生的事情還是抱有很大的期待的。

該問題似乎在reddit的討論熱度很高,但是縱觀網(wǎng)友們的評論,可以很容易看出對這個問題的看法是向一邊傾倒的:

深度強化學(xué)習(xí)遠未及極限,還有很長的一段路要走。

“寒冬論”四起,榮耀屬于熬過寒冬的人

但其實,人們不僅會對深度強化學(xué)習(xí)提出“寒冬論”的言論,深度學(xué)習(xí)亦是如此。

多年來,深度學(xué)習(xí)一直處于所謂的人工智能革命的最前沿,許多人相信深度學(xué)習(xí)將帶領(lǐng)我們進入通用AI時代。在2014,2015,2016年,很多事件每每推動人們對 Ai的理解邊界。例如Alpha Go等。特斯拉等公司甚至宣稱:全自動駕駛汽車正在路上。

但是現(xiàn)在,2018年中期,事情開始發(fā)生變化。從表面上看,NIPS會議仍然很火,關(guān)于AI的新聞也很多,Elon Mask仍然看好自動駕駛汽車,而Google CEO不斷重申Andrew Ng的口號,即AI比電力作出了更大的貢獻。但是這些言論已經(jīng)開始出現(xiàn)裂紋。裂紋最明顯的地方是自動駕駛- 這種現(xiàn)實世界中的實際應(yīng)用。

當(dāng)ImageNet有了很好的解決方案(注意這并不意味著視覺問題得到已經(jīng)解決),該領(lǐng)域的許多杰出研究人員(甚至包括一直保持低調(diào)的Geoff Hinton)都在積極地接受采訪,在社交媒體上發(fā)布內(nèi)容(例如Yann Lecun,吳恩達,李飛飛等)。他們的話,可以總結(jié)為:世界正處在一場巨大的AI革命中。然而,好幾年已經(jīng)過去了,這些人的Twitter信息變得不那么活躍了,比如 Andrew Ng:

2013年 - 每天0.413推文

2014 年- 每天0.605條推文

2015 -每天0.320條推文

2016 -每天0.802推文

2017 -每天0.668推文

2018 -每天0.263推文(至5月24日)

也許這是因為Andrew 的某些夸張言論,在當(dāng)下會被進行更詳細的審查,如下面的推文所示:

不可否認,深度學(xué)習(xí)的熱度已經(jīng)大大下降,贊美深度學(xué)習(xí)作為AI終極算法的推文少得多了,而且論文正在變得不那么“革命”,現(xiàn)在大家換了個詞,叫:進化。

自從Alpha Zero以來,DeepMind已經(jīng)許久沒有產(chǎn)出令人驚嘆的東西了。OpenAI更是相當(dāng)?shù)牡驼{(diào),他們最近一次出現(xiàn)在媒體的報道上,是他們做了一個自動打Dota 2的機器人 [我一開始以為,這是跟 Alpha Go 一樣的偉大,然后后來證明,并不是]。

從某些文章來看,貌似Google實際上并不知道如何處理Deepmind,因為他們的結(jié)果顯然不如原先預(yù)期的那么實際......至于杰出的研究人員,他們一般都為了funding 在各種政府機構(gòu)間游走,Yann Lecun甚至從 Facebook的AI首席科學(xué)家的位置上下臺了。

像這種從富有的大公司向政府資助的研究機構(gòu)的逐漸轉(zhuǎn)變表明,這些公司對這類研究的興趣(我認為是谷歌和Facebook)實際上正在慢慢消失。這些都是早期跡象,沒有人大聲的宣揚,但這些行動就像肢體語言,也能傳達某種意思。

深度學(xué)習(xí)的一個重要口號是它可以輕松的擴展。我們在2012年擁有60M參數(shù)的AlexNet,現(xiàn)在我們已經(jīng)有至少1000倍的數(shù)量的模型了嗎?好吧,我們可能會這樣做,但問題是 - 這些東西有1000x的能力提升嗎?100倍的能力?openAI的研究派上用場:

因此,就視覺應(yīng)用而言,我們看到VGG和Resnets在計算資源應(yīng)用的一個數(shù)量級上飽和(就參數(shù)數(shù)量而言實際上較少)。Xception是谷歌Inception架構(gòu)的一種變體,實際上它在ImageNet上的表現(xiàn)只是略微優(yōu)于其他模型,因為AlexNet基本上解決了ImageNet。

因此,在比AlexNet計算量提高100倍的情況下,我們在視覺方面已經(jīng)有了近乎飽和的體系結(jié)構(gòu),換句話說,圖像分類的精確已經(jīng)提不動了。

神經(jīng)機器翻譯是所有大型網(wǎng)絡(luò)搜索玩家(google, baidu, yahoo 等)的一大努力,難怪它有多少機器就用多少機器(盡管谷歌翻譯仍然很糟糕,雖然已經(jīng)在變得更好了)。

該圖上的最新三點有趣地顯示了Deep Mind和OpenAI應(yīng)用于游戲的強化學(xué)習(xí)相關(guān)項目。特別是AlphaGo Zero和稍微更通用的Alpha Zero需要大量計算,但不適用于真實世界的應(yīng)用程序,因為需要大量計算來模擬和生成這些數(shù)據(jù)來供這些模型使用。

好的,現(xiàn)在我們可以在幾分鐘內(nèi)完成AlexNet的訓(xùn)練,但是我們可以在幾天內(nèi)訓(xùn)練一個比AlexNet大1000倍,質(zhì)量更好的模型嗎?顯然不是。

迄今為止,對深度學(xué)習(xí)的聲譽打擊最大的事件來自自動駕駛領(lǐng)域。一開始人們認為End-to-End的深度學(xué)習(xí)可以以某種方式解決自動駕駛問題 (Nvidia特別推崇這一理念)?,F(xiàn)在我覺得地球上應(yīng)該沒有人還相信這一點(盡管我可能是錯的)。

看看前年加州車輛管理局DMV給各個廠商的自動駕駛車輛人為干預(yù)報告,Nvidia的自動駕駛汽車在缺少人為干預(yù)的情況下,連開10英里都做不到。

自2016年以來,特斯拉自動駕駛系統(tǒng)發(fā)生了幾起事故,其中一些事件是致命的??梢哉f,特斯拉的自動駕駛輔助技術(shù)不應(yīng)該與自動駕駛混淆起來雖然在核心上它依賴于同一種技術(shù)。

都到今天了,它仍然不能自動停在路口,不能識別交通信號燈,甚至不能通過環(huán)形交叉路口。那是在2018年5月,在承諾特斯拉將自動駕駛從西海岸開到東海岸的幾個月后(盡管傳言是他們已經(jīng)嘗試過但是在小于30次人工干預(yù)的情況下無法實現(xiàn))。幾個月前(2018年2月),伊隆馬斯克(Elon Musk)在一次電話會議上被問及海岸到海岸的行駛問題時重復(fù)說到:

“我們本可以實現(xiàn)海岸到海岸的駕駛,但它需要太多的專門代碼來有效地進行游戲;或者使代碼變得脆弱一些,這樣它只適用于一個特定的路線,這不是通用的解決方案。

我對神經(jīng)網(wǎng)絡(luò)方面取得的進展感到非常興奮。但是看起來并沒有太多的進展。它會覺得這是一個蹩腳的司機。就像…好吧,這是一個非常好的司機。像“Holy Cow!”

因此,有許多人開始對深度學(xué)習(xí)提出“寒冬論”:

預(yù)測人工智能的冬天就像是猜測股市崩盤一樣——不可能精確地知道發(fā)生的時間,但幾乎可以肯定會在某個時刻發(fā)生,就像股市崩盤之前,有跡象表明會發(fā)生危機,但在當(dāng)時的環(huán)境中,卻很容易被大家忽視。

在我看來,深度學(xué)習(xí)已經(jīng)出現(xiàn)了明顯的下降跡象。我并不知道這個冬天會有多“深度”,我也不知道接下來會發(fā)生什么,但我可以肯定,這個冬天一定會來臨,并且只會來的比想象的要早。

然而,上個月2018年圖靈獎公布,深度學(xué)習(xí)三巨頭:Yoshua Bengio、Geoffrey Hinton、Yann LeCun獲獎,三人瓜分100萬美元獎金。

Yann LeCun、Geoffrey Hinton、Yoshua Bengio

去年,”深度學(xué)習(xí)寒冬論“頻起,三位大神也在多個場合對”寒冬“做出了回應(yīng)。實際上,三人對“寒冬”早有抗體,在上世紀(jì)八十年代,Geoffrey Hinton等人坐了數(shù)年的冷板凳,直到本世紀(jì)AI的再度爆發(fā)。

不僅如此,Geoffrey Hinton還提出新的神經(jīng)網(wǎng)絡(luò)模型Capsule Network(膠囊網(wǎng)絡(luò)),試圖找到解決深度學(xué)習(xí)缺陷的新方法,這位71歲的老人熬過最冷的AI冬天,并且認定下一個“冬天”不會到來。

事實證明,榮耀是屬于熬過寒冬的人。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49595

    瀏覽量

    260051
  • 自動駕駛
    +關(guān)注

    關(guān)注

    791

    文章

    14604

    瀏覽量

    175223
  • 強化學(xué)習(xí)
    +關(guān)注

    關(guān)注

    4

    文章

    269

    瀏覽量

    11868

原文標(biāo)題:靈魂一問:深度強化學(xué)習(xí)終到盡頭?

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    今日看點:智元推出真機強化學(xué)習(xí);美國軟件公司SAS退出中國市場

    智元推出真機強化學(xué)習(xí),機器人訓(xùn)練周期從“數(shù)周”減至“數(shù)十分鐘” ? 近日,智元機器人宣布其研發(fā)的真機強化學(xué)習(xí)技術(shù),已在與龍旗科技合作的驗證產(chǎn)線中成功落地。據(jù)介紹,此次落地的真機強化學(xué)習(xí)方案,機器人
    發(fā)表于 11-05 09:44 ?763次閱讀

    自動駕駛中常提的“強化學(xué)習(xí)”是個啥?

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛時,有些方案中會提到“強化學(xué)習(xí)(Reinforcement Learning,簡稱RL)”,強化學(xué)習(xí)是一類讓機器通過試錯來學(xué)會做決策的技術(shù)。簡單理解
    的頭像 發(fā)表于 10-23 09:00 ?228次閱讀
    自動駕駛中常提的“<b class='flag-5'>強化學(xué)習(xí)</b>”是個啥?

    沐曦助力上海創(chuàng)智學(xué)院siiRL 2.0全面升級

    在人工智能加速邁向大模型與智能體時代的今天,強化學(xué)習(xí)(Reinforcement Learning,RL)已經(jīng)成為推動智能系統(tǒng)演化的關(guān)鍵技術(shù)。
    的頭像 發(fā)表于 09-29 11:38 ?457次閱讀
    沐曦助力上海創(chuàng)智學(xué)院siiRL 2.0全面升級

    NVIDIA Isaac Lab可用環(huán)境與強化學(xué)習(xí)腳本使用指南

    Lab 是一個適用于機器人學(xué)習(xí)的開源模塊化框架,其模塊化高保真仿真適用于各種訓(xùn)練環(huán)境,Isaac Lab 同時支持模仿學(xué)習(xí)(模仿人類)和強化學(xué)習(xí)(在嘗試和錯誤中進行學(xué)習(xí)),為所有機器
    的頭像 發(fā)表于 07-14 15:29 ?1633次閱讀
    NVIDIA Isaac Lab可用環(huán)境與<b class='flag-5'>強化學(xué)習(xí)</b>腳本使用指南

    18個常用的強化學(xué)習(xí)算法整理:從基礎(chǔ)方法到高級模型的理論技術(shù)與代碼實現(xiàn)

    本來轉(zhuǎn)自:DeepHubIMBA本文系統(tǒng)講解從基本強化學(xué)習(xí)方法到高級技術(shù)(如PPO、A3C、PlaNet等)的實現(xiàn)原理與編碼過程,旨在通過理論結(jié)合代碼的方式,構(gòu)建對強化學(xué)習(xí)算法的全面理解。為確保內(nèi)容
    的頭像 發(fā)表于 04-23 13:22 ?1162次閱讀
    18個常用的<b class='flag-5'>強化學(xué)習(xí)</b>算法整理:從基礎(chǔ)方法到高級模型的理論技術(shù)與代碼實現(xiàn)

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實現(xiàn)機器學(xué)習(xí),網(wǎng)絡(luò)的每個層都將對輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)的框架,可以深度理解數(shù)據(jù)中所要表示的規(guī)律。從原理上看,使用
    的頭像 發(fā)表于 04-02 18:21 ?1220次閱讀

    詳解RAD端到端強化學(xué)習(xí)后訓(xùn)練范式

    受限于算力和數(shù)據(jù),大語言模型預(yù)訓(xùn)練的 scalinglaw 已經(jīng)趨近于極限。DeepSeekR1/OpenAl01通過強化學(xué)習(xí)后訓(xùn)練涌現(xiàn)了強大的推理能力,掀起新一輪技術(shù)革新。
    的頭像 發(fā)表于 02-25 14:06 ?938次閱讀
    詳解RAD端到端<b class='flag-5'>強化學(xué)習(xí)</b>后訓(xùn)練范式

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢,導(dǎo)致戰(zhàn)爭形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?756次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?1250次閱讀

    淺談適用規(guī)模充電站的深度學(xué)習(xí)有序充電策略

    深度強化學(xué)習(xí)能夠有效計及電動汽車出行模式和充電需求的不確定性,實現(xiàn)充電場站充電成本化的目標(biāo)。通過對電動汽車泊車時間和充電需求特征進行提取,建立適用于大規(guī)模電動汽車有序充電的馬爾可夫決策過程模型,并
    的頭像 發(fā)表于 02-08 15:00 ?744次閱讀
    淺談適用規(guī)模充電站的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>有序充電策略

    智譜推出深度推理模型GLM-Zero預(yù)覽版

    近日,智譜公司正式發(fā)布了其深度推理模型GLM-Zero的預(yù)覽版——GLM-Zero-Preview。這款模型標(biāo)志著智譜在擴展強化學(xué)習(xí)技術(shù)訓(xùn)練推理模型方面的重大突破,成為其首個專注于增強AI推理能力
    的頭像 發(fā)表于 01-03 10:42 ?723次閱讀

    螞蟻集團收購邊塞科技,吳翼出任強化學(xué)習(xí)實驗室首席科學(xué)家

    近日,專注于模型賽道的初創(chuàng)企業(yè)邊塞科技宣布被螞蟻集團收購。據(jù)悉,此次交易完成后,邊塞科技將保持獨立運營,而原投資人已全部退出。 與此同時,螞蟻集團近期宣布成立強化學(xué)習(xí)實驗室,旨在推動大模型強化學(xué)習(xí)
    的頭像 發(fā)表于 11-22 11:14 ?1949次閱讀

    GPU在深度學(xué)習(xí)中的應(yīng)用 GPUs在圖形設(shè)計中的作用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心部分,已經(jīng)成為推動技術(shù)進步的重要力量。GPU(圖形處理單元)在深度學(xué)習(xí)中扮演著至關(guān)重要的角色,
    的頭像 發(fā)表于 11-19 10:55 ?2076次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度
    的頭像 發(fā)表于 11-14 15:17 ?2693次閱讀

    淺談適用于大規(guī)模充電場站的深度強化學(xué)習(xí)有序充電策略

    隨著新能源汽車銷量的快速增長,大規(guī)模充電場站的建設(shè)需求日益凸顯。據(jù)乘聯(lián)會銷量數(shù)據(jù)顯示,2017年中國新能源乘用車銷量達到了57.6萬臺,位列全球,且保持著較高的增長率。中國汽車工業(yè)協(xié)會預(yù)計,2018年新能源汽車銷量將超過100萬輛。然而,大規(guī)模充電場站面臨著諸多挑戰(zhàn)。
    的頭像 發(fā)表于 11-13 10:55 ?864次閱讀
    淺談適用于大規(guī)模充電場站的<b class='flag-5'>深度</b><b class='flag-5'>強化學(xué)習(xí)</b>有序充電策略