亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

人工神經(jīng)網(wǎng)絡需學習也可執(zhí)行任務

454398 ? 來源:ST社區(qū) ? 作者:ST社區(qū) ? 2020-10-13 14:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

神經(jīng)網(wǎng)絡無需學習就能駕駛虛擬賽車。

動物生下來就具有天生的能力和稟性。馬生下來幾小時后就會走,鴨子孵出來后很快就會游,人類嬰兒自然而然會被人臉吸引。大腦進化到了即使幾乎沒有經(jīng)驗也敢于面對世界的地步,許多研究人員希望AI也有這種天生的能力。

新研究發(fā)現(xiàn),人工神經(jīng)網(wǎng)絡可以進化到無需學習即可執(zhí)行任務的程度。該技術(shù)有望帶來這樣的AI:極其擅長處理各種任務,比如為照片添加標簽或駕駛汽車。

人工神經(jīng)網(wǎng)絡對彼此之間傳輸信息的小型計算單元(“神經(jīng)元”)進行了排列。這種網(wǎng)絡常常通過調(diào)整神經(jīng)元之間連接的“權(quán)重”或強度來學習諸多任務,比如玩游戲或識別圖像。一種名為神經(jīng)網(wǎng)絡架構(gòu)搜索(neural architecture search)的技術(shù)試過眾多網(wǎng)絡形狀和大小,以找到針對某特定用途提高學習能力的那種網(wǎng)絡形狀和大小。

新方法使用同樣這種搜索技術(shù)來查找權(quán)重并不重要的網(wǎng)絡。對于這種網(wǎng)絡而言,網(wǎng)絡的整體形狀決定了它的智能,可能使其特別適合某些任務。

供職于谷歌Brain的論文主要作者、計算機科學家Adam Gaier說:“如果動物有所有這些天生的行為,一些神經(jīng)網(wǎng)絡在未經(jīng)大量訓練的情況下就有出色的表現(xiàn),我們想知道我們能將這個想法運用到多先進的程度?!?/span>

整個過程始于一組很簡單的網(wǎng)絡,這些網(wǎng)絡將輸入(比如來自機器人傳感器的數(shù)據(jù))與行為輸出連接起來。它評估網(wǎng)絡處理特定任務時的性能,保持網(wǎng)絡處于最佳性能狀態(tài),并通過添加神經(jīng)元、添加連接或改變神經(jīng)元對輸入總和的敏感度使網(wǎng)絡發(fā)生突變。在評估階段,為網(wǎng)絡的所有權(quán)重賦予一個共享的隨機數(shù)。(這實際上針對幾個隨機數(shù)來完成,然后對結(jié)果求平均值。)

結(jié)果名為與權(quán)重無關的神經(jīng)網(wǎng)絡(WANN)。這種網(wǎng)絡因處理任務時表現(xiàn)出色和很簡單而獲得加分。處理該研究論文中那些任務的典型網(wǎng)絡可能有數(shù)千個神經(jīng)元和權(quán)重,而WANN只有少量的神經(jīng)元和僅僅一個權(quán)重。

但令人驚訝的是,WANN仍表現(xiàn)不俗。研究團隊將它們與標準網(wǎng)絡架構(gòu)進行了比較,標準網(wǎng)絡架構(gòu)的權(quán)重經(jīng)過逐漸完善,可以熟練完成這三項模擬任務:駕駛賽車、使兩足機器人行走以及控制雙輪推車以平衡支桿。

兩條腿旁邊是神經(jīng)網(wǎng)絡及眾多連接的示意圖。盡管沒有取得高分,但前一代網(wǎng)絡中的極簡架構(gòu)仍能控制此處所示的向前行走的Bipedal Walker兩足機器人。

與經(jīng)過訓練的網(wǎng)絡相比,WANN得到的分數(shù)只有其分數(shù)的六分之一到一半。研究人員賦予表現(xiàn)最佳的權(quán)重而不是隨機權(quán)重后,與經(jīng)過訓練的網(wǎng)絡相比,WANN得到的分數(shù)提高到三分之二到五分之四。如果在進化后,以訓練龐大標準網(wǎng)絡的同一方式來訓練WANN,其性能與標準網(wǎng)絡相媲美。

在涉及識別手寫數(shù)字的任務中,WANN的準確率超過90%(而針對這項任務訓練的龐大網(wǎng)絡的準確率為99%)。該研究論文上個月在加拿大溫哥華的神經(jīng)信息處理系統(tǒng)(NeurIPS)大會上公布。

優(yōu)步AI實驗室(Uber AI Labs)的計算機科學家Rosanne Liu沒有參與這項研究,他說:“他們的整個系統(tǒng)切實可行,這非常了不起?!逼渌芯咳藛T嘗試開發(fā)不依賴權(quán)重的網(wǎng)絡,但以失敗告終。Gaier稱,這個突破最初是為所有權(quán)重賦予同一數(shù)字的bug,卻不料最終簡化了網(wǎng)絡搜索。

雖然WANN的性能未能超過經(jīng)過訓練的大型網(wǎng)絡,但該方法為尋找專門適合不同任務的網(wǎng)絡架構(gòu)開辟了一條新途徑,正如大腦各部位以不同的方式相連以適合特定的用途。比如說,卷積神經(jīng)網(wǎng)絡的特點是擁有適合圖像識別的架構(gòu),可以映射大腦視覺皮層的結(jié)構(gòu)。Gaier認為,可能還有多得多的構(gòu)建模塊,準備使AI一問世就很聰明。

編輯:hfy
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    NMSIS神經(jīng)網(wǎng)絡庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    BP神經(jīng)網(wǎng)絡與卷積神經(jīng)網(wǎng)絡的比較

    BP神經(jīng)網(wǎng)絡與卷積神經(jīng)網(wǎng)絡在多個方面存在顯著差異,以下是對兩者的比較: 一、結(jié)構(gòu)特點 BP神經(jīng)網(wǎng)絡 : BP神經(jīng)網(wǎng)絡是一種多層的前饋神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 02-12 15:53 ?1130次閱讀

    如何優(yōu)化BP神經(jīng)網(wǎng)絡學習

    優(yōu)化BP神經(jīng)網(wǎng)絡學習率是提高模型訓練效率和性能的關鍵步驟。以下是一些優(yōu)化BP神經(jīng)網(wǎng)絡學習率的方法: 一、理解學習率的重要性
    的頭像 發(fā)表于 02-12 15:51 ?1337次閱讀

    BP神經(jīng)網(wǎng)絡的優(yōu)缺點分析

    學習能力 : BP神經(jīng)網(wǎng)絡能夠通過訓練數(shù)據(jù)自動調(diào)整網(wǎng)絡參數(shù),實現(xiàn)對輸入數(shù)據(jù)的分類、回歸等任務,無需人工進行復雜的特征工程。 泛化能力強
    的頭像 發(fā)表于 02-12 15:36 ?1354次閱讀

    什么是BP神經(jīng)網(wǎng)絡的反向傳播算法

    神經(jīng)網(wǎng)絡(即反向傳播神經(jīng)網(wǎng)絡)的核心,它建立在梯度下降法的基礎上,是一種適合于多層神經(jīng)元網(wǎng)絡學習算法。該算法通過計算每層網(wǎng)絡的誤差,并將這
    的頭像 發(fā)表于 02-12 15:18 ?1135次閱讀

    BP神經(jīng)網(wǎng)絡與深度學習的關系

    BP神經(jīng)網(wǎng)絡與深度學習之間存在著密切的關系,以下是對它們之間關系的介紹: 一、BP神經(jīng)網(wǎng)絡的基本概念 BP神經(jīng)網(wǎng)絡,即反向傳播神經(jīng)網(wǎng)絡(Ba
    的頭像 發(fā)表于 02-12 15:15 ?1231次閱讀

    深度學習入門:簡單神經(jīng)網(wǎng)絡的構(gòu)建與實現(xiàn)

    深度學習中,神經(jīng)網(wǎng)絡是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個簡單的神經(jīng)網(wǎng)絡神經(jīng)網(wǎng)絡由多個神經(jīng)元組成,
    的頭像 發(fā)表于 01-23 13:52 ?740次閱讀

    人工神經(jīng)網(wǎng)絡的原理和多種神經(jīng)網(wǎng)絡架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學習的基礎知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡的原理和多種神經(jīng)網(wǎng)絡架構(gòu)方法,供各位老師選擇。 01
    的頭像 發(fā)表于 01-09 10:24 ?1936次閱讀
    <b class='flag-5'>人工</b><b class='flag-5'>神經(jīng)網(wǎng)絡</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡的實現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡因其在圖像和視頻處理任務中的卓越性能而廣受歡迎。隨著深度學習技術(shù)的快速發(fā)展,多種實現(xiàn)工具和框架應運而生,為研究人員和開發(fā)者提供了強大的支持。 TensorFlow 概述
    的頭像 發(fā)表于 11-15 15:20 ?982次閱讀

    卷積神經(jīng)網(wǎng)絡與傳統(tǒng)神經(jīng)網(wǎng)絡的比較

    在深度學習領域,神經(jīng)網(wǎng)絡模型被廣泛應用于各種任務,如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡是兩種常
    的頭像 發(fā)表于 11-15 14:53 ?2315次閱讀

    深度學習中的卷積神經(jīng)網(wǎng)絡模型

    深度學習近年來在多個領域取得了顯著的進展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經(jīng)網(wǎng)絡作為深度學習的一個分支,因其在圖像處理任務中的卓越性能而受到廣泛關注。 卷積
    的頭像 發(fā)表于 11-15 14:52 ?1119次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡的區(qū)別

    神經(jīng)網(wǎng)絡是機器學習領域中的一種強大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡的類型在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(RNN
    的頭像 發(fā)表于 11-15 09:42 ?1856次閱讀

    LSTM神經(jīng)網(wǎng)絡與其他機器學習算法的比較

    隨著人工智能技術(shù)的飛速發(fā)展,機器學習算法在各個領域中扮演著越來越重要的角色。長短期記憶網(wǎng)絡(LSTM)作為一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),因其在處理序列數(shù)據(jù)方面的優(yōu)勢而受到廣泛關注。
    的頭像 發(fā)表于 11-13 10:17 ?2523次閱讀

    使用LSTM神經(jīng)網(wǎng)絡處理自然語言處理任務

    自然語言處理(NLP)是人工智能領域的一個重要分支,它旨在使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術(shù)的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(RNN)及其變體——長短期記憶(LSTM)網(wǎng)絡
    的頭像 發(fā)表于 11-13 09:56 ?1545次閱讀

    LSTM神經(jīng)網(wǎng)絡的基本原理 如何實現(xiàn)LSTM神經(jīng)網(wǎng)絡

    LSTM(長短期記憶)神經(jīng)網(wǎng)絡是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),它能夠學習長期依賴信息。在處理序列數(shù)據(jù)時,如時間序列分析、自然語言處理等,LSTM因其能夠有效地捕捉時間序列中的長期依賴關系而受到
    的頭像 發(fā)表于 11-13 09:53 ?2363次閱讀