亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)腦補缺失 TF 代碼

5RJg_mcuworld ? 來源:YXQ ? 2019-08-06 11:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在項目開發(fā)中,優(yōu)秀的代碼自動補全工具可以提升工作效率。然而,近來的 IDE 基本都使用搜索方法進行補全,在一些場景下效果不佳。

近日,有開源項目用深度學(xué)習(xí)模型進行代碼補全,顯示出非常有潛力的效果。

近日,Reddit 上的一篇帖子引起了網(wǎng)友的熱議。帖子作者「mlvpj」稱:

「我們使用深度學(xué)習(xí)完成了一個簡單的項目,可以自動進行 Python 代碼補全?!?/p>

根據(jù)介紹,該項目基于 LSTM 模型,訓(xùn)練后,負責(zé)對代碼的缺失部分進行補全。評價模型的方法是判斷節(jié)省了多少的按鍵信息——即模型給出長度為 L 的代碼建議,如果和真實的代碼匹配,則節(jié)省 L - 1 個鍵入操作。實驗結(jié)果說明,大約有 30%-50% 的鍵入成本可以節(jié)省下來。

作者在帖子中表示,他們接下來會嘗試不同的架構(gòu),并提高推斷的表現(xiàn)。而現(xiàn)在的模型推斷很慢,不能實際使用。作者已在 GitHub 開源了項目代碼:

和 IDE 的自動補全有什么區(qū)別

該項目對 Python 代碼的自動補全與傳統(tǒng) IDE(如 PyCharm)等不同。IDE 補全基于檢索方法,需要從已有代碼中進行搜索。

以 PyCharm 中的基本補全(Basic Completion)方法為例?;狙a全可幫助補全可見區(qū)域的類、方法、關(guān)鍵詞代碼。使用時,PyCharm 會分析補全使用情況,并提供當(dāng)前位置可能的選擇。如果是對空間、參數(shù)或變量聲明進行補全,則 PyCharm 會基于類別提供一系列可能的命名。

當(dāng)出現(xiàn)已定義的類、函數(shù)、模塊和變量時,基本補全就會啟動。

此外,PyCharm 也提供智能補全等其他補全功能,但基本上都需要對已有文本進行搜索,根據(jù)位置和類型判斷補全的方法。這些方法都沒有配置機器學(xué)習(xí)模型。

Pycharm 的自動補全介紹:https://www.jetbrains.com/help/pycharm/auto-completing-code.html

深度學(xué)習(xí)怎樣腦補缺失 TF 代碼

最常用的 PyCharm 自動補全也能省很多功夫,但它需要 IDE 能檢索到你的代碼文件或庫,而且補全會提供多個可能的選項。但是在本項目實驗的工具中,LSTM 會根據(jù)上下文語義確定最可能調(diào)用的函數(shù),因此它能節(jié)省更多的成本。作者表示如果使用束搜索,那么一次能預(yù)測 10 多個字符,不過這樣對于實際使用還是有點低效。

在訓(xùn)練深度補全模型前,我們需要先建立訓(xùn)練集。開發(fā)者會在清洗評論、標(biāo)注和空行后,構(gòu)建比較干凈的 Python 代碼。然后,模型會在這些數(shù)據(jù)上進行訓(xùn)練與預(yù)測。在數(shù)據(jù)預(yù)處理上,開發(fā)者發(fā)現(xiàn)通過 tokenizing Python 代碼,模型效果比通過 BPE 編碼的字符級預(yù)測效果還要好。作者提供了一個簡單的預(yù)訓(xùn)練模型,它是在整個 TensorFlow 項目的 models 代碼中訓(xùn)練的。

下圖就是作者在驗證集中測試的驗證樣本。綠色的字符表示自動補全的起始位置,用戶需要按下 Tab 鍵選擇開始補全。綠色及后面高亮的灰色字符是自動補全的結(jié)果。

如上所示為驗證樣本中的自動補全效果。與代碼生成類似,粗略看起來,似乎效果非常不錯,但實際上會有很多不合理的地方。不過有意思的是,自動補全中所有字符串都只有一個占位操作,這也是非常合理的處理方法。

樣本中自動補全的起始和結(jié)束位置都是隨機的,也就是說代碼可能補全到「tensorfl」就結(jié)束了,并不會補全完整的標(biāo)識符「tensorflow」。這在實際場景中用處非常有限,因此作者將生成結(jié)束位置限制為終止 token 而修復(fù)問題。目前自動補全能完成多種 operator,且當(dāng)我們增加束搜索的長度時,它完成的代碼長度會更多。

整個模型的主體都是 LSTM,它在 TensorFlow 模型代碼庫訓(xùn)練后能捕捉非常豐富的 TensorFlow API。如下所示為自動補全模型的主體代碼,基本上簡單的一個 LSTM 就能搞定:

網(wǎng)友評價

項目開源后,有些網(wǎng)友對作者提出了質(zhì)疑:

「我們已經(jīng)有很多很好用的自動補全工具了,比如 kite(一個可以在 IDE 上使用的插件),為什么還要費心搞個機器學(xué)習(xí)模型?」

在討論中,有人提出,一些無良的自動補全工具會悄悄上傳代碼到他們的服務(wù)器中,(而自行訓(xùn)練的深度學(xué)習(xí)模型不存在這個問題)。

也有人提出,其實不一定要用 LSTM 模型,隱馬爾科夫模型在處理序列數(shù)據(jù)上效果也很好。

此外,也有網(wǎng)友建議使用 CuDNN 加速 LSTM 的推斷過程。這樣能大大提升推斷速度,集成到 IDE 中也就有了可能。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    89

    文章

    37527

    瀏覽量

    293161
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4932

    瀏覽量

    72838
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5588

    瀏覽量

    123810

原文標(biāo)題:你是成熟的 AI 了,應(yīng)該自己學(xué)會補全代碼!

文章出處:【微信號:mcuworld,微信公眾號:嵌入式資訊精選】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+神經(jīng)形態(tài)計算、類芯片

    AI芯片不僅包括深度學(xué)細AI加速器,還有另外一個主要列別:類芯片。類芯片是模擬人腦神經(jīng)網(wǎng)絡(luò)架構(gòu)的芯片。它結(jié)合微電子技術(shù)和新型神經(jīng)形態(tài)器件,模仿人腦神經(jīng)系統(tǒng)機選原理進行設(shè)計,實現(xiàn)類似人腦的超低
    發(fā)表于 09-17 16:43

    自動駕駛中Transformer大模型會取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?3827次閱讀
    自動駕駛中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    如何排除深度學(xué)習(xí)工作臺上量化OpenVINO?的特定層?

    無法確定如何排除要在深度學(xué)習(xí)工作臺上量化OpenVINO?特定層
    發(fā)表于 03-06 07:31

    靈汐科技開源類深度學(xué)習(xí)應(yīng)用開發(fā)平臺BIDL

    富案例等問題,一直制約著其廣泛應(yīng)用。為了突破這一瓶頸,靈汐科技聯(lián)合啟社區(qū)正式宣布開源類深度學(xué)習(xí)應(yīng)用開發(fā)平臺BIDL(Brain-inspired Deep Learning)。
    的頭像 發(fā)表于 03-05 09:13 ?1343次閱讀
    靈汐科技開源類<b class='flag-5'>腦</b><b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>應(yīng)用開發(fā)平臺BIDL

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢,導(dǎo)致戰(zhàn)爭形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?755次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?1249次閱讀

    面向高頻邏輯運算的鋰離子電容二極管

    離子電子耦合邏輯運算被認為是實現(xiàn)深度計算的可行途徑之一,然而高頻離子電子耦合器件的缺失大大限制了這一領(lǐng)域的快速發(fā)展。
    的頭像 發(fā)表于 01-20 14:43 ?762次閱讀
    面向高頻邏輯運算的鋰離子電容二極管

    tf卡與云存儲的比較 tf卡的兼容性問題

    TF卡(通常指Micro SD卡)與云存儲在數(shù)據(jù)存儲領(lǐng)域各有其特點和優(yōu)勢,同時也存在一些差異。以下是兩者之間的比較,以及關(guān)于TF卡兼容性問題的分析: 一、TF卡與云存儲的比較 數(shù)據(jù)存儲方式 :
    的頭像 發(fā)表于 12-19 15:24 ?4173次閱讀

    tf卡存儲容量選擇 tf卡的常見故障及解決方法

    TF卡存儲容量選擇 TF卡(TransFlash卡)是一種小型的存儲卡,廣泛應(yīng)用于手機、相機、平板電腦等便攜式設(shè)備中。選擇合適的TF卡存儲容量,需要考慮以下幾個因素: 設(shè)備兼容性 :首先,需要確認你
    的頭像 發(fā)表于 12-19 15:20 ?3967次閱讀

    ADS1282HI出現(xiàn)數(shù)據(jù)缺失是什么原因?qū)е碌模?/a>

    不同:39TG4A3TF),使用完全相同的程序和板卡,出現(xiàn)數(shù)據(jù)缺失的情況,波形如下: 明顯發(fā)現(xiàn)第一個字節(jié)丟失。前八個SCLK時DOUT上沒有任何輸出,是產(chǎn)品批次不同導(dǎo)致的情況還是新進的芯片有問題,希望能有您這邊的答復(fù),謝謝
    發(fā)表于 12-16 07:03

    請問ADS1299適用于電系統(tǒng)嗎?

    我打算用ADS1299做數(shù)字化電系統(tǒng),問一下您知道現(xiàn)在有電廠家用ADS1299嗎?我打算做32導(dǎo)的電,其中28導(dǎo)是電3導(dǎo)是心電2導(dǎo)是肌電,打算用四篇ADS1299進行級聯(lián)這個
    發(fā)表于 11-29 16:28

    GPU在深度學(xué)習(xí)中的應(yīng)用 GPUs在圖形設(shè)計中的作用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心部分,已經(jīng)成為推動技術(shù)進步的重要力量。GPU(圖形處理單元)在深度學(xué)習(xí)中扮演著至關(guān)重要的角色,其強大的并行處理能力使得訓(xùn)練復(fù)雜的神經(jīng)網(wǎng)絡(luò)模
    的頭像 發(fā)表于 11-19 10:55 ?2072次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?2686次閱讀

    pcie在深度學(xué)習(xí)中的應(yīng)用

    深度學(xué)習(xí)模型通常需要大量的數(shù)據(jù)和強大的計算能力來訓(xùn)練。傳統(tǒng)的CPU計算資源有限,難以滿足深度學(xué)習(xí)的需求。因此,GPU(圖形處理單元)和TPU(張量處理單元)等專用硬件應(yīng)運而生,它們通過
    的頭像 發(fā)表于 11-13 10:39 ?1730次閱讀

    使用ADS1299進行電信號采集時采集不到電信號,怎么解決?

    您好!我這邊在使用ADS1299進行電信號采集時采集不到電信號,用信號發(fā)生器進行測試,能采集到0.5uV左右的正弦波,文檔中是該芯片的原理圖和電極連接方式說明,請問是否有問題?還麻煩指教,謝謝!
    發(fā)表于 11-13 06:52