亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Transformers研究方向

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 作者:一軒明月 ? 2022-03-30 16:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

BERT 通過(guò)改變 NLP 模型的訓(xùn)練方式迎來(lái)了 NLP 領(lǐng)域的 ImageNet 時(shí)刻。自此之后的預(yù)訓(xùn)練模型分別嘗試從mask 范圍,多語(yǔ)言,下文預(yù)測(cè),模型輕量化,預(yù)訓(xùn)練方式,模型大小,多任務(wù)等方向謀求新突破,有的效果明顯,有的只是大成本小收益。

自 2018 年 BERT 提出之后,各種預(yù)訓(xùn)練模型層出不窮,模型背后的著眼點(diǎn)也各有不同,難免讓人迷糊。本文旨在從以下幾個(gè)方面探討系列 Transformers 研究方向:

擴(kuò)大遮罩范圍(MaskedLM)

下文預(yù)測(cè)(NextSentencePrediction)

其他預(yù)訓(xùn)練方式

輕量化

多語(yǔ)言

越大越好?

多任務(wù)

要說(shuō) BERT 為什么性能卓越,主要是它改變了 NLP 模型的訓(xùn)練方式。先在大規(guī)模語(yǔ)料上訓(xùn)練出一個(gè)語(yǔ)言模型,然后將這個(gè)模型用在閱讀理解/情感分析/命名實(shí)體識(shí)別等下游任務(wù)上

7725c54a-afe7-11ec-aa7f-dac502259ad0.png

Yann LeCun 將 BERT 的學(xué)習(xí)方式稱為“自監(jiān)督學(xué)習(xí)”,強(qiáng)調(diào)模型從輸入內(nèi)容中學(xué)習(xí),又對(duì)其中部分內(nèi)容進(jìn)行預(yù)測(cè)的特點(diǎn)。而 BERT 本身實(shí)際算是是基于 Transformer 編碼器部分改進(jìn)而來(lái)的多任務(wù)模型,會(huì)同時(shí)執(zhí)行遮罩語(yǔ)言模型學(xué)習(xí)以及下文預(yù)測(cè)任務(wù),以此習(xí)得潛藏語(yǔ)義。

擴(kuò)大遮罩范圍改進(jìn) MaskedLM

遮罩語(yǔ)言模型里的“遮罩”,通常是分詞后一小段連續(xù)的 MASK 標(biāo)記

7745101c-afe7-11ec-aa7f-dac502259ad0.png

相比于從上下文中猜整個(gè)詞,給出 ##eni 和 ##zation 猜到 tok 顯然更容易些。

也正因單詞自身標(biāo)識(shí)間的聯(lián)系和詞與詞間的聯(lián)系不同,所以 BERT 可能學(xué)不到詞語(yǔ)詞間的相關(guān)關(guān)系。而只是預(yù)測(cè)出詞的一部分也沒(méi)什么意義,預(yù)測(cè)出整個(gè)詞才能學(xué)到更多語(yǔ)義內(nèi)容。所以拓展遮罩范圍就顯得十分重要了:

字詞級(jí)遮罩——WWM

短語(yǔ)級(jí)遮罩——ERNIE

縮放到特定長(zhǎng)度——N-gram 遮罩/ Span 遮罩

短語(yǔ)級(jí)遮罩使用時(shí)得額外提供短語(yǔ)列表,但加上這樣的人工信息可能會(huì)干擾模型導(dǎo)致偏差。T5 嘗試了不同跨度的遮罩,似乎長(zhǎng)一些的會(huì)好點(diǎn)

775ba3d6-afe7-11ec-aa7f-dac502259ad0.png

可以看到初期擴(kuò)大跨度是有效的,但不是越長(zhǎng)越好。SpanBERT 有一個(gè)更好的解決方案,通過(guò)概率采樣降低對(duì)過(guò)長(zhǎng)遮罩的采納數(shù)量。

77707536-afe7-11ec-aa7f-dac502259ad0.png

從 SpanBERT 的實(shí)驗(yàn)結(jié)果來(lái)看隨機(jī)跨度效果不錯(cuò)

77861db4-afe7-11ec-aa7f-dac502259ad0.png

此外,也有模型嘗試改進(jìn)遮罩比例。Google 的 T5 嘗試了不同的遮罩比例,意外的是替代項(xiàng)都不如原始設(shè)置表現(xiàn)好

779b8168-afe7-11ec-aa7f-dac502259ad0.png

下文預(yù)測(cè)

準(zhǔn)確地講應(yīng)該是下一句預(yù)測(cè)(NextSentencePrediction,NSP),通過(guò)判斷兩個(gè)句子間是否是上下文相關(guān)的來(lái)學(xué)習(xí)句子級(jí)知識(shí)。從實(shí)驗(yàn)結(jié)果來(lái)看,BERT 并沒(méi)有帶來(lái)明顯改進(jìn)

77b3a52c-afe7-11ec-aa7f-dac502259ad0.png

BERT 的欠佳表現(xiàn)給了后來(lái)者機(jī)會(huì),幾乎成了兵家必爭(zhēng)之地。XLNET / RoBERTa / ALBERT 等模型都在這方面進(jìn)行了嘗試

RoBERTa

77c6173e-afe7-11ec-aa7f-dac502259ad0.png

ALBERT

77e3810c-afe7-11ec-aa7f-dac502259ad0.png

XLNet

77ffb9d0-afe7-11ec-aa7f-dac502259ad0.png

可以看出 NSP 帶來(lái)的更多的是消極影響。這可能是 NSP 任務(wù)設(shè)計(jì)不合理導(dǎo)致的——負(fù)樣本是從容易辨析的其他文檔中抽出來(lái)的,這導(dǎo)致不僅沒(méi)學(xué)到知識(shí)反而引入了噪聲。同時(shí),NSP 將輸入分成兩個(gè)不同的句子,缺少長(zhǎng)語(yǔ)句樣本則導(dǎo)致 BERT 在長(zhǎng)句子上表現(xiàn)不好。

其他預(yù)訓(xùn)練方式

NSP 表現(xiàn)不夠好,是不是有更好的預(yù)訓(xùn)練方式呢?各家都進(jìn)行了各種各樣的嘗試,私以為對(duì)多種預(yù)訓(xùn)練任務(wù)總結(jié)的最好的是 Google 的 T5 和 FaceBook 的 BART

T5 的嘗試

7819e60c-afe7-11ec-aa7f-dac502259ad0.png

782fdbd8-afe7-11ec-aa7f-dac502259ad0.png

BART 的嘗試

7846348c-afe7-11ec-aa7f-dac502259ad0.png

各家一般都選語(yǔ)言模型作為基線,而主要的嘗試方向有

擋住部分標(biāo)識(shí),預(yù)測(cè)遮擋內(nèi)容

打亂句子順序,預(yù)測(cè)正確順序

刪掉部分標(biāo)識(shí),預(yù)測(cè)哪里被刪除了

隨機(jī)挑選些標(biāo)識(shí),之后將所有內(nèi)容前置,預(yù)測(cè)哪里是正確的開(kāi)頭

加上一些標(biāo)識(shí),預(yù)測(cè)哪里要?jiǎng)h

替換掉一些標(biāo)識(shí),預(yù)測(cè)哪里是被替換過(guò)的

試驗(yàn)結(jié)果如下

785e9fea-afe7-11ec-aa7f-dac502259ad0.png

787a6b80-afe7-11ec-aa7f-dac502259ad0.png

實(shí)驗(yàn)表明遮罩模型就是最好的預(yù)訓(xùn)練方法。要想效果更好點(diǎn),更長(zhǎng)的遮罩和更長(zhǎng)的輸入語(yǔ)句似乎是個(gè)不錯(cuò)的選擇。而為了避免泄露具體擋住了多少個(gè)詞,每次只能標(biāo)記一個(gè)遮罩,對(duì)一個(gè)或多個(gè)詞做預(yù)測(cè)

輕量化

BERT 模型本身非常大,所以為了運(yùn)行更快,模型輕量化也是一大研究方向。一網(wǎng)打盡所有 BERT 壓縮方法[1]對(duì)此有細(xì)致描述,主要分幾個(gè)方向:

修剪——?jiǎng)h除部分模型,刪掉一些層 / heads 等

7893d3cc-afe7-11ec-aa7f-dac502259ad0.png

矩陣分解——對(duì)詞表 / 參數(shù)矩陣進(jìn)行分解

78adaacc-afe7-11ec-aa7f-dac502259ad0.png

知識(shí)蒸餾——師生結(jié)構(gòu),在其他小模型上學(xué)習(xí)

78c30a3e-afe7-11ec-aa7f-dac502259ad0.png

參數(shù)共享——層與層間共享權(quán)重

78de936c-afe7-11ec-aa7f-dac502259ad0.png

多語(yǔ)言

數(shù)據(jù)集在不同語(yǔ)言間分布的非常不均勻,通常是英語(yǔ)數(shù)據(jù)集很多,其他語(yǔ)言的相對(duì)少些,繁體中文的話問(wèn)題就更嚴(yán)重了。而 BERT 的預(yù)訓(xùn)練方法并沒(méi)有語(yǔ)言限制,所以就有許多研究試圖喂給預(yù)訓(xùn)練模型更多語(yǔ)言數(shù)據(jù),期望能在下游任務(wù)上取得更好的成績(jī)。

谷歌的 BERT-Multilingual 就是一例,在不添加中文數(shù)據(jù)的情況下,該模型在下游任務(wù)上的表現(xiàn)已經(jīng)接近中文模型

78f8c0ac-afe7-11ec-aa7f-dac502259ad0.png

有研究[2]對(duì)多語(yǔ)言版 BERT 在 SQuAD(英語(yǔ)閱讀理解任務(wù))和 DRCD(中文閱讀理解任務(wù))上進(jìn)行了測(cè)試。最終證明可以取得接近 QANet 的效果,同時(shí)多語(yǔ)言模型不用將數(shù)據(jù)翻譯成統(tǒng)一語(yǔ)言,這當(dāng)然要比多一步翻譯過(guò)程的版本要好。

790d4d4c-afe7-11ec-aa7f-dac502259ad0.png

從上面的結(jié)果可以看出無(wú)論是用 Embedding 還是 Transformer 編碼器,BERT 都學(xué)到了不同語(yǔ)言間的內(nèi)在聯(lián)系。另有研究[3]專門(mén)針對(duì) BERT 聯(lián)通不同語(yǔ)言的方式進(jìn)行了分析。

首先,在相同的 TLM 預(yù)訓(xùn)練模型中對(duì)不同語(yǔ)言建立關(guān)聯(lián)

7924dbc4-afe7-11ec-aa7f-dac502259ad0.png

然后,通過(guò)控制是否共享組件來(lái)分析哪個(gè)部分對(duì)結(jié)果影響最大

7939dbd2-afe7-11ec-aa7f-dac502259ad0.png

結(jié)果是模型間共享參數(shù)是關(guān)鍵

79551ad2-afe7-11ec-aa7f-dac502259ad0.png

這是因?yàn)?BERT 是在學(xué)習(xí)詞和相應(yīng)上下文環(huán)境的分布,不同語(yǔ)言間含義相同的詞,其上下文分布應(yīng)該很接近

797019ea-afe7-11ec-aa7f-dac502259ad0.png

而 BERT 的參數(shù)就是在學(xué)習(xí)期間的分布,所以也就不難理解模型在多語(yǔ)言間遷移時(shí)的驚人表現(xiàn)了

越大越好?

盡管 BERT 采用了大模型,但直覺(jué)上數(shù)據(jù)越多,模型越大,效果也就應(yīng)該更好。所以很多模型以此為改進(jìn)方向

7989f450-afe7-11ec-aa7f-dac502259ad0.png

T5 更是憑借 TPU 和金錢(qián)的魔力攀上頂峰

79a9f160-afe7-11ec-aa7f-dac502259ad0.png

然而更大的模型似乎并沒(méi)有帶來(lái)太多的回報(bào)

79cbd118-afe7-11ec-aa7f-dac502259ad0.png

所以,簡(jiǎn)單增大模型規(guī)模并不是最高效的方法。

此外,選用不同的訓(xùn)練方法和目標(biāo)也是一條出路。比如,ELECTRA 采用新型訓(xùn)練方法保證每個(gè)詞都能參與其中,從而使得模型能更有效地學(xué)習(xí)表示(representation)

79e9ea7c-afe7-11ec-aa7f-dac502259ad0.png

79fa6988-afe7-11ec-aa7f-dac502259ad0.png

ALBERT 使用參數(shù)共享降低參數(shù)量,但對(duì)性能沒(méi)有顯著影響

7a0b68be-afe7-11ec-aa7f-dac502259ad0.png

7a1fde84-afe7-11ec-aa7f-dac502259ad0.png

多任務(wù)

BERT 是在預(yù)訓(xùn)練時(shí)使用多任務(wù),我們同樣可以在微調(diào)時(shí)使用多任務(wù)。微軟的用于自然語(yǔ)言理解的多任務(wù)深度神經(jīng)網(wǎng)絡(luò)[4](MTDNN)就是這么做的

7a343ce4-afe7-11ec-aa7f-dac502259ad0.png

相交于 MTDNN,GPT-2 更加激進(jìn):不經(jīng)微調(diào)直接用模型學(xué)習(xí)一切,只用給一個(gè)任務(wù)標(biāo)識(shí),其余的交給模型。效果出眾但仍稱不上成功

T5 對(duì)此做了平衡

7a5918a2-afe7-11ec-aa7f-dac502259ad0.png

谷歌的 T5 類似于 GPT-2,訓(xùn)練一個(gè)生成模型來(lái)回答一切問(wèn)題。同時(shí)又有點(diǎn)像 MTDNN,訓(xùn)練時(shí)模型知道它是在同時(shí)解決不同問(wèn)題,它是一個(gè)訓(xùn)練/微調(diào)模型

同時(shí),大體量預(yù)訓(xùn)練模型都面臨相同的兩個(gè)難題:數(shù)據(jù)不均衡和訓(xùn)練策略選定

不均衡數(shù)據(jù)

不同任務(wù)可供使用的數(shù)據(jù)量是不一致的,這導(dǎo)致數(shù)據(jù)量小的任務(wù)表現(xiàn)會(huì)很差。數(shù)據(jù)多的少采樣,數(shù)據(jù)少的多采樣是一種解決思路。BERT 對(duì)多語(yǔ)言訓(xùn)練采用的做法就是一例

為平衡這兩個(gè)因素,訓(xùn)練數(shù)據(jù)生成(以及 WordPiece 詞表生成)過(guò)程中,對(duì)數(shù)據(jù)進(jìn)行指數(shù)平滑加權(quán)。換句話說(shuō),假如一門(mén)語(yǔ)言的概率是

,比如 意味著在混合了所有維基百科數(shù)據(jù)后, 21% 的數(shù)據(jù)是英文的。我們通過(guò)因子 S 對(duì)每個(gè)概率進(jìn)行指數(shù)運(yùn)算并重新歸一化,之后從中采樣。我們的實(shí)驗(yàn)中, ,所以像英語(yǔ)這樣的富文本語(yǔ)言會(huì)被降采樣,而冰島語(yǔ)這樣的貧文本語(yǔ)言會(huì)過(guò)采樣。比如,原始分布中英語(yǔ)可能是冰島語(yǔ)的 1000 倍,平滑處理后只有 100 倍

訓(xùn)練策略

7a7a4c20-afe7-11ec-aa7f-dac502259ad0.png

無(wú)監(jiān)督預(yù)訓(xùn)練+微調(diào):在 T5 預(yù)訓(xùn)練后對(duì)各任務(wù)進(jìn)行微調(diào)

多任務(wù)訓(xùn)練:所有任務(wù)和 T5 預(yù)訓(xùn)練一同訓(xùn)練學(xué)習(xí),并直接在各任務(wù)上驗(yàn)證結(jié)果

多任務(wù)預(yù)訓(xùn)練+微調(diào):所有任務(wù)和 T5 預(yù)訓(xùn)練一同訓(xùn)練學(xué)習(xí),然后對(duì)各任務(wù)微調(diào)訓(xùn)練數(shù)據(jù),再驗(yàn)證結(jié)果

留一法多任務(wù)訓(xùn)練:T5 預(yù)訓(xùn)練和目標(biāo)任務(wù)外的所有任務(wù)一同進(jìn)行多任務(wù)學(xué)習(xí),然后微調(diào)目標(biāo)任務(wù)數(shù)據(jù)集,再驗(yàn)證結(jié)果

有監(jiān)督多任務(wù)預(yù)訓(xùn)練:在全量數(shù)據(jù)上進(jìn)行多任務(wù)訓(xùn)練,然后對(duì)各任務(wù)微調(diào)結(jié)果

可以看到先在海量數(shù)據(jù)上進(jìn)行訓(xùn)練,然后對(duì)特定任務(wù)數(shù)據(jù)進(jìn)行微調(diào)可以緩解數(shù)據(jù)不平衡問(wèn)題。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3883

    瀏覽量

    141006
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3622

    瀏覽量

    51585
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23136

原文標(biāo)題:BERT 之后的故事

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    射頻功率放大器賦能:雙極射頻溶脂實(shí)驗(yàn)研究的創(chuàng)新應(yīng)用

    實(shí)驗(yàn)名稱:雙極射頻溶脂實(shí)驗(yàn)研究 研究方向:該研究方向通過(guò)跨模態(tài)能量融合,既能借助射頻冷卻裝置解決超聲治療的表皮保護(hù)難題,又能利用超聲聚焦彌補(bǔ)
    的頭像 發(fā)表于 09-09 10:48 ?197次閱讀
    射頻功率放大器賦能:雙極射頻溶脂實(shí)驗(yàn)<b class='flag-5'>研究</b>的創(chuàng)新應(yīng)用

    兩部門(mén):支持人工智能、先進(jìn)存儲(chǔ)、三維異構(gòu)集成芯片等前沿技術(shù)方向基礎(chǔ)研究

    近日,工業(yè)和信息化部與市場(chǎng)監(jiān)督管理總局聯(lián)合印發(fā)《電子信息制造業(yè) 2025 - 2026 年穩(wěn)增長(zhǎng)行動(dòng)方案》,明確提出將大力支持人工智能、先進(jìn)存儲(chǔ)、三維異構(gòu)集成芯片等前沿技術(shù)方向的基礎(chǔ)研究,這一舉措在
    的頭像 發(fā)表于 09-08 17:26 ?516次閱讀
    兩部門(mén):支持人工智能、先進(jìn)存儲(chǔ)、三維異構(gòu)集成芯片等前沿技術(shù)<b class='flag-5'>方向</b>基礎(chǔ)<b class='flag-5'>研究</b>

    基于LabVIEW的鼠標(biāo)滑動(dòng)方向檢測(cè)教程

    本篇教程源于一位客戶的真實(shí)需求,需要LabVIEW能夠檢測(cè)到鼠標(biāo)滑動(dòng)的方向,然后通過(guò)判斷滑動(dòng)方向處理后續(xù)的功能。
    的頭像 發(fā)表于 07-30 13:51 ?454次閱讀
    基于LabVIEW的鼠標(biāo)滑動(dòng)<b class='flag-5'>方向</b>檢測(cè)教程

    無(wú)速度傳感器感應(yīng)電機(jī)控制系統(tǒng)轉(zhuǎn)速辨識(shí)方法研究

    要點(diǎn)和化缺點(diǎn),在直接轉(zhuǎn)矩控制基礎(chǔ)上設(shè)計(jì)了無(wú)速度傳感器感應(yīng)電機(jī)控制系統(tǒng)模型并進(jìn)行仿真,給出了試驗(yàn)參數(shù)及仿真圖形,并就今后的研究發(fā)展方向提出了看法。 純分享帖,點(diǎn)擊下方附件免費(fèi)獲取完整資料
    發(fā)表于 07-09 14:23

    雙電機(jī)后輪驅(qū)動(dòng)混合動(dòng)力汽車電子差速控制的研究

    /Simulink 環(huán)境下進(jìn)行了仿真。結(jié)果表明,該電子差速控制系統(tǒng)可在車輛直線行駛和轉(zhuǎn)彎時(shí)將滑移率控制在最佳范圍內(nèi),使車輛能按照預(yù)定方向穩(wěn)定行駛。 純分享帖,需要者可點(diǎn)擊附件免費(fèi)獲取完整資料~~~*附件:雙
    發(fā)表于 06-18 16:39

    永磁同步電機(jī)參數(shù)辨識(shí)研究綜述

    參數(shù)辨識(shí)的技術(shù)成果,再對(duì) PMSM 辨識(shí)方法進(jìn)行歸納和比較,最后,揭示 PMSM 參數(shù)辨識(shí)過(guò)程中亟需關(guān)注的研究問(wèn)題并 展望其未來(lái)的發(fā)展方向,旨在實(shí)現(xiàn) PMSM 系統(tǒng)的高效可靠運(yùn)行。純分享帖,點(diǎn)擊附件查看全文*附件:永磁同步電機(jī)參數(shù)辨識(shí)
    發(fā)表于 03-26 14:13

    石墨烯鉛蓄電池研究進(jìn)展、優(yōu)勢(shì)、挑戰(zhàn)及未來(lái)方向

    石墨烯鉛蓄電池是將石墨烯材料與傳統(tǒng)鉛酸電池技術(shù)相結(jié)合的研究方向,旨在提升鉛酸電池的性能(如能量密度、循環(huán)壽命、快充能力等)。以下是該領(lǐng)域的研究進(jìn)展、優(yōu)勢(shì)、挑戰(zhàn)及未來(lái)方向: 一、石墨烯在
    的頭像 發(fā)表于 02-13 09:36 ?2395次閱讀

    VirtualLab Fusion應(yīng)用:非球面透鏡背后的焦點(diǎn)研究

    摘要 高功率激光二極管經(jīng)常在兩個(gè)方向上表現(xiàn)出不對(duì)稱的發(fā)散和散光。此案例在VirtualLab Fusion中研究了激光二極管首先被物鏡準(zhǔn)直,然后被非球面透鏡聚焦后焦點(diǎn)區(qū)域的場(chǎng)的演變。與沒(méi)有散光
    發(fā)表于 02-13 08:57

    今日看點(diǎn)丨字節(jié)啟動(dòng) Seed Edge,加碼 AGI 研究;SemiQ推出1700 V SiC MOSFET系列

    研究,Seed Edge 已擬定 5 大研究方向。據(jù)了解,Seed Edge 會(huì)先以虛擬項(xiàng)目組的方式運(yùn)行,探索這些不確定性更強(qiáng)的研究方向。
    發(fā)表于 01-23 11:12 ?814次閱讀

    MLOps平臺(tái)的發(fā)展方向

    MLOps平臺(tái)作為機(jī)器學(xué)習(xí)開(kāi)發(fā)運(yùn)維一體化的重要工具,其發(fā)展方向將深刻影響人工智能技術(shù)的普及和應(yīng)用。下面,是對(duì)MLOps平臺(tái)發(fā)展方向的探討,由AI部落小編整理。
    的頭像 發(fā)表于 12-31 11:51 ?736次閱讀

    光路元件的位置和方向

    摘要 在這個(gè)案例中,我們將演示如何在光路中配置光學(xué)元件的位置和方向。我們將通過(guò)一個(gè)示例來(lái)演示。 將元件放入光路中元件定位 默認(rèn)情況下,元件的位置由相對(duì)位置定義,即由該元件相對(duì)于前一個(gè)元件的參考坐標(biāo)系
    發(fā)表于 12-31 08:54

    知行科技大模型研發(fā)體系初見(jiàn)效果

    11月,知行科技作為共同第一作者提出的Strong Vision Transformers Could BeExcellent Teachers(ScaleKD),以預(yù)訓(xùn)練ViT(視覺(jué)
    的頭像 發(fā)表于 12-27 09:38 ?847次閱讀
    知行科技大模型研發(fā)體系初見(jiàn)效果

    對(duì)超短脈沖的色散效應(yīng)的研究

    得到充分考慮。為了強(qiáng)調(diào)快速物理光學(xué)軟件VirtualLab Fusion在這個(gè)特定光學(xué)領(lǐng)域的能力,我們展示了兩個(gè)例子。在第一個(gè)例子中,我們研究了一個(gè)脈沖在不同材料中傳播時(shí)的行為,并說(shuō)明了相應(yīng)的色散相關(guān)效應(yīng)。我們
    發(fā)表于 12-25 15:29

    非球面透鏡背后的焦點(diǎn)研究

    **摘要 ** 高功率激光二極管經(jīng)常在兩個(gè)方向上表現(xiàn)出不對(duì)稱的發(fā)散和散光。此案例在VirtualLab Fusion中研究了激光二極管首先被物鏡準(zhǔn)直,然后被非球面透鏡聚焦后焦點(diǎn)區(qū)域的場(chǎng)的演變。與沒(méi)有
    發(fā)表于 12-17 08:54

    結(jié)合芯片行業(yè)現(xiàn)狀,數(shù)字芯片設(shè)計(jì)什么方向最值得投身?

    時(shí)間已經(jīng)來(lái)到了2024年,芯片行業(yè)的熱度已然大幅下降,但這個(gè)行業(yè)的價(jià)值依然在。芯片應(yīng)用的種類繁多,也意味著芯片的類型多種多樣,我也經(jīng)常會(huì)被問(wèn)到做芯片設(shè)計(jì),到底哪個(gè)方向更有前景?不同類型的芯片設(shè)計(jì)崗位
    的頭像 發(fā)表于 11-16 01:09 ?2138次閱讀
    結(jié)合芯片行業(yè)現(xiàn)狀,數(shù)字芯片設(shè)計(jì)什么<b class='flag-5'>方向</b>最值得投身?