亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

只能跑Transformer的AI芯片,卻號稱全球最快?

E4Life ? 來源:電子發(fā)燒友 ? 作者:周凱揚(yáng) ? 2024-07-01 09:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報(bào)道(文/周凱揚(yáng))近日,一家由哈佛輟學(xué)生成立的初創(chuàng)公司Etched,宣布了他們在打造的一款“專用”AI芯片Sohu。據(jù)其聲稱該芯片的速度將是英偉達(dá)H100的20倍,但只能跑transformer架構(gòu)的模型。

Sohu,比H100快上20倍

之所以打算Sohu這一自研ASIC AI芯片,是因?yàn)镋tched認(rèn)為GPU在性能升級上的速度太慢了。如果以H100的單位面積算力和交期作為參考,那么從2022年到2025年,英偉達(dá)的H100迭代至B200,2.5年的時(shí)間內(nèi)性能只有15%的提升。所以要想有效提高性能的方式,只有走特化的ASIC芯片一途。

現(xiàn)在發(fā)布的任何AI芯片,在提到性能時(shí),無疑都會(huì)把英偉達(dá)的H100作為對比參照,Etched的Sohu也不例外。根據(jù)Etched提供的數(shù)據(jù),單個(gè)Sohu服務(wù)器運(yùn)行Llama 70B時(shí)可以做到50萬Tokens每秒,這一速度是單個(gè)H100服務(wù)器的20倍以上,也是單個(gè)B200服務(wù)器的10倍以上。

在服務(wù)器的配置上,Sohu服務(wù)器和H100服務(wù)器均采用的8卡的配置,所以Etched強(qiáng)調(diào)一個(gè)8xSohu的服務(wù)器就可以替換掉至少160個(gè)H100,大大降低成本的同時(shí),也不會(huì)有性能損失。

由于Sohu僅支持一種算法,所以絕大多數(shù)的控制流模塊都可以被剔除,芯片可以集成更多的數(shù)學(xué)計(jì)算單元,在算力利用率上可以達(dá)到90%以上,而GPU卻只能做到30%。這也是因?yàn)樵贕PU的電路設(shè)計(jì)上,用于矩陣乘法的晶體管數(shù)量甚至沒有占到10%。不過Etched對于英偉達(dá)的設(shè)計(jì)還是相當(dāng)佩服的,指出如果同時(shí)想支持CNN、LSTM、SSM等其他模型,確實(shí)很難做得比英偉達(dá)更好。

當(dāng)然了,這里的測試條件也必須做一個(gè)說明,測試標(biāo)準(zhǔn)為FP8精度的Llama 70B,無稀疏,其中H100是基于最新版本的TensorRT-LLM測試的,而B200由于還未交付,所以其性能是預(yù)估的。

為何專攻Transformer模型

市面上的AI芯片和GPU產(chǎn)品為了覆蓋更靈活的客戶需求,盡管不少都采用了ASIC的設(shè)計(jì)方案,但支持的模型卻不會(huì)局限在一類。Etched也在其官網(wǎng)列出了市面上一些競品方案,包括英偉達(dá)的GPU、谷歌的TPU、亞馬遜的Trainium、Graphcore的IPU、Tenstorrent的Grayskull和英特爾的Gaudi等等,這些方案無一不對廣泛的AI模型提供了支持。

但我們從市面上頭部的模型來看,幾乎占據(jù)主導(dǎo)地位的都是transformer架構(gòu)的模型,比如GPT、Sora、Gemini和Stable Diffusion。Etched很大方地表示,如果哪一天transformer被SSM、RWKV或其他新的架構(gòu)替代了,他們的芯片將變得一無是處,對于千變?nèi)f化的AI市場而言,絕大多數(shù)廠商都不敢沒法做出這樣的預(yù)測。

而Etched從2022年底,就賭transformer模型將會(huì)統(tǒng)治整個(gè)市場。這在當(dāng)時(shí)還沒有ChatGPT的年代,是一個(gè)大膽的預(yù)測,畢竟當(dāng)時(shí)圖像生成還有基于CNN的U-Net,不少自動(dòng)駕駛的視覺處理也還在廣泛使用CNN。而且對于一個(gè)規(guī)模不算大的設(shè)計(jì)團(tuán)隊(duì)而言,維護(hù)單一架構(gòu)的軟件棧明顯壓力更小一些,他們只需要為transformer編寫驅(qū)動(dòng)、內(nèi)核即可。

寫在最后

至于Etched的這場豪賭是否能成功,還得看芯片的成品表現(xiàn)如何。雖然他們嘗試的這條路線沒人走過,但財(cái)力和研發(fā)能力均在他們之上的廠商也沒能打造出超過英偉達(dá)GPU的競品,硅谷的VC們能否造出新神,依然不能過早下定論。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    153

    瀏覽量

    6771
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    2042

    瀏覽量

    36474
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    愛芯元智亮相2025全球AI芯片峰會(huì)

    2025全球AI芯片峰會(huì)(GACS 2025)近日在上海召開,愛芯元智聯(lián)合創(chuàng)始人、副總裁劉建偉出席活動(dòng),并于“大模型AI芯片專題論壇”發(fā)表主
    的頭像 發(fā)表于 09-26 15:49 ?586次閱讀

    酷芯微電子亮相2025全球AI芯片峰會(huì)

    近日,2025全球AI芯片峰會(huì)在上海圓滿舉辦??嵝臼苎麉⒓印?b class='flag-5'>AI芯片架構(gòu)創(chuàng)新專題論壇》,創(chuàng)始人兼CTO沈泊發(fā)表了題為《
    的頭像 發(fā)表于 09-25 17:39 ?669次閱讀

    Achronix亮相2025全球AI芯片峰會(huì)

    在近日舉行的2025全球AI芯片峰會(huì)上,Achronix Speedster7t FPGA的大模型推理平臺(tái)展示獲得眾多業(yè)界人士的積極反響。
    的頭像 發(fā)表于 09-23 18:01 ?829次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片到AGI芯片

    、分布式群體智能 1)物聯(lián)網(wǎng)AGI系統(tǒng) 優(yōu)勢: 組成部分: 2)分布式AI訓(xùn)練 7、發(fā)展重點(diǎn):基于強(qiáng)化學(xué)習(xí)的后訓(xùn)練與推理 8、超越大模型:神經(jīng)符號計(jì)算 三、AGI芯片的實(shí)現(xiàn) 1、技術(shù)需求 AI取得成功
    發(fā)表于 09-18 15:31

    墨芯亮相2025全球AI芯片峰會(huì)

    2025全球AI芯片峰會(huì)于9月17日在上海成功舉辦。本屆峰會(huì)匯聚了來自人工智能芯片領(lǐng)域的42位產(chǎn)學(xué)研專家及創(chuàng)業(yè)先鋒代表,圍繞“大模型下半場中國AI
    的頭像 發(fā)表于 09-18 11:52 ?1058次閱讀

    云天勵(lì)飛亮相2025全球AI芯片峰會(huì)

    9 月 17 日,全球 AI 芯片峰會(huì)在上海舉行,云天勵(lì)飛董事長兼 CEO 陳寧出席并發(fā)表演講。
    的頭像 發(fā)表于 09-17 17:56 ?963次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+神經(jīng)形態(tài)計(jì)算、類腦芯片

    AI芯片不僅包括深度學(xué)細(xì)AI加速器,還有另外一個(gè)主要列別:類腦芯片。類腦芯片是模擬人腦神經(jīng)網(wǎng)絡(luò)架構(gòu)的芯片
    發(fā)表于 09-17 16:43

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    連接定義了神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)。 不同神經(jīng)網(wǎng)絡(luò)的DNN: 一、基于大模型的AI芯片 1、Transformer 模型與引擎 1.1 Transformer 模型概述
    發(fā)表于 09-12 17:30

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片的需求和挑戰(zhàn)

    Transformer引擎③NVLink Switch系統(tǒng)④機(jī)密計(jì)算⑤HBM FPGA: 架構(gòu)的主要特點(diǎn):可重構(gòu)邏輯和路由,可以快速實(shí)現(xiàn)各種不同形式的神經(jīng)網(wǎng)絡(luò)加速。 ASIC: 介紹了幾種ASIC AI芯片
    發(fā)表于 09-12 16:07

    睿海光電800G光模塊助力全球AI基建升級

    全球數(shù)字化轉(zhuǎn)型加速的背景下,超高速光模塊作為數(shù)據(jù)中心與AI算力網(wǎng)絡(luò)的核心部件,正經(jīng)歷從400G向800G、1.6T的迭代浪潮。在這一賽道中,深圳市睿海光電科技有限公司(以下簡稱“睿海光電”)憑借
    發(fā)表于 08-13 19:05

    2025端側(cè)AI芯片爆發(fā):存算一體、非Transformer架構(gòu)誰主浮沉?邊緣計(jì)算如何選型?

    各位技術(shù)大牛好!最近WAIC 2025上端側(cè)AI芯片密集發(fā)布,徹底打破傳統(tǒng)算力困局。各位大佬在實(shí)際項(xiàng)目中都是如何選型的呢?
    發(fā)表于 07-28 14:40

    【書籍評測活動(dòng)NO.64】AI芯片,從過去走向未來:《AI芯片:科技探索與AGI愿景》

    創(chuàng)新、應(yīng)用創(chuàng)新、系統(tǒng)創(chuàng)新五個(gè)部分,接下來一一解讀。 算法創(chuàng)新 在深度學(xué)習(xí)AI芯片的創(chuàng)新上,書中圍繞大模型與Transformer算法的算力需求,提出了一系列架構(gòu)與方法創(chuàng)新,包括存內(nèi)計(jì)算技術(shù)、基于開源
    發(fā)表于 07-28 13:54

    Transformer架構(gòu)概述

    由于Transformer模型的出現(xiàn)和快速發(fā)展,深度學(xué)習(xí)領(lǐng)域正在經(jīng)歷一場翻天覆地的變化。這些突破性的架構(gòu)不僅重新定義了自然語言處理(NLP)的標(biāo)準(zhǔn),而且拓寬了視野,徹底改變了AI的許多方面。
    的頭像 發(fā)表于 06-10 14:24 ?752次閱讀
    <b class='flag-5'>Transformer</b>架構(gòu)概述

    transformer專用ASIC芯片Sohu說明

    的舊圖像模型,也不能運(yùn)行CNN、RNN或LSTM。 但對于transformer來說,Sohu是有史以來最快芯片。 借助Llama 70B每秒超過50萬個(gè)token的吞吐量,Sohu可以讓您構(gòu)建在GPU上無法實(shí)現(xiàn)的產(chǎn)品
    的頭像 發(fā)表于 01-06 09:13 ?1589次閱讀
    <b class='flag-5'>transformer</b>專用ASIC<b class='flag-5'>芯片</b>Sohu說明

    Transformer模型的具體應(yīng)用

    如果想在 AI 領(lǐng)域引領(lǐng)一輪新浪潮,就需要使用到 Transformer。
    的頭像 發(fā)表于 11-20 09:28 ?2215次閱讀
    <b class='flag-5'>Transformer</b>模型的具體應(yīng)用