亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

幾B都有!BM1684X一鍵適配全系列Qwen3

算能開發(fā)者社區(qū) ? 2025-04-30 18:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Qwen3發(fā)布,大小尺寸通吃

Qwen3一發(fā)布,登頂開源大模型排行榜!235B、32B、8B、4B、1.7B云邊端全尺寸模型,BF16和FP8兩種精度,一次性發(fā)布,無論云端大卡還是邊緣AI設(shè)備,都可體驗最新的大模型能力。

來看下Qwen3各個模型的benchmark得分:

2df9d8c0-25af-11f0-9434-92fbcf53809c.png

2e1a6928-25af-11f0-9434-92fbcf53809c.png

這些年看多了大模型的迭代,各家都在玩參數(shù)競賽和架構(gòu)魔術(shù),但阿里這次Qwen3的設(shè)計有點意思——它搞了個"混合模式"的機制,讓模型能自己決定什么時候該"慢慢想",什么時候該"快速答"。這玩意兒本質(zhì)上是在延遲和精度之間做動態(tài)權(quán)衡,技術(shù)上不算新鮮(OpenAI的o3就玩過這套),但阿里的實現(xiàn)方式更像個老會計——給你個"思考預(yù)算"的開關(guān),讓用戶自己把控成本。

2e316574-25af-11f0-9434-92fbcf53809c.png

BM1684X,Qwen3部署性價比之王

這種設(shè)計背后是典型的工程思維:既然大模型的推理成本居高不下,不如把選擇權(quán)交給用戶。就像當(dāng)年CPU的動態(tài)調(diào)頻技術(shù),與其無腦跑滿頻,不如讓系統(tǒng)根據(jù)負(fù)載靈活調(diào)節(jié),但這種模式切換要在硬件層面做好流水線調(diào)度,否則切換時的上下文保存就能吃掉那點省下來的算力。

現(xiàn)在的大模型就像過度教育的孩子,解得了奧數(shù)題但算不清買菜賬。Qwen3給"孩子"裝了個手動擋,讓用戶自己決定什么時候該掛高檔位沖刺,什么時候該低檔省油,這種策略下每瓦特的性價比自然就上去了,而邊緣和端側(cè)的設(shè)備對成本更是敏感,那作為邊緣大模型部署的性價比之王,BM1684X表現(xiàn)如何?

4B運行demo(SOC模式950Mhz 16.4tokens/s)

2e48630a-25af-11f0-9434-92fbcf53809c.gif

1.7B運行demo(SOC模式950Mhz 30.3 tokens/s)

2e6838ec-25af-11f0-9434-92fbcf53809c.gif

一行代碼適配,解鎖全系模型

BM1684X 單芯配置16GB內(nèi)存,20B以下的都可以在一顆芯片跑,32B用2顆就可以(32B dense模型性能約5 tokens/s)。

更詳細(xì)的適配流程參考:https://github.com/sophgo/LLM-TPU/tree/main/models/Qwen3,拉取最新的tpu-mlir代碼后,只需要一行代碼即可轉(zhuǎn)出bmodel,不用再通過onnx中介。

2e88a9a6-25af-11f0-9434-92fbcf53809c.png

bmodel轉(zhuǎn)好之后,可以用python或者cpp來跑:

2e9ca49c-25af-11f0-9434-92fbcf53809c.png

限制我們適配新模型速度的不是工具鏈,而是模型下載速度,歡迎關(guān)注算能產(chǎn)品,解鎖更多大模型部署方案,手中有BM1684X的同學(xué)可以玩起來了!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 邊緣AI
    +關(guān)注

    關(guān)注

    0

    文章

    187

    瀏覽量

    5778
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3373

    瀏覽量

    4831
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    Qwen3-VL 4B/8B全面適配,BM1684X成邊緣最佳部署平臺!

    算能BM1684X上完成Qwen3-VL4B/8B模型的適配,推理速度13.7/7.2tokens/s,使其成為邊緣部署多模態(tài)大模型的最佳選擇。近日,阿里千問正式開源
    的頭像 發(fā)表于 10-16 18:00 ?836次閱讀
    <b class='flag-5'>Qwen3</b>-VL 4<b class='flag-5'>B</b>/8<b class='flag-5'>B</b>全面<b class='flag-5'>適配</b>,<b class='flag-5'>BM1684X</b>成邊緣最佳部署平臺!

    DFRobot亮相貿(mào)澤電子elexcon 2025展臺,展示與Qwen3大模型融合的AI應(yīng)用

    8月26日,elexcon2025深圳國際電子展在深圳會展中心隆重開幕。在全球知名新品引入(NPI)代理商貿(mào)澤電子(Mouser Electronics) 展臺(1號館1Q30),DFRobot展示了其LattePanda Sigma單板計算機與Qwen3大語言模型的融合應(yīng)用。
    的頭像 發(fā)表于 08-30 10:51 ?695次閱讀

    廣和通加速通義千問Qwen3在端側(cè)全面落地

    6月,廣和通宣布:率先完成通義千問Qwen3系列混合推理模型在高通QCS8550平臺端側(cè)的適配部署。廣和通通過定制化混合精度量化方案與創(chuàng)新硬件加速算法,成功突破Qwen3新型架構(gòu)在邊緣
    的頭像 發(fā)表于 06-25 15:35 ?644次閱讀

    壁仞科技完成Qwen3旗艦?zāi)P?b class='flag-5'>適配

    近日,在高效適配Qwen3系列模型推理后,壁仞科技宣布完成旗艦版Qwen3-235B-A22B模型的訓(xùn)練適配和優(yōu)化。由此,壁仞科技已實現(xiàn)
    的頭像 發(fā)表于 05-16 16:23 ?662次閱讀

    Arm CPU適配通義千問Qwen3系列模型

    近日,阿里巴巴開源了新代通義千問模型 Qwen3,Arm 率先成為首批成功適配該模型的計算平臺廠商。與此同時,Arm 面向人工智能 (AI) 框架開發(fā)者的開源計算內(nèi)核 Arm KleidiAI
    的頭像 發(fā)表于 05-12 16:37 ?992次閱讀

    Intel OpenVINO? Day0 實現(xiàn)阿里通義 Qwen3 快速部署

    本文將以 Qwen3-8B 為例,介紹如何利用 OpenVINO 的 Python API 在英特爾平臺(GPU, NPU)Qwen3 系列模型。
    的頭像 發(fā)表于 05-11 11:36 ?1235次閱讀
    Intel OpenVINO? Day0 實現(xiàn)阿里通義 <b class='flag-5'>Qwen3</b> 快速部署

    NVIDIA RTX 5880 Ada與Qwen3系列模型實測報告

    近日,阿里巴巴通義千問團(tuán)隊正式推出新代開源大語言模型——Qwen3 系列,該系列包含 6 款 Dense 稠密模型和 2 款 MoE 混合專家模型,參數(shù)規(guī)模覆蓋 0.6
    的頭像 發(fā)表于 05-09 15:05 ?3160次閱讀
    NVIDIA RTX 5880 Ada與<b class='flag-5'>Qwen3</b><b class='flag-5'>系列</b>模型實測報告

    NVIDIA使用Qwen3系列模型的最佳實踐

    阿里巴巴近期發(fā)布了其開源的混合推理大語言模型 (LLM) 通義千問 Qwen3,此次 Qwen3 開源模型系列包含兩款混合專家模型 (MoE),235B-A22B(總參數(shù) 2,350
    的頭像 發(fā)表于 05-08 11:45 ?2360次閱讀
    NVIDIA使用<b class='flag-5'>Qwen3</b><b class='flag-5'>系列</b>模型的最佳實踐

    后摩智能NPU適配通義千問Qwen3系列模型

    近日,阿里云重磅推出Qwen3 系列開源混合推理模型。用時不到1天,后摩智能自研NPU迅速實現(xiàn)Qwen3 系列模型(Qwen3 0.6
    的頭像 發(fā)表于 05-07 16:46 ?1027次閱讀

    寒武紀(jì)率先支持Qwen3全系列模型

    近日,阿里Qwen團(tuán)隊口氣上新8大模型,Qwen3正式發(fā)布并全部開源。
    的頭像 發(fā)表于 05-07 15:51 ?738次閱讀

    摩爾線程GPU率先支持Qwen3全系列模型

    近日,阿里云正式發(fā)布Qwen3系列的8款開源混合推理模型。摩爾線程團(tuán)隊在模型發(fā)布當(dāng)天,率先完成了Qwen3全系列模型在全功能GPU上的高效支持。這
    的頭像 發(fā)表于 05-07 15:24 ?767次閱讀

    在openEuler上基于vLLM Ascend部署Qwen3

    近日,阿里巴巴正式發(fā)布新Qwen大語言模型系列Qwen3Qwen3-MoE),在模型規(guī)模與性能上實現(xiàn)多方面升級。openEuler社
    的頭像 發(fā)表于 05-07 14:44 ?1318次閱讀
    在openEuler上基于vLLM Ascend部署<b class='flag-5'>Qwen3</b>

    中科曙光DeepAI深算智能引擎全面支持Qwen3

    日前,Qwen3正式發(fā)布并全部開源8款混合推理模型。作為Qwen系列中的最新代大型語言模型,Qwen3在推理、指令遵循、工具調(diào)用、多語言能
    的頭像 發(fā)表于 05-06 15:17 ?861次閱讀

    壁仞科技完成阿里巴巴通義千問Qwen3全系列模型支持

    4月29日,阿里巴巴通義千問發(fā)布并開源8款新版Qwen3系列“混合推理模型”(簡稱“Qwen3”)。Qwen3發(fā)布后數(shù)小時內(nèi),壁仞科技完成全系列
    的頭像 發(fā)表于 04-30 15:19 ?1255次閱讀

    天數(shù)智芯加速DeepSeek全系列模型適配

    R1-Distill-Qwen系列模型,包括1.5B、7B、14B和32B等不同參數(shù)版本,以及
    的頭像 發(fā)表于 02-10 15:30 ?1323次閱讀