亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

瑞芯微RK3576語音識別算法

廣州靈眸科技有限公司 ? 2025-08-15 15:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1.語音識別簡介

語音識別技術(shù),也被稱為自動語音識別(Automatic Speech Recognition,ASR),其目標(biāo)是將人類的語音中的詞匯內(nèi)容轉(zhuǎn)換為計(jì)算機(jī)可讀的輸入,例如按鍵、二進(jìn)制編碼或者字符序列。與說話人識別及說話人確認(rèn)不同,后者嘗試識別或確認(rèn)發(fā)出語音的說話人而非其中所包含的詞匯內(nèi)容。

我們的語音算法是基于Whisper是OpenAI設(shè)計(jì)的。Whisper作為一個通用的語音識別模型,它使用了大量的多語言和多任務(wù)的監(jiān)督數(shù)據(jù)來訓(xùn)練,能夠在英語語音識別上達(dá)到接近人類水平的魯棒性和準(zhǔn)確性。Whisper還可以進(jìn)行多語言語音識別、語音翻譯和語言識別等任務(wù)。Whisper的架構(gòu)是一個簡單的端到端方法,采用了編碼器-解碼器的Transformer模型,將輸入的音頻轉(zhuǎn)換為對應(yīng)的文本序列,并根據(jù)特殊的標(biāo)記來指定不同的任務(wù)。

基于EASY-EAI-Orin-nano(RK3576)硬件主板的運(yùn)行效率:

算法種類模型大小Real Time Factor (RTF)
speech_decoder383MB0.077
speech_encoder217MB0.077

2.快速上手

如果您初次閱讀此文檔,請閱讀:《入門指南/源碼管理及編程介紹/源碼工程管理》,按需管理自己工程源碼(注:此文檔必看,并建議采用【遠(yuǎn)程掛載管理】方式,否則有代碼丟失風(fēng)險?。。。?/span>。

2.1開源碼工程下載

先在PC虛擬機(jī)定位到nfs服務(wù)目錄,再在目錄中創(chuàng)建存放源碼倉庫的管理目錄:

cd ~/nfsroot mkdir GitHub cd GitHub

再通過git工具,在管理目錄內(nèi)克隆遠(yuǎn)程倉庫(需要設(shè)備能對外網(wǎng)進(jìn)行訪問)

git clone https://github.com/EASY-EAI/EASY-EAI-Toolkit-3576.git

wKgZO2ie21qAX1F1AAThXkdBXf4444.png

注:

* 此處可能會因網(wǎng)絡(luò)原因造成卡頓,請耐心等待。

* 如果實(shí)在要在gitHub網(wǎng)頁上下載,也要把整個倉庫下載下來,不能單獨(dú)下載本實(shí)例對應(yīng)的目錄。

2.2開發(fā)環(huán)境搭建

通過adb shell進(jìn)入板卡開發(fā)環(huán)境,如下圖所示。

wKgZPGie23iAAjukAASksyxe3Mo794.png

通過以下命令,把nfs目錄掛載上nfs服務(wù)器。

mount -t nfs -o nolock : /home/orin-nano/Desktop/nfs/

wKgZPGie26OAe4rXAANSYXB8WZg622.png

2.3例程編譯

然后定位到板卡的nfs的掛載目錄(按照實(shí)際掛載目錄),進(jìn)入到對應(yīng)的例程目錄執(zhí)行編譯操作,具體命令如下所示:

cd EASY-EAI-Toolkit-3576/Demos/algorithm-speech_recognition/ ./build.sh

wKgZO2ie28CAZMLdAAcd4coY2Cc524.png

2.4模型部署

要完成算法Demo的執(zhí)行,需要先下載法模型。

百度網(wǎng)盤鏈接為:https://pan.baidu.com/s/1jNjnfjnrmyW3_vvdgEG-rA?pwd=1234 (提取碼:1234)。

wKgZO2ie29mAH0pgAAPUfXu-MXk299.png

同時需要把下載的解碼模型和編碼模型復(fù)制粘貼到Release/目錄:

wKgZPGie2-2ARVzuAAByCFqAkpU205.png

2.5例程運(yùn)行及效果

進(jìn)入開發(fā)板Release目錄,執(zhí)行下方命令,運(yùn)行示例程序:

cd Release/ ./test-speech_recognition speech_encoder.model speech_decoder.model filters.txt CN.txt cn 1-10-1_CN.wav

運(yùn)行例程命令如下所示:

wKgZPGie3AyARnEmAAFfQ31OKno954.png

API的詳細(xì)說明,以及API的調(diào)用(本例程源碼),詳細(xì)信息見下方說明。

3.語音識別API說明

3.1引用方式

為方便客戶在本地工程中直接調(diào)用我們的EASY EAIapi庫,此處列出工程中需要鏈接的庫以及頭文件等,方便用戶直接添加。

選項(xiàng)

描述

頭文件目錄easyeai-api/algorithm/speech_recognition
庫文件目錄easyeai-api/algorithm/speech_recognition
庫鏈接參數(shù)-lspeech_recognition

3.2語音識別檢測初始化函數(shù)

設(shè)置語音識別初始化函數(shù)原型如下所示。

int speech_recognition_init(const char *p_encoder_path, const char *p_decoder_path, const char *p_filter_path,

const char *p_vocab_path, rknn_whisper_t *p_whisper);

具體介紹如下所示。

函數(shù)名:speech_recognition_init

頭文件speech_recognition.h
輸入?yún)?shù)p_encoder_path:編碼模型名字/路徑
輸入?yún)?shù)p_decoder_path:解碼模型名字/路徑
輸入?yún)?shù)p_filter_path:濾波器頻譜
輸入?yún)?shù)p_vocab_path:詞組文件
輸入?yún)?shù)p_whisper:語音識別句柄
返回值成功返回:0
失敗返回:-1
注意事項(xiàng)

3.3語音識別運(yùn)行函數(shù)

設(shè)置語音識別運(yùn)行原型如下所示。

int speech_recognition_run(rknn_whisper_t *p_whisper, audio_buffer_t audio, int task_code, std::vector &recognized_text);

具體介紹如下所示。

函數(shù)名:speech_recognition_run
頭文件speech_recognition.h
輸入?yún)?shù)p_whisper:語音識別句柄
輸入?yún)?shù)audio:待識別音頻信息
輸入?yún)?shù)task_code:語音識別任務(wù)
輸入?yún)?shù)recognized_text:語音識別結(jié)果
返回值成功返回:0
失敗返回:-1
注意事項(xiàng)

3.4語音識別釋放函數(shù)

設(shè)置語音識別釋放原型如下所示。

int speech_recognition_release(rknn_whisper_t *p_whisper);

具體介紹如下所示。

函數(shù)名:speech_recognition_release
頭文件speech_recognition.h
輸入?yún)?shù)p_whisper:語音識別句柄
返回值成功返回:0
失敗返回:-1
注意事項(xiàng)
  1. 語音識別算法例程

例程目錄為Demos/algorithm-speech_recognition/test-speech_recognition.cpp,操作流程如下所示:

wKgZO2ie3C-AdaodAAAcJxL1UrY691.png

#include #include #include #include #include #include "sndfile.h" #include "speech_recognition.h" #include "audio_utils.h" int main(int argc, char **argv) { if (argc != 7){ printf("%s \n", argv[0]); printf("Example: %s speech_encoder.model speech_decoder.model filters.txt CN.txt cn 1-10-1_CN.wav\n", argv[0]); return -1; } const char *p_encoder_path = argv[1]; // 編碼模型地址 const char *p_decoder_path = argv[2]; // 解碼模型地址 const char *p_filter_path = argv[3]; // 濾波器頻譜 const char *p_vocab_path = argv[4]; // 詞組文件 const char *p_task = argv[5]; // 識別語種(cn/en) const char *p_audio_path = argv[6]; // 待識別音頻 int task_code = 0; std::vector recognized_text; // Tokenizer 預(yù)定義控制符號(切換語言或任務(wù)) if (strcmp(p_task, "en") == 0){ task_code = 50259; } else if (strcmp(p_task, "cn") == 0){ task_code = 50260; } else{ printf("\n\033[1;33mCurrently only English or Chinese recognition tasks are supported. Please specify as en or zh\033[0m\n"); return -1; } // 讀取音頻,并對音頻進(jìn)行處理 audio_buffer_t audio; int ret = read_audio(p_audio_path, &audio); if (ret != 0){ printf("read audio fail! ret=%d audio_path=%s\n", ret, p_audio_path); return -1; } if (audio.num_channels == 2){ ret = convert_channels(&audio); } if (audio.sample_rate != SAMPLE_RATE){ ret = resample_audio(&audio, audio.sample_rate, SAMPLE_RATE); } // speech recognition初始化 rknn_whisper_t whisper; ret = speech_recognition_init(p_encoder_path, p_decoder_path, p_filter_path, p_vocab_path, &whisper); int iter = 0; for (int i=0; i < 5; i++) { clock_t start = clock(); recognized_text.clear(); // speech recognition語音識別 ret = speech_recognition_run(&whisper, audio, task_code, recognized_text); clock_t end = clock(); // 記錄結(jié)束時間 double infer_time = ((double)(end - start)) / CLOCKS_PER_SEC; // 轉(zhuǎn)換為秒 // 結(jié)果輸出 std::cout << "\nspeech recognition output: "; for (const auto &str : recognized_text){ std::cout << str; } std::cout << std::endl; float audio_length = audio.num_frames / (float)SAMPLE_RATE; // sec audio_length = audio_length > (float)CHUNK_LENGTH ? (float)CHUNK_LENGTH : audio_length; float rtf = infer_time / audio_length; printf("%d, Real Time Factor (RTF): %.3f / %.3f = %.3f\n", iter++, infer_time, audio_length, rtf); } // speech recognition釋放 speech_recognition_release(&whisper); return 0; }

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 語音識別
    +關(guān)注

    關(guān)注

    39

    文章

    1796

    瀏覽量

    115273
  • 瑞芯微
    +關(guān)注

    關(guān)注

    26

    文章

    667

    瀏覽量

    53210
  • rk3576
    +關(guān)注

    關(guān)注

    1

    文章

    215

    瀏覽量

    1285
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于RK3576開發(fā)板的人臉識別算法

    RK3576開發(fā)板展示人臉識別算法例程和API說明
    的頭像 發(fā)表于 05-07 16:48 ?2341次閱讀
    基于<b class='flag-5'>RK3576</b>開發(fā)板的人臉<b class='flag-5'>識別</b><b class='flag-5'>算法</b>

    RK3588與RK3576技術(shù)參數(shù)詳解

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)不久前表示,2025年上半年AIoT市場延續(xù)蓬勃發(fā)展趨勢,因應(yīng)AI在端側(cè)應(yīng)用發(fā)展需求,公司旗艦產(chǎn)品RK3588、次新產(chǎn)品
    的頭像 發(fā)表于 09-23 08:20 ?7233次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b><b class='flag-5'>RK</b>3588與<b class='flag-5'>RK3576</b>技術(shù)參數(shù)詳解

    米爾RK3576RK3588怎么選?-看這篇就夠了

    在中國半導(dǎo)體產(chǎn)業(yè)的版圖中,作為國內(nèi)SoC芯片領(lǐng)跑者,憑借其在處理器芯片設(shè)計(jì)領(lǐng)域的深厚積累和持續(xù)創(chuàng)新,推出很多智能應(yīng)用處理器芯片,在嵌入式系統(tǒng)領(lǐng)域得到大規(guī)模的應(yīng)用。RK3588和
    發(fā)表于 12-27 11:44

    米爾RK3576實(shí)測輕松搞定三屏八攝像頭

    RK3576參數(shù)強(qiáng)勁RK3576推出的一款高性能AIoT處理器,這款芯片以其卓越的計(jì)算能力、多屏幕支持、強(qiáng)大的視頻編解碼能力和高效的
    發(fā)表于 01-17 11:33

    國產(chǎn)開發(fā)板的端側(cè)AI測評-基于米爾RK3576

    ,國產(chǎn)自主可控必須搞起來。那與非網(wǎng)本期內(nèi)容就跟自主可控強(qiáng)關(guān)聯(lián)——評測一款基于國產(chǎn)SoC的板卡,由米爾電子推出的RK3576開發(fā)板(MYD-LR
    發(fā)表于 02-14 16:29

    適配多種系統(tǒng),米爾RK3576核心板解鎖多樣化應(yīng)用

    米爾電子發(fā)布的基于 RK3576 核心板和開發(fā)板,具備高性能數(shù)據(jù)處理能力、領(lǐng)先的AI智能分析功能、多樣化的顯示與操作體驗(yàn)以及強(qiáng)大的擴(kuò)展性與兼容性,適用于多種應(yīng)用場景。目前米爾電子
    發(fā)表于 05-23 16:07

    Onenet云網(wǎng)關(guān)方案應(yīng)用--基于米爾RK3576開發(fā)板

    本文將介紹基于米爾電子MYD-LR3576開發(fā)板(米爾基于RK3576開發(fā)板)的Onenet云網(wǎng)關(guān)應(yīng)用方案測試。 摘自優(yōu)秀創(chuàng)作者-小手
    發(fā)表于 06-06 16:54

    RK3576|觸覺智能:開啟科技新篇章

    ,創(chuàng)新不止步!”——全新芯片RK3576即將震撼登場。指引科技風(fēng)潮,創(chuàng)造未來無限可能!這款芯片在
    的頭像 發(fā)表于 03-21 08:31 ?1918次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b><b class='flag-5'>RK3576</b>|觸覺智能:開啟科技新篇章

    新品體驗(yàn) | RK3576開發(fā)板

    前言:RK3576作為第二代8nm高性能AIOT平臺,一經(jīng)推出便獲得了極大的關(guān)注。廣州眺望電子科技有限公司是一家專注于嵌入式處理器模組研發(fā)與應(yīng)用的國家高新技術(shù)企業(yè),目前公司已推出
    的頭像 發(fā)表于 11-01 08:08 ?2574次閱讀
    新品體驗(yàn) | <b class='flag-5'>RK3576</b>開發(fā)板

    RK3588與RK3576芯片對比

    在AIoT領(lǐng)域,RK3588和RK3576都是備受矚目的處理器。以下將從多個方面對它們進(jìn)行詳細(xì)對比。
    的頭像 發(fā)表于 11-04 15:55 ?4538次閱讀
    <b class='flag-5'>RK</b>3588與<b class='flag-5'>RK3576</b>芯片對比

    米爾RK3576開發(fā)板特惠活動!

    近日,米爾電子發(fā)布基于RK3576核心板和開發(fā)板,RK3576作為國產(chǎn)熱門處理器,其高性能數(shù)據(jù)處理能力、領(lǐng)先的AI智能分析、強(qiáng)大的擴(kuò)展
    的頭像 發(fā)表于 11-12 01:00 ?1830次閱讀
    米爾<b class='flag-5'>RK3576</b>開發(fā)板特惠活動!

    有獎丨米爾 RK3576開發(fā)板免費(fèi)試用

    米爾與合作發(fā)布的新品基于RK3576應(yīng)用
    的頭像 發(fā)表于 11-12 01:00 ?1121次閱讀
    有獎丨米爾 <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b><b class='flag-5'>RK3576</b>開發(fā)板免費(fèi)試用

    追加名額丨米爾RK3576開發(fā)板有獎試用

    米爾與合作發(fā)布的新品基于RK3576應(yīng)用
    的頭像 發(fā)表于 11-22 01:00 ?942次閱讀
    追加名額丨米爾<b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b><b class='flag-5'>RK3576</b>開發(fā)板有獎試用

    RK3576主板YNH-536-規(guī)格書

    RK3576主板YNH-536-V1
    發(fā)表于 05-19 09:51 ?4次下載

    RK3576RK3576S有什么區(qū)別,性能參數(shù)配置與型號差異解析

    第二代8nm高性能AIOT平臺RK3576家族再添新成員-RK3576S,先說結(jié)論:相較主型號的R
    的頭像 發(fā)表于 08-14 23:57 ?1422次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b><b class='flag-5'>RK3576</b>與<b class='flag-5'>RK3576</b>S有什么區(qū)別,性能參數(shù)配置與型號差異解析