8月4日消息,小米正式發(fā)布并開源聲音理解大模型MiDashengLM-7B,該模型是小米“人車家全生態(tài)”戰(zhàn)略的關(guān)鍵技術(shù)組件。
MiDashengLM通過統(tǒng)一理解語音、環(huán)境聲與音樂的跨領(lǐng)域能力,不僅能聽懂用戶周圍發(fā)生了什么事情,還能分析發(fā)現(xiàn)這些事情的隱藏含義,提高用戶場景理解的泛化性。
基于MiDashengLM的模型通過自然語言和用戶交互,為用戶提更人性化的溝通和反饋,比如在用戶練習(xí)唱歌或練習(xí)外語時(shí)提供發(fā)音反饋并制定針對(duì)性提升方案,又比如在用戶駕駛車輛時(shí)實(shí)時(shí)對(duì)用戶關(guān)于環(huán)境聲音的提問做出解答,其應(yīng)用場景有廣闊的空間。
結(jié)合高效的推理部署性能,MiDashengLM將廣泛賦能智能座艙、智能家居等場景,推動(dòng)多模態(tài)交互體驗(yàn)升級(jí)。
基于Xiaomi Dasheng音頻編碼器和Qwen2.5-Omni-7B Thinker自回歸解碼器構(gòu)建,通過通用音頻描述訓(xùn)練策略,實(shí)現(xiàn)對(duì)語音、環(huán)境聲音和音樂的統(tǒng)一理解。
訓(xùn)練數(shù)據(jù)100%來自公開數(shù)據(jù)集,涵蓋五大類110萬小時(shí)資源,以Apache License 2.0協(xié)議發(fā)布,支持學(xué)術(shù)和商業(yè)應(yīng)用。
核心優(yōu)勢(shì):
性能領(lǐng)先:在22個(gè)公開評(píng)測集上刷新多模態(tài)大模型最好成績(SOTA),在音頻描述、聲音理解、音頻問答任務(wù)中表現(xiàn)突出,同時(shí)具備可用的語音識(shí)別能力。其音頻編碼器Xiaomi Dasheng在X-ARES Benchmark多項(xiàng)關(guān)鍵任務(wù),尤其是非語音類理解任務(wù)上顯著優(yōu)于Whisper。
推理效率高:單樣本推理的首Token延遲(TTFT)僅為業(yè)界先進(jìn)模型的1/4;同等顯存下數(shù)據(jù)吞吐效率是業(yè)界先進(jìn)模型的20倍以上,80GB GPU上處理30秒音頻并生成100個(gè)token時(shí),batch size可達(dá)512,而同類模型在batch size 16時(shí)即顯存溢出。
訓(xùn)練范式革新:采用通用音頻描述對(duì)齊范式,通過非單調(diào)全局語義映射,學(xué)習(xí)音頻場景深層語義關(guān)聯(lián),避免傳統(tǒng)ASR轉(zhuǎn)錄數(shù)據(jù)對(duì)齊的局限,數(shù)據(jù)利用率高,還能捕捉說話人情感、空間混響等關(guān)鍵聲學(xué)特征。