联发创新基地负责人许大山博士表示,开源语音辨识模型虽逐年进步,但对于在地用语及口音的辨识度仍显不足,例如把「发生什么事」听成「花生什么事」。有鉴于语音辨识是AI应用的关键启动功能,此次特别释出「听得懂在地语言」的ASR模型MR Breeze ASR 25,其精准度相较于OpenAI的Whisper提升近10%、中英语转换表现(Code-switching)则增进56%。借此,联发创新基地能以完整的繁体中文AI模型,积极推进繁体中文AI的创新并普及模型于地端及装置端的使用。
联发创新基地自2025起已陆续开源全套繁体中文AI模型,包含整合视觉功能的语言模型(Visual Large Language Models,V-LLM)、针对台湾口音调整的文字转语音模型(Text to Speech,TTS)、以及能调用外部资讯的函式呼叫(Function Calling)模型。此次释出的MR Breeze ASR 25为MR Breeze系列第二代语音辨识开源模型,能即时将语音转为文字,并透过强化台湾语料及台湾口音,来符合本土应用需求。MR Breeze ASR 25日前已于HuggingFace上架,想了解更多请至联发创新基地与MR Breeze ASR 25开发者平台。

加油要快!川普扬言制裁印度购买俄油 今估下周汽柴油双涨