JavaScript语音识别主要依靠Web Speech API的SpeechRecognition接口,需检测兼容性、处理权限与事件,适合网页实时转文字;不支持Safari,复杂需求需接入云服务或WebAssembly模型。
JavaScript 实现语音识别主要依靠浏览器原生的 Web Speech API,特别是其中的 SpeechRecognition 接口(目前为 Chrome、Edge 等基于 Chromium 的浏览器支持较好,Firefox 有部分支持但需手动启用,Safari 尚未支持)。它无需后端、不依赖第三方 SDK,适合网页端实时语音转文字场景。
不是所有浏览器都支持,使用前必须检测并优雅降级:
window.SpeechRecognition || window.webkitSpeechRecognition 判断是否可用new (window.SpeechRecognition || window.webkitSpeechRecognition)()
recognition.continuous = false(单次识别),recognition.interimResults = true(返回中间结果)语音识别是异步事件驱动的,核心事件有:
onstart:麦克风开启,可更新 UI 状态(如显示“正在听…”)onresult:收到识别结果,event.results 是 SpeechRecognitionResultList,每项含多个 SpeechRecognitionAlternative
onend:识别结束(可能因超时、出错或用户停止),可在此自动重启识别(设 continuous = true 时需手动调用 recognition.start()).onerror:捕获错误(如 no-speech、aborted、not-allowed),尤其注意权限被拒时要引导用户授权示例提取最终文本:const transcript = event.results[0][0].transcript;const isFinal = event.results[0].isFinal;
首次调用 recognition.start() 会触发浏览器权限弹窗,但不能提前预判是否被拒绝:
onerror 中的 event.error === 'not-allowed' 可用于提示用户去地址栏手动开启麦克风复制到 HTML 文件中,在 Chrome 中打开即可运行:
基本上就这些。不复杂但容易忽略权限、兼容性和用户体验细节。如需更稳定或支持离线/多语言/自定义词表,就得接入 WebAssembly 模型(如 Vosk)或调用云服务(阿里云智能语音、百度语音等),那就超出纯 JS 范畴了。