微信小程序的基础库升级到了 1.6.0 之后,提供了许多新的 API,其中新增了 录音管理 的 API,不同于以前只有 wx.startRecord
和 wx.stopRecord
两个简单的录音功能,新的 wx.getRecorderManager
接口提供了包括扩展时长、采样率、录音通道、码率、格式等在内的许多配置项。基于此,我们能更加轻松的控制录音,新提供的 onFrameRecorded
的事件,甚至可以实现流式语音识别。
本文就介绍一下使用 Wafer Node.js SDK 提供的腾讯云智能语音识别接口来实现录音转文字的功能。请您先从 Github 下载 语音识别 Demo ,本文会根据 Demo 来介绍 SDK 中语音识别接口的使用。
使用语音识别需要开通腾讯云智能语音。
打开 server/config.js
,添加上 qcloudAppId
, qcloudSecretId
, qcloudSecretKey
三个配置项,并在代码目录中打开 CMD,运行如下代码:
cd server && npm i
安装完成依赖,选择小程序开发者工具右上角的【腾讯云】按钮,点击【上传测试环境】上传代码到测试环境中,一键部署程序。你也可以自行部署代码,部署过程同 《自行部署 Node.js Demo》 ,这里不再介绍。
最终实现的效果如下:
具体是如何实现的呢?接下来我们来分析一下 Demo 里的有关代码。
首先查阅 SDK API 文档可知,SDK 提供的语音识别接口是分片识别接口,原理是将语音文件切分成一个个分片,将每个分片以 buffer
格式传入接口,最后一个分片调用接口时需要将 isEnd
参数置为 true
,最后会返回完整的识别结果,以此来流式识别语音。
由于智能语音识别只支持以下几种编码格式的音频文件:
所以小程序端通过 recorderManager
获取到的录音文件需要提前转换为这几种格式中的一种,然后才能识别。Demo 里选择了将 mp3
格式转换为 wav
格式文件的形式。
Demo 中采用了 ffmpeg
对语音文件进行转码,使用 ffmpeg
的前提是需要在环境中安装 ffmpeg
,然后在 Node.js 中使用 fluent-ffmpeg
调用 ffmpeg
实现转码。
注意: ffmpeg
并没有默认预装在开发环境和生产环境中,如果您需要使用语音识别的转码功能,可以提交工单,我们会为您配置好环境。
打开 Demo 中的 server/controllers/recognize.js
文件,首先调用了 multiparty
从请求体中读取出上传上来的音频数据,接着对语音的类型进行一些判断。
...
const { files } = await resolveUploadFileFromRequest(ctx.req);
...
if (!resultType || !['audio/mpeg', 'audio/mp3'].includes(resultType.mime)) {
throw new Error('上传的文件格式不是 mp3')
}
...
第 46 行开始对音频文件进行处理,首先先生成了 voiceId
, voiceId
告诉了语音识别接口每个语音分片属于哪个语音,每个语音的 voiceId
应当是唯一的。
接着调用了 convertMp3ToWav
函数对语音进行转换, convertMp3ToWav
函数的实现如下:
/**
* mp3 转 wav
* @param {string} srcPath 源文件地址
* @param {string} newPath 新文件地址
*/
function convertMp3ToWav (srcPath, newPath) {
return new Promise((resolve, reject) => {
ffmpeg(srcPath)
.format('wav')
.on('error', reject)
.on('end', function () {
resolve(newPath)
})
.save(newPath)
})
}
由于每次识别的文件大小最好不要超过 10K byte,所以需要对音频文件进行切片,原理就是将音频文件读取为 buffer,然后按每 9K byte 大小切片识别。
// 将文件读取为 Buffer
const voiceBuffer = fs.readFileSync(newVoicePath);
const taskList = [];
let leftBufferSize = 0;
let idx = 0;
// 按 9K 大小切分分片并识别
while (leftBufferSize < voiceBuffer.length) {
const newBufferSize = leftBufferSize + 9 * 1024;
// 切分分片
const chunk = voiceBuffer.slice(
leftBufferSize,
newBufferSize > voiceBuffer.length
? voiceBuffer.length
: newBufferSize
)
// 提交每个切片去识别,并将任务推入任务列表
taskList.push(
voice.recognize(
chunk,
newBufferSize > voiceBuffer.length,
voiceId,
idx
)
);
leftBufferSize = newBufferSize;
idx++;
}
以上就是语音识别 Demo 代码的分析,您可以直接运行 Demo,在手机端 真机调试 体验。
注意:开发者工具的录音接口返回的数据不是 MP3 格式,与真机行为不完全相同,所以录音相关的测试请直接使用真机调试。
原创声明,本文系作者授权云+社区-专栏发表,未经许可,不得转载。