Tag: 语音识别

如何在NodeJS中使用Web Speech API

我想知道是否有可能在node.js中运行Web Speech API ? 由于节点是基于Javascript的,我假设它可以被使用,但是我找不到在节点中本地使用它的方法。 有没有办法将这个Web Speech Library“包含”在一个node.js脚本中来使用它? 谢谢

Google语音API使用SOX时语音识别不好

我正尝试用节点js创build非常简单的语音识别软件。 我已经连接谷歌语音API,并可以发送正确的录制的.wav文件,并获得转录和识别是非常好的(用Audacity录制) 但我有问题得到“即时”的语音识别,如直接从麦克风发送到Gooegle语音API的audiostream。 这是我logging语音并发送到谷歌的主要方法。 function recognize(encoding, sampleRateHertz, languageCode) { const request = { config: { encoding: encoding, sampleRateHertz: sampleRateHertz, languageCode: languageCode }, interimResults: true // If you want interim results, set this to true }; // Imports the Google Cloud client library const Speech = require('@google-cloud/speech'); // Instantiates a client const speech = Speech(); // […]

m4a / mp3文件转换为Bing Speech API的wav文件

必应语音API只接受wav文件,所以我一直在尝试将m4a(Skype)和mp3(Facebook)audio文件转换为wav格式。 我在node.js中使用fluent-ffmpeg 现在,我正在下载audio文件,将其转换为wav并返回pipe道输出以供使用。 if (attachment.contentType === 'audio/x-m4a') { request.get(attachment.contentUrl).pipe(fs.createWriteStream('file.m4a')); var command = ffmpeg('file.m4a') .toFormat('wav') .on('error', function (err) { console.log('An error occurred: ' + err.message); }) .on('progress', function (progress) { // console.log(JSON.stringify(progress)); console.log('Processing: ' + progress.targetSize + ' KB converted'); }) .on('end', function () { console.log('Processing finished !'); }); return command.pipe(); } 现在,当我通过我的电脑上的botframework-emulator发送m4a文件时,转换工作。 但是,当我指定我的电脑作为terminal(通过ngrok),并尝试从漫游框架开发人员的聊天testing中发送m4a文件时 ,ffmpeg返回一个错误: An […]

如何使用Edge.js模块创build和重用实例variables?

我的问题是什么? 当我说“闪烁绿色”的无人机将做我想要的。 这很好。 当我再次说“闪烁绿色”时,它会执行代码,但是无人机不会给出响应。 无人机第一次只给出了答复。 所以每次我必须重新启动程序才能工作。 恼人的… 第二次发生了什么? 它会做同样的事情,它也在执行代码,但是无人机不会给出响应。 代码如下: private static void _speechRecognitionEngine_SpeechRecognized(object sender, SpeechRecognizedEventArgs e) { switch (e.Result.Text) { case "Blink green": Task.Run((Action)blinkGreen); break; } } // ONLY WORKS THE FIRST TIME // WHEN I SAY "BLINK GREEN" AGAIN, IT'S WILL EXECUTE THE // CODE BUT THE DRONE DOESN'T GIVE A RESPONSE. ONLY […]

语音识别,nodeJS

我目前正在开发一个工具,通过连接到不同的API来读取所有的通知。 它工作得很好,但现在我想用一些声音命令来做一些动作。 就像软件说“鲍勃的一封邮件”一样,我想说“阅读”或“存档”。 我的软件通过节点服务器运行,目前我没有任何浏览器实现,但它可以是一个计划。 节点JS中使语音文本成为可能的最好方法是什么? 我已经看到了很multithreading,但主要是使用浏览器,如果可能的话,我想在开始时避免这种情况。 可能吗? 另一个问题是一些软件需要input一个wav文件。 我没有任何文件,我只想让我的软件总是听我说的话,当我说一个命令。 你有什么信息可以做到吗? 干杯

节点js脱机语音到文本

我想创build一个机器人Node.js和Tessel.io,我买了audio模块,我想知道是否存在任何语音到文本或audio文本包为节点js或其他东西。 有人可以帮我弄这个吗? 谢谢

使用WebRTC,Node.js和语音识别引擎进行实时语音识别

答:我正在尝试实施。 一个Web应用程序,允许在Web浏览器内进行实时语音识别( 如此 )。 B.我目前正在考虑使用的技术来实现A. JavaScript的 Node.js的 的WebRTC Microsoft Speech API或Pocketsphinx.js或其他东西(不能使用Web Speech API) C.非常基本的工作stream程 Web浏览器build立与节点服务器的连接(服务器充当信令服务器并且还提供静态文件) Web浏览器使用getUserMedia()获取audiostream并将用户语音发送到节点服务器 节点服务器将接收到的audiostream传递给语音识别引擎进行分析 语音识别引擎将结果返回给节点服务器 节点服务器将文本结果发回给启动Web浏览器 (节点服务器执行步骤1到5来处理来自其他浏览器的请求) D.问题 Node.js是否适合实现C? 我怎样才能将接收到的audiostream从我的节点服务器传递到与服务器分开运行的语音识别引擎? 我的语音识别引擎是否可以作为另一个Node应用程序(如果使用Pocketsphinx)运行? 所以我的节点服务器与我的节点语音识别服务器通信。