Tag: 语音到文本

如何在node.js服务器上使用AnnYang语音重组?

更新日志: ws@0.5.0 install /Users/matthew.harwood/workspace/akqa/insights/tts/node-pocketsphinx/node_modules/socket.io/node_modules/engine.io/node_modules/ws > (node-gyp rebuild 2> builderror.log) || (exit 0) CXX(target) Release/obj.target/bufferutil/src/bufferutil.o SOLINK_MODULE(target) Release/bufferutil.node SOLINK_MODULE(target) Release/bufferutil.node: Finished CXX(target) Release/obj.target/validation/src/validation.o SOLINK_MODULE(target) Release/validation.node SOLINK_MODULE(target) Release/validation.node: Finished > ws@0.4.31 install /Users/matthew.harwood/workspace/akqa/insights/tts/node-pocketsphinx/node_modules/socket.io/node_modules/socket.io-client/node_modules/engine.io-client/node_modules/ws > (node-gyp rebuild 2> builderror.log) || (exit 0) CXX(target) Release/obj.target/bufferutil/src/bufferutil.o SOLINK_MODULE(target) Release/bufferutil.node SOLINK_MODULE(target) Release/bufferutil.node: Finished CXX(target) Release/obj.target/validation/src/validation.o SOLINK_MODULE(target) Release/validation.node SOLINK_MODULE(target) Release/validation.node: Finished > pocketsphinx@1.0.1 install […]

语音到语音API Azure语音

当我尝试执行下面的代码时,出现以下错误: (节点:3784)UnhandledPromiseRejectionWarning:未处理的承诺拒绝(拒绝ID:1):错误:语音识别失败:套接字挂断 var fs = require('fs'); var bing = require('bingspeech-api-client'); var audioStream = fs.createReadStream('d:\\node.wav'); var subscriptionKey = 'xxxxxxxxxxxxxxxxx'; var client = new bing.BingSpeechClient(subscriptionKey); client.recognizeStream(audioStream) .then(response => console.log(response.results[0].name)); 请帮帮我。

使用Bot Framework代表用户发送消息

我目前正在尝试接受来自用户的语音input,将其馈送到Bing Speech API以获取文本,并将该文本作为用户响应传递。 我已经收到从Bing收到的文本,但我不知道如何发送该文本作为用户响应。 我一直在淘GitHub,所以任何反馈意见。 相关代码如下: function(session){ var bing = new client.BingSpeechClient('mykey'); var results = ''; var wave = fs.readFileSync('./new.wav'); const text = bing.recognize(wave).then(result => { console.log('Speech To Text completed'); console.log(result.header.lexical) console.log('\n'); results.response = result.header.lexical; }); }]

Watson Nodejs Speech to Text – 训练语言模型

我一直在使用watson-speech@^0.7.5为体育用户生成stream式video(HLS)的字幕。 此外,我已经能够训练语言模型。 我想使用recognitionElement和我的customization_id来训练我的语言模型。 不过,我有两个问题: 1)我认为元素已经被弃用了 我正在使用的库调用是 videoProps.stream = WatsonSpeechToText.recognizeElement({ element: myMediaElement, token: videoProps.ctx.token, muteSource: false, autoPlay: false, model:videoProps.ctx.currentModel, timestamps: true, profanity_filter: true, inactivity_timeout: -1, continuous: true }) .pipe(new WatsonSpeechToText.FormatStream()); 不过,我注意到watson-speech 0.19.3,这个API已经被删除了。 现在有没有其他select? 另外,我想用我训练的自定义语言模型。 这个API是否会更新以包含以下调用? element: myMediaElement, token: videoProps.ctx.token, muteSource: false, autoPlay: false, customization_id:videoProps.ctx.currentModel.replace('custom:',''), timestamps: true, profanity_filter: true, inactivity_timeout: -1, continuous: true 2)我不认为API支持customization_id的。 在查看recognition-stream.js时,我注意到OPENING_MESSAGE_PARAMS_ALLOWED和QUERY_PARAMS_ALLOWED都支持customization_id。 我可以肯定的是拉下来源,然后再做出改变,认出元素消失了。 谢谢,亚伦。

语音识别,nodeJS

我目前正在开发一个工具,通过连接到不同的API来读取所有的通知。 它工作得很好,但现在我想用一些声音命令来做一些动作。 就像软件说“鲍勃的一封邮件”一样,我想说“阅读”或“存档”。 我的软件通过节点服务器运行,目前我没有任何浏览器实现,但它可以是一个计划。 节点JS中使语音文本成为可能的最好方法是什么? 我已经看到了很multithreading,但主要是使用浏览器,如果可能的话,我想在开始时避免这种情况。 可能吗? 另一个问题是一些软件需要input一个wav文件。 我没有任何文件,我只想让我的软件总是听我说的话,当我说一个命令。 你有什么信息可以做到吗? 干杯