Tag: google speech api

Google Cloud Storage .flacaudiofile upload失败(Nodejs)

我正在使用Google Cloud Storage和Speech API从我的node.js实现中转换文件audio,并且在将FLAC编码的audiofile upload到Google Cloud Storage中时遇到问题。 它似乎只能正确地上传短于大约15-20秒的文件,对于其他人来说,API不会抛出错误并保存一个空文件(8.16KB)。 涉及的代码部分如下: … var binary = new Buffer(audio, 'base64'); // write buffer to file var Readable = require('stream').Readable var s = new Readable s.push(binary) // the string you want s.push(null) // indicates end-of-file basically – the end of the stream var convertedFLACfilePath = "" + crypto.randomBytes(32).toString('hex')+".flac"; var FfmpegCommand […]

Google Speech API的NodeJS工作示例

Google Speech API文档中的Node JS示例适用于v1,并且不起作用。 即使在使用1声道16000Hz FLAC的情况下,它也会返回一个空的响应。 我也试过这个软件包 – https://www.npmjs.com/package/google-speech,但是我无法使用身份validation工作,即使我使用了正确的密钥。 如果有人知道v2 API的工作节点示例,我将不胜感激,我似乎无法find一个。

Google语音API超时时间

我正在尝试使用Speech API客户端API来将audio文件转换为文本。 到目前为止,我已经成功地转换了一个短的audio剪辑,但现在用更长的文件(10分钟),我得到这个错误: Retry total timeout exceeded before anyresponse was received 我在文档中看到,使用asynchronous调用时,每次调用的最大分钟数为60次,而且我已将file upload到Google Cloud Storage,因为文件需要超过1分钟。 所以我真的不明白为什么我得到这个错误,有什么帮助?

Google语音API使用SOX时语音识别不好

我正尝试用节点js创build非常简单的语音识别软件。 我已经连接谷歌语音API,并可以发送正确的录制的.wav文件,并获得转录和识别是非常好的(用Audacity录制) 但我有问题得到“即时”的语音识别,如直接从麦克风发送到Gooegle语音API的audiostream。 这是我logging语音并发送到谷歌的主要方法。 function recognize(encoding, sampleRateHertz, languageCode) { const request = { config: { encoding: encoding, sampleRateHertz: sampleRateHertz, languageCode: languageCode }, interimResults: true // If you want interim results, set this to true }; // Imports the Google Cloud client library const Speech = require('@google-cloud/speech'); // Instantiates a client const speech = Speech(); // […]

如何将websocket二进制消息作为stream发送到Google Speech API?

我正尝试将WebSocket连接的audiostream发送到Google Speech API。 websocket以20ms的增量发送二进制消息。 它发送它的增量导致我相信,我将不得不读取和写入数据临时本地文件,以避免与Google的连接。 但是,这并不理想。 有没有办法直接pipe道WebSocketstream到recognitionStream? Google streaming从文档中识别示例: const request = { config: { encoding: encoding, sampleRate: sampleRate } }; const recognizeStream = speech.createRecognizeStream(request) .on('error', console.error) .on('data', (data) => process.stdout.write(data.results)); record.start({ sampleRate: sampleRate, threshold: 0 }).pipe(recognizeStream); Websocket连接: var HttpDispatcher = require('httpdispatcher'); var dispatcher = new HttpDispatcher(); var WebSocketServer = require('websocket').server; var server = http.createServer(handleRequest); […]

Google语音识别API太慢了

其实我试图从我的网页存储audiostream到我的nodejs服务器使用socket.io。 并将其存储在我的服务器后,我正试图对存储的文件执行语音识别。 我有以下代码运行良好,但它太慢了。 我有所有的环境variables和configuration。 收集许多请求的统计数据后,响应时间在7秒到18秒之间变化。 var http = require('http'); var wav = require('wav'); var app = http.createServer(function ejecute(request, response) {}); var io = require('socket.io').listen(app); var fs = require('fs'); var Speech = require('@google-cloud/speech'); io.on('connection', function(socket) { var fileWriter = null; socket.on('stream', function(data) { if (!fileWriter) { fileWriter = new wav.FileWriter('demo.wav', { channels: 1, sampleRate: 16000, bitDepth: […]