microsoft-cognitive - Microsoft 自定义语音服务缺少听写方案
问题描述
为什么cris.ai上没有听写场景,只有对话场景?我的用户需要能够指定标点符号,而对话场景无法处理这个问题。它在过去得到支持,但不再存在。我错过了什么吗?
解决方案
语音团队通过电子邮件回复我,并说要切换到支持听写的不同端点。他们的回应如下:
您可以在创建 SpeechFactory 的实例时使用 SDK 设置听写模式。
而不是使用方法 FromSubscription() 即
var factory = SpeechFactory.FromSubscription("YourSubscriptionKey", "YourServiceRegion");
像这样使用 fromEndpoint()
var factory = SpeechFactory.FromEndpoint("wss://westus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1", "YourKey");
推荐阅读
- javascript - 是否可以在 Electron 中创建文件列表?
- google-chrome - 如何从 google 的搜索结果中删除图片?
- indexing - 站点核心内容搜索中的搜索索引刷新和搜索索引重建有什么区别
- java - java rest api 一个有角度的 js POST 调用
- c - C - 如何通过引用将结构指针数组传递给函数
- php - 获取没有键名的 PHP 数组的值
- redis - 从内存利用率接近 85% 的服务器迁移 Redis
- c - C - 带有格式化字符串的 strcmp()
- twitter-bootstrap - 需要帮助在行中定位两列
- java - 在构造调用期间将 Java 枚举放在静态映射中是否安全?