javascript - 在 Web Speech API 中跟踪本地语音的开始
问题描述
我正在使用 Web Speech API 将文本转换为语音,除了一个烦人的问题外,一切正常...
有时调用函数和听到语音之间会有延迟或滞后......
我使用speechSynthesisInstance.speaking
和onstart
事件来跟踪听到演讲的实际点,但这两种方法似乎也存在滞后......我的意思是在触发onstart
事件和演讲之间也存在滞后......
关键是我使用的是安装在我电脑上的 Ivona 语音,local true
当我记录语音时,我可以看到语音......所以根本没有服务器通信,这让我更加困惑......
为什么本地声音有滞后?
有什么解决方案可以消除延迟或跟踪实际的语音开始吗?
解决方案
推荐阅读
- jooq - 尽管配置,JOOQ 不会忽略未知功能
- cluster-analysis - 为 kmeans 聚类分析准备相关数据
- sql - 在 PIVOT SQL 之后未运行第二个选择查询
- report - 如何将 List&Label(通过 Combit)中的数字格式化为幂符号?
- laravel - laravel 中的登录权限
- r - 理解使用 rlang::eval_tidy 时的赋值
- flutter - 如何在 Flutter 的所有页面上显示浮动按钮?
- nuxt.js - 如何在 Nuxt js 中添加一个函数
- python - ValueError:错误的项目数通过 2,位置意味着 1 具有相同的列数
- asp.net - Angular 11:无法从 API 控制器连接到 SQL Server——GET 方法