dead link fix
This commit is contained in:
@@ -8,7 +8,7 @@
|
||||
|
||||

|
||||
|
||||
首先,每个人的发声习惯都各不相同,并非全世界所有的人都用完全相同的 “口腔内气流共鸣位置” 说出同样的元音。与此同时,人们在识别他人语音的时候,我们的大脑并不是对每个音素不同层面的各个参数进行对比分析而后才能识别,而是通过几个粗略的模式对比去完成识别,并且,还会参照一些音素之外的东西,比如,上下文([4.1](37-fluent))。
|
||||
首先,每个人的发声习惯都各不相同,并非全世界所有的人都用完全相同的 “口腔内气流共鸣位置” 说出同样的元音。与此同时,人们在识别他人语音的时候,我们的大脑并不是对每个音素不同层面的各个参数进行对比分析而后才能识别,而是通过几个粗略的模式对比去完成识别,并且,还会参照一些音素之外的东西,比如,上下文([4.1](38-fluent))。
|
||||
|
||||
::: info
|
||||
2022 年 OpenAI 发布的语音识别转换文字模型 [Whisper](https://github.com/openai/whisper) 语音识别之所以前所未有地速度更快,准确率更高,更多基于它的算法对语音内每个词对应的上下文分析(主要通过各种类型的 “模式识别”),而不仅仅是对各个的音素识别。在此之前,大多数语音识别模型更多只是基于对音素的分析,所以速度慢,准确率也不高。
|
||||
|
||||
Reference in New Issue
Block a user