Files
everyone-can-use-english/1000-hours/sounds-of-english/04-vowel-positions.md
an-lee dab09ea644 Package: add 1000-hours repo in workspace (#337)
* add 1000-hours repo in workspace

* update README
2024-02-20 15:40:18 +08:00

32 lines
2.6 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters
This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
# 3.1 口腔内气流共鸣位置
不同的元音在发声时,“口腔内气流共鸣位置” 不同(以下示意图中并未收录双元音)—— 这是 D.J. 音标的作者 Daniel Jones 的研究成果(插图参考 [Wikipedia](https://en.wikipedia.org/wiki/Vowel_diagram) 重新绘制):
![](/images/vowel-positions.svg)
请注意,虽然 Daniel Jones 的工作非常伟大,但最终,那只是一种**近似描述的尝试**,而不是一个统一绝对的**标准**。而英文的地方口音又多,各个地方都不太一样。以下是[美国加利福尼亚地区的人说英语](https://en.wikipedia.org/wiki/California_English)时的元音口腔内气流共振位置:
![](/images/vowel-positions-california.svg)
首先,每个人的发声习惯都各不相同,并非全世界所有的人都用完全相同的 “口腔内气流共鸣位置” 说出同样的元音。与此同时,人们在识别他人语音的时候,我们的大脑并不是对每个音素不同层面的各个参数进行对比分析而后才能识别,而是通过几个粗略的模式对比去完成识别,并且,还会参照一些音素之外的东西,比如,上下文([4.1](37-fluent))。
::: info
2022 年 OpenAI 发布的语音识别转换文字模型 [Whisper](https://github.com/openai/whisper) 语音识别之所以前所未有地速度更快,准确率更高,更多基于它的算法对语音内每个词对应的上下文分析(主要通过各种类型的 “模式识别”),而不仅仅是对各个的音素识别。在此之前,大多数语音识别模型更多只是基于对音素的分析,所以速度慢,准确率也不高。
:::
在练习的时候,把所有英文元音的 **口腔内气流共鸣位置尽量靠后就对了** —— 尽量往后移,感觉上移到接近喉咙的位置 —— 这是因为,亚洲语系的元音在发声的时候,“口腔内气流共鸣位置” 每一个都相对更为靠前。
> **凡是和母语发声方式不一样的地方,就是语音塑造的重点**。
怎么做呢?仔细听以下 3 个 `ɑ` 音的不同变体,随后多揣摩多尝试(音频来自 [Wikipedia](https://en.wikipedia.org/wiki/Vowel))就会了:
* `ɑ` 气流共鸣位置靠前<span class="speak-word-inline" data-audio-us="/audios/ɑ-01-PR-open_front_unrounded_vowel.ogg.mp3"></span>
* `ɑ` 气流共鸣位置居中<span class="speak-word-inline" data-audio-us="/audios/ɑ-02-Open_central_unrounded_vowel.ogg.mp3"></span>
* `ɑ` 气流共鸣位置靠后<span class="speak-word-inline" data-audio-us="/audios/ɑ-03-Open_back_unrounded_vowel.ogg.mp3"></span>