Речь взрослых в разных эмоциональных состояниях: временные и спектральные характеристики

Capa

Citar

Texto integral

Acesso aberto Acesso aberto
Acesso é fechado Acesso está concedido
Acesso é fechado Somente assinantes

Resumo

Работа направлена на определение индивидуальных особенностей речи взрослых в разных эмоциональных состояниях. Изучены акустические характеристики речи 12 взрослых носителей русского языка. Проведена аудиозапись речи информантов при произнесении текста-бессмыслицы в эмоциональных состояниях: радость, гнев, печаль, страх, нейтральное. Временные и спектральные характеристики речи анализировали в звуковом редакторе Cool Edit Pro. В речи мужчин максимальный диапазон частоты основного тона выявлен в высказываниях, произнесенных в нейтральном состоянии и состоянии радости, минимальный – в состоянии печали. Для женской речи – максимальный диапазон частоты основного тона в состоянии радости и в состоянии гнева, наименьший – в состоянии печали и в нейтральном состоянии. Диапазон частоты основного тона в женской речи больше, по сравнению с мужской. Для 7 информантов показано, что длительность высказываний в состоянии печали была больше по сравнению с другими состояниями, а в состоянии радости – минимальна. Как мужские, так и женские высказывания в состоянии радости характеризовались максимальными значениями диапазона частоты основного тона, в состоянии печали, наоборот минимальными, паузы между словами в высказываниях в состоянии печали выявлены как у мужчин, так и у женщин. Таким образом, выявлены различия во временных и спектральных характеристиках высказываний в разных эмоциональных состояниях. Определены индивидуальные особенности проявления эмоционального состояния в речи взрослых.

Texto integral

Acesso é fechado

Sobre autores

А. Куражова

Санкт-Петербургский государственный университет; Санкт-Петербургский государственный педиатрический медицинский университет

Autor responsável pela correspondência
Email: avk_spb@bk.ru
Rússia, Университетская наб. 7/9, Санкт-Петербург, 199034; Литовская 2, Санкт-Петербург, 194100

Bibliografia

  1. Schwartz R., Pell M.D. Emotional speech processing at the intersection of prosody and semantics // PLoS One. 2012. V. 7(10). P. e47279. https: doi.org/ 10.1371/journal.pone.0047279
  2. Papakostas M., Siantikos G., Giannakopoulos T., Spyrou E., Sgouropoulos D. Recognizing Emotional States Using Speech Information // Adv. Exp. Med. Biol. 2017. V. 989. P. 155–164. https: doi.org/10.1007/978-3-319-57348-9_13
  3. Величко А.Н., Верхоляк О.В., Карпов А.А. Программная система для распознавания эмоций в речи (ProSpER – Program for Speech Emotion Recognition). 2020.
  4. Matveev Y., Matveev A., Frolova O., Lyakso E., Ruban N. Automatic speech emotion recognition of younger school age children // Mathematics. 2022. V. 10. P. 2373. https: doi.org/10.3390/math10142373
  5. Lyakso E., Frolova O., Dmitrieva E., Grigorev A. EmoChildRu: Emotional Child Russian Speech Corpus // Ronzhin A., Potapova R., Fakotakis N. (Eds.) Speech and Computer. SPECOM 2015. Lecture Notes in Computer Science. 2015. V. 9319.
  6. Галунов В.И. Некоторые проблемы акустической теории речеобразования // Акуст. журн. 2002. Т. 48. № 6. С. 845–848.
  7. Галунов В.И. О возможности определения эмоционального состояния говорящего по речи // Речевые технологии. 2008. № 1. С. 60–66.
  8. Галунов В.И., Манеров В.Х., Тарасов В.И. Слуховой анализ речи, полученной при использовании различных методов моделирования эмоциональных состояний // Материалы симпозиума “Речь и эмоции”. Ленинград, 1974. С. 79–83.
  9. Галунов В.И., Манёров В.X. Пути решения проблемы создания систем определения эмоционального состояния говорящего // Вопр. кибернетики. Вып. 22. М., 1976. С. 95–114.
  10. Морозов В.П. Акустический язык эмоций в жизни и науке // Язык эмоций, мозг и компьютер. Вычислительная техника и ее применение. М.: Знание, 1989. Вып. 9. С. 3–18.
  11. Морозов В.П. Язык эмоций и эмоциональный слух. Избранные труды 1964–2016. М.: ФГБУН Институт психологии РАН, 2017. 397 с.
  12. Потапова Р.К., Потапов В.В. Язык, речь, личность. М: Языки славянской культуры, 2006. 491 с.
  13. Михайлов В.Г., Златоустова Л.В. Измерение параметров речи. М.: Радио и связь, 1987. 168 с.
  14. Сорокин В.Н., Леонов А.С. Фазовый анализ активности голосового источника // Акуст. журн. 2021. Т. 67. № 2. С. 185–202.
  15. Сорокин В.Н., Леонов А.С. Фазовые модуляции в речевом сигнале // Акуст. журн. 2022. Т. 68. № 2. С. 218–232.
  16. Ляксо Е.Е., Фролова О.В., Гречаный С.В., Матвеев Ю.Н., Верхоляк О.В., Карпов А.А. Голосовой портрет ребенка с типичным и атипичным развитием / Под ред. Ляксо Е.Е., Фроловой О.В. СПб.: Издательско-полиграфическая ассоциация высших учебных заведений, 2020. 204 с.
  17. Schuller D.M., Schuller B.W. A Review on Five Recent and Near-Future Developments in Computational Processing of Emotion in the Human Voice // Emotion Review. 2021. V. 13. № 1. P. 44–50. https://doi.org/10.1177/1754073919898526
  18. Singh J., Saheer L.B., Faust O. Speech Emotion Recognition Using Attention Model // Int. J. Environ. Res. Public Health. 2023. V. 20. P. 5140. https://doi.org/10.3390/ ijerph20065140
  19. Двойникова А.А., Маркитантов М.В., Рюмина Е.В., Уздяев М.Ю., Величко А.Н., Рюмин Д.А., Ляксо Е.Е., Карпов А.А. Анализ информационного и математического обеспечения для распознавания аффективных состояний человека // Информатика и автоматизация. 2022. Т. 21. № 6. https://doi.org/10.15622/ia.21.6.2
  20. Ververidis D., Kotropoulos K. Emotional speech recognition: Resources, features, and methods // Speech Communication. 2006. V. 48. № 9. P. 1162–1181.
  21. Xu M., Zhang F., Zhang W. Head fusion: Improving the accuracy and robustness of speech emotion recognition on the IEMOCAP and RAVDESS dataset // IEEE Access. 2021. V. 9. P. 74539–74549.
  22. Потапова Р.К. Лингвистические знания и новые технологии // Акуст. журн. 2002. Т. 48. № 4. С. 552–559.
  23. Lyakso E., Frolova O. Emotion State Manifestation in Voice Features: Chimpanzees, Human Infants, Children, Adults // Ronzhin A., Potapova R., Fakotakis N. (Eds.) Speech and Computer. SPECOM 2015. Lecture Notes in Computer Science. V. 9319. Springer, Cham.
  24. Grigorev A.S., Gorodnyi V.A., Frolova O.V., Kondratenko A.M., Dolgaya V.D., Lyakso E.E. Acoustic and Perceptual Features of the Emotional Speech of Adolescents Aged 14–16 Years // Neurosci Behav Physi. 2020. V. 50. P. 1224–1231.
  25. Lyakso E., Frolova O., Kleshnev E., Ruban N., Mekala M.M., Arulalan K.V. Approbation of the Child’s Emotional Development Method (CEDM) // Companion Publication of the 2022 International Conference on Multimodal Interaction (ICMI ‘22 Companion). New York, NY, USA. 2022. P. 201.

Arquivos suplementares

Arquivos suplementares
Ação
1. JATS XML
2. Fig. 1. CHOT range values in the speech of female speaker No. 12 in different emotional states.

Baixar (11KB)
3. Fig. 2. (a) - Values of utterance duration and (b) - pauses within an utterance in the speech of speaker #1 in different emotional states.

Baixar (24KB)
4. Fig. 3. (a) - Values of HRV range, (b) - utterance duration and (c) - pauses within the utterance of female speaker #11 in different emotional states.

Baixar (29KB)

Declaração de direitos autorais © The Russian Academy of Sciences, 2024