DOI: 10.17586/1023-5086-2022-89-08-97-103
УДК: 159.93
База видеоизображений естественных эмоциональных экспрессий: восприятие эмоций и автоматизированный анализ мимики лица
Полный текст «Оптического журнала»
Полный текст на elibrary.ru
Публикация в Journal of Optical Technology
Королькова О.А., Лободинская Е.А. База видеоизображений естественных эмоциональных экспрессий: восприятие эмоций и автоматизированный анализ мимики лица // Оптический журнал. 2022. Т. 89. № 8. С. 97–103. http://doi.org/10.17586/1023-5086-2022-89-08-97-103
Korolkova O.A., Lobodinskaya E.A. Database of video images of natural emotional facial expressions: perception of emotions and automated analysis of facial structure [in Russian] // Opticheskii Zhurnal. 2022. V. 89. № 8. P. 97–103. http://doi.org/10.17586/1023-5086-2022-89-08-97-103
O. A. Korolkova and E. A. Lobodinskaya, "Database of video images of natural emotional facial expressions: perception of emotions and automated analysis of facial structure," Journal of Optical Technology. 89(8), 498-501 (2022). https://doi.org/10.1364/JOT.89.000498
Предмет исследования. Развитие методов автоматизированного распознавания выражений лица требует создания новых стимульных наборов, содержащих динамические изображения естественных эмоциональных экспрессий. На сегодняшний день подобные базы, разработанные и валидизированные на российской выборке, отсутствуют. Цель работы — создание базы динамических изображений естественных эмоциональных экспрессий и сопоставление профилей субъективных оценок видеоизображений естественных экспрессий с результатами автоматизированного анализа лицевых жестов. Метод. Эмоциональные профили видеоизображений экспрессий лица были получены на основании оценок наблюдателей. Участники исследования (N = 250) оценивали по пятибалльной шкале выраженность 33 дифференциальных эмоций на каждом из 210 видеофрагментов естественных экспрессий, принадлежащих 5 натурщикам. Для получения количественных оценок мимических изменений на лицах натурщиков видеофрагменты экспрессий подвергались автоматизированному анализу структуры лица с использованием программы OpenFace 2.0. Эмоциональные профили видеофрагментов и результаты автоматизированной разметки сопоставлялись при помощи метода сравнения репрезентаций (Representational similarity analysis). Рассчитывался ранговый коэффициент корреляции между матрицами, представляющими структуру субъективных оценок экспрессий и формального описания мимики лица. Дополнительно на основании субъективных оценок проведён кластерный анализ методом k-средних для выявления структуры категорий воспринимаемых эмоциональных состояний. Основные результаты. Анализ сходства репрезентаций продемонстрировал наличие значимой положительной корреляции между субъективными оценками экспрессий и их описанием в терминах лицевых действий. Однако полученная корреляция является низкой (0,214), что предполагает значительную вариативность мимических паттернов, субъективно воспринимающихся как сходные по эмоциональному содержанию. Кластерный анализ позволил выявить 5 кластеров, соответствующих таким эмоциям как «внимание», «радость», «удивление», «печаль» и «отвращение». Практическая значимость. Разработанная база естественных эмоциональных экспрессий представляет интерес для исследователей, работающих в сфере Affective computing — в частности, при создании более эффективных методов распознавания эмоциональных состояний пользователей и моделировании эмоциональных ответов роботизированных систем.
распознавание экспрессий лица, базовые эмоции, индукция эмоций, автоматизированный анализ изображений лица, Affective computing
Благодарность:Работа выполнена при финансовой поддержке Российского научного фонда (РНФ) в рамках научного проекта № 18-18-00350-П «Восприятие в структуре невербальной коммуникации».
Коды OCIS: 330.5020, 330.5510, 100.2000
Список источников:1. D’Mello S., Kappas A., Gratch J. The affective computing approach to affect measurement // Emotion Review. 2018. V. 10. № 2. P. 174–183. DOI: 10.1177/1754073917696583
2. Dupré D., Krumhuber E.G., Küster D., McKeown G.J. A performance comparison of eight commercially available automatic classifiers for facial affect recognition // PLOS ONE. 2020. V. 15. № 4. P. e0231968. DOI: 10.1371/JOURNAL.PONE.0231968
3. Ghimire D., Jeong S., Lee J., Park S.H. Facial expression recognition based on local region specific features and support vector machines // Multimedia Tools and Applications. 2017. V. 76. № 6. P. 7803–7821. DOI:10.1007/S11042-016-3418-Y/TABLES/1
4. Ekman P., Friesen W.V. Facial action coding system: A technique for the measurement of facial movement. Palo Alto, CA: Consulting Psychologists Press, 1978. 527 p.
5. Siedlecka E., Denson T.F. Experimental methods for inducing basic emotions: A qualitative review // Emotion Review. 2019. V. 11. № 1. P. 87–97. DOI: 10.1177/1754073917749016
6. Fernández-Aguilar L., Navarro-Bravo B., Ricarte J., Ros L., Latorre J.M. How effective are films in inducing positive and negative emotional states? A meta-analysis // PLOS ONE. 2019. V. 14. № 11. P. 1–28. DOI: 10.1371/journal.pone.0225040
7. Diconne K., Kountouriotis G.K., Paltoglou A.E., Parker A., Hostler T.J. Presenting KAPODI — the searchable database of emotional stimuli sets // Emotion Review. 2022. V. 14. № 1. P. 84–95. DOI:10.1177/17540739211072803
8. Korolkova O.A., Lobodinskaya E.A. Development and validation of BEVEL dataset of natural dynamic facial expressions // Neurotechnologies. Chapter 11 / Eds. Shelepin Y., Alekseenko S., N. Nan Chu. St. Petersburg: VVM, 2021. P. 123–140.
9. Keltner D., Sauter D., Tracy J., Cowen A. Emotional expression: Advances in basic emotion theory // Journal of Nonverbal Behavior. 2019. V. 43. № 2. P. 133–160. DOI: 10.1007/S10919-019-00293-3
10. Lindquist K.A., Barrett L.F. Constructing emotion // Psychological Science. 2008. V. 19. № 9. P. 898–903. DOI: 10.1111/j.1467-9280.2008.02174.x
11. Izard C.E. The psychology of emotions. New York: Springer Science & Business Media, 1991. 452 p.
12. Baltrusaitis T., Zadeh A., Lim Y.C., Morency L.-P. OpenFace 2.0: Facial behavior analysis toolkit // 13th IEEE International Conference on Automatic Face & Gesture Recognition (FG 2018). Xi’an, China: IEEE. 15–19 May 2018. P. 59–66. DOI: 10.1109/FG.2018.00019
13. Kriegeskorte N. Representational similarity analysis — connecting the branches of systems neuroscience // Frontiers in Systems Neuroscience. 2008. V. 2. P. 1–28. DOI: 10.3389/neuro.06.004.2008
14. R Core Team. R: A language and environment for statistical computing // R Foundation for Statistical Computing. Vienna, Austria. 2020. URL: https://www.R-project.org/.
15. Benito B.M., Birks H.J.B. Distantia: an open source toolset to quantify dissimilarity between multivariate ecological time series // Ecography. 2020. V. 43. № 5. P. 660–667. DOI: 10.1111/ecog.04895
16. Brock G., Pihur V., Datta S., Datta S. clValid: An R package for cluster validation // Journal of Statistical Software. 2008. V. 25. № 4. P. 1–22. DOI:10.18637/jss.v025.i04