Научно-технический
«ОПТИЧЕСКИЙ ЖУРНАЛ»
издается с 1931 года
 
   
Русский вариант сайта Английский вариант сайта
   
       
   
       
Статьи последнего выпуска

Электронные версии
выпусков начиная с 2008


Алфавитный указатель
2000-2010 гг


444
Архив оглавлений
выпусков 2002-2007 гг


Реквизиты и адреса

Вниманию авторов и рецензентов!
- Порядок публикации
- Порядок рецензирования статей
- Типовой договор
- Правила оформления
- Получение авторского вознаграждения
- Редакционная этика


Контакты

Подписка

Карта сайта




Журнал с 01.12.2015 допущен ВАК для публикации основных результатов диссертаций как издание, входящее в международные реферативные базы систем цитирования (Web Science, Scopus) (см. Vak.ed.gov.ru Перечень журналов МБД 16.03.2018г)

Аннотации (08.2022) : База видеоизображений естественных эмоциональных экспрессий: восприятие эмоций и автоматизированный анализ мимики лица

База видеоизображений естественных эмоциональных экспрессий: восприятие эмоций и автоматизированный анализ мимики лица

DOI: 10.17586/1023-5086-2022-89-08-97-103

УДК 159.93

Ольга Александровна Королькова1*, Елена Алексеевна Лободинская2

1, 2Московский государственный психолого-педагогический университет, Москва, Россия

2Московский институт психоанализа, Москва, Россия

1olga.kurakova@gmail.com    https://orcid.org/0000-0003-4814-7266

2elena.lobodinskaya@gmail.com            https://orcid.org/0000-0002-6827-744X

Аннотация

Предмет исследования. Развитие методов автоматизированного распознавания выражений лица требует создания новых стимульных наборов, содержащих динамические изображения естественных эмоциональных экспрессий. На сегодняшний день подобные базы, разработанные и валидизированные на российской выборке, отсутствуют. Цель работы — создание базы динамических изображений естественных эмоциональных экспрессий и сопоставление профилей субъективных оценок видеоизображений естественных экспрессий с результатами автоматизированного анализа лицевых жестов. Метод. Эмоциональные профили видеоизображений экспрессий лица были получены на основании оценок наблюдателей. Участники исследования (N = 250) оценивали по пятибалльной шкале выраженность 33 дифференциальных эмоций на каждом из 210 видеофрагментов естественных экспрессий, принадлежащих 5 натурщикам. Для получения количественных оценок мимических изменений на лицах натурщиков видеофрагменты экспрессий подвергались автоматизированному анализу структуры лица с использованием программы OpenFace 2.0. Эмоциональные профили видеофрагментов и результаты автоматизированной разметки сопоставлялись при помощи метода сравнения репрезентаций (Representational similarity analysis). Рассчитывался ранговый коэффициент корреляции между матрицами, представляющими структуру субъективных оценок экспрессий и формального описания мимики лица. Дополнительно на основании субъективных оценок проведён кластерный анализ методом k-средних для выявления структуры категорий воспринимаемых эмоциональных состояний. Основные результаты. Анализ сходства репрезентаций продемонстрировал наличие значимой положительной корреляции между субъективными оценками экспрессий и их описанием в терминах лицевых действий. Однако полученная корреляция является низкой (0,214), что предполагает значительную вариативность мимических паттернов, субъективно воспринимающихся как сходные по эмоциональному содержанию. Кластерный анализ позволил выявить 5 кластеров, соответствующих таким эмоциям как «внимание», «радость», «удивление», «печаль» и «отвращение». Практическая значимость. Разработанная база естественных эмоциональных экспрессий представляет интерес для исследователей, работающих в сфере Affective computing — в частности, при создании более эффективных методов распознавания эмоциональных состояний пользователей и моделировании эмоциональных ответов роботизированных систем.

Ключевые слова: распознавание экспрессий лица, базовые эмоции, индукция эмоций, автоматизированный анализ изображений лица, Affective computing

Благодарность: работа выполнена при финансовой поддержке Российского научного фонда (РНФ) в рамках научного проекта № 18-18-00350-П «Восприятие в структуре невербальной коммуникации».

Ссылка для цитирования: Королькова О.А., Лободинская Е.А. База видеоизображений естественных эмоциональных экспрессий: восприятие эмоций и автоматизированный анализ мимики лица // Оптический журнал. 2022. Т. 89. № 8. С. 97–103. DOI: 10.17586/1023-5086-2022-89-08-97-103

Коды OCIS: 330.5020, 330.5510, 100.2000.

 

Список источников 

1.    D’Mello S., Kappas A., Gratch J. The affective computing approach to affect measurement // Emotion Review. 2018. V. 10. № 2. P. 174–183. DOI: 10.1177/1754073917696583

2.   Dupré D., Krumhuber E.G., Küster D., McKeown G.J. A performance comparison of eight commercially available automatic classifiers for facial affect recognition // PLOS ONE. 2020. V. 15. № 4. P. e0231968. DOI: 10.1371/JOURNAL.PONE.0231968

3.   Ghimire D., Jeong S., Lee J., Park S.H. Facial expression recognition based on local region specific features and support vector machines // Multimedia Tools and Applications. 2017. V. 76. № 6. P. 7803–7821. DOI: 10.1007/S11042-016-3418-Y/TABLES/1

4.   Ekman P., Friesen W.V. Facial action coding system: A technique for the measurement of facial movement. Palo Alto, CA: Consulting Psychologists Press, 1978. 527 p.

5.   Siedlecka E., Denson T.F. Experimental methods for inducing basic emotions: A qualitative review // Emotion Review. 2019. V. 11. № 1. P. 87–97. DOI: 10.1177/1754073917749016

6.   Fernández-Aguilar L., Navarro-Bravo B., Ricarte J., Ros L., Latorre J.M. How effective are films in inducing positive and negative emotional states? A meta-analysis // PLOS ONE. 2019. V. 14. № 11. P. 1–28. DOI: 10.1371/journal.pone.0225040

7.    Diconne K., Kountouriotis G.K., Paltoglou A.E., Parker A., Hostler T.J. Presenting KAPODI — the searchable database of emotional stimuli sets // Emotion Review. 2022. V. 14. № 1. P. 84–95. DOI: 10.1177/17540739211072803

8.   Korolkova O.A., Lobodinskaya E.A. Development and validation of BEVEL dataset of natural dynamic facial expressions // Neurotechnologies. Chapter 11 / Eds. Shelepin Y., Alekseenko S., N. Nan Chu. St. Petersburg: VVM, 2021. P. 123–140.

9.   Keltner D., Sauter D., Tracy J., Cowen A. Emotional expression: Advances in basic emotion theory // Journal of Nonverbal Behavior. 2019. V. 43. № 2. P. 133–160. DOI: 10.1007/S10919-019-00293-3

10. Lindquist K.A., Barrett L.F. Constructing emotion // Psychological Science. 2008. V. 19. № 9. P. 898–903. DOI: 10.1111/j.1467-9280.2008.02174.x

11.  Izard C.E. The psychology of emotions. New York: Springer Science & Business Media, 1991. 452 p.

12.  Baltrusaitis T., Zadeh A., Lim Y.C., Morency L.-P. OpenFace 2.0: Facial behavior analysis toolkit // 13th IEEE International Conference on Automatic Face & Gesture Recognition (FG 2018). Xi’an, China: IEEE. 15–19 May 2018. P. 59–66. DOI: 10.1109/FG.2018.00019

13.  Kriegeskorte N. Representational similarity analysis — connecting the branches of systems neuroscience // Frontiers in Systems Neuroscience. 2008. V. 2. P. 1–28. DOI: 10.3389/neuro.06.004.2008

14.  R Core Team. R: A language and environment for statistical computing // R Foundation for Statistical Computing. Vienna, Austria. 2020. URL: https://www.R-project.org/.

15.  Benito B.M., Birks H.J.B. Distantia: an open source toolset to quantify dissimilarity between multivariate ecological time series // Ecography. 2020. V. 43. № 5. P. 660–667. DOI: 10.1111/ecog.04895

16.       Brock G., Pihur V., Datta S., Datta S. clValid: An R package for cluster validation // Journal of Statistical Software. 2008. V. 25. № 4.  P. 1–22. DOI: 10.18637/jss.v025.i04