ITMO
en/ en

ISSN: 1023-5086

en/

ISSN: 1023-5086

Научно-технический

Оптический журнал

Полнотекстовый перевод журнала на английский язык издаётся Optica Publishing Group под названием “Journal of Optical Technology“

Подача статьи Подать статью
Больше информации Назад

DOI: 10.17586/1023-5086-2018-85-08-67-76

УДК: 612.82, 159.931, 004.93'1, 004.932

Автоматическая классификация зрительных стимулов по электроэнцефалограмме наблюдателя

Ссылка для цитирования:

Пономарев С.В., Maлашин Р.О., Моисеенко Г.А. Автоматическая классификация зрительных стимулов по электроэнцефалограмме наблюдателя // Оптический журнал. 2018. Т. 85. № 8. С. 67–76. http://doi.org/10.17586/1023-5086-2018-85-08-67-76

 

Ponomarev S.V., Malashin R.O., Moiseenko G.A. Automatic classification of visual stimuli using an observer’s electroencephalogram [in Russian] // Opticheskii Zhurnal. 2018. V. 85. № 8. P. 67–76. http://doi.org/10.17586/1023-5086-2018-85-08-67-76

Ссылка на англоязычную версию:

S. V. Ponomarev, R. O. Malashin, and G. A. Moiseenko, "Automatic classification of visual stimuli using an observer’s electroencephalogram," Journal of Optical Technology. 85(8), 499-506 (2018). https://doi.org/10.1364/JOT.85.000499

Аннотация:

Рассмотрена задача автоматической классификации зрительных стимулов (живых и неживых объектов, отфильтрованных на высоких и низких пространственных частотах) по электроэнцефалограмме наблюдателя. Для классификации применялись классические методы машинного обучения (машина опорных векторов с использованием, в том числе, вейвлет-признаков), свёрточные и рекуррентные нейронные сети глубокого обучения. Была проанализирована точность распознавания в зависимости от выбранных методов классификации, расположения электродов, временных интервалов и решаемой задачи. Результаты показывают точность классификации 79% для чётких/размытых, 61% для живых /неживых объектов и 50% точности при классификации 4-х классов изображений.

Ключевые слова:

распознавание единичных вызванных потенциалов, метод опорных векторов, нейронные сети, когнитивные вызванные потенциалы

Благодарность:

Работа выполнена при финансовой поддержке Программы фундоментальных научных исследований государственных академий на 2013–2020 годы (ГП-14 раздел 63).

Коды OCIS: 100.4996, 330.4270, 330.5000

Список источников:

1. Spaminato C., Palazzo S., Kavasidis I., Shah M. Deep learning human mind for automated visual classification // CVPR. 2017. URL: https://arxiv.org/abs/1609.00344
2. Шагас Ч. Вызванные потенциалы в норме и патологии. М.: Мир, 1975. 318 с.
3. Зенков Л.Р., Ронкин М.А. Функциональная диагностика нервных болезней: руководство для врачей. М.: МЕДпресс информ, 2013. 488 с.
4. Гнездицкий В.В. Вызванные потенциалы мозга в клинической практике. М.: МЕДпресс информ, 2003. 264 c.
5. Бондарко В.М., Данилова М.В., Красильников Н.Н., Леушина Л.И., Невская А.А., Шелепин Ю.Е. Пространственное зрение. СПб: Наука, 1999. 218 с.
6. Шелепин Ю.Е. Введение в нейроиконику: Монография. СПб: Троицкий мост, 2017. 352 с.
7. Bhavin R. Sheth, Young R. Two visual pathways in primates based on sampling of space: exploitation and exploration of visual information // Frontiers in Integrative Neuroscience. 2016. V. 10. Article 37. P. 1–20.
8. Моисеенко Г.А., Вершинина Е.А., Пронин С.В., Чихман В.Н., Михайлова Е.С., Шелепин Ю.Е. Латентные периоды компонентов вызванных потенциалов в задачах классификации изображений, подвергнутых вейвлетной фильтрации // Физиология человека. 2016. Т. 42. № 6. С. 37–48.
9. Моисеенко Г.А., Шелепин Ю.Е., Хараузов А.К., Пронин С.В., Чихман В.Н., Вахрамеева О.А. Классификация и распознавание изображений живой и неживой природы // Оптический журнал. 2015. Т. 82. № 10. С. 53–64.
10. Yazici M., Ulutas M. Classification of EEG signals using time domain features // Proc. 23th Signal Process. Commun. Appl. Conf. 2015. P. 2358–2361.
11. Anderson N.R., Wisneski K.J. Automated analysis and trending of the raw EEG signal // Am J Electroneurodiagnostic Technol. 2008. № 48. P. 166–191.
12. Gajić D., Djurovic Z., Di Gennaro S., Gustafsson F. Classification of EEG signals for detection of epileptic seizures based on wavelets and statistical pattern recognition // Biomed. Eng. Appl. Basis. Commun. 2014. V. 26. P. 1450021. doi: 10.4015/S1016237214500215
13. Yohanes R.E.J., Wee S., Guang-Bin H. Discrete wavelet transform coefficients for emotion recognition from EEG signals // Proc. Annu. Int. Conf. IEEE Eng. Med. Biol. Soc. (EMBC). 2012. P. 2251–2254.
14. Wavelet Toolbox — MATLAB [Электронный ресурс]: URL: https://www.mathworks.com/products/wavelet.html (дата обращения: 01.05.2018).

15. Lee G., Wasilewski F., Gommers R., Wohlfahrt K., O’Leary A., Nahrstaedt H. PyWavelets – Wavelet Transforms in Python. 2006. [Электронный ресурс]: URL: https://github.com/PyWavelets/pywt (дата обращения: 01.05.2018).
16. Luck S.J., Kappenman E.S. The Oxford handbook of event-related potential components / Chapter 11. ERP Components and selective Attention. P. 295–327. Oxford: Oxford University Press, 2013. 664 p.
17. Hochreiter S., Schmidhuber J. Long short-term memory // Neural computation. 1997. V. 9. № 8. P. 1735–1780.
18. Bashivan P., Rish I., Yeasin M., Codella N. Learning representation from EEG with Deep Recurrent-Convolutional Neural Networks. ICLR. 2016. URL: https://arxiv.org/pdf/1511.06448.pdf
19. Tang Z., Sun S. Single-trial EEG classification of motor imagery using deep convolutional neural networks // Optik — International Journal for Light and Electron Optics. 2017. V. 130. P. 11–18.
20. Malashin R.O. Extraction of object hierarchy data from trained deep-learning neural networks via analysis of the confusion matrix // Journal of Optical Technology. 2016. V. 83. № 10. P. 599–603.
21. Clevert D., Unterthiner T., Hochreiter S. Fast and accurate deep learning by exponential linear units (ELUs) // ICLR. 2016. P. 1–14.
22. Ioffe S., Szegedy C. Batch normalization: accelerating deep network training by reducing internal covariate shift. 2015. URL:https://arxiv.org/abs/1502.03167
23. Goodfellow I, Bengio Y., Courville A. Deep learning. Cambridge, Massachusetts, U.S.: MIT Press, 2016. 800 p.