DOI: 10.17586/1023-5086-2020-87-10-50-58
УДК: 51-76, 004.032.26, 004.932.1, 004.8
Пространство описания зрительной сцены в искусственных и биологических нейронных сетях
Полный текст «Оптического журнала»
Полный текст на elibrary.ru
Публикация в Journal of Optical Technology
Малахова Е.Ю. Пространство описания зрительной сцены в искусственных и биологических нейронных сетях // Оптический журнал. 2020. Т. 87. № 10. С. 50–58. http://doi.org/10.17586/1023-5086-2020-87-10-50-58
Malakhova E. Yu. Information representation space in artificial and biological neural networks [in Russian] // Opticheskii Zhurnal. 2020. V. 87. № 10. P. 50–58. http://doi.org/10.17586/1023-5086-2020-87-10-50-58
Свёрточные нейронные сети широко применяются в качестве модели зрительной системы приматов. Однако зачастую при моделировании не учитывается влияние задачи и статистики обучающего множества на формирование пространства представления информации. В данной работе показано, что характеристики искусственных нейронов в первых двух свёрточных слоях отражают статистику сигнала (коэффициент корреляции R = 0,63, R = 0,44). При этом, сходство с пространством задачи начинает постепенно возрастать в последних свёрточных слоях (R = 0,35), достигая значения 0,73 в полносвязных слоях. На последних этапах обработки кодирование категории осуществляется при помощи уникального набора признаков, мало схожего с признаками других категорий. Таким образом, для повышения правдоподобия моделей зрительной системы, построенных на свёрточных сетях, необходимо согласованное представление пространств сигналов и задач биологическими и искусственными распознающими системами.
свёрточные нейронные сети, представление информации, интерпретируемое глубокое обучение, модель зрительной системы
Коды OCIS: 200.4260, 330.4060
Список источников:1. Geirhos R., Janssen D.H., Schütt H.H., Rauber J., Bethge M., Wichmann F.A. Comparing deep neural networks against humans: object recognition when the signal gets weaker // arXiv preprint arXiv:1706.06969. 2017.
2. Dodge S., Karam L. A study and comparison of human and deep learning recognition performance under visual distortions // arXiv preprint arXiv:1705.02498. 2017.
3. Lake B.M., Zaremba W., Fergus R., Gureckis T.M. Deep neural networks predict category typicality ratings for images // In Proceedings of the 37th Annual Conference of the Cognitive Science Society. Pasadena, USA. July 23–25, 2015. P. 1243–1249.
4. Baker N., Lu H., Erlikhman G., Kellman P.J. Deep convolutional networks do not classify based on global object shape // PLoS computational biology. 2018. V. 14. № 12. P. e1006613.
5. Gangopadhyay P., Das J. Do primates and deep artificial neural networks perform object categorization in a similar manner? // The Journal of Neuroscience. 2019. V. 39. № 6. P. 946.
6. Watanabe E., Kitaoka A., Sakamoto K., Yasugi M., Tanaka K. Illusory motion reproduced by deep neural networks trained for prediction // Frontiers in psychology. 2018. V. 9. P. 345.
7. Williams R.M., Yampolskiy R.V. Optical illusions images dataset // arXiv preprint arXiv:1810.00415. 2018.
8. Cadieu C.F., Hong H., Yamins D.L.K., Pinto N., Ardila D., Solomon E.A., Majaj N.J., DiCarlo J.J. Deep neural networks rival the representation of primate IT cortex for core visual object recognition // PLoS Computational Biology. 2014. V. 10. № 12. P. e1003963.
9. Kheradpisheh S.R., Ghodrati M., Ganjtabesh M., Masquelier T. Deep networks resemble human feed-forward vision in invariant object recognition // arXiv preprint arXiv:1508.03929. 2016.
10. Kietzmann T.C., McClure P., Kriegeskorte N. Deep neural networks in computational neuroscience // bioRxiv, http://dx.doi.org/10.1101/133504. 2017.
11. Kriegeskorte N. Deep neural networks: A new framework for modeling biological vision and brain information processing // Annual Review of Vision Science. 2015. V. 1. № 15. P. 417–446.
12. Li Y., Yosinski J., Clune J., Lipson H., Hopcroft J.E. Convergent learning: Do different neural networks learn the same representations? // In International Conference on Learning Representation (ICLR ’16). May 2–4, 2016. San Juah, USA. P. 196–212.
13. Barlow H.B. Summation and inhibition in the frog's retina // The Journal of Physiology. 1953. V. 119. № 1. P. 69–80.
14. Цукерман И.И. О согласованности пространственно-частотных фильтров зрительного анализатора со статистикой изображений // Биофизика. 1978. Т. 23. № 6. С. 1108–1109.
15. Krasil'nikov N.N., Shelepin Yu.E., Krasil'nikova O.I. Filtering in the human visual system under threshold observation conditions // Opticheski Zhurnal. 1999. V. 66. № 1. Р. 3–10.
16. Gollisch T., Meister M. Eye smarter than scientists believed: Neural computations in circuits of the retina // Neuron. 2010. V. 65. № 2. P. 150–164.
17. Dan Y., Atick J.J., Reid R.C. Efficient coding of natural scenes in the lateral geniculate nucleus: Experimental test of a computational theory // Journal of Neuroscience. 1996. V. 16. № 10. P. 3351–3362.
18. Olshausen B.A., Field D.J. Emergence of simple-cell receptive field properties by learning a sparse code for natural images // Nature. 1996. V. 381. № 6583. P. 607–609.
19. Bell A.J., Sejnowski T.J. The «independent components» of natural scenes are edge filters // Vision Research. 1997. V. 37. № 23. P. 3327–3338.
20. Hyvarinen A., Gutmann M., Hoyer P.O. Statistical model of natural stimuli predicts edge-like pooling of spatial frequency channels in V2 // BMC Neuroscience. 2005. V. 6. № 1. P. 12.
21. Cadieu C.F., Olshausen B.A. Learning intermediate-level representations of form and motion from natural movies // Neural Computation. 2012. V. 24. № 4. P. 827–866.
22. Gross C.G., Rocha-Miranda C.D., Bender D.B. Visual properties of neurons in inferotemporal cortex of the macaque // Journal of neurophysiology. 1972. V. 35. № 1. P. 96–111.
23. Tanaka K. Inferotemporal cortex and object vision // Annual review of neuroscience. 1996. V. 19. № 1. P. 109–139.
24. McCarthy G., Puce A., Gore J.C., Allison T. Face-specific processing in the human fusiform gyrus // Journal of Cognitive Neuroscience. 1997. V. 9. P. 605–610.
25. Kanwisher N.G., McDermott J., Chun M.M. The fusiform face area: A module in human extrastriate cortex specialized for face perception // Journal of Neuroscience. 1997. V. 17. P. 4302–4311.
26. Downing P.E., Jiang Y., Shuman M., Kanwisher N. A cortical area selective for visual processing of the human body // Science. 2001. V. 293. P. 2470–2473.
27. Epstein R.A., Kanwisher N. A cortical representation of the local visual environment // Nature. 1998. V. 392. P. 598–601.
28. Simonyan K., Zisserman A. Very deep convolutional networks for large-scale image recognition // arXiv preprint arXiv:1409.1556. 2015.
29. Deng J., Dong W., Socher R., Li L.J., Li K., Fei-Fei L. ImageNet: a large- scale hierarchical image database // In Proceedings: 2009 IEEE Conference on Computer Vision and Pattern Recognition. June 22–24, 2009. Miami, USA. P. 248– 255.
30. Zhang D., Lu G. Evaluation of similarity measurement for image retrieval // International Conference on Neural Networks and Signal Processing. December 14–17, 2003. Nanjing, China. V. 2. P. 928–931.
31. Olshausen B.A., Field D.J. Sparse coding of sensory inputs // Current opinion in neurobiology. 2004. V. 14. № 4. P. 481–487.
32. Hyvärinen A., Hurri J., Hoyer P.O. Natural image statistics: A probabilistic approach to early computational vision // Springer Science & Business Media. 2009. V. 39. P. 131–150.
33. Papyan V., Romano Y., Elad M. Convolutional neural networks analyzed via convolutional sparse coding // The Journal of Machine Learning Research. 2017. V. 18. № 1. P. 2887–2938. 34. Glorot X., Bordes A., Bengio Y. Deep sparse rectifier neural networks // The fourteenth international conference on artificial intelligence and statistics. April 11–13, 2011. Ft. Lauderdale, USA. P. 315–323.