Научно-технический
«ОПТИЧЕСКИЙ ЖУРНАЛ»
издается с 1931 года
 
   
Русский вариант сайта Английский вариант сайта
   
       
   
       
Статьи последнего выпуска

Электронные версии
выпусков начиная с 2008


Алфавитный указатель
2000-2010 гг


444
Архив оглавлений
выпусков 2002-2007 гг


Реквизиты и адреса

Вниманию авторов и рецензентов!
- Порядок публикации
- Порядок рецензирования статей
- Типовой договор
- Правила оформления
- Получение авторского вознаграждения
- Редакционная этика


Контакты

Подписка

Карта сайта




Журнал с 01.12.2015 допущен ВАК для публикации основных результатов диссертаций как издание, входящее в международные реферативные базы систем цитирования (Web Science, Scopus) (см. Vak.ed.gov.ru Перечень журналов МБД 16.03.2018г)

Аннотации (11.2019) : ПРИНЦИП НАИМЕНЬШЕГО ДЕЙСТВИЯ В ДИНАМИЧЕСКИ КОНФИГУРИРУЕМЫХ СИСТЕМАХ АНАЛИЗА ИЗОБРАЖЕНИЙ

ПРИНЦИП НАИМЕНЬШЕГО ДЕЙСТВИЯ В ДИНАМИЧЕСКИ КОНФИГУРИРУЕМЫХ СИСТЕМАХ АНАЛИЗА ИЗОБРАЖЕНИЙ

 

© 2019 г. Р. О. Maлашин, канд. техн. наук

Институт физиологии им. И.П. Павлова Российской академии наук, Санкт-Петербург

Университет ИТМО, Санкт-Петербург

E-mail: malashinroman@mail.ru

УДК 004.93'1; 004.832.2

Поступила в редакцию 07.10.2019

DOI:10.17586/1023-5086-2019-86-11-05-13

Предлагается и обосновывается разработка архитектур нейронных сетей для обучения систем анализа изображения с динамически конфигурируемой структурой вычислений. Предлагаемые системы, обучаемые в соответствии с принципом наименьшего действия, полезны для повышения скорости обработки больших объемов данных и могут помочь преодолеть другие недостатки глубоких архитектур. Подробно рассмотрена задача классификации изображений, решение которой сводится к обучению сети-агента, функционирующего в среде классификаторов и опосредовано воспринимающего изображения через них. Предложенный подход может быть использован для создания алгоритмов в системах для автоматического анализа изображений, где критичной характеристикой является среднее время обработки одного кадра, например, в системах индексации изображений по их содержанию.

Ключевые слова: динамически конфигурируемые вычисления, принцип наименьшего действия, анализ изображений.

Коды OCIS: 150.1135, 100.4996

 

Литература

1.         Полак Л.С. Вариационные принципы механики. М.: Физматлит, 1959. 930 с.

2.         Бабкин Б.П. Опыт систематического изучения сложно-нервных (психических) явлений у собаки. СПб.: изд. ВМА, 1904. 95 c.

3.         Шелепин Ю.Е., Красильников Н.Н. Принцип наименьшего действия, физиология зрения и условно-рефлекторная теория // Российский физиологический журнал им. Сеченова. Т. 89. № 6. С. 725–730.

4.         Hosseini H., Xiao B., Poovendran R. Google’s cloud vision API is not robust to noise. 2017. URL: https://arxiv.org/pdf/1704.05051.pdf (accessed 3.09.2018).

5.         Харкевич А.А. Избранные труды в 3-х томах. Том 3. Теория информации. Опознание образов. М.: Наука, 1973. 524 с.

6.         Rosenbloom P. A cognitive odyssey: From the power law of practice to a general learning mechanism and beyond. 2006. URL: https://www.researchgate.net/publication/49619414_A_cognitive_odyssey_From_the_power_law_of_practice_to_a_general_learning_mechanism_and_beyond (accessed 27.08.2019).

7.         Hu R., Andreas J., Rohrbach M., Darrell T., Saenko K. Learning to reason: End-to-end module networks for visual question answering // ICCV. 2017. P. 804–813.

8.        Wang X., Yu F.D.Z., Gonzalez J. SkipNet: Learning dynamic routing in convolutional networks. 2017. URL: https://arxiv.org/pdf/1711.09485.pdf (accessed 3.09.2018).

9.         Mosca A., Magoulas G. Deep incremental boosting. 2017. URL: https://arxiv.org/pdf/1708.03704.pdf (accessed 3.09.2018).

10.       Lee S., Chen T., Yu L., Lai C. Image classification based on the boost convolutional neural network // IEEE Access. 2018.  V. 6. P. 12755–12766.

11.       Viola P. and Jones M.J. Robust real-time face detection // Internat. J. Computer Vision. Netherlands. 2004. V. 57. № 2. P. 137–154.

12.       Murphy K. Machine leaning: A probabilistic perspective. Cambridge, Massachusetts: MIT Press, 2012. 1098 p.

13.       Larochelle H. and Murray I. The neural autoregressive distribution estimator // AISTATS. 2011. V. 15. P. 29–37.

14.       Hochreiter S., Schmidhuber J. Long short-term memory // Neural Computation. 1997. V. 9. № 8. P. 1735–1780.

15.       Hai N., Anh L., Nakagawa M. Combination of LSTM and CNN for recognizing mathematical symbols // Proc. 17th Information-Based Induction Sciences Workshop. 2014. V. 11. URL: https://www.researchgate.net/publication/275647356_Combination_of_LSTM_and_CNN_on_recognizing_mathematical_symbols (accessed 02.09.2019).

16.       Saina T., Vinyals O., Sak H. Convolutional, long short-term memory, fully connected deep neural networks // ICASSP. 19–24 April, 2015. Australia, Birsbane. P. 4580–4584.

17.       Minh V., Nicolas H., Graves A., Kavukcouglu K. Recurrent models of visual attention // NIPS Proc. 2014. URL: https://arxiv.org/abs/1406.6247.

18.       Шелепин К.Ю., Труфанов Г.Е., Фокин В.А., Васильев П.П., Соколов А.В. Цифровая визуализация активности нейронных сетей головного мозга человека до, во время и после инсайта при распознавании изображений // Оптический журнал. 2017. Т. 85. № 8. С. 29–38.

 

 

Полный текст