Научно-технический
«ОПТИЧЕСКИЙ ЖУРНАЛ»
издается с 1931 года
 
   
Русский вариант сайта Английский вариант сайта
   
       
   
       
Статьи последнего выпуска

Электронные версии
выпусков начиная с 2008


Алфавитный указатель
2000-2010 гг


444
Архив оглавлений
выпусков 2002-2007 гг


Реквизиты и адреса

Вниманию авторов и рецензентов!
- Порядок публикации
- Порядок рецензирования статей
- Типовой договор
- Правила оформления
- Получение авторского вознаграждения
- Редакционная этика


Контакты

Подписка

Карта сайта




Журнал с 01.12.2015 допущен ВАК для публикации основных результатов диссертаций как издание, входящее в международные реферативные базы систем цитирования (Web Science, Scopus) (см. Vak.ed.gov.ru Перечень журналов МБД 16.03.2018г)

Аннотации (12.2019) : ПРИМЕНЕНИЕ ГЕНЕРАТИВНЫХ МОДЕЛЕЙ ГЛУБОКОГО ОБУЧЕНИЯ ДЛЯ АППРОКСИМАЦИИ ПЛОТНОСТИ РАСПРЕДЕЛЕНИЯ ОБРАЗОВ

ПРИМЕНЕНИЕ ГЕНЕРАТИВНЫХ МОДЕЛЕЙ ГЛУБОКОГО ОБУЧЕНИЯ ДЛЯ АППРОКСИМАЦИИ ПЛОТНОСТИ РАСПРЕДЕЛЕНИЯ ОБРАЗОВ

 

© 2019 г. А. В. Ященко*, **, аспирант; А. С. Потапов*, **, доктор техн. наук; С. А. Родионов*, канд. физ.-мат. наук; И. Н. Жданов*, **, канд. техн. наук; О. В. Щербаков*, **, канд. техн. наук; М. В. Петерсон*, **, канд. техн. наук

*   ООО "Сингулярити Лаб", Санкт-Петербург

** Университет ИТМО, Санкт-Петербург

E-mail: yashenkoxciv@gmail.com

УДК 004.272 004.032.26

Поступила в редакцию 21.05.2019

DOI:10.17586/1023-5086-2019-86-12-29-34

Исследованы генеративные нейросетевые модели для обучения визуальным понятиям и задачи аппроксимации плотности распределения образов. Вводится критерий принадлежности образа моделируемому классу на основе оценки вероятности в пространстве латентных переменных и ошибки реконструкции. Проводится сравнение нескольких генеративных моделей глубокого обучения. Экспериментально получены оценки качества решения задачи одноклассовой классификации для набора изображений рукописных цифр.

Ключевые слова: обучение визуальным понятиям, глубокое обучение, генеративные модели, обнаружение новизны.

Коды OCIS: 150.1135, 100.4996

 

Литература 

1.         Diederik P. Kingma, Max Welling. Auto-encoding variational bayes // Тез. докл. International Conference on Learning Representations. Banff, Canada. April 14–16, 2014. 14 p.

2.         Гудфеллоу Я., Курвилль А., Бенджио И. Глубокое обучение. М.: ДМК Пресс, 2018. 654 с.

3.         Makhzani A., Shlens J., Jaitly N., Goodfellow I. Adversarial autoencoders // Тез. докл. International Conference on Learning Representations. San Juan, Puerto Rico. May 2–4, 2016. 16 p.

4.         Tschannen M., Bachem O., Lucic M. Recent advances in autoencoder-based representation learning // Тез. докл. Conference on Neural Information Processing Systems. Montreal, Canada. Dec 3–4, 2018. 25 p.

5.         Zhang J., Dang H., Kuan Lee H., Chang E. Flipped-adversarial autoencoders [электронный ресурс] 2018. – Режим доступа: https://arxiv.org/pdf/1802.04504.pdf, свободный.

6.         Donahue J., Krähenbühl P., Darrell T. Adversarial feature learning // Тез. докл. International Conference on Learning Representations. Toulon, France. April 24–26, 2017. 18 p.

7.         Goodfellow I.J., Pouget-Abadie J., Mirza M., Xu B., Warde-Farley D., Ozair S., Courville A., Bengio Y. Generative adversarial networks // Тез. докл. Neural Information Processing Systems Conference. Montreal, Canada. Dec 8–13, 2014. 9 p.

8.        Pidhorskyi S., Almohsen R., A Adjeroh D., Doretto G. Generative probabilistic novelty detection with adversarial autoencoders // Тез. докл. Conference on Neural Information Processing Systems. Montreal, Canada. Dec 8–13, 2018. 12 p.

9.         Dosovitskiy A., Brox T. Generating images with perceptual similarity metrics based on deep networks. [электронный ресурс] 2016. Режим доступа: https://arxiv.org/pdf/1602.02644.pdf, свободный.

10.       Isola P., Zhu J., Zhou T., A. Efros A. Image-to-image translation with conditional adversarial networks // Тез. докл. IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, Hawaii. July 21–26, 2017. 17 p.

11.       Chen X., Duan Y., Houthooft R., Schulman J., Sutskever I., Abbeel P. InfoGAN: interpretable representation learning by information maximizing generative adversarial nets // Тез. докл. Neural Information Processing Systems Conference. Barcelona, Spain. Dec. 5–10, 2016. 14 p.

12.       Bang D., Shim H. High quality bidirectional generative adversarial networks. [электронный ресурс] 2018. Режим доступа: https://arxiv.org/pdf/1805.10717.pdf, свободный.

13.       Le Cun Y., Cortes C., Burges C.J.C. THE MNIST DATABASE of handwritten digits. [электронный ресурс] 2018. Режим доступа: http://yann.lecun.com/exdb/mnist/, свободный.

14.       Ioffe S., Szegedy C. Batch normalization: accelerating deep network training by reducing internal covariate shift // Тез. докл. International Conference on Machine Learning. Lille, France. July 6–11, 2015. 11 p.

15.       Pedamonti D. Comparison of non-linear activation functions for deep neural networks on MNIST classification task. [электронный ресурс] 2018. Режим доступа: https://arxiv.org/pdf/1804.02763.pdf, свободный.

16.       Sehgal S., Singh H., Agarwal M. Data analysis using principal component analysis // Тез. докл. International Conference on Medical Imaging. Greater Noida, India. Nov. 7–8, 2014. 3 p.

17.       Bishop C. Pattern recognition and machine learning. N.Y.: Springer, 2007. 758 p.

18.       Higgins I., Matthey L., Pal A. Beta-VAE: learning basic visual concepts with a constrained variational framework // Тез. докл. International Conference on Learning Representations. Toulon, France. April 24–26, 2017. 22 p.

 

 

Полный текст