Научно-технический
«ОПТИЧЕСКИЙ ЖУРНАЛ»
издается с 1931 года
 
   
Русский вариант сайта Английский вариант сайта
   
       
   
       
Статьи последнего выпуска

Электронные версии
выпусков начиная с 2008


Алфавитный указатель
2000-2010 гг


444
Архив оглавлений
выпусков 2002-2007 гг


Реквизиты и адреса

Вниманию авторов и рецензентов!
- Порядок публикации
- Порядок рецензирования статей
- Типовой договор
- Правила оформления
- Получение авторского вознаграждения
- Редакционная этика


Контакты

Подписка

Карта сайта




Журнал с 01.12.2015 допущен ВАК для публикации основных результатов диссертаций как издание, входящее в международные реферативные базы систем цитирования (Web Science, Scopus) (см. Vak.ed.gov.ru Перечень журналов МБД 16.03.2018г)

Аннотации (10.2020) : МЕТОД УЛУЧШЕНИЯ ИЗОБРАЖЕНИЙ С ПОМОЩЬЮ ГЛУБОКИХ НЕЙРОННЫХ СЕТЕЙ ПРИ ИСПОЛЬЗОВАНИИ ВЫСОКОУРОВНЕВОЙ ИНФОРМАЦИИ

МЕТОД УЛУЧШЕНИЯ ИЗОБРАЖЕНИЙ С ПОМОЩЬЮ ГЛУБОКИХ НЕЙРОННЫХ СЕТЕЙ ПРИ ИСПОЛЬЗОВАНИИ ВЫСОКОУРОВНЕВОЙ ИНФОРМАЦИИ

 

© 2020 г.      М. А. Титаренко; Р. О. Малашин, канд. техн. наук

Институт физиологии им. И.П. Павлова РАН, Санкт-Петербург

Университет ИТМО, Санкт-Петербург

E-mail: mik199997@gmail.com

УДК 004.932.4

Поступила в редакцию 21.06.2020

DOI:10.17586/1023-5086-2020-87-10-59-68

Исследован метод обучения нейронных сетей улучшению изображений, основанный на использовании информации, содержащейся в признаках нейронной сети, обученной классификации изображений. Проведены эксперименты, направленные на поиск оптимальной функции потерь для достижения максимальной точности классификации изображений при наложении шума и размытия. Показана зависимость наилучшей конфигурации параметров обучения от типа деградирующего воздействия и целевой задачи. Впервые исследовано влияние такой функции потерь для различных типов деградации изображений на восстановление и точность распознавания по сравнению с использованием единственного классификатора, обученного в условиях воздействия искажающих факторов. Показано, что некоторые простые искажения целесообразно исправлять «вне» классификатора, а некоторые «внутри» классификатора.

Ключевые слова: улучшение изображений, глубокие нейронные сети, функция потерь на основе признаков сети.

Коды OCIS: 150.1135, 100.2980

 

Литература 

1.    Bruna J., Sprechmann P., Le Cun Y. Super-resolution with deep convolutional sufficient statistics // International Conference on Learning Representations. 2–4 May 2016. Puerto Rico, San Juan. P. 17.

2.   Lucas A., Lopez-Tapia S., Molina R. et al. Generative adversarial networks and perceptual losses for video super-resolution // IEEE Transactions on Image Processing. 2019. P. 3312–3327.

3.   Johnson J., Alahi A., Li F. Perceptual losses for real-time style transfer and super-resolution // European conference on computer vision. 8–16 October 2016. Amsterdam, The Netherlands. P. 18.

4.   Simonyan K., Zisserman A. Very deep convolutional networks for large-scale image recognition // International Conference on Learning Representations. 7–9 May 2015. USA, San Diego. P. 14.

5.   Szeliski R. Computer vision: algorithms and applications. N.Y., London: Springer-Verlag, 2011. P. 979.

6.   Russakovsky O., Deng J., Su H., Krause J. ImageNet large scale visual recognition challenge. 2015. URL: https://arxiv.org/pdf/1409.0575.pdf (accessed: 18.06.2019).

7.    Ding L., Bihan W. Connecting image denoising and high-level vision tasks via deep learning. URL: https://arxiv.org/pdf/1809.01826.pdf (accessed: 18.05.2019).

8.   Zeiler M., Fergus R. Visualizing and understanding convolutional networks. 2013. URL: https://arxiv.org/pdf/1311.2901.pdf (accessed: 18.06.2019).

9.   Olaf Ronneberger, Philipp Fischer, Thomas Brox. U-Net: convolutional networks for biomedical image segmentation // Medical Image Computing and Computer-Assisted Intervention. 2015. P. 234–241.

10. Kaiming He, Xiangyu Zhang, Shaoqing Ren et al. Deep residual learning for image recognition // IEEE Conference on Computer Vision and Pattern Recognition. 27–30 June 2016. USA, Las Vegas. P. 9.

11.  Machine learning framework PyTorch. URL: https://pytorch.org (accessed: 18.06.2019).

12.       Diederik P. Kingma, Jimmy Ba. Adam: a method for stochastic optimization. 2017. URL: https://arxiv.org/pdf/1412.6980.pdf (accessed: 18.06.2019).

 

 

Полный текст