Научно-технический
«ОПТИЧЕСКИЙ ЖУРНАЛ»
издается с 1931 года
 
   
Русский вариант сайта Английский вариант сайта
   
       
   
       
Статьи последнего выпуска

Электронные версии
выпусков начиная с 2008


Алфавитный указатель
2000-2010 гг


444
Архив оглавлений
выпусков 2002-2007 гг


Реквизиты и адреса

Вниманию авторов и рецензентов!
- Порядок публикации
- Порядок рецензирования статей
- Типовой договор
- Правила оформления
- Получение авторского вознаграждения
- Редакционная этика


Контакты

Подписка

Карта сайта




Журнал с 01.12.2015 допущен ВАК для публикации основных результатов диссертаций как издание, входящее в международные реферативные базы систем цитирования (Web Science, Scopus) (см. Vak.ed.gov.ru Перечень журналов МБД 16.03.2018г)

Аннотации (07.2019) : РАСПОЗНАВАНИЕ ЛИЦ ПО СОВМЕСТНЫМ ИЗОБРАЖЕНИЯМ ИНФРАКРАСНОГО И ВИДИМОГО ДИАПАЗОНОВ НА ОСНОВЕ РАСШИРЕННЫХ РАЗРЕЖЕННЫХ ПРЕДСТАВЛЕНИЙ И ЛОКАЛЬНЫХ БИНАРНЫХ ПАТТЕРНОВ

РАСПОЗНАВАНИЕ ЛИЦ ПО СОВМЕСТНЫМ ИЗОБРАЖЕНИЯМ ИНФРАКРАСНОГО И ВИДИМОГО ДИАПАЗОНОВ НА ОСНОВЕ РАСШИРЕННЫХ РАЗРЕЖЕННЫХ ПРЕДСТАВЛЕНИЙ И ЛОКАЛЬНЫХ БИНАРНЫХ ПАТТЕРНОВ

 

© 2019 г.       Z. Xie, S. Zhang, X. Yu, G. Liu

Key Lab of Optic-Electronic and Communication, Jiangxi Sciences and Technology Normal University, Nanchang, China

Хотя в последнее время распознавание совместных изображений инфракрасного и видимого диапазонов является объектом активных исследований, большинство теоретических результатов и алгоритмов используют обширные наборы обучающих образцов. Непосредственное использование подобных алгоритмов при наличии единственного образца приводит к неоптимальным решениям.

В статье рассматривается объединенный метод, обобщенный для случая недостаточной обучающей выборки, включающей единственную пару изображений лица в инфракрасном и видимом свете. В отличие от существующих методов, предложенный способ не требует ни большого числа обучающих изображений, ни стадии обучения. При применении единственной пары обучающих изображений для построения робастной и быстродействующей модели объединения при распознавании среди неограниченного набора лиц предложены две модели объединения дескрипторов, основанных на локальных бинарных паттернах, и классификации на основе разреженных представлений. Первая модель непосредственно выполняет объединение ошибок представления, тогда как вторая является ускоренной версией с обучением кросс-спектрального словаря. Эксперименты, выполненные с использованием базы данных HITSZ LAB2, показали, что предложенная модель объединения извлекает дополнительные характеристики изображений, полученных в инфракрасном и видимом диапазонах, а объединенный метод распознавания лиц превосходит по возможностям существующие методы.

Ключевые слова: локальные бинарные паттерны, классификации на основе разреженных представлений, объединение на уровне ошибки, объединенное кросс-спектральное словарное представление, распознавание объединения изображений.

 

Infrared and visible face fusion recognition based on extend sparse representation classification and local binary patterns for single sample problem

© 2019    Z. Xie, PhD; S. Zhang, postgraduate student; X. Yu, postgraduate student; G. Liu, PhD

Key Lab of Optic-Electronic and Communication, Jiangxi Sciences and Technology Normal University, Nanchang, China

E-mail: xie_zhihua68@aliyun.com

УДК 535.8

Submitted 05.03.2019

DOI:10.17586/1023-5086-2019-86-07-19-26

While near infrared and visible fusion recognition has been actively researched in recent years, most theoretical results and algorithms concentrate on the sufficient training samples setting. This paper focuses on general fusion method when there are insufficient training samples with one pair of near infrared and visible face image. Compared with existing methods, the proposed method requires neither sufficient samples nor the training step. To get a robust and time-efficient fusion model for unconstrained face recognition with single sample situation, two models are proposed to fuse the local binary patterns based descriptors and sparse representation based classification: the first fusion model fuses directly the representation error, while the second fusion model is an accelerated version with learning a cross-spectral dictionary. Experiments are performed on HITSZ LAB2 database and the experiments results showed that the proposed fusion model extracted the complementary features of near-infrared and visible-light images, the fusion face recognition method had superior performance to state of the art fusion methods.

Keywords: local binary patterns, sparse representation based classification, error-level fusion, cross-spectral Joint Dictionary Representation, face fusion recognition .

OCIS code: 100.0010

 

References

1.         Lu G., Wang Y. Feature extraction using a fast null space based linear discriminant analysis algorithm // Information Sci. 2012. V.193. № 1.P. 72–80

2.         Tian G., Zhang C., Sun Q. FFT Consolidated sparse and collaborative representation for image classification // Arabian J. Sci. and Eng. 2018. V. 43. № 2. P. 741–758.

3.         Bebis G., Pavlidis I. Infrared and visible image fusion for face recognition // Proc. SPIE. 2004. V. 5404. P. 585–596.

4.        Desa S.M., Hati S. IR and visible face recognition using fusion of kernel based features // Proc. 19th Internat. Conf. Pattern Recognition. 2008. V. 1. P. 1–4.

5.         Raghavendra R., Dorizzi B., Rao A., Kumar H. Particle swarm optimization based fusion of near infrared and visible images for improved face verification // Pattern Recognition. 2011. V. 44. № 2. P. 401–411.

6.        Ma Z., Wen J., Liu Q., Tuo G. Near-infrared and visible light image fusion algorithm for face recognition // J. Modern Opt. 2015. V. 62. № 9. P. 745–753.

7.         Guo K., Wu S., Xu Y. Face recognition using both visible light image and near-infrared image and a deep network // CAAI Trans. Intelligence Technol. 2017. V. 2. № 1. P. 39–47.

8.        Wright J., Yang A.Y., Ganesh A. Robust face recognition via sparse representation // IEEE Trans. Pattern Analysis and Machine Intelligence. 2009. V. 31. № 2. P. 210–227.

9.        He R., Zheng W., Hu B. Maximum correntropy criterion for robust face recognition // IEEE Trans. Pattern Analysis and Machine Intelligence. 2011. V. 33. № 8. P. 1561–1576.

10.       Lai Z., Dai D., Ren C. Discriminative and compact coding for robust face recognition // IEEE Trans. Cybernetics. 2015. V. 45. № 9. P. 1900–1912.

11.       Yang M., Zhang L., Yang J. Robust sparse coding for face recognition // Proc. 24th IEEE Conf. Computer Vision and Pattern Recognition. 2011. V. 1. P. 625–632.

12.       Yang M., Zhang L., Yang J. Regularized robust coding for face recognition // IEEE Trans. Image Proc. 2013. V. 22. № 5. P. 1753–1766.

13.       Li X., Dai D., Zhang X. Structured sparse error coding for face recognition with occlusion // IEEE Trans. Image Proc. 2013. V. 22. № 5. P. 1889–1900.

14.       Deng W., Hu J., Guo J. Extended SRC: Under-sampled face recognition via intra-class variant dictionary // IEEE Trans. Pattern Analysis and Machine Intelligence. 2012. V. 34. № 9. P. 1864–1870.

15.       Yu Y., Dai D., Ren C. Discriminative multi-scale sparse coding for single-sample face recognition with occlusion // Pattern Recognition. 2017. V. 66. № 2. P. 302–312.

16.       Ahonen T., Hadid A., Pietikäinen M. Face recognition with local binary patterns // Proc. 8th European Conf. Computer Vision. 2004. V. 1. P. 476–481.

17.       Ojala T., Pietikinen M., Menp T. Multi-resolution gray-scale and rotation invariant texture classification with local binary patterns // IEEE Trans. Pattern Analysis and Machine Intelligence. 2002. V. 24. № 6. P. 971–987.

18.       Xu Y., Zhong A., Yang J., Zhang D. Bimodal biometrics based on a representation and recognition approach // Opt. Eng. 2011. V. 50. № 3. P. 0372021–0372027.

 

 

Полный текст