Научно-технический
«ОПТИЧЕСКИЙ ЖУРНАЛ»
издается с 1931 года
 
   
Русский вариант сайта Английский вариант сайта
   
       
   
       
Статьи последнего выпуска

Электронные версии
выпусков начиная с 2008


Алфавитный указатель
2000-2010 гг


444
Архив оглавлений
выпусков 2002-2007 гг


Реквизиты и адреса

Вниманию авторов и рецензентов!
- Порядок публикации
- Порядок рецензирования статей
- Типовой договор
- Правила оформления
- Получение авторского вознаграждения
- Редакционная этика


Контакты

Подписка

Карта сайта




Журнал с 01.12.2015 допущен ВАК для публикации основных результатов диссертаций как издание, входящее в международные реферативные базы систем цитирования (Web Science, Scopus) (см. Vak.ed.gov.ru Перечень журналов МБД 16.03.2018г)

Аннотации (08.2015) : СРАВНЕНИЕ ВЕРОЯТНОСТНЫХ ЯЗЫКОВ ПРОГРАММИРОВАНИЯ НА ПРИМЕРЕ РЕШЕНИЯ ЗАДАЧ КЛАСТЕРИЗАЦИИ И ВЫДЕЛЕНИЯ ПРИЗНАКОВ

СРАВНЕНИЕ ВЕРОЯТНОСТНЫХ ЯЗЫКОВ ПРОГРАММИРОВАНИЯ НА ПРИМЕРЕ РЕШЕНИЯ ЗАДАЧ КЛАСТЕРИЗАЦИИ И ВЫДЕЛЕНИЯ ПРИЗНАКОВ

 

© 2015 г.     В. И. Филатов*, аспирант; А. С. Потапов*,**, доктор техн. наук

*   университет ИТМО, Санкт-Петербург

** Государственный оптический институт им. С.И. Вавилова, Санкт-Петербург

Е-mail: sigal89@mail.ru

решена задача кластеризации с использованием вероятностных языков программирования, принадлежащих к двум семействам – языкам, реализующим графические модели (Infer.NET), и произвольные вычислимые генеративные модели (Church). Проведено сравнение особенностей и эффективности реализаций. Установлена более высокая точность и производительность реализации на языке Infer.NET, которая, однако, потребовала использования императивной составляющей языка, выходящей за рамки генеративных моделей. Приведена реализация автоэнкодера – стандартного элемента сетей глубокого обучения – на языке Church, не потребовавшем реализации специализированных методов обучения сети. Показан большой потенциал вероятностных языков общего назначения, реализация которого, однако, требует развития методов вывода.

Ключевые слова: вероятностное программирование, индуктивный вывод, генеративная модель.

Коды OCIS: 150.1135

УДК 004.932

Поступила в редакцию 10.03.2015.

ЛИТЕРАТУРА

1.         Goodman N. The Principles and practice of probabilistic programming // ACM SIGPLAN Notices – POPL ’13. 2013. V. 48. № 1. P. 339–402.

2.         Goodman N., Mansinghka V., Roy D., Bonawitz K., Tanenbaum J. Church: a language for generative models // Uncertainty in Artificial Intelligence. 2008. V. 8. P. 220–229.

3.         Abelson H., Sussman G. Structure and interpretation of computer programs. Cambridge: MIT Press, 1996. 608 p.

4.        Wang S., Wand M. Using Infer.Net for statistical analyses // The American Statistician. 2011. V 65. № 2. P. 115–126.

5.         Minka T. A family of algorithms for approximate Bayesian Inference // PhD thesis. Cambridge: MIT, 2001. 75 p.

6.        Minka T. Expectation propagation for approximate bayesian inference // Uncertainty in Artificial Intelligence. 2001. V. 1. P. 362–369.

7.         Bishop J. Variational message passing // Journal of Machine Learning Research. 2005. V. 6. P. 661–694.

8.        Mansinghka V. Natively probabilistic computation // PhD thesis. Cambridge: MIT, 2009. 135 p.

9.        Li J., Cheng J., Shi J., Huang F. Brief introduction of back propagation neural network algorithm and its improvement // Advances in Computer Science and Information Engineering. 2012. V. 169. P. 553–558.

10.       Mansinghka V., Kulkarni T., Perov Y., Tenenbaum J. Approximate Bayesian image interpretation using generative probabilistic graphics programs // Advances in Neural Information Processing Systems. 2013. V. 1. P. 1520–1528.

 

 

Полный текст >>>