مدرس | ایمیل |
---|---|
دکتر امیر دانشگر | daneshgar@sharif.ir |
هدف این درس آشنایی با مبانی نظری الگوریتم های تکراری و وردشی است که بر مبنای اصل وردشی گیبز و روش تکرار انتروپی نسبی حاصل میشوند و در نهایت انواع الگوریتمهای از جنس Expectation-Maximization یا انواع الگوریتمهای از جنس Belief Propagation را نتیجه میدهند. بخش اول درس به توضیح مفاهیم مرتبط با انتروپی نسبی و نقش آن در تمرکز اندازه و Large Deviation و دوگانی آن با تابع پارش لگاریتمی به همراه قضیه Donsker-Varadhan و تبیین دوگانی مسایل Maximum Entropy و Maximum Likelihood اختصاص دارد و استخراج الگوریتم BP از تقریب Bethe و همچنین قضیه اساسی Csiszar برای همگرایی روش تکرار روی انتروپی نسبی، و نظریه mean field از قسمتهای اصلی بخش اول است. بخش دوم درس به کاربردهای جدی این الگوریتمها اختصاص دارد که مدلهای مخلوط (Mixture) و HMM و از مثال های اصلی درس هستند و استاد با توجه به سلیقه و کلاس درس میتواند مباحث زیر را نیز مورد بحث قرار دهد: نمایش Loop Series و روش تقریب ناحیهای Bethe در قسمت نظری و فیلترهای کالمن، کاربردها در یادگیری تقویتی، کاربردها در دیکدینگ و کدهای LDPC، مدلهای Ising و بحث انتقال فاز.
The main objective of this course is to present the variational paradigm of algorithm design within the context of Gibbs variational principle. The main theme of the course is to present the necessary theoretical and practical background for the design and analysis of variational and iterative algorithms of maximum entropy or expectation-maximization type. The first part of the course is dedicated to the necessary background from geometric information theory, statistical physics, and Bayesian statistics. It is expected that the duality between maximum entropy and maximum likelihood using Legendre-Fenchel transform within the context of large-deviation and Donsker-Varadhan theory is discussed. The belief-propagation (i.e. cavity) iterative setup should be discussed in relation to Bethe approximation and different aspects of similar algorithms as max-sum or other variants. Also, the necessary theoretical background in relation to convergence properties of iterative expectation-maximization is presented along with an introduction to mean-field theory. The second part of the course is dedicated to some important examples and their analysis. Mixture and hidden Markov models as well as the Ising models and their variants are discussed in detail as the two most important setups. The concept of phase transition is also discussed in relation to these general examples. Selected applications in combinatorial optimization, coding theory, physics, or filtering may be considered based on the choice of the instructor.
[1] M. Mezard and A. Montanari, Information, Physics, and Computation, Oxford University Press 2009. 1
[2] C. L. Byrne, Iterative Optimization in Inverse Problems, CRC Press, Taylor & Francis Group, 2014. 2
[3] I. Csiszar and P. C. Shields, Information Theory and Statistics: a tutorial, Foundation and Trends in Communications and Information Theory, Vol 1, 2004. 3
[4] M. J. Wainwright and M. I. Jordan, Graphical Models, Exponential Families, and Variational Inference, Foundation and Trends in Machine Learning, Vol 1, 2008. 4
[5] C. M. Bishop, Pattern Recognition and Machine Learning, Springer 2006. 5
این درس به صورت آنلاین در اتاق مجازی https://vc.sharif.edu/ch/daneshgar تشکیل خواهد شد.