به طور کلاسیک، الگوریتمها و نظریههای یادگیری ماشین و آمار برای حالت خطی بسیار خوب توسعه یافتهاند. در مقابل، دادههای دنیای واقعی، برای یافتن انواع وابستگیهایی که برای پیشبینی مفید هستند، نیاز به روشهای غیرخطی دارند. با استفاده از یک هسته مثبت معین، گاهی میتوان از الگوریتمهای خطی برای حالات غیر خطی استفاده کرد. هسته عبارت است از ضرب داخلی در یک فضای ویژگی که معمولا ابعاد بالایی دارد. در این فضا، میتوان از روشهای تخمین خطی استفاده کرد. اگر عبارت های به کار گرفته شده همه بر اساس محاسبه هسته در نقاط مختلف باشد، نیازی به محاسبه صریح فضای با ابعاد بالا نیست. بهترین استفاده از هستهها به طور سنتی در قضیهای موسوم به قضیه نمایش دهنده (Representer Theorem) است که پایه نظری استفاده از SVMهاست، نمود دارد. اما در سالهای اخیر مشخص شده است که استفاده بیشتری از هستهها با محاسبه خطی آمارههای در ابعاد بالاتر وجود دارد که این کار به کمک نگاشت توزیع ها به یک فضای هیلبرت با هسته بازآفرین(Reproducing Kernel Hilbert Space=RKHS) امکان پذیر است و فضای ویژگی چنین فضایی است. در این دوره درسی قرار است در چند جلسه به مبانی هسته ها و RKHS ها و هموارسازی آنها؛ الگوریتمهای خطی در RKHS و استفادهای که در SVM ها دارند، نشاندن توزیعها در فضای RKHS و معرفی نوعی فاصله میان توزیعها بر مبنای آن و در نهایت کاربردهایی که در شبکههای مولد تخاصمی (GAN=Generative adversarial networks) دارند، بپردازیم.