쿨백-라이블러 발산은 머신러닝이든 딥러닝이든 공부를 지속해가다보면 심심치 않게 만나볼 수 있는 개념이다. 공부를 할 때마다 위키피디아를 들락날락하지 않도록 블로그에 정리해보고자 한다. Kullback-Leibler Divergence (KLD) KLD는 knowledge distillation, variational inference 등 두 개의 분포 간의 차이를 계산할 때 사용되는 measure이다. 정의 X가 이산확률변수일 경우 DKL(P||Q)=∑iP(i) logP(i)Q(i)DKL(P||Q)=∑iP(i) logP(i)Q(i) X가 연속확률변수일 경우 DKL(P||Q)=∫xp(x) logp(x)q(x) 의미 위의 정의를 풀이하자면, 어떠한 확률분포..