Information Gain (= Mutual Informaion), conditional entropy, lift
Information Gain (= Mutual Informaion) * 관련해서 과거에 적었던 포스트 : Information Theory : Entropy, KL-divergence (Cross Entorpy), Mutual Information 1. 정의 : 서로 다른 두 랜덤벡터 x,y에 대한 의존도를 측정한다. * 비고 : kl - divergence 정의 - 같은 랜덤 벡터 x의 서로 다른 두 확률분포 간 거리를 측정. 2. 의미. : ..