| [ QuizWit ] in KIDS 글 쓴 이(By): sisyphe () 날 짜 (Date): 2001년 7월 3일 화요일 오후 03시 45분 45초 제 목(Title): Re: puking inverse 이건 제가 드리는 질문인데요, multivariate gaussian pdf가 1 p(x) = --------------------------- exp ( -1/2(x-m)'C^(-1)(x-m) ) (2Pi)^(d/2) det(C)^(1/2) 여기서 x = d차원 벡터 Pi = 3.141592.. m = mean, d차원 벡터 C = d x d covariance matrix det(C) = determinant of C 이렇게 정의 되는데, 이게 직관적으로 어떤 의미를 가지는건가요? 여기서 (x-m)'C(-1)(x-m) 을 Mahalanobis distance라고 하는데, 이게 euclidean distance와 어떠한 상관이 있나요? ================== 마지막 라인은 너무 자명해서 설명이 필요없는데요. Counter Example이 만들면 부지기수입니다. multivariate gaussian pdf는 Gauss 분포를 다차원으로 확장한걸로 간단하게 임의의 d차원 random vector가 어떤특정방향과 길이를 가질 확률을 정의해논겁니다. 가장 중요한 특징이 rotation invariant라서 X 벡터가 multivariate gaussian with mean zero and unit variance 일때 for any orthogonal matrix Q, QX역시 identical distribution을 가집니다. 이런성질을 가지는 분포를 spherical distribution이라고 하던가 isotropic distribution 이라고 해요. non-isotropic distribution의 경우 affine transformation 에 의해 isotropic distribution으로 transformation이 가능해질때 elliptical distribution이라고 합니다. Matrix variate distribution 이라는 분야에서 중요한 토픽중 하나에요. 두번째로 가장중요한 특징이 Gaussian pdf는 d차원 heat equation or diffusion equation의 principal solution입니다. principal solution 이 뭐냐면 heat equation 을 L(f(X)) = d(X) 라고 둘경우, where L is the heat operator and d is the dirac delta function. 일때 이 solution f(X) 가 바로 가우스 분포함수로 나오게됩니다. 이걸 기본으로 약간 변형된 heat equation을 푸는 테크닉을 Green's Method 라고 하고 편미방책들 보면 잘나옵니다. 또 가우스 확률함수는 fourier integral transform에서 볼수있는 kernel 입니다. 이커넬의 rotation invariant한 특성상 역시 푸리에 트랜스폼도 rotation invariant하게 나옵니다. Mahalanobis distance는 Wishat matrix입니다. 이게 Wishart distribution 을 따른다는걸 증명하는건 multivariate analysis의 기본이구요. Anderson 의 책보면 잘나올겁니다. 유클리드 거리의 일반화라고 보시면 됩니다. 코바리안스 matrix 가 identity일경우 유클리드 거리로 간단하게 됩니다. 즉 isotropic multivariate Gaussian ( covariance matrix = I) 일경우는 방향성에 preference가 없기때문에 유클리드 거리를 취해도 되지면 그러지 않을경우는 방향성이 skewed 되어있어서 그 skew성을 covaraince matrix의 inverse 를 취해서 correction을 해주는겁니다. |