Skip to article frontmatterSkip to article content
Site not loading correctly?

This may be due to an incorrect BASE_URL configuration. See the MyST Documentation for reference.

1. 통계적 관점: “패턴이 닮았는가?” (공분산)

Q's Laboratory

사용자님의 지적은 매우 날카롭습니다. 수식적으로만 보면 단순히 "변수 값과 잔차를 곱해서 더한 것"에 불과한데, 왜 이것이 "변수가 잔차를 설명하는 능력"을 나타내는지 직관적으로 와닿지 않을 수 있습니다.

이것이 단순한 곱셈 이상의 의미를 갖는 이유는 통계적(공분산) 관점과 기하학적(내적) 관점, 그리고 최적화(기울기) 관점에서 명확하게 설명할 수 있습니다.

1. 통계적 관점: “패턴이 닮았는가?” (공분산)

벡터의 내적 x^T r = \sum x_i r_i는 통계학에서 **공분산(Covariance)**과 본질적으로 같습니다.

2. 기하학적 관점: “방향이 같은가?” (투영)

벡터 공간에서 x^T r은 두 벡터 사이의 각도를 반영합니다.

3. 최적화 관점: “에러를 줄이는 급경사면” (Gradient)

가장 직접적인 물리적 의미는 **목적함수의 미분값(Gradient)**이라는 점입니다. 우리가 최소화하려는 잔차제곱합 RSS(β)=12(yXβ)T(yXβ)RSS(\beta) = \frac{1}{2}(y - X\beta)^T (y - X\beta)를 어떤 계수 \beta_j로 미분해보면 정확히 그 값이 나옵니다.

요약하자면: 사용자님의 말씀대로 계산 자체는 단순한 곱의 합이지만, 그 결과값은 **“현재 남은 오차 덩어리(r) 속에 변수(x)와 닮은 패턴이 얼마나 많이 숨어있는가?”**를 수치화한 것이기 때문에, 이를 “설명력” 또는 "잔차와의 상관관계"라고 해석하는 것입니다.