Quando inicialmente aprendemos sobre o coeficiente de correlação, rr, nós nos concentramos no que ele significava, em vez de como calculá-lo, uma vez que os cálculos são grandes e, normalmente, os computadores resolvem isso para a gente.
Faremos o mesmo com o r2r^2 e nos concentraremos na interpretação de seu significado.
De certa forma, o r2r^2 mede quanto do erro de previsão é eliminado quando usamos a regressão de mínimos quadrados.

Previsão sem regressão

Usamos a regressão linear para prever yy dado algum valor de xx. Mas suponha que tivéssemos que prever um valor de yy sem um valor de xx correspondente.
Se não usarmos a regressão sobre a variável xx, nossa estimativa mais razoável vai simplesmente prever a média dos valores de yy.
Este é um exemplo no qual a reta de previsão é simplesmente a média dos dados de yy:
Observe que esta reta não parece se ajustar muito bem aos dados. Uma maneira de medir o ajuste da reta é calcular a soma dos quadrados dos resíduos - isso nos dará uma ideia geral do valor do erro de previsão de um determinado modelo.
Portanto, sem a regressão de mínimos quadrados, nossa soma dos quadrados será 41,187941{,}1879
O uso da regressão de mínimos quadrados diminuiria o valor do erro de previsão? Se sim, em quanto? Vamos ver!

Previsão com regressão

Estes são os mesmos dados com a reta de regressão de mínimos quadrados correspondente e as estatísticas resumidas:
Equaçãorrr2r^2
y^=0,5x+1,5\hat{y}=0{,}5x+1{,}50,8160{,}8160,66590{,}6659
Esta reta parece se ajustar muito bem aos dados, mas para medir o quanto melhor ela se ajusta, podemos olhar novamente a soma dos quadrados dos resíduos:
O uso da regressão de mínimos quadrados reduziu a soma dos quadrados dos resíduos de 41,187941{,}1879 para 13,762713{,}7627.
Portanto, o uso da regressão de mínimos quadrados eliminou uma quantia considerável do erro de previsão. Mas quanto?

O R² mede quanto do erro de previsão é eliminado

Sem usar a regressão, nosso modelo tinha uma soma total de quadrados de 41,187941{,}1879. O uso da regressão de mínimos quadrados reduziu isso para 13,762713{,}7627.
Assim, o total reduzido foi de 41,187913,7627=27,425241{,}1879-13{,}7627=27{,}4252.
Podemos representar esta redução como um percentual do montante original do erro de previsão:
41,187913,762741,1879=27,425241,187966,59%\dfrac{41{,}1879-13{,}7627}{41{,}1879}=\dfrac{27{,}4252}{41{,}1879}\approx66{,}59\%
Se você olhar acima novamente, verá que r2=0,6659r^2=0{,}6659.
O R² nos informa que percentual é eliminado do erro de previsão na variável yy quando usamos a regressão de mínimos quadrados sobre a variável xx.
Como resultado, r2r^2 também é chamado de coeficiente de determinação.
Muitas definições formais dizem que o r2r^2 informa que percentual da variabilidade na variável yy é considerado na regressão sobre a variável xx.
Parece bem estranho que apenas elevar rr ao quadrado resulte nesta medida. Provar esta relação entre rr e r2r^2 é bastante complexo e está além dos objetivos de um curso introdutório de estatística.
Carregando