Conteúdo principal
Curso: Estatística Avançada > Unidade 5
Lição 5: Como analisar afastamentos da linearidade- Raciocínio para o R²
- R² ou coeficiente de determinação
- Desvio-padrão dos resíduos ou raiz do quadrado médio do desvio (RQMD)
- Como interpretar dados de regressão de computador
- Interpretação da regressão de um cálculo de computador
- Impacto da remoção de outliers em retas de regressão
- Pontos influentes na regressão
- Efeitos de pontos influentes
- Identifique pontos influentes
- Como transformar dados não lineares
- Exemplo de regressão linear usando dados transformados
- Faça uma previsão com dados transformados
© 2024 Khan AcademyTermos de usoPolítica de privacidadeAviso de cookies
Raciocínio para o R²
Quando inicialmente aprendemos sobre o coeficiente de correlação, , nós nos concentramos no que ele significava, em vez de como calculá-lo, uma vez que os cálculos são grandes e, normalmente, os computadores resolvem isso para a gente.
Faremos o mesmo com o e nos concentraremos na interpretação de seu significado.
De certa forma, o mede quanto do erro de previsão é eliminado quando usamos a regressão de mínimos quadrados.
Previsão sem regressão
Usamos a regressão linear para prever dado algum valor de . Mas suponha que tivéssemos que prever um valor de sem um valor de correspondente.
Se não usarmos a regressão sobre a variável , nossa estimativa mais razoável vai simplesmente prever a média dos valores de .
Este é um exemplo no qual a reta de previsão é simplesmente a média dos dados de :
Observe que esta reta não parece se ajustar muito bem aos dados. Uma maneira de medir o ajuste da reta é calcular a soma dos quadrados dos resíduos - isso nos dará uma ideia geral do valor do erro de previsão de um determinado modelo.
Portanto, sem a regressão de mínimos quadrados, nossa soma dos quadrados será
O uso da regressão de mínimos quadrados diminuiria o valor do erro de previsão? Se sim, em quanto? Vamos ver!
Previsão com regressão
Estes são os mesmos dados com a reta de regressão de mínimos quadrados correspondente e as estatísticas resumidas:
Equação | ||
---|---|---|
Esta reta parece se ajustar muito bem aos dados, mas para medir o quanto melhor ela se ajusta, podemos olhar novamente a soma dos quadrados dos resíduos:
O uso da regressão de mínimos quadrados reduziu a soma dos quadrados dos resíduos de para .
Portanto, o uso da regressão de mínimos quadrados eliminou uma quantia considerável do erro de previsão. Mas quanto?
O R² mede quanto do erro de previsão é eliminado
Sem usar a regressão, nosso modelo tinha uma soma total de quadrados de . O uso da regressão de mínimos quadrados reduziu isso para .
Assim, o total reduzido foi de .
Podemos representar esta redução como um percentual do montante original do erro de previsão:
Se você olhar acima novamente, verá que .
O R² nos informa que percentual é eliminado do erro de previsão na variável quando usamos a regressão de mínimos quadrados sobre a variável .
Como resultado, também é chamado de coeficiente de determinação.
Muitas definições formais dizem que o informa que percentual da variabilidade na variável é considerado na regressão sobre a variável .
Parece bem estranho que apenas elevar ao quadrado resulte nesta medida. Provar esta relação entre e é bastante complexo e está além dos objetivos de um curso introdutório de estatística.
Quer participar da conversa?
Nenhuma postagem por enquanto.