Conteúdo principal
Estatística Avançada
Curso: Estatística Avançada > Unidade 5
Lição 5: Como analisar afastamentos da linearidade- Raciocínio para o R²
- R² ou coeficiente de determinação
- Desvio-padrão dos resíduos ou raiz do quadrado médio do desvio (RQMD)
- Como interpretar dados de regressão de computador
- Interpretação da regressão de um cálculo de computador
- Impacto da remoção de outliers em retas de regressão
- Pontos influentes na regressão
- Efeitos de pontos influentes
- Identifique pontos influentes
- Como transformar dados não lineares
- Exemplo de regressão linear usando dados transformados
- Faça uma previsão com dados transformados
© 2023 Khan AcademyTermos de usoPolítica de privacidadeAviso de cookies
Raciocínio para o R²
Quando inicialmente aprendemos sobre o coeficiente de correlação, r, nós nos concentramos no que ele significava, em vez de como calculá-lo, uma vez que os cálculos são grandes e, normalmente, os computadores resolvem isso para a gente.
Faremos o mesmo com o r, squared e nos concentraremos na interpretação de seu significado.
De certa forma, o r, squared mede quanto do erro de previsão é eliminado quando usamos a regressão de mínimos quadrados.
Previsão sem regressão
Usamos a regressão linear para prever y dado algum valor de x. Mas suponha que tivéssemos que prever um valor de y sem um valor de x correspondente.
Se não usarmos a regressão sobre a variável x, nossa estimativa mais razoável vai simplesmente prever a média dos valores de y.
Este é um exemplo no qual a reta de previsão é simplesmente a média dos dados de y:
Observe que esta reta não parece se ajustar muito bem aos dados. Uma maneira de medir o ajuste da reta é calcular a soma dos quadrados dos resíduos - isso nos dará uma ideia geral do valor do erro de previsão de um determinado modelo.
Portanto, sem a regressão de mínimos quadrados, nossa soma dos quadrados será 41, comma, 1879
O uso da regressão de mínimos quadrados diminuiria o valor do erro de previsão? Se sim, em quanto? Vamos ver!
Previsão com regressão
Estes são os mesmos dados com a reta de regressão de mínimos quadrados correspondente e as estatísticas resumidas:
Equação | r | r, squared |
---|---|---|
y, with, hat, on top, equals, 0, comma, 5, x, plus, 1, comma, 5 | 0, comma, 816 | 0, comma, 6659 |
Esta reta parece se ajustar muito bem aos dados, mas para medir o quanto melhor ela se ajusta, podemos olhar novamente a soma dos quadrados dos resíduos:
O uso da regressão de mínimos quadrados reduziu a soma dos quadrados dos resíduos de 41, comma, 1879 para 13, comma, 7627.
Portanto, o uso da regressão de mínimos quadrados eliminou uma quantia considerável do erro de previsão. Mas quanto?
O R² mede quanto do erro de previsão é eliminado
Sem usar a regressão, nosso modelo tinha uma soma total de quadrados de 41, comma, 1879. O uso da regressão de mínimos quadrados reduziu isso para 13, comma, 7627.
Assim, o total reduzido foi de 41, comma, 1879, minus, 13, comma, 7627, equals, 27, comma, 4252.
Podemos representar esta redução como um percentual do montante original do erro de previsão:
Se você olhar acima novamente, verá que r, squared, equals, 0, comma, 6659.
O R² nos informa que percentual é eliminado do erro de previsão na variável y quando usamos a regressão de mínimos quadrados sobre a variável x.
Como resultado, r, squared também é chamado de coeficiente de determinação.
Muitas definições formais dizem que o r, squared informa que percentual da variabilidade na variável y é considerado na regressão sobre a variável x.
Parece bem estranho que apenas elevar r ao quadrado resulte nesta medida. Provar esta relação entre r e r, squared é bastante complexo e está além dos objetivos de um curso introdutório de estatística.
Quer participar da conversa?
Nenhuma postagem por enquanto.