If you're seeing this message, it means we're having trouble loading external resources on our website.

Se você está atrás de um filtro da Web, certifique-se que os domínios *.kastatic.org e *.kasandbox.org estão desbloqueados.

Conteúdo principal

Simulação fornecendo a evidência de que (n-1) nos dá uma estimativa imparcial

Simulação feita pelo usuário tetef da KA, mostrando que dividir por (n-1) resulta em uma estimativa imparcial da variância populacional. Simulação em: http://www.khanacademy.org/cs/will-it-converge-towards-1/1167579097. Versão original criada por Sal Khan.

Quer participar da conversa?

Nenhuma postagem por enquanto.
Você entende inglês? Clique aqui para ver mais debates na versão em inglês do site da Khan Academy.

Transcrição de vídeo

RKA11C Nós temos aqui uma simulação criada pelo usuário da Khan Academy chamado Tetef, T - E - T - E - F, Que nos permite, mais uma vez, observar por que dividir por "n - 1" dá uma estimativa melhor para a variância amostral em relação à variância populacional em uma amostra não viciada. Nesta barra azul, nós podemos clicar para criar uma população. Vamos clicando aqui, de maneira aleatória, e veja que, conforme eu clico nos valores, eles vão compondo uma certa população. Ali eu tenho quantos elementos há naquela população. Estou clicando aqui randomicamente, aleatoriamente: 120, 126, 130, 140 elementos nessa população... Eu estou criando uma população. Observe que, no gráfico abaixo, eu já tenho algum parâmetro dela, que, neste caso, seria o desvio padrão. Mas observe ali que o desvio padrão está elevado ao quadrado. Lembre-se de que o desvio o padrão é a raiz quadrada da variância. Nesta população, nós temos um desvio padrão de 63,8. Esse número elevado ao quadrado é a variância populacional. O interessante aqui, na verdade, é procurar saber por que nós dividimos por "n - 1". Repare que estes números nos eixos estão elevados ao quadrado, por isso trata-se da variância. Temos aqui o desvio padrão elevado ao quadrado, nesta linha, que vai servir de referência para os cálculos que nós vamos fazer adiante. Nós podemos agora olhar para algumas amostras. Temos aqui situações para gerar amostras de diferentes tamanhos. Por exemplo, agora eu tenho uma amostra de tamanho "n = 2". E o que a simulação faz é, para cada número de elementos na amostra, calcular a variância, de acordo com aquela fórmula que nós já estudamos, porém dividindo por "n + a". Esse "a", quando é "-1", temos o "n - 1" que procuramos. E, conforme variamos aqui, neste eixo, o valor de "a", vamos ver o que acontece para cada amostra. Vamos agora gerar uma amostra para ver o que acontece. Observe ali o que apareceu. Observe nesta curva que, quando os valores de "a" são maiores, nós estamos subestimando a variância, e, com valores de "a" menores, estamos superestimando a variância. Nós podemos aqui, facilmente, gerar muitos e muitos outros exemplos para ver o que acontece com as variâncias. Observe que a curva fica sempre bastante parecida. E, olhe lá, a melhor estimativa para a variância é quando o "a" fica sempre bem perto de "-1", ou seja, quando eu divido por "n" mais "-1", que é "n - 1". Com qualquer valor menor que o "-1" para o "a", significa que eu estou superestimando a variância populacional. Por outro lado, se o "a" for maior que "-1", eu estou subestimando o valor da variância populacional. E a melhor estimativa é quando o "a" vale "-1", ou seja, quando eu divido por "n - 1". Eu posso voltar a gerar muitos outros elementos para a minha amostra, muitas outras amostras... Veja lá, eu tomo vários valores aleatoriamente da minha população, e a melhor estimativa, como você pode observar ali pelo gráfico, é sempre quando o "a" vai ficando cada vez mais perto de "-1". É a melhor estimativa para a variância amostral em relação a obter uma variância populacional ou a variância populacional. Eu posso fazer isso com muitos e muitos elementos e vou ter o melhor resultado quando o "n - 1" for o denominador. Mais um agradecimento ao Tetef por essa maneira interessante de abordar este assunto. Nos vemos no próximo vídeo. Até lá!