If you're seeing this message, it means we're having trouble loading external resources on our website.

Se você está atrás de um filtro da Web, certifique-se que os domínios *.kastatic.org e *.kasandbox.org estão desbloqueados.

Conteúdo principal

Origem das correntes de Markov

Introdução às cadeias de Markov. Versão original criada por Brit Cruise.

Quer participar da conversa?

Você entende inglês? Clique aqui para ver mais debates na versão em inglês do site da Khan Academy.

Transcrição de vídeo

RKA4JL - Quando observamos o mundo natural, muitos de nós percebemos uma bela dicotomia. Não há duas coisas que são sempre exatamente iguais, mas todas elas parecem seguir alguma forma subjacente. Platão acreditava que a verdadeira forma do universo estava escondida de nós. Então, por meio da observação do mundo natural, nós apenas poderíamos adquirir conhecimento aproximado dele, pois eram padrões escondidos e a forma pura era acessível somente através do raciocínio abstrato, da filosofia e da matemática. Por exemplo, o círculo: ele descreve que a distância da circunferência até o centro é sempre igual. No entanto, nós nunca encontraremos uma manifestação material de um círculo perfeito ou uma linha perfeitamente reta. Embora interessado, Platão especulava que depois de incontável número de anos, o universo encontraria um estado ideal, retornando à sua forma perfeita. Esse foco platônico em formas puramente abstratas continuou popular por séculos e foi até o século XVI, quando as pessoas tentaram entender as confusas variações do mundo real e aplicar a matemática para destrinchar padrões subjacentes. Bernoulli refinou a ideia de expectativa. Ele era focado em métodos de estimar com precisão a probabilidade desconhecida em alguns eventos baseados no número de vezes que o evento ocorre em tentativas independentes. Ele utilizou um exemplo simples: suponha que sem seu conhecimento, 3 mil pedras brancas e 2 mil pedras pretas estão escondidas em uma urna. Para determinar a razão entre branco versus preto por experimento, você tire uma pedra atrás da outra, com reposição. E anota quantas vezes uma pedra branca é tirada em contraste com uma preta. Ele fez isso para provar que o valor esperado de observações brancas versus pretas iria convergir para uma relação real, conforme o número de tentativas aumentasse. Isso ficou conhecido como a lei fraca dos grandes números. Ele concluiu dizendo: "se observações de todos os eventos continuassem infinitamente, seria notado que tudo no mundo é governado por razões e uma lei constante de mudanças". Essa ideia foi rapidamente estendida à medida que percebiam que não só as coisas convergem para uma média esperada, mas a probabilidade da variação em relação às médias também segue uma distribuição familiar. Um grande exemplo disso é a máquina de feijão de Francis Galton. Imagine uma colisão como um evento independente, como cara ou coroa. Depois de dez colisões ou eventos, o feijão cai em um balde que representa a razão entre a deflexão da esquerda versus a direita, ou cara versus coroa. Essa curvatura geral, conhecida como distribuição binomial, aparenta ser uma forma ideal conforme continua aparecendo em toda a parte ou em qualquer momento que você observa a variação de um número grande de ensaios aleatórios. Parece que a média do destino desses eventos é de alguma forma predeterminada. Isso é conhecido hoje em dia como teorema do limite central. Mas algumas pessoas consideram que isso é uma ideia filosófica perigosa. Pavel Nekrassóv, teólogo e matemático, era um forte proponente da doutrina religiosa do livre-arbítrio. Ele não gostava da ideia de termos esse destino predeterminado e estatístico. Ele fez uma afirmação famosa de que a independência é a condição necessária para a lei dos grandes números, já que a independência descreve esses exemplos bobos utilizando as feijões e dados, onde o resultado de um evento anterior não afeta a probabilidade da ocorrência de um evento futuro. No entanto, como podemos notar, a maioria das coisas no mundo físico é claramente independente do resultado anterior: uma chance de fogo ou sol, ou até mesmo a expectativa de vida. Quando a probabilidade de algum evento depende ou é condicional de um evento anterior, como nós dizemos, eles são eventos dependentes ou variáveis dependentes. Essa afirmação irritou outro matemático russo, Andrei Markov, o qual cultivou publicamente uma animosidade perante Nekrassóv. Ele chegou a dizer em uma carta que "essa circunstância me põe a explicar em uma série de artigos que a lei dos números grandes pode ser aplicada a variáveis dependentes". Utilizando uma construção da qual ele se gabou que Nekrassóv não podia nem mesmo sonhar a respeito, Markov aplicou aos resultados de Bernoulli as variáveis dependentes, utilizando uma construção engenhosa. Imagine uma moeda virando que não seja independente, porém, dependente do resultado anterior. Então, isso teria uma memória de curto prazo de um evento. Isso pode ser visualizado utilizando uma máquina hipotética que contenha dois copos, os quais nós chamamos de estados. Em um estado nós temos uma mistura de 50 por 50 de pedras brancas e pretas, enquanto no outro estado nós temos mais pretas do que brancas. Um copo nós podemos chamar de estado zero. Ele representa a ocorrência anterior de uma preta. O outro estado nós podemos chamar de um. Ele representa o branco tendo ocorrido anteriormente. Para ligar nossa máquina, nós simplesmente começamos em um estado aleatório e fazemos uma seleção. Então, nós vamos para o estado zero ou um, dependendo daquele evento. Baseado no resultado daquela seleção, nós colocamos um "zero" se for preta ou "um" se for branca. Nessa máquina de dois estados, nós podemos identificar quatro possíveis transições. Se nós estamos no estado zero e ocorre preto, nós voltamos àquele mesmo estado e selecionamos outra vez. Se uma branca é selecionada, nós pulamos para o estado um, o qual também pode voltar para ele mesmo ou pular de volta para o estado zero se é um preto escolhido. A probabilidade de uma seleção branco versus preto é claramente não independente aqui, já que ela depende do resultado anterior. Porém, Markov provou que enquanto todos os estados na máquina são alcançáveis, quando você liga essas máquinas em uma sequência, elas atingem o equilíbrio, isto é, não é importante onde você começa, uma vez que iniciada a sequência, os números de vezes que você visita cada estado convergem para uma específica razão ou uma probabilidade. Esse simples exemplo rejeita a afirmação de Nekrássov de que somente eventos independentes podem convergir em situações previsíveis. Mas o conceito de modelar as sequência de eventos aleatórios utilizando esses estados e as transições entre esses estados ficou conhecido como Cadeia de Markov. Uma das primeiras e mais famosas aplicações da cadeia de Markov foi publicada por Claude Shannon.