Conteúdo principal
Curso: Computer science theory > Unidade 3
Lição 2: Teoria da informação moderna- Taxa de símbolos
- Introdução à capacidade de canal
- Exploração do espaço de uma mensagem
- Medição de informações
- Origem das correntes de Markov
- Exploração da cadeia de Markov
- Teoria matemática da comunicação
- Exploração do texto de Markov
- Entropia da informação
- Códigos de compressão
- Correção de erro
- A busca por inteligência extraterrestre
© 2024 Khan AcademyTermos de usoPolítica de privacidadeAviso de cookies
Teoria matemática da comunicação
Claude Shannon demonstrou como gerar textos "parecidos com o inglês" utilizando cadeias de Markov. Versão original criada por Brit Cruise.
Quer participar da conversa?
- Então, quanto mais surgirem informações sucessivamente, mais haverá ruídos dificultando a fidelidade da mensagem, surgindo então a entropia? poderia me explicar esta parte.(2 votos)
Transcrição de vídeo
RKA12 Shannon acaba de terminar
suas teorias sobre criptografia, e, portanto, sabe como a comunicação humana é uma
mistura de aleatoriedade e dependências estatísticas. As letras de nossas mensagens
eram obviamente dependentes das letras anteriores
para formar sequências. Em 1949, ele publicou um artigo revolucionário,
uma teoria matemática da comunicação, no qual ela usa a cadeia de Markov para mostrar
como podemos representar a comunicação. E ele começa com um
exemplo bem simples. Imagine encontrar um pedaço de texto escrito
em um alfabeto que contém apenas A, B e C. Você não sabe nada sobre essa nova língua,
mas notou que os "A" costumam vir em pares, o que não acontece com os B e C. Então, ele mostra que é
possível projetar uma máquina que cria textos semelhantes
usando a cadeia de Markov. A primeira versão é bem simples. Seleciona um símbolo A, B e C por vez
de forma aleatória para formar a sequência. No entanto, observe que a sequência
não se parece com a original. É possível fazer um pouco melhor
na segunda versão da máquina, que escolhe um símbolo por vez, mas leva em conta a probabilidade de
cada um aparecer na sequência original. Está um pouco melhor (os dados estão mais
parecidos), mas ainda não pegou bem o jeito. O próximo passo é crucial. A terceira versão leva em conta
cada par de letras que pode ocorrer. Neste caso, precisamos de três estados. O primeiro representa todos os pares que começam
com A, o segundo todos os que começam com B, e o terceiro estado representa todos
os pares que começam com C. Note que o copo A tem muitos pares AA, o que faz sentido, pois a probabilidade de
pares AA é maior na mensagem original. Podemos gerar uma sequência usando essa terceira
versão do modelo, com as seguintes instruções: comece por qualquer copo,
pegue um par e anote a primeira letra. E, agora, mova-o para o copo
correspondente à segunda letra. Então, pegue um novo par do copo
e repita o processo indefinidamente. Observe que a sequência se torna
bem similar à mensagem original porque este modelo está capturando as
dependências condicionais entre as letras. Se quisermos fazer ainda melhor,
podemos ir para a quarta versão, que leva em conta o grupo
de três letras (ou trigramas). Neste caso, seriam
necessários nove estados. A seguir, Shannon aplica esta
mesma lógica em textos em inglês, usando estatísticas conhecidas
para letras, pares, trigramas etc. Ele mostra a mesma evolução da primeira para
a segunda, para a terceira e quarta versões. Então, ele tenta o mesmo usando
palavras em vez de letras. E escreve: a semelhança para o inglês de verdade
aumenta notoriamente a cada versão. De fato, essas máquinas
produzem texto sem significado, embora contenham aproximadamente a mesma
estrutura estatística encontrada em textos reais. Shannon, então, define uma
medida quantitativa da informação à medida que ele percebe que o montante
de informação em algumas mensagens está associado à complexidade do modelo
capaz de gerar sequências semelhantes. O que nos leva ao
seu conceito de entropia.