If you're seeing this message, it means we're having trouble loading external resources on our website.

Se você está atrás de um filtro da Web, certifique-se que os domínios *.kastatic.org e *.kasandbox.org estão desbloqueados.

Conteúdo principal

O que é a teoria da informação?

Uma ampla introdução a essa área de estudo. Versão original criada por Brit Cruise.

Quer participar da conversa?

Você entende inglês? Clique aqui para ver mais debates na versão em inglês do site da Khan Academy.

Transcrição de vídeo

RKA13C Imagine que Alice tem uma ideia e quer compartilhá-la. Existem tantas formas de se compartilhar uma ideia... Ela poderia desenhar uma figura, fazer uma gravura, escrever uma canção... Enviar um telegrama... Ou um e-mail! Mas como essas coisas se diferem? Ou, então, por que são a mesma coisa? Esta é a história da partícula fundamental de todas as formas de comunicação. Começa com uma habilidade especial dificilmente levada em consideração: a linguagem. Todas as linguagens permitem a você pegar um pensamento ou uma imagem e quebrá-las em uma série de pedaços conceituais. Esses pedaços são externalizados, usando-se uma série de sinais ou símbolos. Os seres humanos se expressam usando uma variedade de sons e ações, como o cacarejar das aves, ou a dança das abelhas, e as máquinas emitindo uma corrente dançante de vibrações elétricas. Até nossos corpos são feitos de acordo com instruções armazenadas em livros microscópicos conhecidos como DNA. Todos são formatos diferentes de uma mesma coisa: informação. Simplificando, informação é o que permite a uma mente influenciar outra. É baseada na ideia de comunicação como forma de seleção. Não importa a forma, a informação pode ser medida usando-se uma unidade básica da mesma maneira que podemos medir a massa de objetos diferentes usando medidas padrão, como quilograma ou libra. E isso nos permite medir e comparar com precisão o peso das pedras, da água, da aveia, usando uma balança. A informação também pode ser medida e comparada usando-se uma medida chamada "entropia". Imagine uma balança de informação. Sabemos, de forma intuitiva, que uma única página de um livro qualquer tem menos informação do que o livro todo. Podemos escrever exatamente a quantidade de informação usando uma unidade chamada "bit", uma medida de surpresa. Então não importa o quanto Alice queira comunicar uma mensagem específica, hieróglifos, música, códigos de computação... Cada um deles conteria a mesma quantidade de bits em diferentes densidades. E 1 bit está conectado a uma ideia bem simples. Uma pergunta cuja resposta seria sim ou não. Pense nisso como a linguagem de moedas. Então como a informação é medida? A informação tem um limite de velocidade, uma densidade máxima? A teoria da informação tem a empolgante resposta a essas questões. É uma ideia que está se desenvolvendo há mais de 3 mil anos. Mas, antes que possamos entender isso, temos que voltar um pouco e explorar, talvez, a invenção mais poderosa da humanidade: o alfabeto. Para isso, temos que retornar à época das cavernas.