Conteúdo principal
Curso: Computer science theory > Unidade 3
Lição 2: Teoria da informação moderna- Taxa de símbolos
- Introdução à capacidade de canal
- Exploração do espaço de uma mensagem
- Medição de informações
- Origem das correntes de Markov
- Exploração da cadeia de Markov
- Teoria matemática da comunicação
- Exploração do texto de Markov
- Entropia da informação
- Códigos de compressão
- Correção de erro
- A busca por inteligência extraterrestre
© 2024 Khan AcademyTermos de usoPolítica de privacidadeAviso de cookies
A busca por inteligência extraterrestre
A teoria da informação pode nos ajudar a falar com alienígenas? Versão original criada por Brit Cruise.
Quer participar da conversa?
- É certo afirmar que, de acordo com esta jornada, a evolução humana está diratamente ligada a busca pela informação?(2 votos)
- eu acho a parte dele chama os bebes de bebes humanos acho uma vergonha ele deve ser demitido(1 voto)
- a parte do bebe tentando falar e bem fofo kkkk(1 voto)
Transcrição de vídeo
RKA10GM Eu gostaria de saber a resposta
de uma questão muito simples: estamos sozinhos como seres conscientes
em toda essa galáxia vibrante de 400 bilhões de estrelas, uma das 10 bilhões
de outras galáxias? Parece bem improvável. A busca atual por inteligência
extraterrestre, ou SETI, começou em 1959, quando dois
físicos da Universidade de Cornell, Giuseppi Cocconi e Philip Morrison, publicaram um artigo
na revista Nature que mostra a possibilidade de usar ondas de rádio
e micro-ondas para comunicação entre estrelas. Para que isso funcione,
pesquisadores supõem que qualquer civilização inteligente terá descoberto
a habilidade de transmitir ondas de rádio. Esta suposição é baseada,
em parte, no fato dos seres humanos terem levado apenas 80 anos
para descobrir como fazer isso, depois de Alessandro Volta descobrir
as baterias e corrente elétricas. A premissa é bem simples:
podemos criar ondas de rádio enviando pulsos curtos
de corrente elétrica por fios. Essas ondas podem viajar além da atmosfera
e ir para o espaço com pouca interferência. Uma vez que essas ondas de rádio,
ou ondas eletromagnéticas são enviadas, podem ser recebidas usando antenas
e transformadas, novamente, em pulsos elétricos. Em 1960, Frank Drake conduziu a primeira busca
por sinais de rádio de outros sistemas solares. Bem parecido com sintonizar um rádio, Drake estava tentando sondar o céu a fim
de sintonizar sinais de rádio enfraquecidos que poderiam vir de outros mundos. Embora essa primeira tentativa não tenha
resultado em nenhuma descoberta notável, pesquisadores têm sondado
as estrelas desde então. Existem algumas tendências de que,
em algumas décadas, vamos pegar um sinal de alguma
civilização muitíssimo distante e exótica. Consequentemente,
tudo na Terra vai mudar. Isso é possível. O interessante sobre a busca do SETI é que, embora reivindiquemos que estamos
procurando por inteligência extraterrestre, na verdade, não podemos definir
o que é um sinal inteligente. Dessa forma, um ponto de partida
é dizer que procuramos por um sinal que a natureza não vai produzir
por qualquer mecanismo que entendemos. Surge uma pergunta importante: como podemos saber que tal sinal
está vindo de uma fonte inteligente? Na primeira reunião do SETI, em 1961, John Lilly propôs que pesquisadores
estudassem a linguagem dos golfinhos, para ajudá-los a aprender mais sobre como sinais
extraterrestres poderiam ser. Grande parte desse trabalho inicial
culminou em uma pesquisa conduzida por Laurance R. Doyle e Brenda McCowan. O trabalho de Doyle e McCowan é baseado na suposição de que se existe algum traço comum nos sistemas comunicação
de humanos e não humanos, então os sistemas de comunicação extraterrestre
também deveriam compartilhar esse traço. Eles analisaram uma longa sequência de vocalizações
de adultos, de bebês humanos e de golfinhos. No caso dos golfinhos,
foi um conjunto de assobios e cliques. Os bebês humanos aprendem a falar
por um processo de imitação vocal e lentamente acumulando um conjunto
cada vez maior de sinais sonoros. Porém, durante a fase do balbucio,
como é conhecido, os sons produzidos são mais ou menos
aleatórios e desestruturados. Para pesquisar isso, Doyle e McCowan plotaram
diferentes sinais de sons contra a sua frequência e com qual regularidade ocorrem. Depois, ordenaram símbolos em um gráfico
de acordo com a frequência, com os mais comuns ficando à esquerda
e os menos comuns à direita. Em bebês humanos
a inclinação é quase plana, já que todos os sons produzidos ocorrem
de forma bem equilibrada ou aleatória. Entretanto, à medida que as crianças
aprendem o idioma dos pais, elas limitam seu repertório de sons
para se adaptar ao modelo ao qual foram expostos. Como resultado a estrutura é
imposta aos nossos padrões de fala. Consequentemente, a inclinação do gráfico
converge para um ângulo de 45°, ou uma inclinação de -1 em um gráfico
log-log, isso é conhecido como lei de Zipf. O interessante é que a mesma inclinação
aparece em diferentes idiomas humanos. Parece ser um padrão que todos
os humanos compartilham. E ainda mais surpreendente é
que esse padrão também apareceu quando Doyle e McCowan analisaram
a comunicação não humana. Eles descobriram que os assobios
produzidos por golfinhos filhotes parecem estar distribuídos em um padrão
similar ao dos bebês humanos durante a fase do balbucio. No início os assobios dos golfinhos
são mais ou menos desestruturados, e quando atingem a fase adulta,
o gráfico converge para uma inclinação de cerca de -1, que é igual a dos humanos. Mas esse tipo de análise só considera
sinais individuais ou palavras, e não dizem nada sobre a estrutura
linguística mais profunda do sistema de comunicação
de humanos ou golfinhos. Vamos esclarecer o que queremos dizer
por estrutura mais profunda com um exemplo. Se eu selecionar aleatoriamente uma palavra
de um livro e te perguntar qual é, você não terá a menor ideia de qual será,
e terá, simplesmente, que adivinhar. Se ao invés disso eu te der uma palavra aleatória
de um livro e pedir para prever a palavra seguinte, você ainda terá que adivinhar, mas vai perceber que é, provavelmente,
mais fácil de adivinhar esta palavra. Se eu te der uma sequência de duas palavras
de um livro e te pedir para prever a terceira palavra, isso se torna ainda mais previsível. Se for dada uma sequência de três palavras,
essa tendência continua. A habilidade de adivinhar
é mais fácil. Parece que, como resultado
da estrutura do idioma, a liberdade de escolha diminui à medida que olhamos
para sequências de palavras cada vez mais longas. Intuitivamente, é por isso que podemos
terminar as frases uns dos outros. Para identificar isso, Doyle e McCowan pegaram
emprestado a medida de entropia de Claude Shannon que, como você deve lembrar,
é uma medida de surpresa. A entropia pode ser pensada
como uma quantidade de perguntas de sim ou não, ou bits necessários
para adivinhar a próxima palavra. À medida que a previsibilidade aumenta,
a informação de entropia diminui. Doyle e McCowan calcularam a entropia
para diferentes profundidades, ou ordens. Palavras isoladas
são de primeira ordem, grupos de duas palavras
são de segunda ordem, grupos de três palavras são de terceira
ordem e assim por diante. Depois, eles plotaram os valores da informação
de entropia contra esta profundidade. Para humanos adultos,
como era de se esperar, eles descobriram que a informação de entropia
diminui à medida que a profundidade aumenta, e esse é o resultado da estrutura de regras
em nossos sistemas de comunicação. Incrivelmente, Doyle e McCowan fizeram
o mesmo com a linguagem dos golfinhos e encontraram o mesmo padrão. A comunicação dos golfinhos mostra
a diminuição de informação de entropia à medida que olhamos para sequências
mais longas de sinais sonoros. Isso significa que no sistema
de comunicação dos golfinhos, há uma estrutura de regras que surge e, provavelmente, isso também permite
que os golfinhos terminem as frases uns dos outros. Contrastando isso com uma sequência
aleatória de símbolos, que tem uma linha plana neste gráfico
de informações de entropia, já que não há dependência
condicional entre os símbolos. Como esse padrão aparece em sistemas
de comunicação humanos e não humanos, Doyle e McCowan sugeriram
que essa diminuição de entropia é essencial para a transmissão
do que chamamos de conhecimento. Como Doyle disse: se pegarmos o sinal de banda
estreita com inclinação de -1 no gráfico de Zipf e a entropia de ordem de Shannon
mais elevada, acertamos em cheio. Tudo isso parte
de uma premissa simples: que alienígenas também podem
terminar as frases uns dos outros. Como posso ajudá-lo
a se comunicar conosco? Como sou capaz de falar, assimilando
uma forma de fotossíntese, tenho sido capaz de incorporar certos
processos funcionais do dr. Wyman. A morte do dr. Wyman foi necessária? Por causa do sacrifício dele,
eu posso me comunicar. Sem nem mesmo entender o idioma ou a cultura
das outras espécies humanas ou não humanas, a entropia de Claude Shannon é uma unidade
de medida que nos permite detectar a presença dessas regras estruturais, independentemente do significado. O modelo de informação de Claude Shannon nasceu
do desejo de economizar tempo pelos telégrafos. Isso leva à unidade
global de informação, o bit, com uma única diferença, pois agora é a espinha dorsal
de nossa economia de informação. As crescentes tecnologias digitais e de rede,
que impulsionam o nosso mundo moderno apontam para a força e a persistência
das ideias de Claude Shannon. O bit veio para ficar, e o estudo da teoria da informação vai
continuar a desempenhar um papel fundamental em nossas inovações
tecnológicas e sociais na Terra, e talvez mais além. Acho que mesmo havendo um argumento plausível
para poucos, devemos continuar procurando. E vou além, se há um argumento plausível de que não há ninguém
lá fora, e tendo em mente que podemos estar errados, devemos continuar procurando
porque a questão é de suma importância. Ela calibra nosso lugar no universo, ela diz quem nós somos. Por isso, vale a pena tentar encontrar
outras civilizações, aconteça o que acontecer.