Viana explica a descoberta da teoria da informação
Reprodução da coluna de Marcelo Viana, na Folha de S.Paulo
Na minha infância, supermercados não existiam, pelo menos onde eu morava. Na mercearia sempre tínhamos que especificar as quantidades: quantos quilos de arroz, litros de leite, metros de barbante. Lembro quando, bem mais tarde, aprendi que informação também pode ser quantificada. A descoberta de que faz sentido medir quanta informação há em um livro, um disco, ou até neste artigo, fascina-me até hoje.
A ideia remonta à publicação, em 1948, do trabalho “Uma Teoria Matemática da Informação”, do americano Claude Shannon (1916—2001), que transformou numa ciência pujante, fortemente ligada à matemática, o que até então fora um conjunto de regras empíricas, abrindo o caminho para a Era da Informação em que vivemos atualmente.
Leia também: Dia da Matemática é celebrado nesta quarta-feira (6)
Iamarino: Covid-19 definirá nova relação humanidade-natureza
IMPA abre chamada pública para selecionar bolsista PCI
Shannon graduou-se na universidade de Michigan, em 1936, com titulação dupla em matemática e engenharia. No ano seguinte, concluiu o mestrado no Instituto de Tecnologia de Massachusetts, o renomado MIT.
Na dissertação provou que circuitos elétricos que executam as operações lógicas fundamentais (“e”, “ou” e “não”) permitem realizar todos os cálculos numéricos. Essa descoberta está na base do funcionamento de todo computador.
Shannon terminou o doutorado em 1940, também no MIT, com uma tese sobre a formulação matemática da genética. Durante a Segunda Guerra Mundial, participou ativamente no esforço de guerra, particularmente em criptografia. “Uma teoria Matemática da Informação” é resultado da pesquisa que realizou e da experiência adquirida nesse período.
A ideia central da teoria de Shannon é que a quantidade de informação de um evento E depende apenas da probabilidade p(E) desse evento, e é tanto maior quanto menor for a probabilidade.
Por exemplo, em 2014, a notícia “Brasil tomou 7 a 1 da Alemanha” continha muita informação, pois esse era um evento muito improvável (entre nós: era para ter sido impossível!).
Em termos precisos, para Shannon, a quantidade de informação está dada pelo logaritmo de 1/p(E) na base 2. Assim, a quantidade de informação de um evento com probabilidade 1/2, tal como “a moeda deu cara”, é igual a 1. Essa é a unidade (uma espécie de litro, quilo ou metro) de informação que Shannon chamou bit, abreviatura de “binary digit” (dígito binário, em inglês).
Para ler o texto na íntegra acesse o site do jornal
Leia também: Dez fascinantes livros sobre matemática para a quarentena
‘Ciência básica é o chão para a aplicada crescer’, diz Aguilaniu