Navegar

6 de May de 2020, 12:17h

Viana explica a descoberta da teoria da informação

Foto: Zhu Xudong – 23.abr.2020/Xinhua

Reprodução da coluna de Marcelo Viana, na Folha de S.Paulo

Na minha infância, supermercados não existiam, pelo menos onde eu morava. Na mercearia sempre tínhamos que especificar as quantidades: quantos quilos de arroz, litros de leite, metros de barbante. Lembro quando, bem mais tarde, aprendi que informação também pode ser quantificada. A descoberta de que faz sentido medir quanta informação há em um livro, um disco, ou até neste artigo, fascina-me até hoje.

A ideia remonta à publicação, em 1948, do trabalho “Uma Teoria Matemática da Informação”, do americano Claude Shannon (1916—2001), que transformou numa ciência pujante, fortemente ligada à matemática, o que até então fora um conjunto de regras empíricas, abrindo o caminho para a Era da Informação em que vivemos atualmente.

Leia também: Dia da Matemática é celebrado nesta quarta-feira (6)
Iamarino: Covid-19 definirá nova relação humanidade-natureza
IMPA abre chamada pública para selecionar bolsista PCI

Shannon graduou-se na universidade de Michigan, em 1936, com titulação dupla em matemática e engenharia. No ano seguinte, concluiu o mestrado no Instituto de Tecnologia de Massachusetts, o renomado MIT.

Na dissertação provou que circuitos elétricos que executam as operações lógicas fundamentais (“e”, “ou” e “não”) permitem realizar todos os cálculos numéricos. Essa descoberta está na base do funcionamento de todo computador.

Shannon terminou o doutorado em 1940, também no MIT, com uma tese sobre a formulação matemática da genética. Durante a Segunda Guerra Mundial, participou ativamente no esforço de guerra, particularmente em criptografia. “Uma teoria Matemática da Informação” é resultado da pesquisa que realizou e da experiência adquirida nesse período.

A ideia central da teoria de Shannon é que a quantidade de informação de um evento E depende apenas da probabilidade p(E) desse evento, e é tanto maior quanto menor for a probabilidade.

Por exemplo, em 2014, a notícia “Brasil tomou 7 a 1 da Alemanha” continha muita informação, pois esse era um evento muito improvável (entre nós: era para ter sido impossível!).

Em termos precisos, para Shannon, a quantidade de informação está dada pelo logaritmo de 1/p(E) na base 2. Assim, a quantidade de informação de um evento com probabilidade 1/2, tal como “a moeda deu cara”, é igual a 1. Essa é a unidade (uma espécie de litro, quilo ou metro) de informação que Shannon chamou bit, abreviatura de “binary digit” (dígito binário, em inglês).

Para ler o texto na íntegra acesse o site do jornal

Leia também: Dez fascinantes livros sobre matemática para a quarentena
‘Ciência básica é o chão para a aplicada crescer’, diz Aguilaniu