Navegar

3 de outubro de 2019, 10:52h

Qual é a capacidade de aprendizado de uma máquina?

Imagem: Freepik

Reprodução do blog do IMPA Ciência & Matemática, de O Globo, coordenado por Claudio Landim

André Carlos Ponce de Leon Ferreira de Carvalho – Vice-Diretor do Instituto de Ciências Matemáticas e de Computação da Universidade de São Paulo (ICMC-USP)

Como já mencionei neste blog, uma das principais áreas da Inteligência Artificial (IA) é a de Aprendizado de Máquina (AM), que estuda como uma máquina pode aprender alguma tarefa a partir de um conjunto de dados. A máquina pode ser qualquer dispositivo físico capaz de receber, manipular, armazenar e enviar dados, como, por exemplo, seu celular. Mas o que a máquina pode aprender? Qual sua capacidade de aprendizado? Estudos recentes de um grupo de matemáticos que trabalham com AM apontam que essa capacidade de aprendizado está relacionada a um paradoxo lógico, conhecido como hipótese continua, descoberto pelo matemático austriaco Kurt Gödel, há quase 100 anos atrás [1].

Um paradoxo é uma afirmação lógica que aparentemente contradiz a ela mesma. Um exemplo é a frase “toda regra tem exceção”, “devo ser cruel, para ser gentil”. Dois dramaturgos irlandeses são famosos por criar paradoxos: George Bernard Shaw e Oscar Wilde. Nós brasileiros também gostamos de criar paradoxos, como esse, atribuído ao escritor Millor Fernandes: “Os paradoxos entre a técnica e a realidade são flagrantes e indestrutíveis: continuamos novos nas fotos antigas e velhos nas fotos novas”.

Bem, voltemos a matemática e a IA. Neste paradoxo, Kurt Gödel mostrou que, usando a linguagem matemática padrão, a capacidade de aprendizado não pode ser provada nem como verdadeira nem como falsa.

Em 1870, um dos pais da teoria dos conjuntos, o matemático russo Georg Cantor, que viveu na Alemanha grande parte de sua vida, afirmou que nem todos os conjuntos infinitos são criados iguais, que o conjunto de todos os valores inteiros (numerável) é menor que o conjunto de todos os valores reais (contínuos). Georg Cantor também afirmou que não existe um conjunto maior que o de inteiros e menor que o de reais, que é a hipótese do contínuo.

Em 1940, o matemático americano Paul Cohen demonstrou que, utilizando os axiomas da teoria dos conjuntos, a hipótese do contínuo não pode ser provada nem como verdadeira nem como falsa. Um axioma é uma afirmação que assumimos como verdadeira, sendo usado como ponto de partida para uma argumentação.

Os estudos de Godel e Cohen sobre a hipótese do contínuo implicam que existem universos matemáticos paralelos. Em um deles, a hipótese do contínuo concorda com os axiomas da teoria dos conjuntos, sendo portanto verdadeira. No outro, ela contradiz os aximoas, sendo portanto falsa. Mas o que isso tem a ver com AM?

Em [2], os autores definem a capacidade de aprender como a habilidade de fazer predições sobre um grande conjunto de dados (subconjunto de dados de teste) a partir de um pequeno conjunto de dados (subconjunto de dados de treinamento). Esse seleção do subconjunto de treinamento, chamado pelos autores de compressão, deve resumir, representar, as características mais relevantes do conjunto de dados original.

A ligação como paradoxo de hipótese do contínuo de Cantor é que existem infinitas formas de escolher o conjunto de treinamento. Se a hipótese do contínuo for verdadeira, é possível encontrar o modelo preditivo correto, capaz de apresentar um bom desempenho preditivo para dados ainda não vistos. Ou seja, uma boa capacidade de generalização. Se a hipótese for falsa, nenhum conjunto de treinamento finito será suficiente.

Para ler o texto na íntegra acesse o site do jornal