Como traduzir bom senso em regras para ensinar as máquinas?

O futuro da humanidade está em grande parte vinculado à forma como administramos dois recursos fundamentais: energia e informação. O avanço da tecnologia da informação é uma incógnita comparável à crise climática, tanto em termos de oportunidades, quanto de ameaças.

A evolução dos recursos de computação ajudará a resolver muitos problemas e abrir novas possibilidades. E esse progresso acontecerá por meio dos algoritmos e do avanço da inteligência artificial.

A Inteligência Artificial (IA), hoje, é usada basicamente para analisar grandes conjuntos de dados (big data), no reconhecimento de imagem e voz, tradução e solução de problemas complexos, principalmente nas áreas de finanças, tecnologia e jogos. Tudo isso com base no que chamamos de aprendizado de máquina. Essa prática usa redes de unidades de processamento lógico interconectadas que são ensinadas ou treinadas para detectar padrões no universo de dados disponíveis.

Ao longo do processo de treinamento ou aprendizado, são feitos pequenos ajustes com o objetivo de aprimorar a comunicação entre as unidades na rede, até chegar ao resultado correto. Depois de milhares ou até milhões dessas interações, o sistema passa a fornecer resultados corretos e confiáveis para os novos parâmetros. O aprendizado de máquina é um recurso poderoso.

Os algoritmos usados na tradução de idiomas, por exemplo, um dos mais simples, está longe de ser perfeito, mas já percorreu um longo caminho com o avanço tecnológico e, a cada ano, traz resultados mais assertivos. Combinados com o reconhecimento de voz da IA, esses sistemas já permitem a tradução em tempo real de texto falado.

Mas, mesmo com todos esses avanços, como ensinar bom senso às máquinas?

O problema, apontado por alguns, é que simplesmente não sabemos o que está acontecendo naquela caixa preta. Os princípios do aprendizado de máquina são claros, mas o raciocínio pelo qual o algoritmo chega às suas conclusões após o treinamento não é totalmente claro. Ocasionalmente, essas máquinas chegam a uma resposta muito peculiar que um humano dificilmente daria.

Nesse aspecto, é importante abordar uma questão que é apontada por muitos estudiosos como uma ameaça que poderia nos levar à concretização do que previu o matemático Alan Turing. Um dos pioneiros na ciência da computação e reconhecido como o criador da noção de inteligência de máquina, Turing, no artigo, “Computing machines and intelligence”, publicado em 1950, argumentava que o objetivo de fazer uma máquina que pensasse era viável e desejável. Porém,  isso teria profundas implicações para a humanidade, pois não levaria muito tempo para que a máquina superasse os humanos. E assim, ele concluiu, “podemos esperar que as máquinas assumam o controle”.

A questão é que a IA precisaria do que chamamos de bom senso, mas  simplesmente não sabemos como expressar isso em regras formais, que possam ser usadas para programar um computador. Em outras palavras, a IA pode ser capaz de fazer algumas coisas melhor do que nós, mas jamais conseguirá pensar da mesma maneira e com a mesma racionalidade que o ser humano.

À medida em que a Inteligência Artificial evolui e se torna cada vez mais poderosa, confiamos a ela decisões importantes, . Porém, podemos ter certeza de que ela não apresentará soluções que são, do nosso ponto de vista, imorais, desastrosas ou que coloquem o ser humano em perigo?