Microinteligência Artificial: algoritmos mais inteligentes e mais verdes

Redes neurais de aprendizado profundo consomem uma enorme quantidade de energia. Para reduzir a pegada de carbono sem comprometer a precisão dos algoritmos, pesquisadores estão desenvolvendo modelos de microinteligência artificial. Uma nova abordagem que pode reduzir custos e tornar mais acessível o processamento de linguagem natural.

A inteligência artificial tem proporcionado uma grande evolução nos últimos anos. E o chamado aprendizado profundo, ou deep learning, é uma das áreas responsáveis pela alta precisão de sistemas de inteligência artificial. Ele imita o funcionamento do cérebro humano no processamento de dados e na criação de padrões para tomar decisões.

Graças a ele, também chamado aprendizado neural artificial, os algoritmos conseguem escanear imagens e identificar tumores, dirigir carros autônomos e fazer traduções, praticamente, em qualquer idioma. Com ele, inauguramos uma nova geração de redes capazes de analisar grandes bases de dados.

Mas para obter esses avanços e melhorar a precisão dos resultados, são necessários recursos computacionais ou grandes equipamentos que consomem grande quantidade de energia. São modelos de algoritmos cujos custos para treiná-los e desenvolvê-los, tanto financeiramente quanto em termos de gasto de eletricidade e tempo, são enormes. Ou seja, a maior inteligência ou precisão dos algoritmos aumenta também a pegada de carbono, ameaçando o futuro do planeta.

Consumo de energia igual ao de uma casa

Um estudo feito por pesquisadores da University of Massachusetts Amherst concluiu que o treinamento de um único algoritmo pode emitir cinco vezes mais dióxido de carbono do que um carro ou o equivalente a cerca de 300 voos de ida e volta entre Nova York e São Francisco.

O modelo de linguagem pré-treinado (PLM) desenvolvido pelo Google, batizado BERT, é um algoritmo que consegue entender não apenas as palavras, mas o contexto, fazendo sugestões para completar as frases de um texto. Mas, de acordo com o MIT Technology Review, treiná-lo para isso consumiu uma quantidade de eletricidade suficiente para abastecer uma casa por 50 dias.

Diante do desafio global para reduzir as emissões de gases de efeito estufa, os especialistas em IA estão empenhados no desenvolvimento da microinteligência artificial (Tiny AI, em inglês), cujo objetivo é reduzir o tamanho dos algoritmos e, consequentemente, sua pegada de carbono. Para isso, eles desenvolveram um método que reduz o tamanho dos algoritmos ou a quantidade de dados que eles precisam para executar suas funções, mantendo os altos níveis de precisão.

Além de reduzir custos e gastos energéticos, algoritmos menores podem executar tarefas sem utilizar a nuvem. Com eles, serviços como assistentes de voz e câmeras não precisam transferir dados entre dos dispositivos para a nuvem. Assim, trazem melhorias também para a privacidade e a segurança dos dados.

Tendo em vista o grande crescimento IA, é fundamental considerar os efeitos ambientais da evolução e avaliar até onde devemos ir na busca por maior precisão. Não faz sentido avançar tecnologicamente e, ao mesmo tempo, aumentar a ameaça ao nosso planeta e à sobrevivência das gerações futuras.

À medida em que a avançamos na adoção de sistemas sofisticados de IA, precisamos garantir que as novas soluções sejam também mais ecológicas, contribuindo para a sobrevivência e o futuro de todos nós.