O desafio de provar que somos humanos e não robôs

Nos últimos anos, fomos aos poucos sendo cada vez mais submetidos a diferentes testes para provar nossa condição humana ao navegar na internet. O botão, inicialmente simples, direto e, às vezes, até simpático, afirmando “não sou um robô” foi dando lugar a novas ferramentas com o objetivo de detectar máquinas. Grades com imagens de sinais de trânsito, faixas de pedestres, hidrantes, barcos, bicicletas e o que mais a imaginação mandar, muitas vezes em meio a outros objetos, passaram a desafiar não nossa capacidade de identificá-los, mas nossa paciência.

O teste batizado CAPTCHA, acrônimo de Teste de Turing Público Completamente Automatizado para distinguir Computadores e Humanos (ou Completely Automated Public Turing test to tell Computers and Humans Apart, em inglês), se tornou uma constante. No início dos anos 2000, imagens de texto ou letras eram suficientes para derrubar a maioria dos spambots.

Mas com o passar dos anos, depois que o Google comprou o programa de pesquisadores da Carnegie Mellon e o usou para digitalizar o Google Books, os textos tinham que ser cada vez mais distorcidos para impedirem o reconhecimento por programas de reconhecimento óptico de caracteres – programas que, inadvertidamente, os humanos submetidos ao teste CAPTCHAs ajudavam a melhorar.

Com uso de aprendizado de máquina, o sistema passou a identificar uma quantidade maior de letras distorcidas e incluir palavras aleatórias na caixa de testes. A evolução do aprendizado de máquina na identificação básica de texto, imagem e reconhecimento de voz aumentou a complexidade na distinção entre humanos e máquinas. Há quem diga que, na verdade, os algoritmos provavelmente são até melhores. À medida que o sistema se tornou-se mais vulnerável aos bots, foi necessário variar o formato das autenticações para continuar com o controle de acesso.

Com o uso de inteligência artificial e aprendizado de máquina, qualquer teste acaba tendo eficácia temporária, o que logo ficou claro para os especialistas. Há alguns anos, os algoritmos de aprendizado de máquina do Google registraram 99,8% de acertos na solução de testes CAPTCHAs, enquanto entre humanos os acertos foram de 33%.

Errar é humano

Com as máquinas evoluindo rapidamente, novas versões dos testes se sucederam, com validações adicionais, como as várias versões do ReCaptcha , que analisa os dados e o comportamento do usuário permitindo que alguns humanos avancem com um clique no botão “Não sou um robô” e outros tenham que se submeter a outros testes. Há casos mais recentes, cujo processo de validação não requer interação do usuário. Nestes, o próprio sistema realiza diversos testes automáticos de CAPTCHA fornecendo uma pontuação para cada acesso. Pontuações baixas indicam que se trata de um possível bots e, consequentemente, há mais ações de verificação.

Chegamos ao ponto em que, para tornar o acesso mais difícil para o software, ele também se torna mais difícil para muitas pessoas.  Pesquisadores experimentaram usar a classificação de imagens de pessoas por expressão facial, gênero e etnia ou testes baseados em rimas infantis comuns na região em que o usuário estivesse. Há CAPTCHAs semelhantes a jogos, testes que exigem que os usuários girem objetos em certos ângulos ou movam peças do quebra-cabeça para a posição correta e várias outras ideias criativas, como o uso de câmeras ou dispositivos de realidade aumentada numa prova interativa da humanidade.

O problema com muitos desses testes não é necessariamente que os bots sejam muito inteligentes ou alguns humanos sejam pouco inteligentes, mas, sim, que a humanidade é extremamente diversa em linguagem, cultura, formação e experiências. Talvez a solução seja simples. Quem sabe esteja na criação de um teste CAPTCHA baseado em erros comuns cometidos pelas pessoas ao clicar em botões, identificar imagens ou analisar textos. Afinal errar é humano.