A ética das máquinas

O Google anunciou, esta semana, a criação de um Conselho Consultivo  e Independente de Tecnologia Avançada. Conforme escreveu em seu blog o vice-presidente de assuntos institucionais, Kent Walker, o objetivo é endereçar “alguns dos maiores desafios da empresa”.

Há alguns meses, o Google já havia lançado os “Princípios da Inteligência Artificial”, para nortear o uso da tecnologia em seus projetos. Essas iniciativas surgiram na sequência de protestos contra o fornecimento de IA para um projeto militar do Departamento de Defesa dos Estados Unidos, ocorridos no ano passado.

O empresário Arie Halpern, especialista em tecnologias disruptivas, destaca: “à medida que aumenta a percepção sobre o poder de novas tecnologias como IA e machine learning, mais empresas, governos e organizações civis se voltam à discussão em torno das questões éticas”. De fato, cinco das grandes empresas de tecnologia – Amazon, Facebook, IBM, Google e Microsoft – já haviam se unido na criação da Partnership on AI, que mais tarde ganhou a adesão da Apple.

Há quase um século, o dilema homem x máquina já estava em pauta

Embora a IA esteja emergindo e ainda estejamos descobrindo novas aplicações, a discussão sobre a ética no uso da tecnologia é antiga. Em 1942, o escritor Isaac Asimov formulou as “Três Leis da Robótica”, no conto “Runaround”. Em resumo, ele dizia que os robôs devem obedecer a ordens humanas, exceto se elas ameaçarem ou prejudicarem qualquer pessoa, talvez já prenunciando o atual dilema.

Para que robôs desempenhem tarefas como dirigir, atender comandos de voz em diferentes situações e trazer resultados precisos quando pesquisamos algo, eles são programados. Por humanos. Como não é possível prever e, portanto, formular instruções para todas as situações, passaram a ser dotados da capacidade de aprendizagem. Eles fazem isso identificando padrões por meio de algoritmos. Também alimentados por humanos.

Os algoritmos respondem a situações específicas e podem até mimetizar o pensamento humano, porém não consideram princípios e valores. Reproduzem os vieses, tendências e preconceitos dos humanos que os alimentam. Eles buscam uma resposta ou solução para uma situação, não avaliam possíveis consequências.

Além disto, por questões comerciais e estratégicas, não temos como saber e avaliar o caminho que percorrem nesse autoaprendizado. “Quando um dispositivo que usa inteligência artificial causa algum dano, os seres humanos por trás dele precisam ser responsabilizados”, escreveu em um artigo Joanna Bryson, agora membro do Conselho Consultivo do Google . “A complexidade não deve ser desculpa para não ser transparente sobre como essas máquinas operam”, completou.

 

Atualização: Durou pouco! O Google já desfez o Conselho de Ética que mencionamos no texto.

https://www.bbc.com/news/technology-47825833

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *