Inteligência Artificial: uma face obscura

A euforia em torno da evolução tecnológica no campo da inteligência artificial não pode ser uma empolgação ingênua. A face obscura do brilhantismo dessa (r)evolução existe, e demanda a nossa atenção. Os sistemas de inteligência artificial, afinal, são feitos por seres humanos, e seres humanos cometem erros, inúmeros erros, que são reproduzidos pela I.A. às toneladas, em poderosas escalas não-humanas. A solução para treinar bem tais máquinas que “pensam” começa, justamente, no pensamento. Pensamento em torno da inteligência artificial, pensamento em torno de aonde queremos chegar com as tecnologias cognitivas, pensamento acerca de quem nos torna(re)mos com tais evoluções tecnológicas.

Existem pessoas interessantíssimas pensando em temas como esses, e os aplicando em seu trabalho. Será que, então, o desenvolvimento das tecnologias cognitivas pode gerar uma evolução na própria sociedade, levando-nos a rever certos conceitos e preconceitos? Essa seria, sem dúvida, uma excelente consequência do crescimento tecnológico, talvez o melhor cenário possível.

Uma das pessoas cujo trabalho é movido por essas preocupações é australiana e se chama Kate Crawford; talvez você não consiga saber muito mais do que isso sobre ela – sua conta no LinkedIn Não tem foto, apesar de reportagem no El País trazer uma imagem dela – porque Crawford se preocupa com a disseminação de seus dados na rede e o que pode ser feito deles. Nós também deveríamos nos preocupar.

Não apenas a privacidade está no centro das atenções de Crawford, mas os vieses da sociedade que vêm sendo reproduzidos pela inteligência artificial. De que modo isso acontece? Ao treinarmos máquinas, transferimos a elas todo o nosso preconceito, impresso nos padrões que atribuímos aos sistemas para que se tornem “inteligentes”. “Esses padrões têm um viés, reproduzem estereótipos, e o sistema de inteligência artificial os toma como verdade única. Estamos injetando neles as nossas limitações, nossa forma de marginalizar”, disse Crawford ao El País.

Esse é um risco apontado por Andy Clark, filósofo da mente e pesquisador da cognição cujo trabalho venho acompanhando. Com um porém: Clark destaca que preconceitos assim começam a ser formados já em nossos cérebros, que, conforme ele explica em seu livro “Surfing Uncertainty” (2016), funcionam a partir de inúmeras camadas de neurônios responsáveis por fazer previsões nas quais nos baseamos para viver e agir no mundo. Por exemplo, uma pessoa que vive em uma cidade violenta como o Rio de Janeiro, acostumada a ouvir notícias sobre balas perdias, assaltos à mão armada e tiroteios poderia se assustar ao ver algo que se parecesse com uma arma por baixo da blusa de certa pessoa, mesmo que se tratasse de um objeto qualquer; e as consequências de um erro assim podem ser, literalmente, fatais. Mais sobre a visão de Clark acerca desse tema pode ser lido neste outro post que fiz sobre o assunto, há alguns meses.

Vale ler a entrevista com Kate Crawford no El País e dar uma olhada no site do AI Now Institute, fundado por ela.

Imagem do post: Lux Interaction @ Unsplash

 

Leave a Reply

Your email address will not be published. Required fields are marked *