Inteligência Artificial: uma face obscura

A euforia em torno da evolução tecnológica no campo da inteligência artificial não pode ser uma empolgação ingênua. A face obscura do brilhantismo dessa (r)evolução existe, e demanda a nossa atenção. Os sistemas de inteligência artificial, afinal, são feitos por seres humanos, e seres humanos cometem erros, inúmeros erros, que são reproduzidos pela I.A. às toneladas, em poderosas escalas não-humanas. A solução para treinar bem tais máquinas que “pensam” começa, justamente, no pensamento. Pensamento em torno da inteligência artificial, pensamento em torno de aonde queremos chegar com as tecnologias cognitivas, pensamento acerca de quem nos torna(re)mos com tais evoluções tecnológicas.

Existem pessoas interessantíssimas pensando em temas como esses, e os aplicando em seu trabalho. Será que, então, o desenvolvimento das tecnologias cognitivas pode gerar uma evolução na própria sociedade, levando-nos a rever certos conceitos e preconceitos? Essa seria, sem dúvida, uma excelente consequência do crescimento tecnológico, talvez o melhor cenário possível.

Uma das pessoas cujo trabalho é movido por essas preocupações é australiana e se chama Kate Crawford; talvez você não consiga saber muito mais do que isso sobre ela – sua conta no LinkedIn Não tem foto, apesar de reportagem no El País trazer uma imagem dela – porque Crawford se preocupa com a disseminação de seus dados na rede e o que pode ser feito deles. Nós também deveríamos nos preocupar.

Não apenas a privacidade está no centro das atenções de Crawford, mas os vieses da sociedade que vêm sendo reproduzidos pela inteligência artificial. De que modo isso acontece? Ao treinarmos máquinas, transferimos a elas todo o nosso preconceito, impresso nos padrões que atribuímos aos sistemas para que se tornem “inteligentes”. “Esses padrões têm um viés, reproduzem estereótipos, e o sistema de inteligência artificial os toma como verdade única. Estamos injetando neles as nossas limitações, nossa forma de marginalizar”, disse Crawford ao El País.

Esse é um risco apontado por Andy Clark, filósofo da mente e pesquisador da cognição cujo trabalho venho acompanhando. Com um porém: Clark destaca que preconceitos assim começam a ser formados já em nossos cérebros, que, conforme ele explica em seu livro “Surfing Uncertainty” (2016), funcionam a partir de inúmeras camadas de neurônios responsáveis por fazer previsões nas quais nos baseamos para viver e agir no mundo. Por exemplo, uma pessoa que vive em uma cidade violenta como o Rio de Janeiro, acostumada a ouvir notícias sobre balas perdias, assaltos à mão armada e tiroteios poderia se assustar ao ver algo que se parecesse com uma arma por baixo da blusa de certa pessoa, mesmo que se tratasse de um objeto qualquer; e as consequências de um erro assim podem ser, literalmente, fatais. Mais sobre a visão de Clark acerca desse tema pode ser lido neste outro post que fiz sobre o assunto, há alguns meses.

Vale ler a entrevista com Kate Crawford no El País e dar uma olhada no site do AI Now Institute, fundado por ela.

Imagem do post: Lux Interaction @ Unsplash

 

Os museus e a inteligência artificial

Recentemente, tive o prazer de entrevistar profissionais do Museu do Amanhã e da Pinacoteca de São Paulo, além de um especialista da IBM, para escrever sobre o uso da inteligência artificial nesses dois museus. Trata-se de um recurso múltiplo, capaz de aproximar o público das exposições e envolver os visitantes em uma experiência diferente.

Há muitas incertezas no cenário do uso da I.A., seja em museus ou em qualquer contexto. Mas não há dúvidas de que a tecnologia abre vários caminhos novos para que o público explore formas inovadoras de se relacionar com as exposições nesses espaços de uma maneira mais ativa.

As entrevistas resultaram em uma matéria publicada no site Porvir.

Leia a matéria 

Foto do post: Guilherme Leporace/Museu do Amanhã

Amor… artificial?

Imagem: https://cdn2.hubspot.net/

O uso da internet para encontrar um amor não é recente. Todos conhecem – e muitos usam – os sites de relacionamentos, os apps como o Tinder e tantos outros.

Reportagem recente do Daily Mail traz a previsão de que quatro em cinco pessoas solteiras irão procurar por um amor na internet até 2050. Além disso, a reportagem destaca que deverá haver um aumento na idade média de quem buscará por parceiros pela Web – o que parece natural, devido ao fato de que estamos vivendo cada vez mais (temos que cuidar da humanidade para continuarmos assim, no entanto…!).

O curioso é que também até 2050, prevê o pesquisador britânico David Levy, autor de “Amor e Sexo com Robôs”, teremos a possibilidade de nos casar legalmente com robôs (!!!).

Levy acredita que relacionamentos de humanos com robôs serão uma realidade porque até lá a nossa relação com as máquinas já estará bastante natural…

Pode até ser.

Porém… há muitas questões aí, é claro.

Mas vou falar de apenas uma: quem pesquisa inteligência artificial e robótica e também está ligado às questões filosóficas provavelmente conhece o hard problem da filosofia (da humanidade?!): o da consciência.

A ciência ainda não conseguiu concluir como e por que temos consciência.

Consequentemente, também não há previsão para que robôs tenham consciência.

Então, por mais que uma máquina seja capaz de reproduzir o cérebro humano com perfeição, lhe faltará algo. Esse “algo”, que tem a ver com a nossa percepção, ainda envolve bastante mistério.

E aí, talvez caiba a pergunta: você namoraria alguém, melhor dizendo, um ser sem consciência?

Neste link do Guardian há uma boa reflexão sobre que tipo de relacionamento as sex-robots poderiam substituir…

Imagem: Michael Prewett @ Unsplash