Um artigo enviesado enviesa muitos outros…

Como jornalista e pesquisadora de temas relacionados às tecnologias digitais, com foco na inteligência artificial, machine learning e afins, tenho estado atenta à maneira como esses temas vêm sendo abordados nos veículos midiáticos. Como se não bastassem os vieses embutidos nos algoritmos dos sistemas artificiais que temos produzido (os quais estendem os vieses que temos como seres humanos, vivendo em sociedade), o jornalismo (e os veículos pseudo jornalísticos…) não raro trabalham pela propagação de preconceitos, vieses e, consequentemente, pela desinformação.

Um caso que está se desenrolando agora é bem característico do que estou querendo dizer. Ele se desencadeia a partir deste artigo – Tracking historical changes in trustworthiness using machine learning analyses of facial cues in paintings – que foi publicado na prestigiada revista científica Nature. A publicação do estudo, por si só, já foi um susto para muitos pesquisadores, uma vez que a crença em características faciais como definidoras de comportamento e personalidade é considerada, hoje, comprovadamente falsa. Os autores do artigo utilizaram algoritmos para “rankear” o grau de confiabilidade de rostos de pessoas em pinturas históricas, e depois fizeram correlações bastante controversas. No resumo do artigo, seus autores dizem:

“Our results show that trustworthiness in portraits increased over the period 1500–2000 paralleling the decline of interpersonal violence and the rise of democratic values observed in Western Europe” – em tradução livre: “Nossos resultados mostram que a confiabilidade em retratos cresceu ao longo do período de 1500 a 2000, de maneira paralela ao declínio da violência interpessoal e da ascensão de valores democráticos observados na Europa Ocidental”).

Um dos problemas do estudo, apontados pelo pesquisador Rory Spanton em texto no Medium (A Top Scientific Journal Just Published a Racist Algorithm – How a flawed face recognition AI sparked worldwide outrage), é que os pesquisadores-autores investigaram a percepção humana da confiabilidade, não a confiabilidade em si. Apesar de os autores não fazerem inferências sobre o real comportamento humano diretamente de seu algoritmo, eles não deixam isso claro, ressalta Spanton. De fato, o artigo não enfatiza que está em busca de uma percepção.

Segundo Spanton, a omissão dos autores é um grave erro por criar uma definição confusa de confiabilidade e abrir espaço para se associe as classes sociais mais baixas a uma menor taxa de confiabilidade. Ele também ressalta que os autores não se preocupam em mencionar ou questionar quaisquer vieses raciais no algoritmo e parecem desavisados quanto às possíveis implicações de introduzir tal algoritmo na literatura.

O contexto em que vivemos é de uso real de algoritmos que usam rankings de confiabilidade para julgar cidadãos criminalmente, como Spanton destaca (veja neste post outras informaÇões sobre isso, especialmente o vídeo em que a matemática Cathy O’Neal fala sobre os preconceitos e vieses que os algoritmos trazem); ele afirma que faltou aos autores do artigos contextualizar as coisas nesse cenário, caracterizado por múltiplas implicações éticas, em vez de focar em questões artísticas e históricas. A falta de cuidado é o típico erro que pode contribuir para solidificar as bases sobre as quais são feitas inferências perigosas quanto a grupos menos privilegiados.

A estética não é estática

Outro ponto extremamente interessante que o pesquisador Rory Spanton destaca em seu texto no medium é que a pintura, a arte, não são algo estático; pinturas não são “fósseis cognitivos” (como disse Neville Mogford, especializado em arte, que está fazendo sua pesquisa pós-doutoral na Universidade de Birmingham), pois a arte é influenciada por mudanças nas atitudes culturais. Por isso, qual seria o sentido de dizer que as pessoas de antigamente eram menos confiáveis do que as de hoje? Spanton afirma que:

“[p]essoas há muito tempo poderiam ser tão confiáveis quanto são hoje. Mas podem ter sido pintadas assim devido ao contexto histórico e cultural ou às suas próprias preferências”

E diz ainda que “o artigo também assume que as características faciais que as pessoas consideram confiáveis se mantiveram constantes desde os anos de 1500”.

Em complementação ao que Spanton coloca sobre isso, eu diria que a percepção é uma via de mão dupla; nós percebemos as coisas enquanto as coisas agem sobre nós, nos moldam, e por isso a percepção e a nossa ação no mundo são indissociáveis. Constantemente, nós ajustamos as nossas percepções, porque vamos agindo e modificando aquilo que está em torno de nós. Não há nada esperando que o percebamos, estaticamente; nem mesmo um quadro é estático, e quando traz o retrato de alguém a maneira como vamos “ler” aquele rosto dependerá de inúmeros fatores que surgem da nossa interação com ele.

Caminhos de pesquisa questionáveis

Além dos problemas advindos de uma pesquisa envolvendo algoritmos que pode contribuir para aumentar o preconceito na IA, além da questão recorrente dos problemas possivelmente advindos de uma pesquisa baseada em percepções, Spanton aponta para o problema da generalização: como inferir a confiabilidade de uma população inteira a partir de uma amostra de indivíduos, provavelmente abastados, que foram retratados em pinturas?

Soma-se ainda o fato de os autores do estudo fazerem correlações espúrias, e… é como se todos os possíveis problemas que uma pesquisa pode trazer estivessem todos reunidos nesse artigo!

O que, afinal, isso tudo tem a ver com jornalismo?

Muita gente nao sabe, mas recai sobre pesquisadores acadêmicos uma imensa pressão por produtividade. Ou seja, é preciso publicar uma média altíssima de artigos por ano. Isso é resultado de uma estrutura que preza mais pela produtividade e menos pela qualidade. Ainda assim, concordo com Spanton quando ele diz que cabe aos pesquisadores a resistência à má ciência. Talvez tenha faltado, a esse artigo, uma revisão por pares (peer-review) mais cuidadosa? Também para quem não sabe, artigos científicos sempre precisam passar por uma revisão anônima antes de saírem numa publicação conceituada.

Em cima dos jornalistas também existe, sempre, uma enorme pressão pela publicação, pelo “furo” de reportagem (aquela notícia que o veículo consegue dar antes de todos os outros). Nessa busca insana pela novidade e pelo pioneirismo, não é raro ver textos muito ruins, cheios de erros e baseados em conclusões apressadas. Textos baseados em pesquisas científicas frequentemente trazem diversos problemas – de apuração, de compreensão da pesquisa, de interpretação de dados etc. Se forem fundamentados em uma pesquisa com muitas lacunas, a tendência é a de um terrível efeito em cascata.

Veja no tabloide THE SUN um exemplo desse efeito: PRETTY LITTLE LIARS – We reveal which celeb faces you can (and can’t) trust – from Kim Kardashian & Holly Willoughby to Meghan Markle

Artigos enviesados sobre a IA têm pipocado nos veículos midiáticos. O discurso é predominantemente positivo; as críticas quase nunca aparecem. Um exemplo desse viés puramente positivo pode ser encontrado no artigo a seguir, publicado recentemente na Forbes – Five Tech Innovations That Could Change Healthcare This Decade

Ok, é a Forbes, focada em negócios; mas, se as revistas, jornais e sites em geral vão dar espaço para colunistas de tech que são também executivos de companhias de tech, elas precisam dar espaço a colunistas filósofos, antropólogos, sociólogos, educadores, profissionais da saúde etc na mesma proporção, e ainda fazer reportagens sobre IA ouvindo vários lados, ou a visão que chegará por meio desses veículos seguirá com apenas um viés, e um viés positivo-näive que chega a irritar.

Claro, há diversas implicações positivas trazidas pela IA. Mas, é importante questionar, pensar um pouquinho a respeito. Veja estes trechos do artigo do colunista da Forbes, apresentado como “longevity investor and visionary with a mission to extend healthy lifespans of one billion people”:

“In the future, we might bypass hospitals when we are sick. Instead, we’ll head to the neighborhood Walmart, see our primary care physician, get our prescription and pick up some tissues and cough drops on our way out” (“No futuro, poderemos evitar hospitais quando estivermos doentes. Em vez disso, iremos para o Walmart da vizinhança, veremos nosso médico de atenção primária, obteremos nossa receita e recolheremos alguns lenços de papel e pastilhas para tosse ao sair”).

O autor foi irônico aqui? Pior que não. E isso foi depois deste parágrafo:

“One giant retailer with a strong focus on digital healthcare is Amazon, which recently purchased PillPack to make it easier to receive medication. The partnership sorts your pills by dosage, delivers them to you monthly and provides clear drug therapy instructions” (“Um grande varejista com forte foco em saúde digital é a Amazon, que comprou recentemente o PillPack para facilitar o recebimento de medicamentos. A parceria separa seus comprimidos por dosagem, entrega-os mensalmente e fornece instruções claras de terapia medicamentosa”).

Fica a dica: pensar criticamente sobre as coisas que têm sido publicadas sobre IA faz bem à saúde.