Um artigo enviesado enviesa muitos outros…

Como jornalista e pesquisadora de temas relacionados às tecnologias digitais, com foco na inteligência artificial, machine learning e afins, tenho estado atenta à maneira como esses temas vêm sendo abordados nos veículos midiáticos. Como se não bastassem os vieses embutidos nos algoritmos dos sistemas artificiais que temos produzido (os quais estendem os vieses que temos como seres humanos, vivendo em sociedade), o jornalismo (e os veículos pseudo jornalísticos…) não raro trabalham pela propagação de preconceitos, vieses e, consequentemente, pela desinformação.

Um caso que está se desenrolando agora é bem característico do que estou querendo dizer. Ele se desencadeia a partir deste artigo – Tracking historical changes in trustworthiness using machine learning analyses of facial cues in paintings – que foi publicado na prestigiada revista científica Nature. A publicação do estudo, por si só, já foi um susto para muitos pesquisadores, uma vez que a crença em características faciais como definidoras de comportamento e personalidade é considerada, hoje, comprovadamente falsa. Os autores do artigo utilizaram algoritmos para “rankear” o grau de confiabilidade de rostos de pessoas em pinturas históricas, e depois fizeram correlações bastante controversas. No resumo do artigo, seus autores dizem:

“Our results show that trustworthiness in portraits increased over the period 1500–2000 paralleling the decline of interpersonal violence and the rise of democratic values observed in Western Europe” – em tradução livre: “Nossos resultados mostram que a confiabilidade em retratos cresceu ao longo do período de 1500 a 2000, de maneira paralela ao declínio da violência interpessoal e da ascensão de valores democráticos observados na Europa Ocidental”).

Um dos problemas do estudo, apontados pelo pesquisador Rory Spanton em texto no Medium (A Top Scientific Journal Just Published a Racist Algorithm – How a flawed face recognition AI sparked worldwide outrage), é que os pesquisadores-autores investigaram a percepção humana da confiabilidade, não a confiabilidade em si. Apesar de os autores não fazerem inferências sobre o real comportamento humano diretamente de seu algoritmo, eles não deixam isso claro, ressalta Spanton. De fato, o artigo não enfatiza que está em busca de uma percepção.

Segundo Spanton, a omissão dos autores é um grave erro por criar uma definição confusa de confiabilidade e abrir espaço para se associe as classes sociais mais baixas a uma menor taxa de confiabilidade. Ele também ressalta que os autores não se preocupam em mencionar ou questionar quaisquer vieses raciais no algoritmo e parecem desavisados quanto às possíveis implicações de introduzir tal algoritmo na literatura.

O contexto em que vivemos é de uso real de algoritmos que usam rankings de confiabilidade para julgar cidadãos criminalmente, como Spanton destaca (veja neste post outras informaÇões sobre isso, especialmente o vídeo em que a matemática Cathy O’Neal fala sobre os preconceitos e vieses que os algoritmos trazem); ele afirma que faltou aos autores do artigos contextualizar as coisas nesse cenário, caracterizado por múltiplas implicações éticas, em vez de focar em questões artísticas e históricas. A falta de cuidado é o típico erro que pode contribuir para solidificar as bases sobre as quais são feitas inferências perigosas quanto a grupos menos privilegiados.

A estética não é estática

Outro ponto extremamente interessante que o pesquisador Rory Spanton destaca em seu texto no medium é que a pintura, a arte, não são algo estático; pinturas não são “fósseis cognitivos” (como disse Neville Mogford, especializado em arte, que está fazendo sua pesquisa pós-doutoral na Universidade de Birmingham), pois a arte é influenciada por mudanças nas atitudes culturais. Por isso, qual seria o sentido de dizer que as pessoas de antigamente eram menos confiáveis do que as de hoje? Spanton afirma que:

“[p]essoas há muito tempo poderiam ser tão confiáveis quanto são hoje. Mas podem ter sido pintadas assim devido ao contexto histórico e cultural ou às suas próprias preferências”

E diz ainda que “o artigo também assume que as características faciais que as pessoas consideram confiáveis se mantiveram constantes desde os anos de 1500”.

Em complementação ao que Spanton coloca sobre isso, eu diria que a percepção é uma via de mão dupla; nós percebemos as coisas enquanto as coisas agem sobre nós, nos moldam, e por isso a percepção e a nossa ação no mundo são indissociáveis. Constantemente, nós ajustamos as nossas percepções, porque vamos agindo e modificando aquilo que está em torno de nós. Não há nada esperando que o percebamos, estaticamente; nem mesmo um quadro é estático, e quando traz o retrato de alguém a maneira como vamos “ler” aquele rosto dependerá de inúmeros fatores que surgem da nossa interação com ele.

Caminhos de pesquisa questionáveis

Além dos problemas advindos de uma pesquisa envolvendo algoritmos que pode contribuir para aumentar o preconceito na IA, além da questão recorrente dos problemas possivelmente advindos de uma pesquisa baseada em percepções, Spanton aponta para o problema da generalização: como inferir a confiabilidade de uma população inteira a partir de uma amostra de indivíduos, provavelmente abastados, que foram retratados em pinturas?

Soma-se ainda o fato de os autores do estudo fazerem correlações espúrias, e… é como se todos os possíveis problemas que uma pesquisa pode trazer estivessem todos reunidos nesse artigo!

O que, afinal, isso tudo tem a ver com jornalismo?

Muita gente nao sabe, mas recai sobre pesquisadores acadêmicos uma imensa pressão por produtividade. Ou seja, é preciso publicar uma média altíssima de artigos por ano. Isso é resultado de uma estrutura que preza mais pela produtividade e menos pela qualidade. Ainda assim, concordo com Spanton quando ele diz que cabe aos pesquisadores a resistência à má ciência. Talvez tenha faltado, a esse artigo, uma revisão por pares (peer-review) mais cuidadosa? Também para quem não sabe, artigos científicos sempre precisam passar por uma revisão anônima antes de saírem numa publicação conceituada.

Em cima dos jornalistas também existe, sempre, uma enorme pressão pela publicação, pelo “furo” de reportagem (aquela notícia que o veículo consegue dar antes de todos os outros). Nessa busca insana pela novidade e pelo pioneirismo, não é raro ver textos muito ruins, cheios de erros e baseados em conclusões apressadas. Textos baseados em pesquisas científicas frequentemente trazem diversos problemas – de apuração, de compreensão da pesquisa, de interpretação de dados etc. Se forem fundamentados em uma pesquisa com muitas lacunas, a tendência é a de um terrível efeito em cascata.

Veja no tabloide THE SUN um exemplo desse efeito: PRETTY LITTLE LIARS – We reveal which celeb faces you can (and can’t) trust – from Kim Kardashian & Holly Willoughby to Meghan Markle

Artigos enviesados sobre a IA têm pipocado nos veículos midiáticos. O discurso é predominantemente positivo; as críticas quase nunca aparecem. Um exemplo desse viés puramente positivo pode ser encontrado no artigo a seguir, publicado recentemente na Forbes – Five Tech Innovations That Could Change Healthcare This Decade

Ok, é a Forbes, focada em negócios; mas, se as revistas, jornais e sites em geral vão dar espaço para colunistas de tech que são também executivos de companhias de tech, elas precisam dar espaço a colunistas filósofos, antropólogos, sociólogos, educadores, profissionais da saúde etc na mesma proporção, e ainda fazer reportagens sobre IA ouvindo vários lados, ou a visão que chegará por meio desses veículos seguirá com apenas um viés, e um viés positivo-näive que chega a irritar.

Claro, há diversas implicações positivas trazidas pela IA. Mas, é importante questionar, pensar um pouquinho a respeito. Veja estes trechos do artigo do colunista da Forbes, apresentado como “longevity investor and visionary with a mission to extend healthy lifespans of one billion people”:

“In the future, we might bypass hospitals when we are sick. Instead, we’ll head to the neighborhood Walmart, see our primary care physician, get our prescription and pick up some tissues and cough drops on our way out” (“No futuro, poderemos evitar hospitais quando estivermos doentes. Em vez disso, iremos para o Walmart da vizinhança, veremos nosso médico de atenção primária, obteremos nossa receita e recolheremos alguns lenços de papel e pastilhas para tosse ao sair”).

O autor foi irônico aqui? Pior que não. E isso foi depois deste parágrafo:

“One giant retailer with a strong focus on digital healthcare is Amazon, which recently purchased PillPack to make it easier to receive medication. The partnership sorts your pills by dosage, delivers them to you monthly and provides clear drug therapy instructions” (“Um grande varejista com forte foco em saúde digital é a Amazon, que comprou recentemente o PillPack para facilitar o recebimento de medicamentos. A parceria separa seus comprimidos por dosagem, entrega-os mensalmente e fornece instruções claras de terapia medicamentosa”).

Fica a dica: pensar criticamente sobre as coisas que têm sido publicadas sobre IA faz bem à saúde.


Participei da live da PUC-Rio sobre inteligência artificial

Participei de uma das entrevistas ao vivo da série que a TV PUC-Rio criou no intuito de desenvolver temas que se relacionem de alguma maneira com a COVID. Esta teve a ver com inteligência artificial e internet das coisas. Ao lado de dois professores da PUC-Rio, comentei sobre a minha pesquisa em educação e IA sob o viés da filosofia e da educação. O debate pode ser assistido no link a seguir.

Palestra para a Escola Superior de Educação João de Deus, de Lisboa

Em 4 de maio de 2020, realizei, ao lado do professor Eduardo Santos, uma palestra intitulada IMPACTOS DA DISTÂNCIA NA EDUCAÇÃO – O que o eLearning nos diz sobre afetividade, tecnologias transparentes e outros desafios. A palestra foi realizada a convite da Escola Superior de Educação João de Deus, que fica em Lisboa, pela plataforma ZOOM, com a presença de mais de cem participantes. Foi uma oportunidade excelente de debatermos alguns assuntos essenciais relacionados ao ensino e à aprendizagem online, impulsionados, mas não limitados, pela pandemia de coronavírus.

Disponibilizo, a seguir, os vídeos da palestra – a qual, inicialmente prevista para uma duração e uma hora, acabou chegando a quase quatro, por conta do debate que se estabeleceu!

Agradecimentos especiais à Danielle Germano, minha editora de vídeos feríssima, e à Lili, pela ajuda com o canal do YouTube.

Parte 1

Parte 2

Parte 3

Parte 4

Impactos da distância na educação: o que o eLearning nos diz sobre afetividade, tecnologias transparentes e outros desafios

Palestra live stream dia 2 de maio

Nesta palestra, Eduardo Santos e Camila Leporace vão conversar sobre os desafios e oportunidades que as tecnologias educativas a distância nos proporcionam, sobretudo num tempo em que a distância ainda promete perdurar. Em redor do tema indutor, vão dialogar ao correr do pensamento a partir de perguntas específicas a serem enviadas pelos potenciais participantes, e de uma “word cloud”. As perguntas e sugestões deverão ser enviadas até uma semana antes da realização da palestra para o e-mail de contato.

INSCREVA-SE ATÉ 30 DE ABRIL!

Informações:

Impactos da distância na educação: o que o eLearning nos diz sobre afetividade, tecnologias transparentes e outros desafios – Palestra online com Eduardo Santos (E-Minds Lab/Universidade de Coimbra) e Camila Leporace (E-Minds Lab/PUC-Rio).

Organização: Escola Superior de Educação João de Deus, Lisboa & E-Minds Lab, IPCDHS, Universidade de Coimbra

Open web access (grátis): 2 maio 2020, 11h Brasil/15h Portugal (45 min. duração)

Contatos, informações e inscrições: emindslab@gmail.com (Ao se inscrever, opcionalmente envie sugestões de questões que gostariam de ver debatidas na conversa!)


Plataforma Zoom (instruções de acesso brevemente aos inscritos, por e-mail)





Pontos de Interrogação em IA, machine learning e cognição humana – Parte 1

Estou entrando no meu segundo ano de doutorado e agora estou focada em dois dos tópicos da minha pesquisa: 1) Estudar fenomenologia e pós-fenomenologia; 2) Estudar machine learning.

A minha pesquisa de doutorado é em filosofia da educação/filosofia da tecnologia, já que a minha inquietação é com as tecnologias digitais no contexto da educação. Tomo como base, porém, um referencial teórico menos comum nessa área que é o dos 4Es da cognição – um conjunto de teses e argumentos filosóficos que vêm sendo desenvolvido a muitas mãos por diversos pesquisadores que buscam entender como a mente humana funciona. Esses pesquisadores trabalham diversos tópicos relacionados à atividade cognitiva humana, como a percepção, a memória, a aprendizagem, a questão das representações, entre outros, levantando importantes questões ainda não resolvidas acerca desses elementos. Uma introdução bastante didática aos 4Es encontra-se no livro “A Mente Humana para Além do Cérebro”, que lancei em Portugal com outros vários pesquisadores em novembro de 2019, link para o PDF aqui.

Neste post, vou focar no segundo tópico de meus estudos atuais, o machine learning.

Uma pesquisa sempre parte de perguntas, já que nós, pesquisadores, desejamos ir em busca de respostas para alguma coisa. No caso da minha pesquisa de doutorado, ainda estou trabalhando para formular minhas perguntas, mas, a partir das inquietações que venho apresentando, posso dizer que a pergunta mais ampla seria como a inteligência artificial pode contribuir para a educação. Porém, essa indagação precisa ser lida de um modo mais amplo do que o da simples e imediata aplicação; não quero perguntar como a IA pode ajudar a educação partindo do pressuposto de que já ajuda (muito menos de que concentra todas as soluções), e que então precisamos entender como aplicá-la em sala de aula, mas um passo anterior, digamos assim. Como é que, entendendo a inteligência artificial e os questionamentos que ela suscita, nós podemos pensar sobre aprendizagem & tecnologias digitais? Quais as questões despertadas no âmbito da IA que, revelando aspectos da cognição humana, podem contribuir para pensarmos a educação, vista aqui de maneira mais ampla do que a sala de aula; a educação como aprendizagem de um modo geral, um estar-no-mundo baseado em um processo contínuo de aprendizagem?

Para ir em busca da compreensão de tais questões, cuja fundamentação é filosófica, neste momento estou em busca de compreender os desafios que impulsionam os pesquisadores da IA. O que eles querem encontrar? O que pretendem? O que sentem que falta nas pesquisas deles para que cheguem aonde desejam? Aonde eles desejam chegar?

Preciso, também, entender quais os cruzamentos que poderiam ser estabelecidos entre os questionamentos dos pesquisadores da IA e os questionamentos filosóficos para a tecnologia – uma vez que o aporte teórico que escolhi é aquele relacionado às abordagens cognitivas atuais, estou fazendo uma jornada rumo à fenomenologia, que trata de aspectos essenciais da percepção humana, do nosso estar no mundo, da forma como percebemos as coisas e agimos a partir de tais percepções; a fenomenologia é capaz de estabelecer um contraponto especial com a IA por vários motivos, entre eles por ir fundo nas questões do corpo, defendendo um estar no mundo corporificado que leva em conta as nossas características orgânicas de um modo muito particular e com muitas possíveis aplicações. Em breve farei um post sobre fenomenologia e um sobre pós-fenomenologia, a qual é bastante voltada para as questões específicas da relação humana com a tecnologia.

Em busca de questionamentos que marcam o campo da IA, buscando ampliar aqueles que já conheço superficialmente, tenho lido artigos e livros e recentemente ingressei num curso online da University of London disponível no Coursera que tem bastante material sobre o assunto – indicações de livros, links e vídeos. Foi como conheci o nome do engenheiro e pesquisador da IA Pedro Domingos, que neste vídeo (desculpem, é no site da IBM, que não permite embedar o vídeo aqui) resume um dos problemas que impulsionam a IA, hoje.

O vídeo diz o seguinte (segue a transcrição completa):

People often ask me – what’s the relationship between AI and machine learning and big data? Machine learning is the subfield of AI that deals with getting computers to learn. So you can think of AI as the planet that we’re going to, and machine learning as the rocket that will get us there, and big data as the fuel for that rocket.

There are many examples of AI and machine learning at work in the world today, that touch people’s everyday lives, but they aren’t even aware of it. For example, every time you do a web search, when Netflix recommends a movie, when Facebook selects posts, when Amazon recommends a book, it’s machine learning that’s doing that. Then there are people who apply machine learning and AI in things like robotics, and vision, and natural language processing, or medicine, or oceanography, or social science, you name it.

We’ve gotten very far in AI in the first 50 years. There’s a million miles more to go. So we’re going to need a lot of compute power that is specialized for things like machine learning. I think Intel has something very important to contribute to all of this which is at the end of the day, it all starts with the hardware.

Intel is in the leading position to bring us the hardware and the architectures to try to foster this open community that we really do need to make progress.

We’re actually now for the first time in history at the point where you could say you can have a supercomputer that is about as powerful as the human brain. So the thing that is really holding us back is that we don’t understand well enough how, for example, learning works. If we were able to devise a learning algorithm that is truly as good as the one in the human brain, this would be one of the greatest revolutions in history. And it could happen any day at this point. At this point this is a problem that if we could solve it we solve all other problems. If I come up with a better machine learning algorithm, that algorithm will be applied in business, in finance, in biology, in medicine across the board.

As partes em itálico na transcrição são marcações minhas. Vou falar sobre elas no segundo post que escrevi sobre isso, sigam-me se ficaram curiosos 😉

Imagem do post: Clarisse Croset @ Unsplash

Leia o próximo post:

Pontos de Interrogação em IA, machine learning e cognição humana – Parte 2

A Mente Humana para Além do Cérebro

Lançamento do nosso livro aconteceu em Coimbra em novembro

Estive em Coimbra, Portugal, para o Congresso Bem-Estar, Saúde, Cognição & Desenvolvimento, que aconteceu a partir de uma parceria entre o Instituto de Psicologia Cognitiva, Desenvolvimento Humano e Social da Universidade de Coimbra e a Fundação Beatriz Santos nos dias 28 a 30 de novembro.

Na ocasião, apresentei uma comunicação intitulada ” Uma Reflexão sobre a Inteligência Artificial para Além da Mente Representacional”, além do pôster “A Mente na Inteligência Artificial”. Foram realizadas diversas palestras interessantíssimas e me senti muito privilegiada de estar ao lado de pesquisadores tão feras. Pude conversar com muitos deles e isso me ajudou a pensar em diversos aspectos essenciais para a minha pesquisa de doutorado.

No Congresso aconteceu, ainda, o lançamento do livro A MENTE HUMANA PARA ALÉM DO CÉREBRO – PERSPECTIVAS A PARTIR DOS 4Es DA COGNIÇÃO, escrito a muitas mãos. Sou uma das organizadoras e autoras da obra, ao lado dos professores Eduardo Santos e Ralph Bannell e da pesquisadora Elsa Rodrigues. Mais sete autores colaboraram. A capa foi feita por um artista incrível de Portugal chamado Seixas Peixoto. O livro resulta do trabalho que temos realizado no E-Minds Lab, um grupo de estudos e pesquisas da Universidade de Coimbra do qual faço parte há cerca de dois anos. E está disponível em PDF neste link.

Foi lançado também o livro BRINCAR: DO CONCEITO ÀS PRÁTICAS, dos professores Ana Cristina Almeida e Eduardo Santos.

Que venham muitos projetos mais em 2020. É trabalhando que a gente resiste às intempéries deste nosso país e do mundo. Avante! FELIZ ANO NOVO A TODOS!

II Workshop sobre Enativismos

Estou participando do comitê de organização do II Workshop Enativismos, que acontecerá na PUC-Rio dias 13 e 14 de novembro. Além do workshop, haverá mesas-redondas e apresentações de trabalhos de mestrandos e doutorandos.

Enativismos são abordagens de estudo da mente humana e, consequentemente, da cognição, que enfatizam a participação da ação do corpo no ambiente. Ou seja, são abordagens que pensam muito além do cérebro quando se trata de perceber o mundo e aprender!

O tema pode ser novo para muita gente, principalmente no Brasil, mas é fascinante. A partir de tais debates, essencialmente filosóficos, conseguimos identificar implicações para estudos ligados aos campos da educação, psicologia, saúde, ciência da computação, inteligência artificial, tecnologias assistivas, tecnologias educacionais e muitos outros.

Para ministrar o workshop, convidamos o professor Juan Camilo Espejo-Serna, da Universidad de La Sabana, na Colômbia. Para saber mais sobre o workshop, clique aqui.

No dia 13, após o workshop, acontece a palestra de abertura com esse mesmo professor, com o tema “Computação radicalmente enativa“. Veja a descrição abaixo.

Além do workshop e da palestra, o evento contará com mesas -redondas ministradas pelos pesquisadores Ralph Ings Bannell (meu orientador de doutorado); Carlos Mario Márquez Sosa e Laura Machado Nascimento. Aqui tem informações sobre eles.

As inscrições precisam ser feitas antes do evento e são gratuitas. O formulário para fazer é este aqui

Se você quiser saber mais sobre o tema desse evento, entendendo já alguma coisa ou não; se ficou curioso(a) ou algo assim, este blog é para isso. Não se acanhe, pergunte. Nos vemos dias 13 e 14!

Palestra do dia 13:

Computação radicalmente enativa

Prof. Dr. Juan Camilo Espejo-Serna

Universidad de la Sabana, Colombia

November 13, 2019

Abordagens anti-representacionais nas ciências cognitivas, como o Enativismo Radical (Hutto and Myin 2013, 2017), são tipicamente tomadas como envolvendo a rejeição ao computacionalismo. Parte da razão parece ser a própria rejeição da representação, pois sem essa noção não há necessidade, ou mesmo lugar, para a noção de computação. Mas essa última noção tem um papel crucial em inúmeras explanações da cognição que fazem uso, por exemplo, de modelos computacionais para a mente; assim, eliminar a discussão sobre computação deixa o Enativismo em déficit. 

Apesar de o espírito do Enativismo Radical ser revolucionário, eu acredito que não haja necessidade de eliminar a computação. Nessa exposição, eu proponho uma visão radicalmente enativa de computação que não faz uso de representações. A ideia é que os modos dinâmicos e em loop através dos quais sujeitos interagem com seus ambientes são computações. Em um slogan: enação é computação. Para fazer sentido disso, explicarei o modo pelo qual uma dada interação com o ambiente é um processo computacional ao especificar a função sendo realizada. O núcleo do argumento dependerá de explicar como é possível especificar uma função sem mesmo um sentido mínimo de conteúdo representacional.


Materialidades é tema de seminário na PUC-Rio dia 16

Se você é de qualquer área de atuação, seja um pesquisador ou não, e tem curiosidade quanto às relações humanas com os mais variados artefatos materiais que nos cercam, esse encontro que acontecerá na PUC-Rio dia 16 de outubro, quarta agora, te interessa.

Explorações em Materialidades” discutirá temas tão diversos, mas com alguma coisa em comum, quanto máscaras, sangue, dinheiro e cabelo. Os debates seguirão três eixos: Natureza e Cultura, Mente, Self e Cognição, Material e o Simbólico.

A organização é da prof. Mylene Mizrahi e do prof. Ralph Bannell (departamento de Educação). Localização: PUC (Gávea), Auditório Padre Anchieta. Horário: das 9h às 19h. Gratuito. Mais informações: https://www.facebook.com/events/1147261502130639/

Primeira vez apresentando pôster em um evento acadêmico

Para quem não está familiarizado com a vida acadêmica e suas convenções, existe uma modalidade de apresentação em congressos e afins que é o pôster. O pesquisador produz um pôster contendo informações sobre o seu projeto de pesquisa e, se aprovado pela comissão do evento, expõe seu pôster na ocasião para que os visitantes leiam o que está escrito e esclareçam dúvidas.

Pela primeira vez, eu apresentei um pôster em um evento, e foi logo em um de alto gabarito, a reunião anual do INCog, o Grupo de Pesquisa Interdisciplinar em Neurociências e Cognição da PUC-Rio.

Foi uma experiência bastante interessante. Pessoas que visitaram meu pôster, que tinha como título A MENTE NA INTELIGÊNCIA ARTIFICIAL, ficaram curiosas em saber se eu achava que pessoas e robôs precisariam dos mesmos atributos para “aprender”; se eu acredito que haveria a necessidade de representações mentais para haver apreensão/percepção do mundo; de que forma eu consideraria que a IA poderia absorver questões relativas ao corpo e ao ambiente na cognição humana. Todas questões em aberto, sem respostas fechadas 😉 Agradeço muitíssimo a todos que me fizeram perguntas e contribuíram para o meu projeto de doutorado, que ainda estou desenhando.

http://www.camilaleporace.com.br/wp-content/uploads/2019/10/poster-incog-FINAL09OUT.pdf