Já ouviu falar em “machine unlearning”, ou desaprendizagem de máquina?
É comum memórias serem “apagadas” do cérebro humano com o decorrer do tempo. Isso acontece por vários motivos, como o fato de informações corriqueiras não estarem armazenadas na nossa memória de longo prazo (temos classificados dois tipos, de curto prazo ou “memória de trabalho” e a memória de longo prazo). Também a memória de longo prazo oferece informações mais difusas, enquanto a memória de trabalho nos ajuda a lembrar de detalhes mais vívidos daquilo com que estamos em contato no presente.
Mas, e quando queremos lembrar de algo e a informação não “vem” de jeito nenhum? Existem vários estudos que investigam as razões pelas quais esquecemos coisas que preferíamos não esquecer. De todo modo, não é possível “pinçar” memórias dos nossos cérebros e simplesmente removê-las. Nossa mente não é um software rodando num hardware! Apesar disso, existem pesquisas sobre como poderíamos selecionar determinadas memórias para serem esquecidas de propósito, ajudando por exemplo as pessoas a se recuperarem de traumas. Enquanto isso, no mundo da IA, começou-se a falar em “machine unlearning”, ou desaprendizagem de máquina, em referência à aprendizagem de máquina. O que é isso?
A ideia é retirar dos modelos de IA – na forma de machine learning – certas informações dos conjuntos de dados usados para treiná-los. Ou fazer os modelos “reaprenderem” parte dessas informações. Essa iniciativa não vem do nada. Ela tem a ver com o “direito ao esquecimento” (“Right to be Forgotten” ou “Right to Erasure”) previsto na legislação da União Europeia para a regulação da IA, a European Union’s General Data Protection Regulation (GDPR).
Um dos desdobramentos mais legais dessa iniciativa de machine unlearning seria fazer as máquinas “esquecerem” informações enviesadas e que aumentam o preconceito e a desinformação. Mas, mesmo quando se trata de sistemas artificiais, esse também não é um desafio fácil. Afinal, as redes neurais artificiais se ramificam em muitas conexões paralelas, e então uma mesma informação faz parte de diversos desses grupos, não está apenas concentrada em um único lugar.
Para entender isso, basta pensar em como o preconceito se alastra e se infiltra em todas as dimensões do pensamento e da construção social e cultural. Como é que se poderia remover o preconceito da sociedade, como se fosse um vírus? Seria bom, usaríamos máscaras e desenvolveríamos vacinas para ele até que fosse superado (gatilho feelings!), mas não é assim. Também não adianta só remover textos nocivos da internet, porque as ideias ainda estarão lá, e os pensadores que as propagam, também.
Mas dá um alívio pensar que certos conjuntos de informações poderão ser removidos das bases de dados de IA se estiverem causando danos a pessoas. Não é justo que os dados se perpetuem de forma tal que nunca aquilo seja esquecido, ainda que a pessoa se arrependa, mude de opinião, queira que aquilo suma, enfim, esse sempre foi um desafio na Web. Mas fica mais difícil com a IA.
Também é importante podermos nos proteger, e especialmente preservar as nossas crianças e adolescentes das falhas nos sistemas de informação com os quais estamos enredados. Algumas delas podem causar grandes traumas e danos emocionais, principalmente nos mais novos.
No entanto, a verdade é que, se os sistemas erraram, processando dados prejudiciais a indivíduos e à sociedade, trabalhar para remover os dados das bases pode ser já de grande ajuda. Mas, quem tem que desaprender preconceitos, e (re)aprender a viver coletivamente e de maneira mais saudável e amorosa, somos nós enquanto sociedade. A IA, por sua vez, vai seguir refletindo os nossos problemas enquanto eles existirem. E querer retirá-los das bases de dados vai ser como enxugar gelo. Big data, big (complex) problems.
PS. Isso sem mencionar o fato de que criar regulamentos para a IA não resolve o assunto em definitivo, até porque não basta querer apagar dados sensíveis que a empresa dona dos dados assim o fará. Vale consultar este link aqui sobre isso.