Se você quer ser criativo, preste atenção ao que os artistas sentem

Nos últimos dias, a Open AI, do Chat GPT, lançou um gerador de imagens que permite copiar o estilo de animações japonesas. Mais precisamente, ilustrações que lembram (MUITO, talvez DEMAIS) o estilo das animações do Studio Ghibli — responsável pelos filmes ‘A Viagem de Chihiro’ e ‘O Menino e a Garça’.
O que Hayao Miyazaki, cofundador do Studio Ghibli, disse sobre isso? Nada especificamente sobre o GPT. Mas, em 2016, em um vídeo daquilo que parece ser uma reunião dele com artistas em seu estúdio, teve uma reação amarga diante de uma demonstração de animação feita com IA, e fez um comentário contundente aos artistas (?) quando disseram que “queriam criar uma máquina que desenhasse como humanos”. Quanto à IA gen – sempre sob o risco de ser a chata que aponta os problemas – não vou me furtar a dizer que não, não se trata de homenagear o artista, nem de fazer graça com a sua arte, mas de ganhar dinheiro em cima da criação de outra(s) pessoa(s). Pior: com animações “baratas”. Sim, porque Miyakaki desenha suas cenas uma a uma, à mão.
Por que isso importa
Porque, para a condição de ser HUMANO, não é apenas o resultado que importa, mas o processo. Você gosta de ver erros de gravações? Assiste a peças? Shows ao vivo? Uma pintura, um desenho, para chegar até você passou também por “erros de gravação”. “Encenações”. São os esboços, as tentativas e erros, as telas pintadas sobre telas que ficam nas camadas do desenho e a gente não vê, mas estão lá. E, se não estivessem, não seria esse desenho que você veria, mas um outro. E se ele fosse desenhado de novo, seria outro.


A voz da sua cantora preferida também foi aperfeiçoada com o próprio esforço e trabalho dela. O escritor ou escritora que mexe com a gente aprimorou seu estilo a vida toda. Não tem segredo nem mágica, tem suor e dedicação. O novo sempre vem, como diria Belchior, mas só vem se houver suor e dedicação. Se não, é repetição barata de padrões. IA não cria nada. Não se engane
A cognição humana é capaz de criar porque vive da tentativa e erro. Em contato com os mais diversos ambientes, pessoas, cenários, vamos nos esboçando. Vamos aprendendo, tentando, acertando e errando – e o processo importa. Seja para quem escreve, para quem pinta, canta, toca, trabalha com qualquer coisa. O processo importa também quando lemos, ouvimos música, apreciamos poesia. Ninguém criou uma maneira de colocarmos uma biblioteca em nossas cabeças e acessarmos as informações desses livros quando precisamos, não é? Sim, porque o processo importa. Você lê, e aquilo fica em você – sendo que a mente vai selecionar o que você vai guardar na memória de acordo com a experiência que aquilo te despertou. Cuidado com o que você considera ser arte, mas não é. Uma sociedade sem arte dá espaço para o vazio, e nesse vazio se fertiliza a política mais macabra.

Referências | Ciência & Experiência

CANAVILHAS, J. Produção automática de texto jornalístico com IA: contributo para uma história. Textual & Visual Media, 17(1), 22-40, 2023. https://doi.org/10.56418/txt.17.1.2023.2.

CHANDLER, D.L. Can science writing be automated? A neural network can read scientific papers and render a plain-English summary. MIT News, 17 de abril de 2019. Disponível em: https://news.mit.edu/2019/can-science-writing-be-automated-ai-0418. Acesso em: 5 de agosto de 2023

CHECCO, A. et al. AI-assisted peer review. Humanities & Social Sciences Communications, v. 8, p. 1–11, 2021. https://doi.org/10.1057/s41599-020-00703-8.

CHUBB, J.; ÇETIN, R. B. We need better AI imagery for better science communication. LSE Impact Blog. 25 de julho de 2022. Disponível em: https://blogs.lse.ac.uk/impactofsocialsciences/2022/07/25/we-need-better-ai-imagery-for-better-science-communication/. Acesso em: 2 de Agosto de 2023

CONCEIÇÃO, V. A. S. e CHAGAS, A. M. O pesquisador e a divulgação científica em contexto de cibercultura e inteligência artificial. Acta Educ. [online], Maringá, v. 42, e52879, 2020.   Disponível em: http://educa.fcc.org.br/scielo.php?script=sci_arttext&pid=S2178-52012020000100117&lng=pt&nrm=iso>. Acesso em: 30 de julho de 2023.

GUZMAN, A. L.; LEWIS, S. C. Artificial intelligence and communication: A Human- Machine Communication research agenda. New media & Society, v. 22, n. I, p. 70–86, 2020. https://doi.org/10.1177/1461444819858691.

HILDEBRAND, C. The Machine Age of Marketing: How Artificial Intelligence Changes the Way People Think, Act, and Decide. NIM Marketing Intelligence Review. v. 11. p. 10-17, 2019. https://doi.org/10.2478/nimmir-2019-0010.

KRENN, M. et al. On scientific understanding with artificial intelligence. Nat Rev Phys 4, 761–769, 2022. https://doi.org/10.1038/s42254-022-00518-3.

MARKS, R. J. Non-Computable You – What You Do That Artificial Intelligence Never Will. Seattle: Discovery Institute Press, 2022.

SALVAGNO, M.; TACCONE, F. S.; GERLI, A. G. Can artificial intelligence help for scientific writing? Critical Care, v. 27, n. 75, 2023. https://doi.org/10.1186/s13054-023-04380-2.

Está querendo sair das redes sociais?

Essa sua dúvida é porque você está incomodado ou incomodada com as últimas notícias. Suspensão das regulações? Redes sociais desgovernadas? As coisas não estão fáceis naquela que nomeei algoritmosfera – o grande espaço algorítmico no qual todos nós estamos inseridos (que dá nome ao meu livro, veja aqui).

Estar preocupado é um bom começo. Mas a má notícia é que, independente da decisão que você tomar, sair de uma rede social não vai fazer cessar o imenso problema que temos nas mãos. Sair de uma rede social vai ter um efeito semelhante a quando “bloqueamos” uma pessoa com quem não queremos mais falar. Brincadeiras à parte, o assunto é sério. Como eu pontuei em meu talk no TEDx, cada um precisa se envolver nessa discussão, cujo tópico principal é: como podemos ter uma internet melhor? Como as plataformas algorítmicas que formam a Web que temos hoje podem jogar a nosso favor, não contra nós?

Para isso, é fundamental ter consciência daquilo que está por trás da nossa grande rede, hoje. Uma pequena quantidade de empresas detêm os nossos dados e produzem os mecanismos que nos mantêm atrelados a esse incessante processo de fornecer dados. Fazer parte disso não é opcional: você não pode simplesmente se desconectar, deixar de usar a internet, deixar de divulgar suas coisas, fazer suas conexões. Vai deixar de ussar apps de bancos? vai deixar de usar apps para pedir comida e transporte? Vai deixar de usar softwares que já têm IA por trás e você nem sabia?

O que precisamos é de um espaço online mais saudável. Que esteja a favor do nosso desenvolvimento individual e enquanto sociedade. Não é sair dele, é lutar para que seja melhor. E claro, fazer tudo o que estiver ao nosso alcance para ter uma melhor relação com a algoritmosfera. Isso inclui menos tempo de tela e menos tempo de redes, sim. Desintoxicar é preeciso. Mais natureza. Mais afeto e humanidade.

Mas tudo isso tendo a cosciência de que a IA, que entre outras tecnologias está por trás dos mecanismos da nossa internet, não é apenas uma ferramenta que usamos quando queremos e deixamos de lado quando acabamos de usar. Também não é uma ferramenta que veio para consertar alguma coisa que quebrou ou estava ruim. Não. A IA é um instrumento político, social e econômico, cujo alcance e cujas consequências possíveis ainda não estão 100% claros. Informar-se e estar aberto a rever concepções, e principalmente não fazer certas concessões é importante. Que concessões não se pode fazer? Abrir mão dos seus direitos, e dos direitos das nossas crianças. Liberdade não é liberdade quando impede o outro de ter a dele. É isso que está em jogo.

Deixo meu TEDx abaixo para quem quiser ver ou rever 😉

Comunicação de ciência e letramento digital precisam caminhar juntos

Camila Leporace

A comunicação de ciência só consegue avançar se associada ao letramento digital, especificamente o letramento em Inteligência Artificial. Por quê?

Porque comunicar ciência para a sociedade é informar, e as plataformas digitais algorítmicas contribuem muito para desinformar.

A realidade mostra-se diferente para cada indivíduo no ambiente digital. Os algoritmos moldam o conteúdo que vemos. As campanhas de desinformação muitas vezes têm como alvo usuários específicos, que podem ser mais vulneráveis. Como os usuários raramente estão cientes de como os sistemas digitais atuais funcionam, pensam que o que veem on-line é visto por outros usuários, universalmente. Uma grande distorção que abre espaço para a criação de realidades paralelas.

O microdirecionamento e a impressão digital de navegação, técnicas eficazes para direcionar a publicidade a consumidores específicos, são também úteis para a disseminação da desinformação. Embora a desinformação seja um problema antigo, as técnicas de IA abrem novas possibilidades para manipular indivíduos de forma eficaz e em escala, levantando várias preocupações éticas.

A autonomia dos usuários é ameaçada, pois eles não podem tomar decisões livremente no ambiente on-line, sem serem manipulados. Quando os algoritmos usam dados pessoais para “decidir” o que os usuários veem ou não, fechando muros em torno deles, isso é uma ameaça à privacidade e ao livre arbítrio (falo muito dessa ameaça à autonomia em meu livro, “Algoritmosfera” – expressão cunhada por mim na minha tese de doutorado).

Ameaças à autonomia dos usuários também significam ameaças à democracia. As câmaras de eco/echo chambers são ambientes nos quais os indivíduos encontram apenas crenças ou opiniões que coincidem com as suas. Nesse estado de “isolamento intelectual”, não há lugar para opiniões diversas ou diálogo. As mesmas opiniões, hábitos e pontos de vista são reforçados, reiteradamente.

Por isso são grandes os desafios digitais para a comunicação, especialmente naquela que diz respeito à ciência; e é com letramento digital que se fará melhor difusão científica no Brasil.

Minha tese foi premiada

No dia do aniversário de 84 anos da minha querida PUC-Rio recebi o prêmio dado pelo Centro de Teologia e Ciências Humanas à minha tese. O prêmio destaca uma tese de cada um dos departamentos do centro, do qual faz parte o Departamento de Educação.

Conhecendo tantos trabalhos incríveis feitos por colegas super competentes que estiveram comigo nessa caminhada, esse prêmio adquire um valor ainda maior. Aliás, eu devo muito – não apenas aos professores e, claro, ao meu orientador querido, Ralph Bannell – mas a todos os meus colegas incríveis que me incentivaram e me apoiam até hoje. Parabéns a todos nós que trabalhamos para melhorar a educação a cada ano, a cada semana e a cada dia!

O prêmio disponibiliza as teses premiadas na forma de ebooks. Essa edição laranjinha nas minhas mãos é uma impressão do ebook da minha tese, que pode ser conferido aqui.

Obrigada PUC-Rio, obrigada amigos que a PUC me deu e obrigada @edupucrio pelo reconhecimento. ✨⭐️

Mulheres de IA não falam, mas dizem muito

Todo dia eu pego o metrô e todo dia eu torço para dar tempo de pegar o vagão feminino (às vezes o trem está chegando quando eu desço as escadas e aí eu pego o que dá, na correria). Todo dia torço para que as ruas não estejam tão vazias nem tão mal iluminadas nem tão estranhas nem tão assustadoras nem com homens aleatórios esquisitos quando tenho que passar por elas. Tenho certeza que todas as mulheres que conheço torcem pelas mesmas coisas. Mas por que eu estou falando de vagão feminino e ruas vazias neste post para o qual escolhi a imagem de uma mulher sensual de cabelo rosa?

Essa mulher sensual de cabelo rosa é uma IA. Pois é, ela foi criada para ser uma influencer, porque algumas marcas estavam cansadas do “ego” das influencers reais. E o que isso tem a ver com o vagão feminino? Tem tudo a ver.
Acontece que a gente vive num mundo projetado para satisfazer as necessidades e os prazeres dos homens. E o vagão feminino só existe porque existem homens que acreditam que podem satisfazer suas necessidades com as mulheres que estão indo e vindo no metro. Quem não sabe, pesquisa.

Também as mulheres de IA só existem por isso. Ego dá trabalho, é chato, né? Mulher reclamona. Mulher que dá piti. Mulher que exige seus direitos. Ai, que saco – dizem os homens que acreditam que estamos aqui para saciá-lós. Eles preferem uma boneca inflável… ou uma IA. Bingo!

Este não é exatamente o texto de uma pesquisadora da IA, mas o texto de uma mulher cansada de ver as mulheres acuadas, tristes, nervosas e tentando caber onde definitivamente não cabem. Somos tão grandes. E temos crescido na medida em que alguns caras se reduzem mais e mais. Já repararam? Eles se reduzem até caber no que sempre mereceram: uma mulher que na verdade não existe.

Eu poderia achar ruim as mulheres de IA, e acho, principalmente porque tenho sempre em mente as meninas. Elas, que ainda nem menstruaram e já estão se perguntando por que são feias, quando são lindas. Elas, que se comparam com mulheres de peitos 44 e cintura 36 que nunca existiram. Elas, que sonham fazer plástica, sem saber que esse sonho não é delas. Elas, que cabem onde quiserem, podem sonhar com o que quiserem, e vestir PP ou XGG que podem realizá-los do mesmo jeito. Elas, essas meninas, são a minha principal preocupação enquanto mulher e educadora.

Para as mulheres mães e professoras dessas meninas eu gostaria de dizer o seguinte: deixem essa encheção de saco das mulheres de IA para os homens que gostam de ser enganados. Não gastem muito sua energia com isso. Deixem-nas para aqueles que nos querem caladas. Talvez isso reverbere de forma positiva para nós. Eles se ocupam de idolatrar as bonecas infláveis virtuais, enquanto nós nos ocupamos de ensinar as nossas meninas o valor da voz delas, o valor dos sonhos delas. Vamos combinar assim? Não vamos perder o foco. Alguns homens gostariam que perdêssemos. Assim ficaríamos todas deprimidas, gastando dinheiro com plástica na pele da vagina, no branco do nosso olho ou no buraco do nariz e, tudo isso, caladas. Não precisamos ser perfeitas para mudar o mundo, só precisamos SER. Nós existimos. Eu penso, eu luto, logo eu existo. Um salve às mulheres reais.

Ninguém sabe o que fazer

Crianças e adolescentes estão viciados em redes sociais e ninguém sabe o que fazer. Jovens estão modificando imagens com o uso de IA generativa (deepfakes) e ninguém sabe o que fazer. Outros sofrem essas novas formas de cyberbulling e ninguém sabe muito bem o que fazer. Outros jogam sem parar para comer, e mais uma vez não se sabe o que fazer. Percebo as famílias sobrecarregadas com essas preocupações. Os professores também.

Enquanto isso, as escolas têm a mesma cara que tinham há não sei quantos séculos. E se discute as razões pelas quais a escola “parou no tempo”.

Mas, olha, é tanto caroço nesse angu que fica até difícil começar a comentar.

Sinceramente – e não é achismo, falo a partir do meu lugar de pesquisadora da educação e também de quem trabalha há 21 anos com comunicação digital – me parece que a sala de aula ter a mesma cara que tinha há séculos não é o nosso principal problema. A escola pode ter a cara que for, mas ela precisa apoiar os jovens na sua formação para viver neste mundo, assim chamado digital. A preparação para viver nesse mundo nao é aprendida porque se tem acesso às mais brilhantes tecnologias, mas porque se tem CONVERSA franca, ESCUTA ativa, DIÁLOGO, acolhimento, orientação.

Claro, uma sala de aula equipada, com tecnologias como ar condicionado, boas mesas e cadeiras de qualidade, e tecnologias digitais como computadores, tablets, livros etc, é maravilhosa para a educação. Mas ela é maravilhosa porque a aprendizagem depende dela para acontecer? Não é bem isso. Claro, uma sala em condições degradantes dificulta o aprendizado. Mas, uma sala de aula bem equipada tecnologicamente é maravilhosa não porque “a escola tem que estar antenada”, mas porque faz com que os alunos tenham perspectiva. Enxerguem o FUTURO. Tenham horizonte. Sintam que PODEM realizar sonhos, ter uma carreira, ser um profissional na área que imaginam. Autoestima, autonomia, a sensação de que pode realizar algo bacana: isso tira o jovem do círculo vicioso das redes sociais – que degradam, matam a autoestima, geram inúmeros transtornos mentais.

Então, precisamos muito de tecnologias educacionais, mas precisamos, e muito, e já, de educação PARA o digital. É preciso parar de ver os jovens como “nativos digitais que já nasceram sabendo mexer” em tecnologias. Podem até ser bons usuários desses dispositivos, sim, sendo apresentados a eles tão cedo. Mas não nasceram sabendo sobre o mundo. Isso se aprende pela experiência. Pela formação. De caráter, de postura, de atitude.

Nem a escola sozinha, nem os pais sozinhos, nem os sistemas de regulamentação da IA sozinhos, nem institutos, ONGs, organizações sozinhas vão conseguir resolver os problemas que advêm da relação humana com as tecnologias. Isso é um esforço conjunto frente a questões para as quais ninguém tem resposta, ainda.

Mas, tem algo que pode ser feito já, e que não depende de ninguém além de você mesmo: aceitar que existe um problema e se envolver com ele. Procurar saber. Acordar. Vamos juntos.

O que você pode fazer pela proteção dos seus dados e dos dados da sua família?

Mês passado, fiz várias conferências sobre IA, dados, algoritmos etc para públicos diferentes. Uma delas, em especial, eu amei fazer e queria destacar aqui: a palestra “Um robô na família? Educação parental em tempos de inteligência artificial”, para os pais e responsáveis pelos alunos do Colégio Ao Cubo.

Eu achei bastante desafiador falar para eles sobre como a IA tem mudado as redes sociais, as plataformas digitais e quais os efeitos de uma “conversa” com um chatbot, que na verdade não é uma conversa como seria entre seres humanos. Falei sobre privacidade de dados, economia da atenção, os enviesamentos nas plataformas, o fato de estarmos “presos” nessas redes e por que razão isso acontece.

Mas o que achei mais desafiador foi procurar uma maneira de apoiar, de fornecer um horizonte para eles, não apenas apontando críticas e problemas mas também ideias sobre o que fazer. Mostrar só os problemas ficaria muito sufocante!

Por isso, foquei a segunda metade da palestra em uma série de ideias e ações possíveis em que eles (e todos nós) podem se envolver frente às novas características das tecnologias digitais e os seus desdobramentos. Com relação à transparência e à ética no uso de dados de crianças e adolescentes, em específico, sugeri que eles se envolvessem nos debates, pesquisassem e ficassem atentos ao que está sendo produzido, discutido e investigado nesse sentido.

A participação da sociedade civil é essencial quando se trata de dados nossos, das nossas crianças, circulando na rede e sendo usados de uma forma nem sempre responsável e capaz de beneficiar as pessoas.

O vídeo da minha palestra está disponível no YouTube do colégio Ao Cubo, neste link aqui. Vou adorar se mais gente for lá ver e me dizer o que achou! Mas, abaixo, deixo para vocês um link não da minha apresentação, mas de um TED de 12 minutos da Nina da Hora, que muito admiro e que explica de maneira simples e objetiva a razão pela qual você deve se envolver nesse debate. Não percam e enviem a todos os amigos e conhecidos. Sério!

#ia #dados #data #privacidade #algoritmos

Imagem do post: Alina Constantin / Better Images of AI / Handmade A.I / CC-BY 4.0

As várias dimensões da desinformação

Lidar com a informação faz parte do meu trabalho de jornalista e de pesquisadora, bem como lidar com a desinformação. Desde 2004 eu trabalho com comunicação digital, o que me proporcionou a experiência de viver a internet antes e depois das redes sociais. Na verdade, antes e depois dos algoritmos. A virada das plataformas digitais para plataformas algorítmicas, alimentadas por big data (os dados dos usuários), acontece de maneira casada com a popularização dos smartphones. Os dispositivos móveis, afinal, facilitam o compartilhamento de dados em tempo real, incrementando as redes neurais artificiais e garantindo que elas operem, já que precisam dos dados dos usuários para fazer previsões e oferecer conteúdos relacionados, “personalizados”.

Isso parecia um bom recurso, numa época em que se preconizava que a internet poderia ser uma alternativa à mídia de massa, tratando nichos de público de maneiras diferentes e garantindo que os mais diversos perfis de pessoas acessassem conteúdos que lhes fosse interessantes (o livro “A Cauda Longa” fala sobre isso). Mas, na verdade, a busca incessante por personalização na Web culminou na criação de “bolhas” de desinformação. Cada um vivendo no “seu mundo”, habitando mundos pequenos e circulares – reduzidos a grupos de WhatsApp, por exemplo – em que a ciência e a informação de qualidade dão lugar às notícias falsas e nada embasadas. Hoje, para tornar isso ainda mais grave ou desafiador, as plataformas baseadas em aprendizagem de máquina são construídas de modo a fazer com que os usuários naveguem de determinadas maneiras pré-determinadas, gerando dados já dentro do que os sistemas são programados para gerar.

Estamos presos em uma circularidade. Quando ela é cercada por muros que não deixam as pessoas acessarem notícias reais, embasadas, e terem acesso à ciência, elas ficam isoladas em círculos de desinformação. Isso foi levado à máxima potência com a eleição da extrema-direita no Brasil, completamente impulsionada por notícias falsas disseminadas dessa maneira. O problema é que as big techs, ou seja, as empresas que mobilizam as plataformas digitais e manipulam os nossos dados, são as mesmas plataformas onde a informação – e a desinformação – circulam. Por isso venho trabalhando, como pesquisadora, educadora e jornalista, para que o público “acorde” e perceba que está sendo levado à desinformação.

É preciso alertar para a construção desses muros invisíveis que isolam as pessoas em círculos de desinformação, e consequentemente de desolação. Simplesmente não é possível dissociar disso tudo os grandes e complexos problemas que temos para enfrentar hoje como humanidade. Muitas vezes, “narrativas da sutileza” contribuem para que alguns vejam os problemas de maneira minimizada – a urgência climática, que alguns preferem ler como “acasos”, “ciclos naturais do planeta” e daí por diante; as guerras que viraram genocídios; as brigas que são, na verdade, crimes; a xenofobia disfarçada de acordo internacional e por aí vai. (Des)informação é uma questão educacional, científica, comunicacional, social, cultural e política.

Deletar o passado para construir o futuro?

Já ouviu falar em “machine unlearning”, ou desaprendizagem de máquina?

Foto de Robynne Hu na Unsplash

É comum memórias serem “apagadas” do cérebro humano com o decorrer do tempo. Isso acontece por vários motivos, como o fato de informações corriqueiras não estarem armazenadas na nossa memória de longo prazo (temos classificados dois tipos, de curto prazo ou “memória de trabalho” e a memória de longo prazo). Também a memória de longo prazo oferece informações mais difusas, enquanto a memória de trabalho nos ajuda a lembrar de detalhes mais vívidos daquilo com que estamos em contato no presente.

Mas, e quando queremos lembrar de algo e a informação não “vem” de jeito nenhum? Existem vários estudos que investigam as razões pelas quais esquecemos coisas que preferíamos não esquecer. De todo modo, não é possível “pinçar” memórias dos nossos cérebros e simplesmente removê-las. Nossa mente não é um software rodando num hardware! Apesar disso, existem pesquisas sobre como poderíamos selecionar determinadas memórias para serem esquecidas de propósito, ajudando por exemplo as pessoas a se recuperarem de traumas. Enquanto isso, no mundo da IA, começou-se a falar em “machine unlearning”, ou desaprendizagem de máquina, em referência à aprendizagem de máquina. O que é isso?

A ideia é retirar dos modelos de IA – na forma de machine learning – certas informações dos conjuntos de dados usados para treiná-los. Ou fazer os modelos “reaprenderem” parte dessas informações. Essa iniciativa não vem do nada. Ela tem a ver com o “direito ao esquecimento” (“Right to be Forgotten” ou “Right to Erasure”) previsto na legislação da União Europeia para a regulação da IA, a European Union’s General Data Protection Regulation (GDPR).

Um dos desdobramentos mais legais dessa iniciativa de machine unlearning seria fazer as máquinas “esquecerem” informações enviesadas e que aumentam o preconceito e a desinformação. Mas, mesmo quando se trata de sistemas artificiais, esse também não é um desafio fácil. Afinal, as redes neurais artificiais se ramificam em muitas conexões paralelas, e então uma mesma informação faz parte de diversos desses grupos, não está apenas concentrada em um único lugar.

Para entender isso, basta pensar em como o preconceito se alastra e se infiltra em todas as dimensões do pensamento e da construção social e cultural. Como é que se poderia remover o preconceito da sociedade, como se fosse um vírus? Seria bom, usaríamos máscaras e desenvolveríamos vacinas para ele até que fosse superado (gatilho feelings!), mas não é assim. Também não adianta só remover textos nocivos da internet, porque as ideias ainda estarão lá, e os pensadores que as propagam, também.

Mas dá um alívio pensar que certos conjuntos de informações poderão ser removidos das bases de dados de IA se estiverem causando danos a pessoas. Não é justo que os dados se perpetuem de forma tal que nunca aquilo seja esquecido, ainda que a pessoa se arrependa, mude de opinião, queira que aquilo suma, enfim, esse sempre foi um desafio na Web. Mas fica mais difícil com a IA.

Também é importante podermos nos proteger, e especialmente preservar as nossas crianças e adolescentes das falhas nos sistemas de informação com os quais estamos enredados. Algumas delas podem causar grandes traumas e danos emocionais, principalmente nos mais novos.

No entanto, a verdade é que, se os sistemas erraram, processando dados prejudiciais a indivíduos e à sociedade, trabalhar para remover os dados das bases pode ser já de grande ajuda. Mas, quem tem que desaprender preconceitos, e (re)aprender a viver coletivamente e de maneira mais saudável e amorosa, somos nós enquanto sociedade. A IA, por sua vez, vai seguir refletindo os nossos problemas enquanto eles existirem. E querer retirá-los das bases de dados vai ser como enxugar gelo. Big data, big (complex) problems.

PS. Isso sem mencionar o fato de que criar regulamentos para a IA não resolve o assunto em definitivo, até porque não basta querer apagar dados sensíveis que a empresa dona dos dados assim o fará. Vale consultar este link aqui sobre isso.