Ninguém sabe o que fazer

Crianças e adolescentes estão viciados em redes sociais e ninguém sabe o que fazer. Jovens estão modificando imagens com o uso de IA generativa (deepfakes) e ninguém sabe o que fazer. Outros sofrem essas novas formas de cyberbulling e ninguém sabe muito bem o que fazer. Outros jogam sem parar para comer, e mais uma vez não se sabe o que fazer. Percebo as famílias sobrecarregadas com essas preocupações. Os professores também.

Enquanto isso, as escolas têm a mesma cara que tinham há não sei quantos séculos. E se discute as razões pelas quais a escola “parou no tempo”.

Mas, olha, é tanto caroço nesse angu que fica até difícil começar a comentar.

Sinceramente – e não é achismo, falo a partir do meu lugar de pesquisadora da educação e também de quem trabalha há 21 anos com comunicação digital – me parece que a sala de aula ter a mesma cara que tinha há séculos não é o nosso principal problema. A escola pode ter a cara que for, mas ela precisa apoiar os jovens na sua formação para viver neste mundo, assim chamado digital. A preparação para viver nesse mundo nao é aprendida porque se tem acesso às mais brilhantes tecnologias, mas porque se tem CONVERSA franca, ESCUTA ativa, DIÁLOGO, acolhimento, orientação.

Claro, uma sala de aula equipada, com tecnologias como ar condicionado, boas mesas e cadeiras de qualidade, e tecnologias digitais como computadores, tablets, livros etc, é maravilhosa para a educação. Mas ela é maravilhosa porque a aprendizagem depende dela para acontecer? Não é bem isso. Claro, uma sala em condições degradantes dificulta o aprendizado. Mas, uma sala de aula bem equipada tecnologicamente é maravilhosa não porque “a escola tem que estar antenada”, mas porque faz com que os alunos tenham perspectiva. Enxerguem o FUTURO. Tenham horizonte. Sintam que PODEM realizar sonhos, ter uma carreira, ser um profissional na área que imaginam. Autoestima, autonomia, a sensação de que pode realizar algo bacana: isso tira o jovem do círculo vicioso das redes sociais – que degradam, matam a autoestima, geram inúmeros transtornos mentais.

Então, precisamos muito de tecnologias educacionais, mas precisamos, e muito, e já, de educação PARA o digital. É preciso parar de ver os jovens como “nativos digitais que já nasceram sabendo mexer” em tecnologias. Podem até ser bons usuários desses dispositivos, sim, sendo apresentados a eles tão cedo. Mas não nasceram sabendo sobre o mundo. Isso se aprende pela experiência. Pela formação. De caráter, de postura, de atitude.

Nem a escola sozinha, nem os pais sozinhos, nem os sistemas de regulamentação da IA sozinhos, nem institutos, ONGs, organizações sozinhas vão conseguir resolver os problemas que advêm da relação humana com as tecnologias. Isso é um esforço conjunto frente a questões para as quais ninguém tem resposta, ainda.

Mas, tem algo que pode ser feito já, e que não depende de ninguém além de você mesmo: aceitar que existe um problema e se envolver com ele. Procurar saber. Acordar. Vamos juntos.

O que você pode fazer pela proteção dos seus dados e dos dados da sua família?

Mês passado, fiz várias conferências sobre IA, dados, algoritmos etc para públicos diferentes. Uma delas, em especial, eu amei fazer e queria destacar aqui: a palestra “Um robô na família? Educação parental em tempos de inteligência artificial”, para os pais e responsáveis pelos alunos do Colégio Ao Cubo.

Eu achei bastante desafiador falar para eles sobre como a IA tem mudado as redes sociais, as plataformas digitais e quais os efeitos de uma “conversa” com um chatbot, que na verdade não é uma conversa como seria entre seres humanos. Falei sobre privacidade de dados, economia da atenção, os enviesamentos nas plataformas, o fato de estarmos “presos” nessas redes e por que razão isso acontece.

Mas o que achei mais desafiador foi procurar uma maneira de apoiar, de fornecer um horizonte para eles, não apenas apontando críticas e problemas mas também ideias sobre o que fazer. Mostrar só os problemas ficaria muito sufocante!

Por isso, foquei a segunda metade da palestra em uma série de ideias e ações possíveis em que eles (e todos nós) podem se envolver frente às novas características das tecnologias digitais e os seus desdobramentos. Com relação à transparência e à ética no uso de dados de crianças e adolescentes, em específico, sugeri que eles se envolvessem nos debates, pesquisassem e ficassem atentos ao que está sendo produzido, discutido e investigado nesse sentido.

A participação da sociedade civil é essencial quando se trata de dados nossos, das nossas crianças, circulando na rede e sendo usados de uma forma nem sempre responsável e capaz de beneficiar as pessoas.

O vídeo da minha palestra está disponível no YouTube do colégio Ao Cubo, neste link aqui. Vou adorar se mais gente for lá ver e me dizer o que achou! Mas, abaixo, deixo para vocês um link não da minha apresentação, mas de um TED de 12 minutos da Nina da Hora, que muito admiro e que explica de maneira simples e objetiva a razão pela qual você deve se envolver nesse debate. Não percam e enviem a todos os amigos e conhecidos. Sério!

#ia #dados #data #privacidade #algoritmos

Imagem do post: Alina Constantin / Better Images of AI / Handmade A.I / CC-BY 4.0

As várias dimensões da desinformação

Lidar com a informação faz parte do meu trabalho de jornalista e de pesquisadora, bem como lidar com a desinformação. Desde 2004 eu trabalho com comunicação digital, o que me proporcionou a experiência de viver a internet antes e depois das redes sociais. Na verdade, antes e depois dos algoritmos. A virada das plataformas digitais para plataformas algorítmicas, alimentadas por big data (os dados dos usuários), acontece de maneira casada com a popularização dos smartphones. Os dispositivos móveis, afinal, facilitam o compartilhamento de dados em tempo real, incrementando as redes neurais artificiais e garantindo que elas operem, já que precisam dos dados dos usuários para fazer previsões e oferecer conteúdos relacionados, “personalizados”.

Isso parecia um bom recurso, numa época em que se preconizava que a internet poderia ser uma alternativa à mídia de massa, tratando nichos de público de maneiras diferentes e garantindo que os mais diversos perfis de pessoas acessassem conteúdos que lhes fosse interessantes (o livro “A Cauda Longa” fala sobre isso). Mas, na verdade, a busca incessante por personalização na Web culminou na criação de “bolhas” de desinformação. Cada um vivendo no “seu mundo”, habitando mundos pequenos e circulares – reduzidos a grupos de WhatsApp, por exemplo – em que a ciência e a informação de qualidade dão lugar às notícias falsas e nada embasadas. Hoje, para tornar isso ainda mais grave ou desafiador, as plataformas baseadas em aprendizagem de máquina são construídas de modo a fazer com que os usuários naveguem de determinadas maneiras pré-determinadas, gerando dados já dentro do que os sistemas são programados para gerar.

Estamos presos em uma circularidade. Quando ela é cercada por muros que não deixam as pessoas acessarem notícias reais, embasadas, e terem acesso à ciência, elas ficam isoladas em círculos de desinformação. Isso foi levado à máxima potência com a eleição da extrema-direita no Brasil, completamente impulsionada por notícias falsas disseminadas dessa maneira. O problema é que as big techs, ou seja, as empresas que mobilizam as plataformas digitais e manipulam os nossos dados, são as mesmas plataformas onde a informação – e a desinformação – circulam. Por isso venho trabalhando, como pesquisadora, educadora e jornalista, para que o público “acorde” e perceba que está sendo levado à desinformação.

É preciso alertar para a construção desses muros invisíveis que isolam as pessoas em círculos de desinformação, e consequentemente de desolação. Simplesmente não é possível dissociar disso tudo os grandes e complexos problemas que temos para enfrentar hoje como humanidade. Muitas vezes, “narrativas da sutileza” contribuem para que alguns vejam os problemas de maneira minimizada – a urgência climática, que alguns preferem ler como “acasos”, “ciclos naturais do planeta” e daí por diante; as guerras que viraram genocídios; as brigas que são, na verdade, crimes; a xenofobia disfarçada de acordo internacional e por aí vai. (Des)informação é uma questão educacional, científica, comunicacional, social, cultural e política.

Deletar o passado para construir o futuro?

Já ouviu falar em “machine unlearning”, ou desaprendizagem de máquina?

Foto de Robynne Hu na Unsplash

É comum memórias serem “apagadas” do cérebro humano com o decorrer do tempo. Isso acontece por vários motivos, como o fato de informações corriqueiras não estarem armazenadas na nossa memória de longo prazo (temos classificados dois tipos, de curto prazo ou “memória de trabalho” e a memória de longo prazo). Também a memória de longo prazo oferece informações mais difusas, enquanto a memória de trabalho nos ajuda a lembrar de detalhes mais vívidos daquilo com que estamos em contato no presente.

Mas, e quando queremos lembrar de algo e a informação não “vem” de jeito nenhum? Existem vários estudos que investigam as razões pelas quais esquecemos coisas que preferíamos não esquecer. De todo modo, não é possível “pinçar” memórias dos nossos cérebros e simplesmente removê-las. Nossa mente não é um software rodando num hardware! Apesar disso, existem pesquisas sobre como poderíamos selecionar determinadas memórias para serem esquecidas de propósito, ajudando por exemplo as pessoas a se recuperarem de traumas. Enquanto isso, no mundo da IA, começou-se a falar em “machine unlearning”, ou desaprendizagem de máquina, em referência à aprendizagem de máquina. O que é isso?

A ideia é retirar dos modelos de IA – na forma de machine learning – certas informações dos conjuntos de dados usados para treiná-los. Ou fazer os modelos “reaprenderem” parte dessas informações. Essa iniciativa não vem do nada. Ela tem a ver com o “direito ao esquecimento” (“Right to be Forgotten” ou “Right to Erasure”) previsto na legislação da União Europeia para a regulação da IA, a European Union’s General Data Protection Regulation (GDPR).

Um dos desdobramentos mais legais dessa iniciativa de machine unlearning seria fazer as máquinas “esquecerem” informações enviesadas e que aumentam o preconceito e a desinformação. Mas, mesmo quando se trata de sistemas artificiais, esse também não é um desafio fácil. Afinal, as redes neurais artificiais se ramificam em muitas conexões paralelas, e então uma mesma informação faz parte de diversos desses grupos, não está apenas concentrada em um único lugar.

Para entender isso, basta pensar em como o preconceito se alastra e se infiltra em todas as dimensões do pensamento e da construção social e cultural. Como é que se poderia remover o preconceito da sociedade, como se fosse um vírus? Seria bom, usaríamos máscaras e desenvolveríamos vacinas para ele até que fosse superado (gatilho feelings!), mas não é assim. Também não adianta só remover textos nocivos da internet, porque as ideias ainda estarão lá, e os pensadores que as propagam, também.

Mas dá um alívio pensar que certos conjuntos de informações poderão ser removidos das bases de dados de IA se estiverem causando danos a pessoas. Não é justo que os dados se perpetuem de forma tal que nunca aquilo seja esquecido, ainda que a pessoa se arrependa, mude de opinião, queira que aquilo suma, enfim, esse sempre foi um desafio na Web. Mas fica mais difícil com a IA.

Também é importante podermos nos proteger, e especialmente preservar as nossas crianças e adolescentes das falhas nos sistemas de informação com os quais estamos enredados. Algumas delas podem causar grandes traumas e danos emocionais, principalmente nos mais novos.

No entanto, a verdade é que, se os sistemas erraram, processando dados prejudiciais a indivíduos e à sociedade, trabalhar para remover os dados das bases pode ser já de grande ajuda. Mas, quem tem que desaprender preconceitos, e (re)aprender a viver coletivamente e de maneira mais saudável e amorosa, somos nós enquanto sociedade. A IA, por sua vez, vai seguir refletindo os nossos problemas enquanto eles existirem. E querer retirá-los das bases de dados vai ser como enxugar gelo. Big data, big (complex) problems.

PS. Isso sem mencionar o fato de que criar regulamentos para a IA não resolve o assunto em definitivo, até porque não basta querer apagar dados sensíveis que a empresa dona dos dados assim o fará. Vale consultar este link aqui sobre isso.

A IA deve ser usada para nos “unir” a entes queridos que já partiram?

Comercial da Volkswagen levanta questões filosóficas (quer queira, quer não…)

A primeira coisa que pensei quando vi o comercial da Volkswagen com a Elis e a Maria Rita foi: bom, a Maria Rita aprovou isso ; se ela aprovou, será que gostou do resultado? Fui procurar saber e sim, ela gostou, acha até que “realizou um sonho”.

O fato de ela ter gostado é, para mim, um dos sinais importantes a serem observados quando se trata de analisar a IA nas nossas vidas. A Elis foi sua mãe. A Maria Rita não poderia se sentir lesada ou triste de novo, já perdeu a mãe, ainda que há mais de 40 anos, então esse comercial tinha que ser algo bom para ELA, principalmente.

Respeitar as emoções que a IA origina é, eu defendo, um dos fatores mais relevantes quando se trata de ética na inteligência artificial. Não à toa se estuda até mesmo se as IAs podem “demonstrar” ou ” interpretar” emoções. Elas são importantes nos comerciais, também. E, claro, para os espectadores.

Um caso em que ambas as pessoas há tivessem morrido, e aí fizessem um comercial com elas usando IA, seria mais complicado. Quem poderia dizer se essas pessoas gostaram disso ou o que sentiram?

Aliás, vocês já viram o primeiro episódio da última temporada de Black Mirror na Netflix? Vale assistir. Vários questionamentos que estão lá já batem à nossa porta aqui, na “vida real”. E têm a ver com esse vídeo da Elis e da Rita.

Anúncio da Coca-Cola feito com IA nos instiga a pensar nos limites entre arte e sistemas artificiais

No anúncio acima, a “Moça com brinco de pérola” de Vermeer abre uma garrafa de Coca-Cola depois de ela passar por diversas obras de arte que fazem de tudo para não deixar a peteca, ou melhor, a garrafa cair. O anúncio foi feito com inteligência artificial e também com filmagens reais e efeitos digitais diversos.

O interessante é que, em meio às questões que pairam sobre as artes e a IA, se a criatividade será estendida ou ofuscada pela IA, se o que a IA faz é arte ou não etc, esse anúncio chega lembrando que uma pode viver com a outra e gerar algo fabuloso. Isto é, arte e IA podem ser uma mistura interessante. Mas é isso: o anúncio é uma obra-prima em si, mas envolveu intenso trabalho e empenho. O esforço criativo não apenas dos artistas cujas obras de arte aparecem no vídeo, mas daqueles que fizeram o vídeo, claro, continua tendo altíssimo valor. Isso diz algo sobre a discussão quanto à IA “dominar” ou “substituir”, ou eventualmente expandir e enriquecer possibilidades.

Uma interação com um chatbot é mesmo uma interação? 

Pensando a cognição humana a partir do enativismo

Material adicional à palestra para o PPGLM – URFJ, 31 de maio de 2023

Apresentação:

Links:

Minha tese de doutorado está disponível aqui e os artigos citados são:

O que os computadores continuam não conseguindo fazer, 50 anos depois: A aprendizagem sob a perspectiva da fenomenologia do cotidiano de Hubert Dreyfus

ANOTHER BRICK IN THE WALL: THREATS TO OUR AUTONOMY AS SENSE-MAKERS WHEN DEALING WITH MACHINE LEARNING SYSTEMS

Alguns dos livros e artigos que usei como base são estes:

DI PAOLO, E. A., BURHMANN, T. E BARANDIARAN, X, E. Sensorimo-tor Life. An Enactive Proposal. Oxford: Oxford University Press, 2017.

DI PAOLO, E. The Enactive Conception of Life. In: NEWEN, A., DEBRUIN, L. & GALLAGHER, S. The Oxford Handbook of 4E Cognition.Oxford: Oxford University Press, 2018

DI PAOLO, E. A.; CUFFARI, E. C. & DE JAEGHER, H. Linguistic Bodies.The Continuity between Life and Language. Cambridge: MIT Press, 2018.

DI PAOLO, E., ROHDE, M. & DE JAEGHER. Horizons for the EnactiveMind: Values, Social Interaction, and Play. In: Stewart, J., Gapenne, O. e DiPaolo, E. Enaction – Toward a New Paradigm for Cognitive Science. Cam-bridge: MIT Press, 2010.

DREYFUS, H. What Computers Still Can’t Do. MIT Press: New York, NY,USA: 1992.

DREYFUS, H. Skillful Coping – Essays on the phenomenology of everydayperception and action. Oxford: Oxford University Press, 2016

Quadro colaborativo feito durante a apresentação:

Para quem quer saber mais sobre Hubert Dreyfus, recomendo a leitura deste meu post:

Links gerais:

A força de trabalho por trás da inteligência artificial

15 Best AI Plagiarism Checkers to Detect ChatGPT-Generated Content

Após assistir 70.000 horas de Minecraft, um bot pode possibilitar o próximo grande avanço da Inteligência Artificial

How Did Scientists Succumb to Aunt Edna? The Dangers of a Superintelligent AI is Fiction

Precisamos trazer o conceito de consentimento para o campo da Inteligência Artificial

Inteligência artificial Generativa: Midjourney e ChatGPT

Um chatbot que faz perguntas pode ajudar você a perceber quando algo não faz sentido

Professores na Dinamarca usam aplicativos para avaliar o humor de seus alunos

Vídeo indicado:

A robótica & os movimentos humanos: um paradoxo

Um dos grandes desafios para a indústria da robótica é a sofisticação dos movimentos humanos.

O nível de refinamento dos movimentos que os nossos corpos são capazes de fazer é altíssimo, e parece algo que já vem “embarcado” em nós.

É ainda muito pequenos que começamos a engatinhar, segurar objetos e desenvolver, assim, essa interação corporificada com o mundo a nossa volta, que só evolui mais e mais.

Movimentos simples para humanos podem ser complexos de ser reproduzidos em robôs. Essa questão difícil é conhecida como PARADOXO DE MORAVEC, em referência ao roboticista Hans Moravec.

Também é difícil exigir de robôs que “compreendam” o contexto das interações. Por isso o senso comum é um desafio para a indústria robótica. Isso transparece até quando testamos o Chat GPT. Senso comum não é o forte.

O que os computadores continuam não conseguindo fazer, 50 anos depois

O artigo que escrevi e submeti para a Revista Portuguesa de Educação, intitulado “O que os computadores continuam não conseguindo fazer, 50 anos depois: A aprendizagem sob a perspectiva da fenomenologia do cotidiano de Hubert Dreyfus”, foi publicado neste link.

É uma grande satisfação ter um artigo publicado nessa revista, que é muito bem conceituada na área da Educação. Vejo o filósofo Hubert Dreyfus como um precursor de ideias da abordagem chamada de cognição enativa, que é a base da minha tese de doutorado. Aqui no blog já escrevi sobre ele – releia os posts:

Introdução à Fenomenologia com Hubert Dreyfus

What Computers Can’t Do (Hubert Dreyfus)

Dreyfus fez críticas muito pertinentes à inteligência artificial quando a área estava ainda nascendo. Eu amo o trabalho dele. Por conta disso, quis fazer um artigo que fosse também uma espécie de homenagem. Por isso esse título, que ficou bem “jornalístico” – sou de fato jornalista, e afinal a identidade da gente se transforma, mas a essência permanece 😉 “What Computers Can’t Do” é o título de um livro de Dreyfus lançado em 1972, mas que mobiliza até hoje a atenção dos interessados em cognição e IA. Quando me dei conta do “aniversário” de 50 anos do livro (e eu ainda fiz 40 anos em 2022, nasci em 82 haha coincidências), fiz questão de que fosse publicado ainda este ano e corri para enviar para a revista. E eis que o artigo saiu faltando um dia para o ano acabar!

Another brick in the wall

Foi publicado num dossiê temático da Revista Perspectiva Filosófica um ensaio meu intitulado “Another brick in the wall – Threats to Our Autonomy as Sense-Makers When Dealing With Machine Learning Systems”. A tradução em português (que acabou saindo um pouquinho diferente na revista) seria algo “Mais um tijolo na parede – Ameaças à Nossa Autonomia como Sense-Makers quando lidamos com sistemas de aprendizagem de máquina”.

Ter esse ensaio publicado significa muito. Não somente porque uma publicação acadêmica é sempre algo de muito valor para nós que batalhamos para tocar as nossas pesquisas para a frente, mas porque nele eu elaboro uma parte importante do argumento que está presente na minha tese. Ela foi já entregue à banca e a defesa será em janeiro de 2023. Também é uma publicação importante porque está numa edição especial da revista que é dedicada à Fenomenologia, à Cognição e à Afetividade – justamente os temas tratados na minha tese. E, como se não bastassem todos esses motivos de alegria, meu trabalho está publicado ao lado de outros assinados por grandes pesquisadores nessas áreas.

Para quem não conhece bem os trâmites, publicar um artigo numa revista cientifica exige escrever e submeter o trabalho à avaliação anônima de pareceristas que podem ou não aprová-lo para ser publicado. Podem também aprovar, porém sob a condição de que o autor faça certas modificações. Eu recebi sugestões ótimas para o meu, e procurei acatar todas as que achei pertinentes, num processo que foi muito rico para mim.

Optei por escrever o ensaio em inglês porque quis abri-lo a pesquisadores consagrados que não falam português. Porque quis me inserir num debate que está ainda mais forte fora do Brasil. Mas explico as ideias ali presentes na tese, até com mais detalhes, e em breve quero fazer uma tradução dele para postar aqui no blog.

Agradeço a todos que me apoiaram para que essa publicação acontecesse e à Revista Perspectiva Filosófica pela oportunidade e privilégio de estar nesse dossiê. Para ler a revista e o artigo:

REVISTA COMPLETA CLIQUE AQUI

LER DIRETO O ENSAIO CLIQUE AQUI