LEPORACE. Camila De Paoli ALGORITMOSFERA – A cognição humana e a inteligência artificial, São Paulo: Hucitec e Rio de Janeiro: PUC-Rio, 2024.
LEPORACE. Camila De Paoli. Máquinas de ensinar analógicas: as precursoras da inteligência artificial na aprendizagem. Dossiê Especial 30 anos da Revista Comunicação e Educação da USP – “Do analógico à inteligência artificial: 30 anos de Comunicação & Educação” (Aceito para publicação; será publicado até 30 de junho de 2024)
LEPORACE, C. & GONDIN, V. C. Experimentar o mundo a partir do corpo: estética como uma dimensão da cognição humana. Educação On-Line, Rio de Janeiro, v. 16, n. 38, set-dez 2021, pp. 227-244.
FIGUEIREDO, L. de O., ZEM LOPES, A. M., VALIDORIO V. C., & MUSSIO, S. C. (2023). Desafios e impactos do uso da Inteligência Artificial na educação. Educação Online, 18(44), e18234408. https://doi.org/10.36556/eol.v18i44.1506
GONSALES, P. e KAUFMAN, D. IA NA EDUCAÇÃO: DA PROGRAMAÇÃO À ALFABETIZAÇÃO EM DADOS. ETD – Educação Temática Digital. Campinas, SP. v.25, p. 1-22, 2023.
Ainda restam algumas vagas para o curso de extensão A inteligência Artificial e a Aprendizagem Humana: Novos Desafios e Caminhos, que darei junto ao professor Ralph Bannell, doutor em Pensamento Social e Político pela Universidade de Sussex, Inglaterra, pela PUC-Rio, e que começa dia 8 de maio.
Pensando em trazer uma oferta num horário bom para quem trabalha em horário comercial, o curso será às quartas, das 19h às 21h, e contará com discussões sobre a inteligência artificial, a mente e a cognição humana.
O legal desse enfoque é que você adquire um bom conhecimento para lidar com as novidades trazidas pela inteligência artificial não de uma forma ingênua, e nem acrítica, mas de uma maneira que você consegue assumir a liderança do processo. Inteligência artificial não é uma tendência, não é passageiro, não é moda, e também não é algo novo.
Claro que há novidades, pois sempre há inovações surgindo na área, mas o campo de pesquisa da IA existe desde a década de 1950. A história dele está entrelaçada com a história dos estudos sobre a mente humana. E é esse fio que o curso segue, para passar por temas como a aprendizagem humana e a aprendizagem de máquina, o corpo e as emoções nos processos de aprendizagem, as grandes questões estéticas e éticas envolvendo algoritmos, entre outros. Um curso muito útil e importante para professores, gestores escolares, profissionais em busca de compreender como lidar com a IA.
Todo dia eu pego o metrô e todo dia eu torço para dar tempo de pegar o vagão feminino (às vezes o trem está chegando quando eu desço as escadas e aí eu pego o que dá, na correria). Todo dia torço para que as ruas não estejam tão vazias nem tão mal iluminadas nem tão estranhas nem tão assustadoras nem com homens aleatórios esquisitos quando tenho que passar por elas. Tenho certeza que todas as mulheres que conheço torcem pelas mesmas coisas. Mas por que eu estou falando de vagão feminino e ruas vazias neste post para o qual escolhi a imagem de uma mulher sensual de cabelo rosa?
Essa mulher sensual de cabelo rosa é uma IA. Pois é, ela foi criada para ser uma influencer, porque algumas marcas estavam cansadas do “ego” das influencers reais. E o que isso tem a ver com o vagão feminino? Tem tudo a ver.
Acontece que a gente vive num mundo projetado para satisfazer as necessidades e os prazeres dos homens. E o vagão feminino só existe porque existem homens que acreditam que podem satisfazer suas necessidades com as mulheres que estão indo e vindo no metro. Quem não sabe, pesquisa.
Também as mulheres de IA só existem por isso. Ego dá trabalho, é chato, né? Mulher reclamona. Mulher que dá piti. Mulher que exige seus direitos. Ai, que saco – dizem os homens que acreditam que estamos aqui para saciá-lós. Eles preferem uma boneca inflável… ou uma IA. Bingo!
Este não é exatamente o texto de uma pesquisadora da IA, mas o texto de uma mulher cansada de ver as mulheres acuadas, tristes, nervosas e tentando caber onde definitivamente não cabem. Somos tão grandes. E temos crescido na medida em que alguns caras se reduzem mais e mais. Já repararam? Eles se reduzem até caber no que sempre mereceram: uma mulher que na verdade não existe.
Eu poderia achar ruim as mulheres de IA, e acho, principalmente porque tenho sempre em mente as meninas. Elas, que ainda nem menstruaram e já estão se perguntando por que são feias, quando são lindas. Elas, que se comparam com mulheres de peitos 44 e cintura 36 que nunca existiram. Elas, que sonham fazer plástica, sem saber que esse sonho não é delas. Elas, que cabem onde quiserem, podem sonhar com o que quiserem, e vestir PP ou XGG que podem realizá-los do mesmo jeito. Elas, essas meninas, são a minha principal preocupação enquanto mulher e educadora.
Para as mulheres mães e professoras dessas meninas eu gostaria de dizer o seguinte: deixem essa encheção de saco das mulheres de IA para os homens que gostam de ser enganados. Não gastem muito sua energia com isso. Deixem-nas para aqueles que nos querem caladas. Talvez isso reverbere de forma positiva para nós. Eles se ocupam de idolatrar as bonecas infláveis virtuais, enquanto nós nos ocupamos de ensinar as nossas meninas o valor da voz delas, o valor dos sonhos delas. Vamos combinar assim? Não vamos perder o foco. Alguns homens gostariam que perdêssemos. Assim ficaríamos todas deprimidas, gastando dinheiro com plástica na pele da vagina, no branco do nosso olho ou no buraco do nariz e, tudo isso, caladas. Não precisamos ser perfeitas para mudar o mundo, só precisamos SER. Nós existimos. Eu penso, eu luto, logo eu existo. Um salve às mulheres reais.
Obrigada a todos que estiveram presentes e, mais uma vez, ao colégio pelo convite 🙂
Regulamentação da IA no Brasil
[Ainda não existe algo específico para a educação, mas deixo aqui links gerais sobre o assunto, e recomendo a leitura do guia da Unesco para a IA generativa na educação, aqui, em inglês]
Crianças e adolescentes estão viciados em redes sociais e ninguém sabe o que fazer. Jovens estão modificando imagens com o uso de IA generativa (deepfakes) e ninguém sabe o que fazer. Outros sofrem essas novas formas de cyberbulling e ninguém sabe muito bem o que fazer. Outros jogam sem parar para comer, e mais uma vez não se sabe o que fazer. Percebo as famílias sobrecarregadas com essas preocupações. Os professores também.
Enquanto isso, as escolas têm a mesma cara que tinham há não sei quantos séculos. E se discute as razões pelas quais a escola “parou no tempo”.
Mas, olha, é tanto caroço nesse angu que fica até difícil começar a comentar.
Sinceramente – e não é achismo, falo a partir do meu lugar de pesquisadora da educação e também de quem trabalha há 21 anos com comunicação digital – me parece que a sala de aula ter a mesma cara que tinha há séculos não é o nosso principal problema. A escola pode ter a cara que for, mas ela precisa apoiar os jovens na sua formação para viver neste mundo, assim chamado digital. A preparação para viver nesse mundo nao é aprendida porque se tem acesso às mais brilhantes tecnologias, mas porque se tem CONVERSA franca, ESCUTA ativa, DIÁLOGO, acolhimento, orientação.
Claro, uma sala de aula equipada, com tecnologias como ar condicionado, boas mesas e cadeiras de qualidade, e tecnologias digitais como computadores, tablets, livros etc, é maravilhosa para a educação. Mas ela é maravilhosa porque a aprendizagem depende dela para acontecer? Não é bem isso. Claro, uma sala em condições degradantes dificulta o aprendizado. Mas, uma sala de aula bem equipada tecnologicamente é maravilhosa não porque “a escola tem que estar antenada”, mas porque faz com que os alunos tenham perspectiva. Enxerguem o FUTURO. Tenham horizonte. Sintam que PODEM realizar sonhos, ter uma carreira, ser um profissional na área que imaginam. Autoestima, autonomia, a sensação de que pode realizar algo bacana: isso tira o jovem do círculo vicioso das redes sociais – que degradam, matam a autoestima, geram inúmeros transtornos mentais.
Então, precisamos muito de tecnologias educacionais, mas precisamos, e muito, e já, de educação PARA o digital. É preciso parar de ver os jovens como “nativos digitais que já nasceram sabendo mexer” em tecnologias. Podem até ser bons usuários desses dispositivos, sim, sendo apresentados a eles tão cedo. Mas não nasceram sabendo sobre o mundo. Isso se aprende pela experiência. Pela formação. De caráter, de postura, de atitude.
Nem a escola sozinha, nem os pais sozinhos, nem os sistemas de regulamentação da IA sozinhos, nem institutos, ONGs, organizações sozinhas vão conseguir resolver os problemas que advêm da relação humana com as tecnologias. Isso é um esforço conjunto frente a questões para as quais ninguém tem resposta, ainda.
Mas, tem algo que pode ser feito já, e que não depende de ninguém além de você mesmo: aceitar que existe um problema e se envolver com ele. Procurar saber. Acordar. Vamos juntos.
Mês passado, fiz várias conferências sobre IA, dados, algoritmos etc para públicos diferentes. Uma delas, em especial, eu amei fazer e queria destacar aqui: a palestra “Um robô na família? Educação parental em tempos de inteligência artificial”, para os pais e responsáveis pelos alunos do Colégio Ao Cubo.
Eu achei bastante desafiador falar para eles sobre como a IA tem mudado as redes sociais, as plataformas digitais e quais os efeitos de uma “conversa” com um chatbot, que na verdade não é uma conversa como seria entre seres humanos. Falei sobre privacidade de dados, economia da atenção, os enviesamentos nas plataformas, o fato de estarmos “presos” nessas redes e por que razão isso acontece.
Mas o que achei mais desafiador foi procurar uma maneira de apoiar, de fornecer um horizonte para eles, não apenas apontando críticas e problemas mas também ideias sobre o que fazer. Mostrar só os problemas ficaria muito sufocante!
Por isso, foquei a segunda metade da palestra em uma série de ideias e ações possíveis em que eles (e todos nós) podem se envolver frente às novas características das tecnologias digitais e os seus desdobramentos. Com relação à transparência e à ética no uso de dados de crianças e adolescentes, em específico, sugeri que eles se envolvessem nos debates, pesquisassem e ficassem atentos ao que está sendo produzido, discutido e investigado nesse sentido.
A participação da sociedade civil é essencial quando se trata de dados nossos, das nossas crianças, circulando na rede e sendo usados de uma forma nem sempre responsável e capaz de beneficiar as pessoas.
O vídeo da minha palestra está disponível no YouTube do colégio Ao Cubo, neste link aqui. Vou adorar se mais gente for lá ver e me dizer o que achou! Mas, abaixo, deixo para vocês um link não da minha apresentação, mas de um TED de 12 minutos da Nina da Hora, que muito admiro e que explica de maneira simples e objetiva a razão pela qual você deve se envolver nesse debate. Não percam e enviem a todos os amigos e conhecidos. Sério!
#ia#dados#data#privacidade#algoritmos
Imagem do post: Alina Constantin / Better Images of AI / Handmade A.I / CC-BY 4.0
Lidar com a informação faz parte do meu trabalho de jornalista e de pesquisadora, bem como lidar com a desinformação. Desde 2004 eu trabalho com comunicação digital, o que me proporcionou a experiência de viver a internet antes e depois das redes sociais. Na verdade, antes e depois dos algoritmos. A virada das plataformas digitais para plataformas algorítmicas, alimentadas por big data (os dados dos usuários), acontece de maneira casada com a popularização dos smartphones. Os dispositivos móveis, afinal, facilitam o compartilhamento de dados em tempo real, incrementando as redes neurais artificiais e garantindo que elas operem, já que precisam dos dados dos usuários para fazer previsões e oferecer conteúdos relacionados, “personalizados”.
Isso parecia um bom recurso, numa época em que se preconizava que a internet poderia ser uma alternativa à mídia de massa, tratando nichos de público de maneiras diferentes e garantindo que os mais diversos perfis de pessoas acessassem conteúdos que lhes fosse interessantes (o livro “A Cauda Longa” fala sobre isso). Mas, na verdade, a busca incessante por personalização na Web culminou na criação de “bolhas” de desinformação. Cada um vivendo no “seu mundo”, habitando mundos pequenos e circulares – reduzidos a grupos de WhatsApp, por exemplo – em que a ciência e a informação de qualidade dão lugar às notícias falsas e nada embasadas. Hoje, para tornar isso ainda mais grave ou desafiador, as plataformas baseadas em aprendizagem de máquina são construídas de modo a fazer com que os usuários naveguem de determinadas maneiras pré-determinadas, gerando dados já dentro do que os sistemas são programados para gerar.
Estamos presos em uma circularidade. Quando ela é cercada por muros que não deixam as pessoas acessarem notícias reais, embasadas, e terem acesso à ciência, elas ficam isoladas em círculos de desinformação. Isso foi levado à máxima potência com a eleição da extrema-direita no Brasil, completamente impulsionada por notícias falsas disseminadas dessa maneira. O problema é que as big techs, ou seja, as empresas que mobilizam as plataformas digitais e manipulam os nossos dados, são as mesmas plataformas onde a informação – e a desinformação – circulam. Por isso venho trabalhando, como pesquisadora, educadora e jornalista, para que o público “acorde” e perceba que está sendo levado à desinformação.
É preciso alertar para a construção desses muros invisíveis que isolam as pessoas em círculos de desinformação, e consequentemente de desolação. Simplesmente não é possível dissociar disso tudo os grandes e complexos problemas que temos para enfrentar hoje como humanidade. Muitas vezes, “narrativas da sutileza” contribuem para que alguns vejam os problemas de maneira minimizada – a urgência climática, que alguns preferem ler como “acasos”, “ciclos naturais do planeta” e daí por diante; as guerras que viraram genocídios; as brigas que são, na verdade, crimes; a xenofobia disfarçada de acordo internacional e por aí vai. (Des)informação é uma questão educacional, científica, comunicacional, social, cultural e política.
No dia 30 de outubro, fiz uma palestra com este título, “Um robô na família – Educação parental em tempos de Inteligência Artificial”, a convite do Colégio Ao Cubo. Foi uma oportunidade muito rica não apenas de compartilhar conteúdo e conhecimento, mas de aprender. É assim que vejo estes momentos, como momentos em que aprendo, tomo conhecimento das questões que mais chamam a atenção das pessoas, e percebo como posso me aperfeiçoar mais e seguir pesquisando.
O tema não é nada simples; afinal, é complexo pesquisar as tecnologias digitais, a inteligência artificial e a relação humana com as essas tecnologias. No meu doutorado, pesquisei a cognição humana e sua relação com a IA, partir da filosofia da educação. Isso significa que meu foco está na maneira como seres humanos lidam com as tecnologias, mais do que nas especificidades das tecnologias em si. Eu pesquiso a maneira como seres humanos aprendem, percebem o mundo, e os impactos que as tecnologias têm ou podem vir a ter sobre as nossas experiências. Mesmo assim, nessa palestra passei rapidamente por alguns conceitos técnicos de IA, que se fazem necessários para entender o raciocínio proposto. Em seguida, passo à reflexão que mais desenvolvi em meu trabalho, que é voltada para a maneira como nos sentimos ao lidar com tecnologias e como podemos melhorar a relação que temos com a IA e com outras tecnologias emergentes.
Para compreender essas relações, quando fiz minha tese foquei nas premissas que impulsionam as tecnologias algorítmicas de machine learning, e as contrastei com a complexidade da aprendizagem em seres humanos. Machine learning está presente, de várias maneiras, em diversas das tecnologias que usamos no cotidiano, como as plataformas de redes sociais, vários aplicativos e também é usada para treinar modelos de IA Generativa.
A partir desse entendimento, sigo compreendendo as novas tecnologias e as combinações de tecnologias que surgem e se modificam a cada momento, e como fica a nossa relação com elas nesse movimento.
Uma curiosidade é que o Chat GPT, que se popularizou tanto recentemente, surgiu até depois que eu já tinha defendido a tese, em janeiro de 2023. Isto é, eu não pesquisei a fundo essa tecnologia, eu tinha testado outras tecnologias durante a minha pesquisa, mas não o GPT. Mesmo assim, eu já tinha ideia do poder de processamento da aprendizagem de máquina, pelo tanto que já tinha pesquisado. Quando o GPT veio, ele exibiu para todos o poder dos sistemas de processamento de linguagem natural e aprendizagem/aprendizado de máquina. Já as redes sociais usam machine learning e outros tipos de algoritmos nos seus mecanismos, para conseguir nos fazer recomendações, nos trazer anúncios e vender mais. As recomendações desses sistemas “prendem” as pessoas nessas plataformas, gerando vício e problemas psicológicos. É preciso pensar sobre tudo isso para fazer sentido desse mundo virtual tão complexo, certo? Temos que seguir sempre pensando, refletindo e nos informando!
A palestra está disponível a seguir, bem como alguns materiais citados. Quem desejar, pode me enviar comentários em consultoria@camilaleporace.com.br 😉
No dia 24 de outubro de 2023, fiz uma conferência a convite da Universidade Federal de Pernambuco que teve como título “Fazendo sentido de um mundo algorítmico”. Eu procurei, essencialmente, demonstrar como apliquei alguns conceitos do enativismo para o entendimento da nossa relação com os sistemas algorítmicos que nos circundam.
Porque somos sense-makers, somos capazes de fazer sentido do mundo, com as nossas capacidades cognitivas calcadas na corporificação, nas emoções, na empatia.
O conceito de autonomia enativista, combinado ao conceito de participatory sense-making, pode nos ajudar a compreender como podemos desenvolver as mais variadas formas de interação, diálogo e negociação, em vários níveis, do mais básico a aqueles que atingem países e organizações.
Autonomia, no enativismo, significa não independência do meio, mas estar em equilíbrio com o meio.
Temos condição de melhorar cada vez mais as interações com o nosso meio, e deixamos o nosso legado para os próximos sense-makers, pois enativismo também leva em conta o histórico das nossas evoluções. Somos tão mais do que os algoritmos e os dados! Somos sense-makers, e os sistemas artificiais não são.
E isso é interessante para pensarmos desde as nossas interações conversacionais mais corriqueiras do dia-a-dia – e como as interações com chats bots e sistemas artificiais em geral não são interações, de fato – até as duras negociações internacionais pela paz em contextos difíceis de guerra. Em todos os momentos, somos sense-makers fazendo sentido do mundo em que vivemos e tentando reequilibrar as nossas relações com o meio.
Fazer sentido de um mundo algorítmico ainda é bastante difícil, mas ofereci algumas sugestões e indicações para refletirmos sobre isso, na apresentação. A conferência está disponível a seguir, bem como alguns materiais citados. Quem desejar, pode me enviar comentários em consultoria@camilaleporace.com.br 😉
Alguns dos livros e artigos que usei como base são estes:
BANNELL, MIZRAHI E FERREIRA (Orgs.) Deseducando a Educação – Mentes, Materialidades e Metáforas – Disponível em http://www.editora.puc-rio.br/cgi/cgilua.exe/sys/start.htm?infoid=881&sid=3
DI PAOLO, E. A., BURHMANN, T. E BARANDIARAN, X, E. Sensorimotor Life – An Enactive Proposal. Oxford: Oxford University Press, 2017.
DI PAOLO, E. The Enactive Conception of Life. In: NEWEN, A., DEBRUIN, L. & GALLAGHER, S. The Oxford Handbook of 4E Cognition.Oxford: Oxford University Press, 2018
DI PAOLO, E. A.; CUFFARI, E. C. & DE JAEGHER, H. Linguistic Bodies.The Continuity between Life and Language. Cambridge: MIT Press, 2018.
DI PAOLO, E., ROHDE, M. & DE JAEGHER. Horizons for the Enactive Mind: Values, Social Interaction, and Play. In: Stewart, J., Gapenne, O. e DiPaolo, E. Enaction – Toward a New Paradigm for Cognitive Science. Cam-bridge: MIT Press, 2010.
As traduções que fiz de textos de autores dos 4Es e da fenomenologia estão aqui: