LEPORACE. Camila De Paoli ALGORITMOSFERA – A cognição humana e a inteligência artificial, São Paulo: Hucitec e Rio de Janeiro: PUC-Rio, 2024.
LEPORACE. Camila De Paoli. Máquinas de ensinar analógicas: as precursoras da inteligência artificial na aprendizagem. Dossiê Especial 30 anos da Revista Comunicação e Educação da USP – “Do analógico à inteligência artificial: 30 anos de Comunicação & Educação” (Aceito para publicação; será publicado até 30 de junho de 2024)
LEPORACE, C. & GONDIN, V. C. Experimentar o mundo a partir do corpo: estética como uma dimensão da cognição humana. Educação On-Line, Rio de Janeiro, v. 16, n. 38, set-dez 2021, pp. 227-244.
FIGUEIREDO, L. de O., ZEM LOPES, A. M., VALIDORIO V. C., & MUSSIO, S. C. (2023). Desafios e impactos do uso da Inteligência Artificial na educação. Educação Online, 18(44), e18234408. https://doi.org/10.36556/eol.v18i44.1506
GONSALES, P. e KAUFMAN, D. IA NA EDUCAÇÃO: DA PROGRAMAÇÃO À ALFABETIZAÇÃO EM DADOS. ETD – Educação Temática Digital. Campinas, SP. v.25, p. 1-22, 2023.
Ainda restam algumas vagas para o curso de extensão A inteligência Artificial e a Aprendizagem Humana: Novos Desafios e Caminhos, que darei junto ao professor Ralph Bannell, doutor em Pensamento Social e Político pela Universidade de Sussex, Inglaterra, pela PUC-Rio, e que começa dia 8 de maio.
Pensando em trazer uma oferta num horário bom para quem trabalha em horário comercial, o curso será às quartas, das 19h às 21h, e contará com discussões sobre a inteligência artificial, a mente e a cognição humana.
O legal desse enfoque é que você adquire um bom conhecimento para lidar com as novidades trazidas pela inteligência artificial não de uma forma ingênua, e nem acrítica, mas de uma maneira que você consegue assumir a liderança do processo. Inteligência artificial não é uma tendência, não é passageiro, não é moda, e também não é algo novo.
Claro que há novidades, pois sempre há inovações surgindo na área, mas o campo de pesquisa da IA existe desde a década de 1950. A história dele está entrelaçada com a história dos estudos sobre a mente humana. E é esse fio que o curso segue, para passar por temas como a aprendizagem humana e a aprendizagem de máquina, o corpo e as emoções nos processos de aprendizagem, as grandes questões estéticas e éticas envolvendo algoritmos, entre outros. Um curso muito útil e importante para professores, gestores escolares, profissionais em busca de compreender como lidar com a IA.
Obrigada a todos que estiveram presentes e, mais uma vez, ao colégio pelo convite 🙂
Regulamentação da IA no Brasil
[Ainda não existe algo específico para a educação, mas deixo aqui links gerais sobre o assunto, e recomendo a leitura do guia da Unesco para a IA generativa na educação, aqui, em inglês]
No dia 30 de outubro, fiz uma palestra com este título, “Um robô na família – Educação parental em tempos de Inteligência Artificial”, a convite do Colégio Ao Cubo. Foi uma oportunidade muito rica não apenas de compartilhar conteúdo e conhecimento, mas de aprender. É assim que vejo estes momentos, como momentos em que aprendo, tomo conhecimento das questões que mais chamam a atenção das pessoas, e percebo como posso me aperfeiçoar mais e seguir pesquisando.
O tema não é nada simples; afinal, é complexo pesquisar as tecnologias digitais, a inteligência artificial e a relação humana com as essas tecnologias. No meu doutorado, pesquisei a cognição humana e sua relação com a IA, partir da filosofia da educação. Isso significa que meu foco está na maneira como seres humanos lidam com as tecnologias, mais do que nas especificidades das tecnologias em si. Eu pesquiso a maneira como seres humanos aprendem, percebem o mundo, e os impactos que as tecnologias têm ou podem vir a ter sobre as nossas experiências. Mesmo assim, nessa palestra passei rapidamente por alguns conceitos técnicos de IA, que se fazem necessários para entender o raciocínio proposto. Em seguida, passo à reflexão que mais desenvolvi em meu trabalho, que é voltada para a maneira como nos sentimos ao lidar com tecnologias e como podemos melhorar a relação que temos com a IA e com outras tecnologias emergentes.
Para compreender essas relações, quando fiz minha tese foquei nas premissas que impulsionam as tecnologias algorítmicas de machine learning, e as contrastei com a complexidade da aprendizagem em seres humanos. Machine learning está presente, de várias maneiras, em diversas das tecnologias que usamos no cotidiano, como as plataformas de redes sociais, vários aplicativos e também é usada para treinar modelos de IA Generativa.
A partir desse entendimento, sigo compreendendo as novas tecnologias e as combinações de tecnologias que surgem e se modificam a cada momento, e como fica a nossa relação com elas nesse movimento.
Uma curiosidade é que o Chat GPT, que se popularizou tanto recentemente, surgiu até depois que eu já tinha defendido a tese, em janeiro de 2023. Isto é, eu não pesquisei a fundo essa tecnologia, eu tinha testado outras tecnologias durante a minha pesquisa, mas não o GPT. Mesmo assim, eu já tinha ideia do poder de processamento da aprendizagem de máquina, pelo tanto que já tinha pesquisado. Quando o GPT veio, ele exibiu para todos o poder dos sistemas de processamento de linguagem natural e aprendizagem/aprendizado de máquina. Já as redes sociais usam machine learning e outros tipos de algoritmos nos seus mecanismos, para conseguir nos fazer recomendações, nos trazer anúncios e vender mais. As recomendações desses sistemas “prendem” as pessoas nessas plataformas, gerando vício e problemas psicológicos. É preciso pensar sobre tudo isso para fazer sentido desse mundo virtual tão complexo, certo? Temos que seguir sempre pensando, refletindo e nos informando!
A palestra está disponível a seguir, bem como alguns materiais citados. Quem desejar, pode me enviar comentários em consultoria@camilaleporace.com.br 😉
No dia 24 de outubro de 2023, fiz uma conferência a convite da Universidade Federal de Pernambuco que teve como título “Fazendo sentido de um mundo algorítmico”. Eu procurei, essencialmente, demonstrar como apliquei alguns conceitos do enativismo para o entendimento da nossa relação com os sistemas algorítmicos que nos circundam.
Porque somos sense-makers, somos capazes de fazer sentido do mundo, com as nossas capacidades cognitivas calcadas na corporificação, nas emoções, na empatia.
O conceito de autonomia enativista, combinado ao conceito de participatory sense-making, pode nos ajudar a compreender como podemos desenvolver as mais variadas formas de interação, diálogo e negociação, em vários níveis, do mais básico a aqueles que atingem países e organizações.
Autonomia, no enativismo, significa não independência do meio, mas estar em equilíbrio com o meio.
Temos condição de melhorar cada vez mais as interações com o nosso meio, e deixamos o nosso legado para os próximos sense-makers, pois enativismo também leva em conta o histórico das nossas evoluções. Somos tão mais do que os algoritmos e os dados! Somos sense-makers, e os sistemas artificiais não são.
E isso é interessante para pensarmos desde as nossas interações conversacionais mais corriqueiras do dia-a-dia – e como as interações com chats bots e sistemas artificiais em geral não são interações, de fato – até as duras negociações internacionais pela paz em contextos difíceis de guerra. Em todos os momentos, somos sense-makers fazendo sentido do mundo em que vivemos e tentando reequilibrar as nossas relações com o meio.
Fazer sentido de um mundo algorítmico ainda é bastante difícil, mas ofereci algumas sugestões e indicações para refletirmos sobre isso, na apresentação. A conferência está disponível a seguir, bem como alguns materiais citados. Quem desejar, pode me enviar comentários em consultoria@camilaleporace.com.br 😉
Alguns dos livros e artigos que usei como base são estes:
BANNELL, MIZRAHI E FERREIRA (Orgs.) Deseducando a Educação – Mentes, Materialidades e Metáforas – Disponível em http://www.editora.puc-rio.br/cgi/cgilua.exe/sys/start.htm?infoid=881&sid=3
DI PAOLO, E. A., BURHMANN, T. E BARANDIARAN, X, E. Sensorimotor Life – An Enactive Proposal. Oxford: Oxford University Press, 2017.
DI PAOLO, E. The Enactive Conception of Life. In: NEWEN, A., DEBRUIN, L. & GALLAGHER, S. The Oxford Handbook of 4E Cognition.Oxford: Oxford University Press, 2018
DI PAOLO, E. A.; CUFFARI, E. C. & DE JAEGHER, H. Linguistic Bodies.The Continuity between Life and Language. Cambridge: MIT Press, 2018.
DI PAOLO, E., ROHDE, M. & DE JAEGHER. Horizons for the Enactive Mind: Values, Social Interaction, and Play. In: Stewart, J., Gapenne, O. e DiPaolo, E. Enaction – Toward a New Paradigm for Cognitive Science. Cam-bridge: MIT Press, 2010.
As traduções que fiz de textos de autores dos 4Es e da fenomenologia estão aqui:
APA / American Psychological Association. Self-instructional materials and devices. American Psychologist, 16(8), 512-513, 1961. https://doi.org/10.1037/h0043852.
CANDAU, V. M. Ensino Programado – Uma nova tecnologia didática. Rio de Janeiro: Inter edições, 1969.
PRESSEY, S. Development and Appraisal of Devices Providing Immediate Automatic Scoring of Objective Tests and Concomitant Self-Instruction, The Journal of Psychology, 29:2, 417-447, 1950. DOI: 10.1080/00223980.1950.9916043
SELWYN, N. Should Robots Replace Teachers? AI and the
future of Education. Medford: Polity Press, 2019.
WILLIAMSON, B. Big Data in Education. The digital future of learning, policy and practice. London: SAGE Publications, 2017.
Alguns dos livros e artigos que usei como base são estes:
DI PAOLO, E. A., BURHMANN, T. E BARANDIARAN, X, E. Sensorimo-tor Life. An Enactive Proposal. Oxford: Oxford University Press, 2017.
DI PAOLO, E. The Enactive Conception of Life. In: NEWEN, A., DEBRUIN, L. & GALLAGHER, S. The Oxford Handbook of 4E Cognition.Oxford: Oxford University Press, 2018
DI PAOLO, E. A.; CUFFARI, E. C. & DE JAEGHER, H. Linguistic Bodies.The Continuity between Life and Language. Cambridge: MIT Press, 2018.
DI PAOLO, E., ROHDE, M. & DE JAEGHER. Horizons for the EnactiveMind: Values, Social Interaction, and Play. In: Stewart, J., Gapenne, O. e DiPaolo, E. Enaction – Toward a New Paradigm for Cognitive Science. Cam-bridge: MIT Press, 2010.
DREYFUS, H. What Computers Still Can’t Do. MIT Press: New York, NY,USA: 1992.
DREYFUS, H. Skillful Coping – Essays on the phenomenology of everydayperception and action. Oxford: Oxford University Press, 2016
Foi publicado num dossiê temático da Revista Perspectiva Filosófica um ensaio meu intitulado “Another brick in the wall – Threats to Our Autonomy as Sense-Makers When Dealing With Machine Learning Systems”. A tradução em português (que acabou saindo um pouquinho diferente na revista) seria algo “Mais um tijolo na parede – Ameaças à Nossa Autonomia como Sense-Makers quando lidamos com sistemas de aprendizagem de máquina”.
Ter esse ensaio publicado significa muito. Não somente porque uma publicação acadêmica é sempre algo de muito valor para nós que batalhamos para tocar as nossas pesquisas para a frente, mas porque nele eu elaboro uma parte importante do argumento que está presente na minha tese. Ela foi já entregue à banca e a defesa será em janeiro de 2023. Também é uma publicação importante porque está numa edição especial da revista que é dedicada à Fenomenologia, à Cognição e à Afetividade – justamente os temas tratados na minha tese. E, como se não bastassem todos esses motivos de alegria, meu trabalho está publicado ao lado de outros assinados por grandes pesquisadores nessas áreas.
Para quem não conhece bem os trâmites, publicar um artigo numa revista cientifica exige escrever e submeter o trabalho à avaliação anônima de pareceristas que podem ou não aprová-lo para ser publicado. Podem também aprovar, porém sob a condição de que o autor faça certas modificações. Eu recebi sugestões ótimas para o meu, e procurei acatar todas as que achei pertinentes, num processo que foi muito rico para mim.
Optei por escrever o ensaio em inglês porque quis abri-lo a pesquisadores consagrados que não falam português. Porque quis me inserir num debate que está ainda mais forte fora do Brasil. Mas explico as ideias ali presentes na tese, até com mais detalhes, e em breve quero fazer uma tradução dele para postar aqui no blog.
Agradeço a todos que me apoiaram para que essa publicação acontecesse e à Revista Perspectiva Filosófica pela oportunidade e privilégio de estar nesse dossiê. Para ler a revista e o artigo:
Você provavelmente conhece alguém que se casou com uma pessoa que conheceu pelo Tinder, OKCupid ou outro app de relacionamentos. Talvez esteja cansado ou cansada da sua vida de solteiro/a e esteja até pensando em dar uma chance para um desses aplicativos, ou já é usuário ativo e engajado. Quem sabe aparece alguém bacana? Pode ser. Mas você já parou para pensar em como funcionam esses apps?
Tudo o que você faz quando está logado/a num app como o Tinder serve para que esse app lhe traga possíveis matches. Até mesmo as suas mensagens “privadas” trocadas com os possíveis “candidatos” a dates entram na análise de dados dos algoritmos. E não é só o que você faz dentro do aplicativo que alimenta a base de dados desse software. Por exemplo, se você topa sincronizar as suas contas de redes sociais como o Instagram, elas passam a servir também como fonte para que o app “conheça” você melhor e dê as suas flechadas para ajudar na busca pelo grande amor. Tudo em que você clica nessas redes é detectado, rastreado e armazenado para ser devorado pelos sistemas de machine learning por trás desses apps.
Claro que, como esses aplicativos são parecidos com álbuns de figurinhas em que o usuário avalia o que lhe chama a atenção, são as características físicas aparentemente mais desejadas que vão criando filtros para que sejam mostrados perfis de acordo. Além disso, a opinião comum dos usuários, no sentido da percepção conjunta, também é levada em consideração. Isso significa que as preferências e similaridades entre usuários são usadas para fazer recomendações. E isso pode ser bem estranho.
Como funciona a “filtragem colaborativa”?
Vieses, preconceitos e a circularidade em que você acaba preso
“A maioria (dos aplicativos de relacionamentos) depende de uma combinação de preferências declaradas – o que você diz ao app que pretende num parceiro, seja explicitamente nas suas definições ou implicitamente através de engajamento – e de algo chamado filtragem colaborativa. Isto significa que uma aplicação procura padrões a partir das pessoas a quem os utilizadores disseram sim ou não, e depois tenta perceber como se assemelham a outros utilizadores para fazer previsões sobre quem vai acabar por gostar de quem. É semelhante à forma como o TikTok seleciona vídeos para você ver e a Amazon empurra você para as compras” (fonte: Wired)
Sabe os preconceitos e vieses que existem no discurso das atrações em geral, no mundo não virtual, mas físico mesmo? As características físicas que costumam ser enaltecidas nos filmes, no Instagram, no TikTok, enquanto outras são marginalizadas? Então. Essas tendências acabam ainda mais fortalecidas quando os algoritmos entram em jogo, especialmente a partir desse mecanismo que citei, da captura de percepções coletivas. Se você dá “like” em determinadas pessoas, com certas características, acabam aparecendo para você mais e mais pessoas com aquelas mesmas características, e menos com outras; mas isso é pior quando os algoritmos se baseiam não exatamente em você para fazer isso, mas em pessoas que eles consideram parecidas com você.
Isso gera uma circularidade que pode acabar lhe mantendo longe de pessoas que poderiam ser interessantes para o seu perfil.
Tem uma outra questão: todo mundo tem direito a mudar de ideia, e assim as nossas preferências podem simplesmente mudar no decorrer do tempo. Enquanto as pessoas podem mudar rápido, os algoritmos demoram um bom tempo para incorporar essas mudanças.
Para além da atração física
Na minha opinião, o problema maior de deixar os cupidos virtuais acertarem suas flechas por você é que nesses apps entram em jogo apenas a aparência física e aqueles gostos mais superficiais, que estão ao alcance dos algoritmos. Claro que muitos relacionamentos começam mesmo com uma troca de olhares baseada em aparência e atração física. Mas, e aqueles elementos que não conseguimos bem dizer de onde vêm, e às vezes são arrebatadores, decisivos para ficarmos com alguém? Quantas vezes acabamos na cama com um sujeito ou sujeita que nunca imaginávamos, ou nos vemos beijando uma boca absolutamente imprevisível – e gostando?! Amigos, pessoas com quem temos afinidades, trocas de ideias mágicas e com quem de repente nos vemos envolvidos.
Será que os algoritmos nos levariam a encontros assim, ou nós mesmos acabaríamos nos traindo, selecionando apolos e afrodites que são colírios para os olhos mas não dizem nada à alma?
Claro que há aí também uma boa dose do componente sorte. A roleta do amor gira em todos os lugares, e pode girar – e até acertar! – na algoritmosfera, também. Mas será que as nossas chances de nos dar bem não diminuem já que os algoritmos deixam de “ver” tanta coisa – e não são capazes de sentir nada? Ainda por cima, corremos o risco enorme de ter decepções como aquela de adorar uma casa online e, ao visitá-la pessoalmente, achar péssima…
Aliás, sobre os desapontamentos, uma notícia ruim: eles acontecem com muita frequência. O Tinder e o Grindr estão na lista dos apps que mais deixam as pessoas tristes!
Parece que as minhas intuições sobre por que os apps de dates falham tanto estão na direção certa. Eis algumas hipóteses sobre isso (com informações deste link):
Sistemas de machine learning operam estritamente a partir daquilo que lhes é fornecido. Alguns elementos são altamente previsíveis, enquanto outros não são. E ainda não se sabe exatamente de onde a atração vem, como destaca a pesquisadora Samantha Joel, da Western University, no Canadá, que investiga a maneira como as pessoas tomam decisões relacionadas ao amor.
Quando tentamos analisar os fatores que realmente pesam para nós, enquanto tentamos entender o que sentimos por alguém, podemos sentir vergonha dos fatores que nos são atraentes ou até mesmo ser completamente inconscientes a respeito de uma certa preferência que temos.
Se questionados sobre fatores que nos atraem, podemos, por exemplo, dizer que é o nível de escolaridade de alguém ou até declarar que altura é um fator inegociável; e aí, quando encontramos as pessoas na vida real, aparentemente mudamos tudo. Quem disse que nunca namoraria alguém que não fez faculdade se apaixona por um artista que aprendeu fazendo, e quem disse que nunca ficaria com alguém baixinho se apaixona pelo Charles Chaplin.
Enfim! Quando se trata de amor, nós mesmos não nos conhecemos direito, então… como os algoritmos haveriam de dar conta desse recado extremamente espinhoso?
Ainda assim, é preciso arriscar. Então, independentemente da loteria em que você vai jogar, desejo-lhe sorte. Ops, mas dizem que é sorte no jogo e azar no amor… então, melhor não jogar na Mega Sena. Vai que você ganha. Como ficará o amor? Você não vai querer alguém que só esteja interessado na sua conta bancária, né? Pois os algoritmos conhecem o estado da nossa saúde financeira também. Temos que ser cautelosos 😉