Material complementar à palestra “Um robô na família – Educação parental em tempos de Inteligência Artificial”, Colégio Ao Cubo, 30 de outubro de 2023

No dia 30 de outubro, fiz uma palestra com este título, “Um robô na família – Educação parental em tempos de Inteligência Artificial”, a convite do Colégio Ao Cubo. Foi uma oportunidade muito rica não apenas de compartilhar conteúdo e conhecimento, mas de aprender. É assim que vejo estes momentos, como momentos em que aprendo, tomo conhecimento das questões que mais chamam a atenção das pessoas, e percebo como posso me aperfeiçoar mais e seguir pesquisando.

O tema não é nada simples; afinal, é complexo pesquisar as tecnologias digitais, a inteligência artificial e a relação humana com as essas tecnologias. No meu doutorado, pesquisei a cognição humana e sua relação com a IA, partir da filosofia da educação. Isso significa que meu foco está na maneira como seres humanos lidam com as tecnologias, mais do que nas especificidades das tecnologias em si. Eu pesquiso a maneira como seres humanos aprendem, percebem o mundo, e os impactos que as tecnologias têm ou podem vir a ter sobre as nossas experiências. Mesmo assim, nessa palestra passei rapidamente por alguns conceitos técnicos de IA, que se fazem necessários para entender o raciocínio proposto. Em seguida, passo à reflexão que mais desenvolvi em meu trabalho, que é voltada para a maneira como nos sentimos ao lidar com tecnologias e como podemos melhorar a relação que temos com a IA e com outras tecnologias emergentes.

Para compreender essas relações, quando fiz minha tese foquei nas premissas que impulsionam as tecnologias algorítmicas de machine learning, e as contrastei com a complexidade da aprendizagem em seres humanos. Machine learning está presente, de várias maneiras, em diversas das tecnologias que usamos no cotidiano, como as plataformas de redes sociais, vários aplicativos e também é usada para treinar modelos de IA Generativa.

A partir desse entendimento, sigo compreendendo as novas tecnologias e as combinações de tecnologias que surgem e se modificam a cada momento, e como fica a nossa relação com elas nesse movimento.

Uma curiosidade é que o Chat GPT, que se popularizou tanto recentemente, surgiu até depois que eu já tinha defendido a tese, em janeiro de 2023. Isto é, eu não pesquisei a fundo essa tecnologia, eu tinha testado outras tecnologias durante a minha pesquisa, mas não o GPT. Mesmo assim, eu já tinha ideia do poder de processamento da aprendizagem de máquina, pelo tanto que já tinha pesquisado. Quando o GPT veio, ele exibiu para todos o poder dos sistemas de processamento de linguagem natural e aprendizagem/aprendizado de máquina. Já as redes sociais usam machine learning e outros tipos de algoritmos nos seus mecanismos, para conseguir nos fazer recomendações, nos trazer anúncios e vender mais. As recomendações desses sistemas “prendem” as pessoas nessas plataformas, gerando vício e problemas psicológicos. É preciso pensar sobre tudo isso para fazer sentido desse mundo virtual tão complexo, certo? Temos que seguir sempre pensando, refletindo e nos informando!

A palestra está disponível a seguir, bem como alguns materiais citados. Quem desejar, pode me enviar comentários em consultoria@camilaleporace.com.br 😉

Minhas redes:

Instagram @camilaaleporace

LinkedIn

Reportagens citadas

‘Meninas no limite’: por que as adolescentes sofrem mais com problemas causados por redes sociais (BBC)

Mais de 40 estados nos EUA processam Meta por prejudicar a saúde de menores (G1)

Autoestima baixa e ansiedade: saúde mental de jovens é pior que de outros grupos, aponta estudo

Referências

Autora – Sherry Turkle

Autora – Michelle Icard

Posts

Post de 2020 no meu blog sobre o documentário Social Dilemma (Netflix) (por Camila Leporace)

O necessário dilema das redes (por Priscila Gonsales)

Chat GPT

Como criar conta no Chat GPT

Chomsky: ChatGPT contra o pensamento crítico

ChatGPT, a inteligência artificial como você nunca viu, é a próxima revolução

GPT-5: Everything We Know So Far About OpenAI’s Next Chat-GPT Release

Redes sociais

Scaling the Instagram Explore recommendations system

Powered by AI: Instagram’s Explore recommender system

Processamento de Linguagem Natural

O que é processamento de linguagem natural (PLN)?

Regulação da IA

ANPD publica análise preliminar do Projeto de Lei nº 2338/2023, que dispõe sobre o uso da Inteligência Artificial

Unesco propõe regulamentação de IA generativa nas escolas

Organizações

Instituto Educa Digital

Center for Humane Technology

We and AI

Data Pop Alliance

Vídeos

Material complementar à conferência “Fazendo sentido de um mundo algorítmico”, para a UFPE, em 24 de outubro de 2023

No dia 24 de outubro de 2023, fiz uma conferência a convite da Universidade Federal de Pernambuco que teve como título “Fazendo sentido de um mundo algorítmico”. Eu procurei, essencialmente, demonstrar como apliquei alguns conceitos do enativismo para o entendimento da nossa relação com os sistemas algorítmicos que nos circundam.

Porque somos sense-makers, somos capazes de fazer sentido do mundo, com as nossas capacidades cognitivas calcadas na corporificação, nas emoções, na empatia.

O conceito de autonomia enativista, combinado ao conceito de participatory sense-making, pode nos ajudar a compreender como podemos desenvolver as mais variadas formas de interação, diálogo e negociação, em vários níveis, do mais básico a aqueles que atingem países e organizações.

Autonomia, no enativismo, significa não independência do meio, mas estar em equilíbrio com o meio.

Temos condição de melhorar cada vez mais as interações com o nosso meio, e deixamos o nosso legado para os próximos sense-makers, pois enativismo também leva em conta o histórico das nossas evoluções. Somos tão mais do que os algoritmos e os dados! Somos sense-makers, e os sistemas artificiais não são.

E isso é interessante para pensarmos desde as nossas interações conversacionais mais corriqueiras do dia-a-dia – e como as interações com chats bots e sistemas artificiais em geral não são interações, de fato – até as duras negociações internacionais pela paz em contextos difíceis de guerra. Em todos os momentos, somos sense-makers fazendo sentido do mundo em que vivemos e tentando reequilibrar as nossas relações com o meio.

Fazer sentido de um mundo algorítmico ainda é bastante difícil, mas ofereci algumas sugestões e indicações para refletirmos sobre isso, na apresentação. A conferência está disponível a seguir, bem como alguns materiais citados. Quem desejar, pode me enviar comentários em consultoria@camilaleporace.com.br 😉

Minha tese de doutorado está disponível aqui;

O ensaio citado está aqui:

Alguns dos livros e artigos que usei como base são estes:

BANNELL, MIZRAHI E FERREIRA (Orgs.) Deseducando a Educação – Mentes, Materialidades e Metáforas – Disponível em http://www.editora.puc-rio.br/cgi/cgilua.exe/sys/start.htm?infoid=881&sid=3

DI PAOLO, E. A., BURHMANN, T. E BARANDIARAN, X, E. Sensorimotor LifeAn Enactive Proposal. Oxford: Oxford University Press, 2017.

DI PAOLO, E. The Enactive Conception of Life. In: NEWEN, A., DEBRUIN, L. & GALLAGHER, S. The Oxford Handbook of 4E Cognition.Oxford: Oxford University Press, 2018

DI PAOLO, E. A.; CUFFARI, E. C. & DE JAEGHER, H. Linguistic Bodies.The Continuity between Life and Language. Cambridge: MIT Press, 2018.

DI PAOLO, E., ROHDE, M. & DE JAEGHER. Horizons for the Enactive Mind: Values, Social Interaction, and Play. In: Stewart, J., Gapenne, O. e DiPaolo, E. Enaction – Toward a New Paradigm for Cognitive Science. Cam-bridge: MIT Press, 2010.

As traduções que fiz de textos de autores dos 4Es e da fenomenologia estão aqui:

https://www.academia.edu/108145136/Deseducando_a_Educacao_parte_1

Dilemas da IA na educação

Indicações de leituras

Guidance for generative AI in education and research (UNESCO 2023)

Tese de Doutorado e Dissertação de Mestrado – Camila Leporace

APA / American Psychological Association. Self-instructional materials and devices. American Psychologist, 16(8), 512-513, 1961. https://doi.org/10.1037/h0043852.

BENJAMIN, L. T. A history of teaching machines. American Psychologist, 43(9), 703–712, 1988. https://doi.org/10.1037/0003-066X.43.9.703

CANDAU, V. M. Ensino Programado – Uma nova tecnologia didática. Rio de Janeiro: Inter edições, 1969.

PRESSEY, S. Development and Appraisal of Devices Providing Immediate Automatic Scoring of Objective Tests and Concomitant Self-Instruction, The Journal of Psychology, 29:2, 417-447, 1950. DOI: 10.1080/00223980.1950.9916043

SELWYN, N. Should Robots Replace Teachers? AI and the future of Education. Medford: Polity Press, 2019.

WILLIAMSON, B. Big Data in Education. The digital future of learning, policy and practice. London: SAGE Publications, 2017.

Deletar o passado para construir o futuro?

Já ouviu falar em “machine unlearning”, ou desaprendizagem de máquina?

Foto de Robynne Hu na Unsplash

É comum memórias serem “apagadas” do cérebro humano com o decorrer do tempo. Isso acontece por vários motivos, como o fato de informações corriqueiras não estarem armazenadas na nossa memória de longo prazo (temos classificados dois tipos, de curto prazo ou “memória de trabalho” e a memória de longo prazo). Também a memória de longo prazo oferece informações mais difusas, enquanto a memória de trabalho nos ajuda a lembrar de detalhes mais vívidos daquilo com que estamos em contato no presente.

Mas, e quando queremos lembrar de algo e a informação não “vem” de jeito nenhum? Existem vários estudos que investigam as razões pelas quais esquecemos coisas que preferíamos não esquecer. De todo modo, não é possível “pinçar” memórias dos nossos cérebros e simplesmente removê-las. Nossa mente não é um software rodando num hardware! Apesar disso, existem pesquisas sobre como poderíamos selecionar determinadas memórias para serem esquecidas de propósito, ajudando por exemplo as pessoas a se recuperarem de traumas. Enquanto isso, no mundo da IA, começou-se a falar em “machine unlearning”, ou desaprendizagem de máquina, em referência à aprendizagem de máquina. O que é isso?

A ideia é retirar dos modelos de IA – na forma de machine learning – certas informações dos conjuntos de dados usados para treiná-los. Ou fazer os modelos “reaprenderem” parte dessas informações. Essa iniciativa não vem do nada. Ela tem a ver com o “direito ao esquecimento” (“Right to be Forgotten” ou “Right to Erasure”) previsto na legislação da União Europeia para a regulação da IA, a European Union’s General Data Protection Regulation (GDPR).

Um dos desdobramentos mais legais dessa iniciativa de machine unlearning seria fazer as máquinas “esquecerem” informações enviesadas e que aumentam o preconceito e a desinformação. Mas, mesmo quando se trata de sistemas artificiais, esse também não é um desafio fácil. Afinal, as redes neurais artificiais se ramificam em muitas conexões paralelas, e então uma mesma informação faz parte de diversos desses grupos, não está apenas concentrada em um único lugar.

Para entender isso, basta pensar em como o preconceito se alastra e se infiltra em todas as dimensões do pensamento e da construção social e cultural. Como é que se poderia remover o preconceito da sociedade, como se fosse um vírus? Seria bom, usaríamos máscaras e desenvolveríamos vacinas para ele até que fosse superado (gatilho feelings!), mas não é assim. Também não adianta só remover textos nocivos da internet, porque as ideias ainda estarão lá, e os pensadores que as propagam, também.

Mas dá um alívio pensar que certos conjuntos de informações poderão ser removidos das bases de dados de IA se estiverem causando danos a pessoas. Não é justo que os dados se perpetuem de forma tal que nunca aquilo seja esquecido, ainda que a pessoa se arrependa, mude de opinião, queira que aquilo suma, enfim, esse sempre foi um desafio na Web. Mas fica mais difícil com a IA.

Também é importante podermos nos proteger, e especialmente preservar as nossas crianças e adolescentes das falhas nos sistemas de informação com os quais estamos enredados. Algumas delas podem causar grandes traumas e danos emocionais, principalmente nos mais novos.

No entanto, a verdade é que, se os sistemas erraram, processando dados prejudiciais a indivíduos e à sociedade, trabalhar para remover os dados das bases pode ser já de grande ajuda. Mas, quem tem que desaprender preconceitos, e (re)aprender a viver coletivamente e de maneira mais saudável e amorosa, somos nós enquanto sociedade. A IA, por sua vez, vai seguir refletindo os nossos problemas enquanto eles existirem. E querer retirá-los das bases de dados vai ser como enxugar gelo. Big data, big (complex) problems.

PS. Isso sem mencionar o fato de que criar regulamentos para a IA não resolve o assunto em definitivo, até porque não basta querer apagar dados sensíveis que a empresa dona dos dados assim o fará. Vale consultar este link aqui sobre isso.