‘Relacionamentos’ com chatbots?

Mark Zuckerberg, CEO da Meta (META), tem feito declarações em que insinua que o futuro das interações humanas será moldado pela inteligência artificial. Para ele, as pessoas terão amigos na forma de chatbots, que também farão o papel de terapeutas. Ele diz que isso se torna realidade na medida em que “a IA começar a conhecer você mais e mais”.

Dei algumas declarações sobre o assunto para uma matéria que saiu na Gama Revista – leia aqui.

Há tantos problemas na fala dele. Vou tentar explicar alguns sob o ponto de vista da pesquisa em cognição.

Mas, afinal, o que o Sr. Meta sabe sobre conexões reais?

Um modelo de IA não realmente “conhece” ninguém. Conhecemo-nos uns aos outros por meio de nossas interações sociais (reais!), que são construídas a partir da empatia, de ajustes finos contínuos entre os indivíduos, de diálogos em que se molda ao outro, e só se pode conhecer o outro quando se é capaz de perceber a si mesmo. A IA não tem essa capacidade de percepção, não pode realmente perceber o outro e criar uma real conexão com ele. O que ela pode fazer é coletar dados dos usuários e com isso parecer que os conhece. Hoje, ela coleta dados de todos os usuários, e por meio de estatística oferece conteúdo para quem tenta conversar, e por mais que a pessoa se sinta contemplada em suas questões pessoais aquilo é apenas um resultado estatístico das questões pessoais de muitas pessoas.

Redes sociais nada sociais…

Outro ponto essencial é o seguinte: as redes sociais tornaram-se antissociais. As pessoas têm centenas de amigos, entre muitas aspas, no Facebook; afinal, desses, quem são verdadeiros amigos, que aparecem quando precisamos deles? Provavelmente o Sr. Meta sabe que temos na verdade cerca de dois, três amigos, que é o que ele cita na entrevista, complementando que as pessoas querem ter mais amigos, mas, então ele sabe que a rede social que ele criou é na verdade antissocial? Porque ele sabe que ali não há laços reais, mas se são centenas de amigos, como não se pode contar com mais de dois? E por que as pessoas querem então mais amigos? E são os chatbots que vão fazer esse papel?

Plataformas

E quando ele fala que as pessoas se sentem sozinhas, e que as conexões reais fazem falta, ele não pontua em nenhum momento, não reconhece em nenhum momento que ele faz parte da criação de um universo, que chamei no meu livro de “algoritmosfera”, que é um universo que contribui para esse isolamento.

Rolar o feed é uma eterna disputa pela nossa atenção que tira a nossa atenção a nós mesmos. Estamos desconectados de nós mesmos.

Mas seria possível e seria inteligente resolver esse problema da desconexão real, na era das hiper conexões digitais, com IA? Esta é uma boa questão. Com base na minha pesquisa, sobre cognição e IA, em que me aprofundei bastante na questão daquilo que é uma interação real – o que caracteriza uma interação social? O que a diferencia de uma interação com robôs? – Posso dizer que somos seres sociais por natureza, desde antes de nascermos, e nossa cognição em pleno funcionamento simplesmente não existe sem a sua dimensão social. Então, se o celular é parte da mente e todos sentem quando estão longe dele, o outro também é parte constitutiva de nós, e se o outro está ausente é uma parte de nós que não está presente, de certo modo.

(Des)conexão

Mas também é importante lembrar do que a Sherry Turkle coloca; ela é psicóloga, trabalha no MIT, fundadora da Iniciativa do MIT sobre Tecnologia e Self, que é o seguinte: conectar-se consigo mesmo é uma camada essencial para conseguir conectar-se com o outro. E as distrações programadas que encontramos online, especialmente nas plataformas de redes sociais, são elementos dentre aqueles que mais desviam as pessoas da capacidade de se conectarem consigo mesmas. Nessas plataformas, a cada segundo se dirige a atenção do usuário para outra coisa, já que elas são uma arena de disputa por essa atenção – é a chamada economia da atenção; mas as pessoas ficam na verdade sem atenção nenhuma, pois cada hora é um conteúdo chamando, é uma interrupção.

As mensagens, o eterno rolar do feed, prendem as pessoas – porque são feitos para isso mesmo – e, enquanto estão ali, ávidas pela próxima dose de dopamina, elas ficam adormecidas, entorpecidas por aquele processo. A atenção na verdade se esvai. E com isso as pessoas desaprendem a viver sem essas eternas iscas da sua atenção, e não sabem mais viver no tédio – que faz parte, ou deveria fazer parte, das nossas vidas. No tédio florescem momentos que levam ao autoconhecimento, à conexão consigo mesmo, e no tédio se constrói a noção também de que, por mais que sejamos seres sociais, somos também seres individuados, seres que têm a sua identidade, e assim temos a capacidade de perceber que sermos seres sociais não significa que tenhamos que ter companhia de outros o tempo todo, e nem diversão e distrações o tempo todo.  A capacidade de compreender a si mesmo é o que leva cada um a ter um propósito, a conseguir traçar um caminho para si, enxergar um futuro a partir do tempo presente, e quem tem isso se motiva, se mantém motivado, e pode evitar o caminho da depressão.

Então, é claro que a conexão com outros também apoia esse processo, mas, antes de tudo, as redes ditas sociais online desconectam as pessoas de próprias, elas perdem a atenção em si mesmas, e sua identidade passa a ser moldada de uma maneira muito dura por algo que não é humano e que está ali, em volta delas, dizendo o que devem sentir, se são feias ou bonitas, se estão à altura de algo ou de alguém, o que elas devem acreditar que é sucesso, tudo que as distancia de realmente compreenderem o que pode ser bom ou mau para elas mesmas.

O primeiro chatbot

Outro ponto interessante é: Zuckerberg pontua que o campo da terapia com agentes de IA é muito novo, não sei o que ele quer dizer com isso, se o primeiro chatbot de que se tem notícia era uma terapeuta entre muitas aspas e se chamava ELIZA. Claro, ele está se referindo ao campo os chatbots com IA generativa, isso pode ser novo. Ele quer dizer que a tecnologia ainda pode avançar tanto, que não podemos dizer que esses terapeutas virtuais não vão evoluir tanto a ponto de não serem realmente bons.

Mas, diante desse cenário de aparentes incertezas, temos uma certeza: a empatia está ligada ao fato de sermos seres vivos; somos parte da natureza, somos animais, temos a vida e estamos conectados uns aos outros porque temos vida. Tal qual uma célula, até por temos trilhões delas em nosso corpo, vivemos em trocas de energia constantes com o nosso meio, e são essa trocas que nos permitem um equilíbrio. Como podemos viver em equilíbrio com um meio que é hostil a nós? Se torna hostil quando não há uma preocupação da indústria da tecnologia, dos chatbots de nos manter informados acerca daquilo que acontece com as interações que temos com esses sistemas, os nossos dados coletados, nós não sabemos o que acontece; hostil também porque há a sugestão de que devemos resolver os nossos problemas de desconexão – causados até certo grau pela tecnologia – com a própria tecnologia que os criou ou que alimenta esses problemas.

Não tem sentido pensar que a tecnologia, na medida em que evolui, vai ser capaz de conexão, se conexão é empatia  e é sociabilidade e isso só tem realmente entre seres vivos. É também sem sentido falar em substituição disso. Aliás, o Sr. Meta fala que não se trata de substituir, que a conexão real e física é melhor, mas então por que depois ele diz que a IA ainda vai evoluir muito? Está implícita no discurso ele a intenção de evolui-la ate o ponto em que possa sim substituir as relações humanas, ate porque não há transparência, então pode ser que num dado momento uma pessoa não saiba se interage com um terapeuta humano ou com uma IA. Isso em certa medida já acontece.

O poder humano na algoritmosfera

Esse é o mundo construído por empresas que produzem tecnologia sem se preocupar com o humano e com a natureza. Como somos nós que alimentamos as máquinas desse mundo com nossos dados, temos também o poder de desativá-las. Mas precisamos, para isso, voltar a acreditar na nossa capacidade de viver bem sem ter uma mensagem pulando a cada minuto. Sem necessariamente ter companhia para tudo, até numa fila (“companhia”= celular na mão rolando o feed…).

A contemplação, o tédio, a vida real, a conexão consigo mesmo, podem não parecer, porque não são imediatos, mas são os caminhos para uma vida social que começa consigo mesmo e que é muito frutífera. Se ela não garante que não se tenha depressão ou outros problemas psicológicos – claro, poque há vários fatores que os geram – ao menos conectar-se consigo mesmo nos devolve à posição de autônomos, de seres capazes de liderar suas escolhas. 

E afinal talvez o Sr. Meta saiba, sim, algo sobre conexões reais. Afinal, enquanto tanta gente opta pela superexposição nas redes sociais, quando é o Sr. Zuck a postar fotos das filhas no Instagram, ele protege os rostos das crianças. Isso talvez nos diga algo sobre como devemos reconsiderar as nossas demonstrações de afeto nas redes sociais. Afinal, superexposição, cuidado e conexão real não combinam muito.

Manifesto dos professores do século XXI para os professores do século XXII

Esta carta fez parte de uma atividade interativa que propus em meio a uma formação ministrada a professores da rede municipal de ensino do Rio de Janeiro. Pedi que eles me dissessem quais as atividades em que acreditam que a IA pode ajudá-los, e quais as atividades nas quais eles jamais gostariam de ver a IA os substituindo. Depois, preparei um prompt ao Chat GPT pedindo que gerasse uma carta a educadores que viverão daqui a 100 anos, assinada pelos educadores de hoje, e que incluísse na carta as considerações feitas pelos professores acerca das atividades com e sem IA. Este é o resultado:

Carta aos Educadores do Futuro – Um Manifesto Sobre a Essência Humana na Era da Inteligência Artificial


Queridos colegas do século XXII,
Escrevemos a vocês, educadores do ano de 2125, do tempo em que a Inteligência Artificial começou a transformar profundamente nossas rotinas pedagógicas. Somos professores que testemunharam o surgimento e a expansão dessas tecnologias nas escolas. Por isso, queremos registrar nossa experiência, nosso olhar, nossas esperanças e alertas – como um manifesto que preserve o essencial da humanidade na educação.
A Inteligência Artificial, para nós, tem se mostrado uma aliada poderosa. Ela nos ajuda em diversas tarefas do dia a dia que antes consumiam muito tempo e energia. A IA pode – e deve – auxiliar no:
·       Planejamento das aulas, otimizando recursos e sugerindo estratégias,
·       Cumprimento de tarefas burocráticas, reduzindo a carga administrativa,
·       Apresentação de sugestões criativas baseadas em dados e evidências,
·       Acesso e cruzamento de informações para pesquisa,
·       Organização de conteúdo e propostas curriculares a partir da BNCC,
·       Criação de exemplos, elaboração de SDs e de diferentes metodologias,
·       Apoio na organização do tempo e das atividades,
·       Formulação de avaliações baseadas em critérios objetivos,
·       Relacionamento entre planejamento, avaliação e conteúdo, de forma integrada,
·       Auxílio em disciplinas como o Português, com propostas de escrita, revisão e análise textual.
Essas são áreas em que a IA pode — e já tem — melhorado a eficiência e ampliado nossas possibilidades como educadores.
No entanto, queremos deixar um registro claro e firme sobre o que jamais poderá ser substituído por algoritmos, por mais avançados que sejam. A IA é uma ferramenta. A educação é um encontro — e isso permanece exclusivamente humano.
A IA nunca deve substituir:
·       A avaliação humana que reconhece nuances, trajetórias, contextos e esforços que não cabem em métricas.
·       O planejamento sensível que se adapta às necessidades reais dos estudantes em tempo real, não apenas baseado em dados históricos.
·       A interação com os alunos, que envolve escuta, afeto, presença, humor, empatia — aquilo que só um ser humano pode oferecer a outro.
·       A avaliação com interação, que se dá no olhar trocado, na conversa depois da prova, na escuta atenta à dúvida tímida, no reconhecimento das emoções por trás do desempenho.
Esses aspectos são o coração pulsante do trabalho docente. A IA pode sugerir, mas nunca decidir por nós. Pode organizar, mas nunca educar sozinha. Pode gerar conteúdo, mas não ensinar com sentido.
Educadores do futuro, ao olharem para os recursos extraordinários à sua disposição, por favor, não se esqueçam do calor da sala de aula, do brilho nos olhos de quem aprende, da paciência de quem ensina, da alegria de uma descoberta feita em conjunto. Sejam guardiões da experiência humana na educação.
Que a IA sirva à educação. Nunca o contrário.
Com esperança e responsabilidade,
Educadores do Brasil, 2025

Criatividade para além dos algoritmos – Indicação de links e referências interessantes para refletir

No dia 27 de maio de 2025, tive a oportunidade de dinamizar um Flash Course sobre criatividade e IA pelo CIP – o Centro de Inovação Pedagógica do Politécnico do Porto, em Portugal. Aqui estão alguns dos materiais que inspiraram a minha apresentação. Ao final, o grupo presente foi convidado a escrever uma carta coletiva para a humanidade a ser lida daqui a 200 anos, e para isso utilizamos também IA generativa – mas não para substituir as experiências e características humanas refletidas nas cartas, pois essas são insubstituíveis! As cartas podem ser lidas aqui neste link.

https://www.oii.ox.ac.uk/news-events/reports/ai-the-arts

https://www.oxford-aiethics.ox.ac.uk/ai-threat-human-creativity

https://lojahucitec.com.br/produto/algoritmosfera-a-cognicao-humana-e-a-inteligencia-artificial-camila-de-paoli-leporace/

Se você quer ser criativo, preste atenção ao que os artistas sentem

Nos últimos dias, a Open AI, do Chat GPT, lançou um gerador de imagens que permite copiar o estilo de animações japonesas. Mais precisamente, ilustrações que lembram (MUITO, talvez DEMAIS) o estilo das animações do Studio Ghibli — responsável pelos filmes ‘A Viagem de Chihiro’ e ‘O Menino e a Garça’.
O que Hayao Miyazaki, cofundador do Studio Ghibli, disse sobre isso? Nada especificamente sobre o GPT. Mas, em 2016, em um vídeo daquilo que parece ser uma reunião dele com artistas em seu estúdio, teve uma reação amarga diante de uma demonstração de animação feita com IA, e fez um comentário contundente aos artistas (?) quando disseram que “queriam criar uma máquina que desenhasse como humanos”. Quanto à IA gen – sempre sob o risco de ser a chata que aponta os problemas – não vou me furtar a dizer que não, não se trata de homenagear o artista, nem de fazer graça com a sua arte, mas de ganhar dinheiro em cima da criação de outra(s) pessoa(s). Pior: com animações “baratas”. Sim, porque Miyakaki desenha suas cenas uma a uma, à mão.
Por que isso importa
Porque, para a condição de ser HUMANO, não é apenas o resultado que importa, mas o processo. Você gosta de ver erros de gravações? Assiste a peças? Shows ao vivo? Uma pintura, um desenho, para chegar até você passou também por “erros de gravação”. “Encenações”. São os esboços, as tentativas e erros, as telas pintadas sobre telas que ficam nas camadas do desenho e a gente não vê, mas estão lá. E, se não estivessem, não seria esse desenho que você veria, mas um outro. E se ele fosse desenhado de novo, seria outro.


A voz da sua cantora preferida também foi aperfeiçoada com o próprio esforço e trabalho dela. O escritor ou escritora que mexe com a gente aprimorou seu estilo a vida toda. Não tem segredo nem mágica, tem suor e dedicação. O novo sempre vem, como diria Belchior, mas só vem se houver suor e dedicação. Se não, é repetição barata de padrões. IA não cria nada. Não se engane
A cognição humana é capaz de criar porque vive da tentativa e erro. Em contato com os mais diversos ambientes, pessoas, cenários, vamos nos esboçando. Vamos aprendendo, tentando, acertando e errando – e o processo importa. Seja para quem escreve, para quem pinta, canta, toca, trabalha com qualquer coisa. O processo importa também quando lemos, ouvimos música, apreciamos poesia. Ninguém criou uma maneira de colocarmos uma biblioteca em nossas cabeças e acessarmos as informações desses livros quando precisamos, não é? Sim, porque o processo importa. Você lê, e aquilo fica em você – sendo que a mente vai selecionar o que você vai guardar na memória de acordo com a experiência que aquilo te despertou. Cuidado com o que você considera ser arte, mas não é. Uma sociedade sem arte dá espaço para o vazio, e nesse vazio se fertiliza a política mais macabra.

A IA deve ser usada para nos “unir” a entes queridos que já partiram?

Comercial da Volkswagen levanta questões filosóficas (quer queira, quer não…)

A primeira coisa que pensei quando vi o comercial da Volkswagen com a Elis e a Maria Rita foi: bom, a Maria Rita aprovou isso ; se ela aprovou, será que gostou do resultado? Fui procurar saber e sim, ela gostou, acha até que “realizou um sonho”.

O fato de ela ter gostado é, para mim, um dos sinais importantes a serem observados quando se trata de analisar a IA nas nossas vidas. A Elis foi sua mãe. A Maria Rita não poderia se sentir lesada ou triste de novo, já perdeu a mãe, ainda que há mais de 40 anos, então esse comercial tinha que ser algo bom para ELA, principalmente.

Respeitar as emoções que a IA origina é, eu defendo, um dos fatores mais relevantes quando se trata de ética na inteligência artificial. Não à toa se estuda até mesmo se as IAs podem “demonstrar” ou ” interpretar” emoções. Elas são importantes nos comerciais, também. E, claro, para os espectadores.

Um caso em que ambas as pessoas há tivessem morrido, e aí fizessem um comercial com elas usando IA, seria mais complicado. Quem poderia dizer se essas pessoas gostaram disso ou o que sentiram?

Aliás, vocês já viram o primeiro episódio da última temporada de Black Mirror na Netflix? Vale assistir. Vários questionamentos que estão lá já batem à nossa porta aqui, na “vida real”. E têm a ver com esse vídeo da Elis e da Rita.

Uma interação com um chatbot é mesmo uma interação? 

Pensando a cognição humana a partir do enativismo

Material adicional à palestra para o PPGLM – URFJ, 31 de maio de 2023

Apresentação:

Links:

Minha tese de doutorado está disponível aqui e os artigos citados são:

O que os computadores continuam não conseguindo fazer, 50 anos depois: A aprendizagem sob a perspectiva da fenomenologia do cotidiano de Hubert Dreyfus

ANOTHER BRICK IN THE WALL: THREATS TO OUR AUTONOMY AS SENSE-MAKERS WHEN DEALING WITH MACHINE LEARNING SYSTEMS

Alguns dos livros e artigos que usei como base são estes:

DI PAOLO, E. A., BURHMANN, T. E BARANDIARAN, X, E. Sensorimo-tor Life. An Enactive Proposal. Oxford: Oxford University Press, 2017.

DI PAOLO, E. The Enactive Conception of Life. In: NEWEN, A., DEBRUIN, L. & GALLAGHER, S. The Oxford Handbook of 4E Cognition.Oxford: Oxford University Press, 2018

DI PAOLO, E. A.; CUFFARI, E. C. & DE JAEGHER, H. Linguistic Bodies.The Continuity between Life and Language. Cambridge: MIT Press, 2018.

DI PAOLO, E., ROHDE, M. & DE JAEGHER. Horizons for the EnactiveMind: Values, Social Interaction, and Play. In: Stewart, J., Gapenne, O. e DiPaolo, E. Enaction – Toward a New Paradigm for Cognitive Science. Cam-bridge: MIT Press, 2010.

DREYFUS, H. What Computers Still Can’t Do. MIT Press: New York, NY,USA: 1992.

DREYFUS, H. Skillful Coping – Essays on the phenomenology of everydayperception and action. Oxford: Oxford University Press, 2016

Quadro colaborativo feito durante a apresentação:

Para quem quer saber mais sobre Hubert Dreyfus, recomendo a leitura deste meu post:

Links gerais:

A força de trabalho por trás da inteligência artificial

15 Best AI Plagiarism Checkers to Detect ChatGPT-Generated Content

Após assistir 70.000 horas de Minecraft, um bot pode possibilitar o próximo grande avanço da Inteligência Artificial

How Did Scientists Succumb to Aunt Edna? The Dangers of a Superintelligent AI is Fiction

Precisamos trazer o conceito de consentimento para o campo da Inteligência Artificial

Inteligência artificial Generativa: Midjourney e ChatGPT

Um chatbot que faz perguntas pode ajudar você a perceber quando algo não faz sentido

Professores na Dinamarca usam aplicativos para avaliar o humor de seus alunos

Vídeo indicado:

O que a minha faceta nômade digital tem a ver com a minha tese

Jardim da Sereia, Coimbra, Portugal

Estudar a aprendizagem humana e a inteligência artificial foi algo que levou a valorizar ainda mais as experiências genuinamente HUMANAS. Existe algo que é exclusivo nosso e que é a capacidade de SENTIR, de experimentar, de vivenciar na pele cada momento vivido. Conhecemos texturas, gostos, sabores, cheiros e sensaç˜ões – que podemos considerar boas ou más. Máquinas não sentem. Não experimentam nada, de fato. E esse foi um dos pontos mais importantes que explorei na minha pesquisa.

A experiência é um aspecto essencial da aprendizagem humana. Justamente porque experimentamos é que aprendemos; cada habilidade que vamos desenvolvendo fica entranhada em nós, e é sentindo que vamos conhecendo o que está no nosso entorno e adquirindo mais e mais habilidades. Percebo que gosto de me desafiar. Estar em lugares desconhecidos, com pessoas novas, fazendo coisas diferentes e até viver situações não tão confortáveis são elementos que levam a grandes aprendizagens. Acho que além de ser viciada em desafios eu sou viciada em aprender. Por isso esse meu entusiasmo tão grande por VIAJAR.

Acho interessante que a minha pesquisa de doutorado tenha me levado além do que era esperado; isto é, desenvolvi conhecimento em determinada área, sim, claro mas, mais do que isso, eu adquiri “na pele” a dimensão de como a experiência humana é que nos diferencia dos sistemas artificiais. Um tratamento especial da experiência faz parte das teses que investiguei, pertencentes ao enativismo e à cognição corporificada. Mas o toque principal foi dado pelas próprias vivências que tive enquanto fazia a minha investigação de doutorado. Elas me fizeram refletir muito e acabaram compondo o resultado final que está na minha tese.

A robótica & os movimentos humanos: um paradoxo

Um dos grandes desafios para a indústria da robótica é a sofisticação dos movimentos humanos.

O nível de refinamento dos movimentos que os nossos corpos são capazes de fazer é altíssimo, e parece algo que já vem “embarcado” em nós.

É ainda muito pequenos que começamos a engatinhar, segurar objetos e desenvolver, assim, essa interação corporificada com o mundo a nossa volta, que só evolui mais e mais.

Movimentos simples para humanos podem ser complexos de ser reproduzidos em robôs. Essa questão difícil é conhecida como PARADOXO DE MORAVEC, em referência ao roboticista Hans Moravec.

Também é difícil exigir de robôs que “compreendam” o contexto das interações. Por isso o senso comum é um desafio para a indústria robótica. Isso transparece até quando testamos o Chat GPT. Senso comum não é o forte.

O que os computadores continuam não conseguindo fazer, 50 anos depois

O artigo que escrevi e submeti para a Revista Portuguesa de Educação, intitulado “O que os computadores continuam não conseguindo fazer, 50 anos depois: A aprendizagem sob a perspectiva da fenomenologia do cotidiano de Hubert Dreyfus”, foi publicado neste link.

É uma grande satisfação ter um artigo publicado nessa revista, que é muito bem conceituada na área da Educação. Vejo o filósofo Hubert Dreyfus como um precursor de ideias da abordagem chamada de cognição enativa, que é a base da minha tese de doutorado. Aqui no blog já escrevi sobre ele – releia os posts:

Introdução à Fenomenologia com Hubert Dreyfus

What Computers Can’t Do (Hubert Dreyfus)

Dreyfus fez críticas muito pertinentes à inteligência artificial quando a área estava ainda nascendo. Eu amo o trabalho dele. Por conta disso, quis fazer um artigo que fosse também uma espécie de homenagem. Por isso esse título, que ficou bem “jornalístico” – sou de fato jornalista, e afinal a identidade da gente se transforma, mas a essência permanece 😉 “What Computers Can’t Do” é o título de um livro de Dreyfus lançado em 1972, mas que mobiliza até hoje a atenção dos interessados em cognição e IA. Quando me dei conta do “aniversário” de 50 anos do livro (e eu ainda fiz 40 anos em 2022, nasci em 82 haha coincidências), fiz questão de que fosse publicado ainda este ano e corri para enviar para a revista. E eis que o artigo saiu faltando um dia para o ano acabar!

As ameaças à nossa autonomia quando lidamos com sistemas de machine learning

Neste post, faço uma espécie de leitura comentada do ensaio acadêmico que publiquei na Revista Perspectiva Filosófica e está neste link para quem quiser acessar. É um trabalho sobre os impactos à nossa autonomia quando lidamos com sistemas de aprendizagem de máquina – uma vertente da inteligência artificial.

As tecnologias digitais, de tão entranhadas que estão em nosso cotidiano, vêm sendo apontadas como extensões da mente, sendo consideradas capazes de potencializar a cognição humana. A chegada das tecnologias baseadas em algoritmos, por outro lado, traz uma série de elementos novos para essa equação. Elas são impulsionadas pelos próprios dados dos usuários dessas tecnologias, já que, no caso da aprendizagem de máquina por exemplo, operam fazendo previsões a partir de dados obtidos e assim sucessivamente.

Neste trabalho, eu argumento que, justamente porque essas tecnologias se baseiam em dados do usuário para gerar novos conteúdos, elas acabam criando uma circularidade em torno dele que, em vez de expandir, pode limitar sua experiência de aprendizagem. No centro desse impacto está a autonomia, que, em vez de ser ampliada, acaba sendo ameaçada de redução.

É importante explicar que o conceito de autonomia que utilizo é o conceito que deriva da chamada teoria da cognição enativa. Existem várias formas de conceituar autonomia, portanto no caso de um trabalho acadêmico de pesquisa é fundamental esclarecer isso. Trata-se de um conceito de autonomia que deriva da ideia de que a célula, unidade primordial da vida, somente é capaz de ser e se manter autônoma porque está inserida em um contexto que permite isso – um ambiente com o qual mantém trocas constantes que a alimentam energética e materialmente. Ou seja, a célula é autônoma, não capaz de se manter sozinha. Pelo contrário, sua autonomia se origina justamente das suas interações com o meio, o que torna essas interações essenciais para a manutenção da autonomia celular.

Eu “estiquei|”esse conceito até o ambiente algorítmico que se constitui em torno de nós, humanos. Fiz esta pergunta: o que acontece com a nossa autonomia quando o meio é aquela que chamei de algoritmosfera, essa rede entrelaçada por algoritmos e dados que nós alimentamos e que, ao mesmo tempo, também nos alimenta? Nós conseguimos nos manter autônomos diante desse contexto, embebidos nessa rede de interações que têm essa natureza?

O meu objetivo geral, com isso, é compreender os limites e as potencialidades das nossas relações com sistemas de aprendizagem de máquina para entender se eles podem nos ajudar nas nossas experiências de aprendizagem sobre o mundo ou se esses sistemas acabam por retrair essas experiências. Ao me debruçar sobre esse trabalho, explorei as diferenças por vezes aparentemente sutis, mas sempre muito potentes, entre lidar com outro ser humano ou com um sistema de aprendizagem de máquina. Quando lidamos com outra pessoa, aprendemos com ela, percebemos o mundo com ela, e isso altera as nossas percepções. Existe algo que surge das interações entre seres humanos que é único e típico dessas relações, e não poderia surgir fora delas. É algo novo, imprevisível. É o produto da interação.

Quando lidamos com máquinas, por mais que elas nos façam sentir como se estivéssemos lidando com outra pessoa às vezes, de tão avançados que estão esses sistemas, nós não estamos. O que acontece é que nesses casos nós acabamos “levando” toda a “relação” sozinhos; não há uma real interação social, como há entre dois seres humanos. As relações de troca humanas são como uma dança, em que o par se movimenta junto, enquanto as interações com sistemas artificiais se parecem com um monólogo ou uma dança desequilibrada em que apenas um se movimenta e o outro faz um papel parecido com o de um fantoche.

Com isso, não se pode dizer que não aprendemos nada ao lidar com sistemas de aprendizagem de máquina, mas sim que não é uma experiência comparável à que temos quando lidamos com outro ser humano. Isso, para quem procura compreender a aprendizagem e como ela é impactada pelas tecnologias, é essencial. O enativismo, ou cognição enativa, não diz que aprendemos mais ou melhor com outros seres humanos, mas que somente aprendemos de fato com outros seres humanos. Somos moldados, impactados, alterados, percebemos o mundo e raciocinamos sobre ele justamente a partir das interações com outras pessoas; precisamos delas para ter experiências de aprendizagem. Máquinas ou sistemas artificiais não aprendem de fato e não conseguem, sozinho/as, proporcionar experiências de aprendizagem.

A nossa autonomia é ameaçada, sob o ponto de vista de autonomia no enativismo, porque as trocas que mantemos com o meio “algorítmico” constituem um desequilíbrio para as nossas interações. É como se a contribuição de um e de outro lado fosse tão irregular que tornasse a relação “capenga”. Eu entro com meus dados, minhas percepções, minha imaginação; a máquina não percebe e não cria nada, e assim, tudo que parece novo ao surgir dali é mais limitado do que seria se eu estivesse lidando com outra pessoa. Porque outra pessoa é capaz de ciar, imaginar, porque tem experiência e aprende, e então dessa interação social se origina algo que só pode existir porque se trata, justamente, desse tipo de interação. É algo então que, por definição (enativista), potencializa a minha capacidade de experimentar o mundo de um modo especial porque é impossível de ser previsto na totalidade. Não há estatística que possa prever que conversa exatamente teremos com um amigo ao encontrá-lo, por exemplo; ou como o ser amado vai reagir a uma contestação que manifestarmos; ou se acabaremos falando de cinema quando nos encontrarmos com alguém para falar de matemática.

Essa é uma ideia interessante para defender por que não é viável pensar que uma aula 100% a distância, assíncrona, ou seja, sem o professor em contato com alunos em tempo real, poderia resultar no mesmo nível de experiência de uma aula presencial – ou, pelo menos, em que o professor e os alunos estejam no mesmo momento, se olhando, ainda que mediados por suas câmeras. Há algo nessa conexão entre as pessoas, alimentada pelas trocas daquele momento, que é único, e faz parte da série de novidades que emergem da interação. Há experimentos com bebês mostrando que eles choram quando diante de um vídeo gravado da mãe, depois de demonstrarem calma quando veem um vídeo da mãe que é uma transmissão em tempo real. O problema não é ser uma imagem, mas a mãe não estar olhando para ele, interagindo com ele na medida da própria interação. Não é fascinante?

Num mundo em que as relações são postas em xeque, por inúmeros motivos, e em que contamos tanto com sistemas artificiais para fazer um sem-número de atividades, é fundamental não esquecer que há algo intrínseco às trocas humanas. Algo que gera algo que só existe a partir dessas relações. Se só “falarmos” com máquinas, estaremos como que batendo num muro, um bate e volta; sentiremos algo, poderemos até aprender algo ou muitas coisas, mas não continuaremos a expandir os nossos horizontes, o alcance das nossas experiências, como faríamos se estivéssemos em interações sociais. Só elas ampliam os círculos de experiências mais e mais. Por isso chamei o ensaio de “Another brick in the wall” e digo que precisamos fazer um esforço para olhar entre os tijolos do muro. São as frestas que nos mantêm abertos a uma série de experiências inesperadas, essenciais justamente porque são inesperadas; nós não vivemos sem surpresas, sem o incerto, mesmo quando queremos o “certo”. Aprendemos na inconstância e na flexibilidade, não na dureza dos muros.