Big Data na Educação: é preciso abrir essa caixa preta

Navegando pela rede, você certamente já se viu diante de anúncios de algo que andou procurando, como se o seu navegador tivesse “adivinhado” o que você queria. Ou já recebeu uma sugestão de filme ou série que a Netflix achou que seria “a sua cara”…

(Bem, nem sempre funciona tão bem…)

… pois os nossos dados têm sido utilizados em sistemas de machine learning para fazer previsões e identificar tendências.

Muito se tem falado sobre as potencialidades do big data para a educação. Para quem não está familiarizado com o termo, trata-se dessas “coleções maciças de dados” (segundo os autores do artigo Tecnologias digitais na educação: a máquina, o humano e os espaços de resistência; clique para ler) que são geradas na medida em que navegamos por sistemas digitais e deixamos os nossos rastros nessas plataformas.

O que isso pode significar quando se trata de educação? A pergunta ainda é uma caixa preta, mas é preciso um esforço para abri-la.

Apesar do oceano de implicações positivas que vêm sendo apontadas para o uso de machine learning e de big data na educação, é preciso ir devagar com esse andor porque o santo é de barro. O que (vem sendo propagado que) o big data promete?

Quando se trata do uso de plataformas de aprendizagem baseadas em machine learning, basicamente o que se destaca é que, tendo mais informação sobre o desempenho e o ritmo individual de cada aluno, se poderá oferecer conteúdos mais apropriados à sua aprendizagem, no tempo e na sequência mais adequados para cada um. Com isso, se alcançaria “melhores” resultados, aproveitando ao máximo as potencialidades de cada aluno, resolvendo problemas e dificuldades que eles eventualmente tenham etc. Parece perfeito – e alinhado ao discurso da tecnologia como panaceia para tudo aquilo que se tem tentado solucionar na educação há tantos anos. Bem, esse, em si, já é um indício de que é preciso olhar para o tema com mais atenção.

Um exemplo, tirado deste livro aqui, intitulado Learning with Big Data – The Future of Education, é o rastreamento do comportamento de alunos em relação a vídeos de palestras numa plataforma online de atividades: é possível saber quando eles assistem aos vídeos, quando pausam, se aceleram para ver mais rápido, se os abandonam antes de terminar de assistir. Com base na identificação desses padrões, professores poderiam ajustar lições, decidir reforçar conceitos que aparentemente os alunos não entenderam bem ou mudar a maneira de explicar determinado assunto, por exemplo.

Mas, isso quer dizer que esteja ocorrendo um processo de aprendizagem melhor, realmente? Antes, aliás, isso significa que está ocorrendo, de fato, aprendizagem? O discurso costuma ser de que sim, mas… essa é uma conclusão que não se deve apressar.

Um artigo do New York Times – ‘The Machines Are Learning, and So Are the Students (“As Maquinas estão aprendendo, e também os alunos”), de Craig Smith, publicado em dezembro do ano passado – já no título traz um pressuposto enviesado para o uso de inteligência artificial na forma de machine learning: a ideia de que as máquinas aprendem. Mais audaciosamente, indica que os alunos estão aprendendo, também, graças a essas máquinas e sua suposta sagacidade. Smith diz:

Slowly, algorithms are making their way into classrooms, taking over repetitive tasks like grading, optimizing coursework to fit individual student needs and revolutionizing the preparation for College Board exams like the SAT. A plethora of online courses and tutorials also have freed teachers from lecturing and allowed them to spend class time working on problem solving with students instead.

Aqui, já vemos uma outra face do discurso: para além de individualizar o ensino, o uso de sistemas baseados em algoritmos poderia poupar os professores de tarefas como avaliar seus alunos e até de dar aulas expositivas (hum… alguém perguntou aos professores se eles querem parar de dar suas aulas?), podendo usar o tempo para trabalhar com seu alunos em “resolução de problemas”. Perceba que o discurso é sempre de usar melhor o tempo, aprender melhor, mas, não se sabe o que esse “melhor” de fato significa. Com frequência, a ideia adjacente é a de que o professor pode ser substituído, ao menos em certas atividades (tão diferentes quanto dar aulas expositivas e corrigir avaliações…).

Em outro trecho, que reproduzo a seguir, o jornalista aponta pesquisas (sem especificar quais) que teriam mostrado a superioridade de tutores na forma de inteligência artificial em relação a tutores humanos. Isso se daria porque “o computador é mais paciente” que o professor, além de mais insightful – o que poderia significar ter ideias melhores ou ser mais criativo (?)

Studies show that these systems can raise student performance well beyond the level of conventional classes and even beyond the level achieved by students who receive instruction from human tutors. A.I. tutors perform better, in part, because a computer is more patient and often more insightful.

Será?

Num cenário em que predomina o discurso sobre os efeitos positivos da inteligência artificial na educação, esse artigo é apenas um exemplo. São muitos os que trazem algo nessa mesma linha.

Somente com estas breves referências que apontei até aqui, já abrimos uma infinidade de questões a serem postas em xeque tanto sobre o uso efetivo da IA na educação na forma de [machine learning + big data] quanto sobre o discurso. Predomina uma argumentação acrítica e pasteurizada, que costuma assinalar os ganhos sem pesar as possíveis consequências advindas do uso massivo de dados.

Não se procura saber, nem mesmo, o que são esses dados. Isto é, o que quer dizer, efetivamente, o tempo que um estudante levou para fazer uma lição? Quando esse tempo é fornecido a partir do rastreamento da atividade desse aluno, ele não parece dizer muita coisa. O que realmente aconteceu com o aluno durante o tempo em que ele estava logado? Não somos meros logins, somos pessoas, num determinado espaço, em determinado momento. Talvez não possamos ser representados somente por números.

De volta para o futuro

Mesmo que se pudesse prever todas as adversidades envolvidas em dada situação cujo objetivo é o ensino e a aprendizagem, aí já está um x da questão: a previsão. Especialistas com um olhar crítico à IA na educação vêm indicando que isso pode gerar um passado cristalizado e prender os alunos a um futuro rígido, imutável.

This image has an empty alt attribute; its file name is antonino-visalli-Fu-K5VwabM8-unsplash-683x1024.jpg

Uma vez que o machine learning trabalha a partir de tais previsões, já que se utiliza de dados gerados pelos estudantes para que, com esses dados, possa identificar tendências, há o risco de os estudantes se tornarem eternamente atados ao seu passado – carregando uma espécie de mochila pesada de históricos escolares detalhados a seu respeito que nunca são esquecidos e podem permanecer acessíveis por mais tempo do que seria desejável.

Seu futuro lhes faria vítimas das previsões justamente baseadas em dados estáticos, os quais podem não corresponder mais à sua realidade. Somos, afinal, seres em constante transformação e evolução. Envolvidas nisso há diversas implicações, especialmente, para a privacidade dos alunos – já que os dados podem ficar acessíveis para fins questionáveis, o que pode prejudicar sua vida profissional e pessoal.

Neutralidade tecnológica?

De onde vêm os dados gerados a partir da atividade dos alunos em uma plataforma baseada em machine learning? Dados não surgem por acaso, não são espontâneos e nem existem por si só. Eles surgem nas interações entre alunos e máquinas, e essas interações são limitadas pela maneira como o sistema é construído, pelo que se espera dele, pelo que é injetado em seus algoritmos. Isto é, dados emergem a partir de decisões tomadas no desenvolvimento dos algoritmos para os sistemas de IA utilizados nas plataformas.

Nesse desenvolvimento, priorizam-se determinados aspectos em detrimento de outros.

Fatalmente, também por sua vez, os resultados obtidos trarão consigo a priorização de certo aspectos e não de outros. Um problema relevante, por trás disso, é que frequentemente somos avaliados por fórmulas secretas que não compreendemos, como ressalta a matemática Cathy O’Neil. Se o que se avalia não fica claro, é certo que, como O’Neil explica: “Para construir um algoritmo, são necessárias duas coisas: dados – o que aconteceu no passado – e uma definição de sucesso, aquilo que estamos procurando e pelo que estamos geralmente esperando”.

A definição de sucesso adotada estará instilada nos algoritmos. A suposta neutralidade tecnológica não existe...

Vieses

Pode-se facilmente compreender como pode haver (e há, muitos) vieses em algoritmos quando se trata do preconceito racial em alguns sistemas de reconhecimento facial, por exemplo. Esses são casos contundentes e que têm adquirido notoriedade, tornando-se o centro de preocupações éticas concernentes ao campo.

A IBM afirmou que abandonaria pesquisa em reconhecimento facial por conta das implicações éticas e da falta de regulamentação – Leia

Na educação, mencionei questões sobre a privacidade dos dados dos estudantes e ao fato de os sistemas não serem claros quanto às variáveis relacionadas ao que é avaliado. Mas, ainda não falei dos professores. Há também iniciativas que procuram avaliá-los a partir de big data, com consequências que merecem (muita!) atenção.

Em sua palestra no TED, O’Neil cita a diretora de um colégio no Brooklyn que, em 2011, disse a ela que sua escola estava avaliando os professores a partir de um algoritmo complexo – e secreto. A diretora relata que tentou conseguir a fórmula para entender os critérios envolvidos naquela avaliação, mas o que ouviu da secretaria de educação foi que não adiantava lhe explicar porque ela não entenderia, já que se tratava de matemática.

Conclusão (conheça a história no TED): professores daquela escola foram demitidos por causa da tal fórmula secreta, uma caixa preta que a diretora tentou abrir, sem sucesso.

Como O’Neil destaca, o poder de destruição de um algoritmo projetado de maneira equivocada é imenso, e essa destruição pode se arrastar por bastante tempo. Mas, quando o assunto é uma modelagem envolvendo algoritmos, o pior de tudo é a falta de transparência. Por isso ela cunhou o termo “armas de destruição matemática”.

Não somos somente pontinhos em um grande mapa de dados…
(Imagem: Maria Bobrova @ Unsplash)

O big data na educação é uma caixa preta devido à dificuldade, em geral, de entendimento do que a inteligência artificial, na forma do machine learning, significa ou pode significar para processos educacionais. E se torna ainda mais obscura quando, sem que se conheça os critérios utilizados, alunos e educadores sejam submetidos a avaliações e análises frequentemente injustas; e o pior, sem poder contestá-las.

O’Neil dá vários exemplos de como o uso indevido de dados tem prejudicado pessoas em variadas situações. Para entender isso melhor, é preciso olhar para a noção de modelo; o que é um modelo e por que ele pode se tornar uma arma de destruição matemática? Explicarei isso em outro post.

Agradeço à Giselle Ferreira, professora da PUC-Rio que está ministrando uma disciplina sobre big data e educação este semestre, pelos ricos debates que tanto colaboraram com insights para que este(s) post(s) fossem escritos. Leia o blog dela, no qual é possível obter uma perspectiva crítica sobre as tecnologias educacionais: https://visoesperifericas.blog/

Imagem principal do post: Franki Chamaki @ Unsplash

Eis o Dilemma

Documentário “The Social Dilemma“, da Netflix, está dando o que falar. Ficou pessimista depois de assistir? Leia este post.

The Social Dilemma (O Dilema das Redes, em português), que aborda a manipulação de nossos dados pelas redes sociais online, traz depoimentos de pessoas que desistiram de trabalhar nas gigantes de tecnologia – Google, Instagram, Facebook, Pinterest e afins. Os entrevistados perceberam, pode-se dizer, que os valores das empresas em que eles vinham trabalhando não estavam mais de acordo com aquilo que eles acreditam, e resolveram tomar outros rumos na vida.

Mas, então, onde é que essas pessoas estão hoje? O que elas estão fazendo de suas vidas? E os outros entrevistados que aparecem no doc, quem são e qual tem sido o seu papel no universo da tecnologia? Muitos deles estão fazendo coisas bem legais, algumas bastante inspiradoras, que podem ajudar a mudar significativamente a nossa relação com a tecnologia, tanto individual como coletivamente. Outros escreveram livros com temáticas excelentes.

Essas pessoas têm em comum a desconfiança quanto a esse status quo do universo tecnológico, e são movidas por suas experiências e pela vontade de levar mais gente a se preocupar com a maneira como fazemos e consumimos tecnologias.

Então, antes de ficar pessimista, ou de achar que não dá para fazer nada “porque o mundo agora é assim mesmo”, talvez valha conhecer algumas das iniciativas que têm surgido a partir dessa vontade de mudança. Escrevi sobre algumas delas, aqui – e pretendo escrever sobre as demais (pessoas do doc e iniciativas) num outro post. Vale pensar em se envolver em algum(ns) projetos capitaneados por essa galera ou, ao menos, ler alguns livros e/ou assistir a outros documentários. Quem sabe começar desativando suas notificações? Aproveita e ainda evita que a bateria do seu celular gaste à toa 😉 Se estamos preocupados, precisamos nos envolver, conhecer mais sobre o assunto e assumir uma postura diferente. Evitar o tema não é uma opção.

Tristan Harris

Ele passou anos no Google como Google Design Ethicist. No documentário, conta um pouco dessa sua experiência, que demonstra a falta de preocupação da empresa com questões éticas e de privacidade. Harris é fundador e presidente da ONG Center for Humane Technology A página que apresenta a iniciativa diz:

We envision a world where technology is realigned with humanity’s best interests. Our work expands beyond tech addiction to the broader societal threats that the attention economy poses to our well-being, relationships, democracy, and shared information environment. We must address these threats to conquer our biggest global challenges like pandemics, inequality, and climate change.

A ONG convida quem quiser ajudar a remodelar a maneira como construímos e consumimos tecnologias: https://www.humanetech.com/get-involved – e ressalta que não precisa ser empreendedor, programador ou o que quer que seja para se envolver; se você for da área de tecnologia é bem-vindo, mas basta ser “cidadão, educador ou pai/mãe”. Para saber o que exatamente dá para fazer junto a eles, é preciso fazer um cadastro inicial.

Shoshana Zuboff

Shoshana Zuboff é professora em Harvard e autora do livro “The Age of Surveillance Capitalism”, sobre o qual você pode ler neste link – https://shoshanazuboff.com/book/about/. Este documentário que postei aqui explica muito bem a ideia do capitalismo de vigilância de que ela fala.

Justin Rosenstein

Com mais de 170 mil seguidores no LinkedIn (o que não quer dizer nada por si só e nem sei por que citei aqui, mas ok), Justin, que estudou em Stanford (isso também não quer dizer lá muita coisa, por si só), foi da Google e do Facebook, e depois seguiu fazendo seus projetos pessoais: o Asana, um software independente que tem a função de melhorar a produtividade das pessoas, e o One Project, voltado para o design de governança e sistemas econômicos mais “equitativos, ecológicos e efetivos”, segundo ele informa no LinkedIn. O site dele é este: https://justinrosenstein.com/ e no vídeo ele fala sobre a Asana.

Roger McNamee

McNamee é um investidor no Vale do Silício. Ele injetou dinheiro no Facebook e ajudou Zuckerberg a crescer, mas, hoje, como o documentário da Netflix mostra, é um ferrenho crítico ao modo como a empresa orienta suas atividades. Ele afirma que o Facebook é uma ameaça à democracia, e acusa a rede de espalhar as chamadas fake news.

McNamee escreveu um livro chamado Zucked: Waking up to the Facebook Catastrophe. Vale dizer que, no vídeo que postei aqui, ele diz que a Apple, de maneira bem diferente do Facebook, é responsável com os usuários em relação a questões de privacidade – o que mostra que as opiniões de todas estas pessoas podem ser diferentes em relação às companhias de tecnologia envolvidas em todas essas temáticas. Serve para construirmos o nosso próprio pensamento crítico.

Tim Kendall

Kendall foi presidente do Pinterest e Diretor de Monetização do Facebook. Ele criou um app chamado Moment, desenvolvido para ajudar as pessoas a fazerem “detox” de seus smartphones. O aplicativo está disponível para ser baixado de graça na App Store e aqui há mais informações –  https://inthemoment.io

Rashida Richardson

Ela trabalhou no Facebook e em vários outros lugares, e hoje é a diretora de Policy Research no AI NOW – um instituto de pesquisa em inteligência artificial que examina as implicações da IA para a sociedade ligado à New York University; o site é este aqui: https://ainowinstitute.org/ e a página do site que fala sobre a Richardson é esta: https://ainowinstitute.org/people/rashida-richardson.html .

O instituto dedica-se a pesquisas que contribuam para que sejam criados mecanismos, políticas, leis etc. para que haja responsabilidade/responsabilização pelo uso e a produção de tecnologias envolvendo inteligência artificial. Atualmente, as quatro principais frentes de pesquisa do núcleo são: direitos e liberdade; trabalho e automação; preconceito e inclusão; segurança e infraestrutura crítica.

Jaron Lanier

Lanier, que é cientista da computação e filósofo, trabalhou na Microsoft até 2009. Depois, ele escreveu vários livros além do citado “Ten arguments for deleting your social media accounts right now”; escreveu um chamado “Who own the future?” e ainda “You are not your gadget”, entre outros, apresentados em seu site: http://www.jaronlanier.com/ . Aliás, no site ele reforça que não tem (mesmo!) contas em redes sociais.

Cathy O’Neil

Cathy é uma matemática americana, autora do site/blog mathbabe: https://mathbabe.org/ e do livro “Weapons of Math Destruction”, sobre o impacto dos modelos matemáticos e dos algoritmos de IA em diversas áreas da sociedade (destaque especial para a educação e para o mercado financeiro). O mais legal desse livro é que ela usa uma linguagem super corriqueira, inteligível, para nos explicar os modelos matemáticos e suas implicações (como jornalista e doutoranda, já estava desacostumando de livros que explicam as coisas de uma maneira mais, digamos, objetiva…). A obra ainda não está disponível em português, porém. De todo modo, a palestra dela no TED dá uma boa introdução à perspectiva de O’Neil.

Uma última curiosidade: Jeff Orlowski, o cineasta norte-americano realizador do doc, já tinha feito dois outros documentários, “Chasing Ice” (de 2012) e “Chasing Coral” (de 2017), que são ligados a temáticas de responsabilização, por assim dizer, mostrando impactos que a humanidade exerce sobre a natureza.

Para assistir ao doc na Netflix: https://www.netflix.com/title/81254224

Imagem do post: Markus Spiske @ Unsplash

Vou participar do Ladies that UX dia 20 de agosto

Dia 20/8 estarei num papo online sobre UX – User Experience, tudo o que diz respeito a navegação pela web, conteúdo digital, acessibilidade etc. O encontro é promovido pelo Ladies That UX, Edição Rio de Janeiro.

A ideia é reunir e dar voz a mulheres da tecnologia, desta vez a edição é exclusiva do Rio de Janeiro. Fui convidada para falar de UX e IA, juntando a área com a qual trabalho há muitos anos com a que venho pesquisando mais recentemente.

O desafio é grande e estou animada. Será uma fala curtinha, porque várias outras ladies também vão falar de suas experiências incríveis, e haverá espaço para debate. Se tiver interesse, faça sua inscrição com antecedência neste link. Nos vemos lá!

O que Arquitetura de Informação e UX têm a ver com Inteligência Artificial?

O que Arquitetura de Informação e UX têm a ver com Inteligência Artificial?

A arquitetura de informação é um conceito que se relaciona com um outro, mais amplo: o de Experiência do Usuário, ou UX – User Experience. Quando você navega em um ambiente virtual e consegue fazer tudo o que precisa, encontra as informações que esperava num tempo razoável, se sente bem navegando ali sem se perder e tudo o mais, você tem uma boa EXPERIÊNCIA com aquele ambiente digital, que pode ser um site, um ambiente de aprendizagem virtual ou um aplicativo. Quando é assim, e a sua experiência flui bem, curiosamente, você provavelmente quase nem percebe a forma como aquele site se estrutura. Mas, se algo sai errado, logo vamos perceber o que a arquitetura de informação teve a ver com isso (além do conteúdo em si, é claro).

Arquitetura de informação, então, é a maneira como organizamos as informações em um determinado ambiente para que elas se tornem alcançáveis, visíveis; para que não somente o Google e outros buscadores as encontrem (sim, os buscadores encontram melhor e mais rapidamente sites bem construídos, tanto em termos do código bem feito como da organização das informações; isso também tem a ver com SEO, as técnicas de otimização para buscas) como para que pessoas, em diversas condições, as encontrem também – independentemente de estarem usando um celular para isso ou um computador, e de terem ou não uma deficiência, por exemplo. O ramo dedicado a questões específicas de usabilidade para pessoas com deficiência é o da acessibilidade – aliás, um campo de estudo muito vasto e incrivelmente sedutor.

Bem, mas, voltando: o que é que toda essa ciência de organizar dados e informações de uma maneira que nós conseguimos nos entender com eles tem a ver com inteligência artificial? Bem, a inteligência artificial é muitas coisas, e não venho aqui defini-la, mas, de um modo geral, a IA se baseia na maneira como funcionamos ou, ao menos, como se acredita que funcionamos. Isso ela tem em comum com a arquitetura de informação: ao construir um ambiente digital, levamos em conta o mindset das pessoas (os usuários); a maneira como geralmente as pessoas classificam informações, fazem buscas etc. Para compreender isto, usamos métricas que vão nos mostrando os caminhos realizados.

Do mesmo modo, na inteligência artificial, procura-se construir sistemas a partir daquilo que se entende acerca do funcionamento cognitivo de seres humanos – seja para construir sistemas à semelhança de nossos sistemas cognitivos, seja para construir sistemas que nos atendam na realização de nossas tarefas que envolvem cognição.

 Imagem: niklas_hamann on Unsplash

Vamos pensar num exemplo que envolva uma questão de arquitetura de informação para depois analisá-lo à luz da IA: ao construir um site de decoração, pode-se imaginar que o usuário interessado em decorar sua casa vai chegar e buscar por “abajur amarelo”, porque deseja comprar um abajur amarelo, ora pois. Se ele assim o fizer, e a busca do site funcionar, verá resultados para abajures exatamente dessa cor. Mas, e se esse usuário que quer decorar sua casa chegar ao site sem ter tanta ideia de qual cor de abajur ficaria bom no ambiente da casa dele, ou se ele nem mesmo souber direito quais os elementos que deseja usar para decorar seu lar – uma luminária, uma mesinha, um tapete? Que tipo de busca ele vai fazer? Ele provavelmente nem vai ficar só na busca. Ele vai clicar em muitas coisas. Vai escrever vários termos no campo de busca. Vai ver muitas fotos, e por aí vai; até ter as ideias de que necessita para sua decoração.

O ponto é que, no geral, nós parecemos ser muito mais como o segundo decorador do que como o primeiro, quando se trata de viver experiências no mundo. Não temos tudo definido e perfeitamente organizado em nossas cabeças. Quando falamos, não tínhamos previamente todos os pensamentos organizados, que vão então sendo expelidos: nós pensamos ao falar e, ao falar, vamos pensando. Quando caminhamos, não temos mapas internos de todos os lugares para onde vamos, que acessamos quando precisamos: nós nos baseamos no entorno, nas pistas visuais que nos ajudam em nossa localização. Quando lidamos com uma certa situação, não temos listas mentais de opções quanto ao que fazer para acessar e fazer nossas escolhas: quando tomamos decisões e fazemos opções, entram em jogo nossas experiências anteriores, a maneira como nos sentimos – as emoções e sentimentos, e tantos outros fatores.

O engraçado é que, quando algo dá errado, passamos às vezes a refazer os nossos passos, rever mentalmente nossas opções, e até tentamos buscar um mapa mental para evitar nos perdermos. Quando isso acontece, ficamos mais parecidos com o que falei no começo do texto; parece que algo dá errado na fluidez da nossa experiência, de maneira parecida com aquele momento em que algo parece errado na arquitetura de informação de um site. Ficamos mais “robóticos”? Será que isso não revela bastante sobre a maneira como um robô trabalha, versus a maneira como nós lidamos com o mundo em que estamos inseridos?

Essas são questões que, acredito, podem nos levar a decisões importantes sobre a construção de espaços digitais. Como a minha maior preocupação é com a educação, volto-me mais para a construção de espaços de aprendizagem (mas creio que a internet toda é um espaço de aprendizagem!). Precisamos descobrir como a cognição humana funciona, se quisermos construir bons ambientes de aprendizagem virtuais. Conhecer e pensar sobre tudo isso ajuda também a quem deseja melhorar a experiência de seus consumidores em uma loja virtual, por exemplo; ou em um app dedicado a um serviço. Por vezes, as métricas são suficientes, mas na maior parte do tempo há muito que elas não revelam, principalmente se não estiverem ajustadas para os KPIs corretos e baseadas em premissas que façam sentido. Mas isso é tema para outro post 😉

Imagem principal do post: Halacious @Unsplash

Seguem alguns links interessantes sobre IA + UX:

UX of AI

Human-centered machine learning

Machine Learning is Very Much a UX Problem

Google Design – The UX of AI

Inteligência Artificial & Inteligência Emocional

Anotei e trago aqui alguns pontos interessantíssimos do debate que assisti nesta quarta, 29 de julho, com a pesquisadora em IA e ética Dora Kaufman e o CCO da Figtree, Ricardo Figueira, sobre inteligência artificial e inteligência emocional. O debate rolou no Instagram do Clube de Criação (@clubedecriacao).

  • Você quer usar tecnologias de IA na sua empresa/no seu negócio, num empreendimento, num sistema de ensino? Pense no problema que você precisa resolver, antes de pensar na tecnologia. Isso vale para qualquer tecnologia: ela vem para ajudar a resolver alguma questão, dificuldade etc. É preciso um propósito, sempre! Super concordo com isso. Precisamos sempre refletir e analisar aquilo que precisamos resolver para, então, tomar uma decisão sobre qual tecnologia escolher ou desenvolver. Já passei por diversas situações em que foi preciso relembrar os envolvidos no projeto acerca disso. A IA, da mesma forma, é atraente e tem muitas utilidades, mas é preciso pensar para que se quer utilizá-la, e então tomar uma decisão.
  • A IA não é, portanto, uma decisão da TI de uma empresa: é preciso mudar a cultura. E é o propósito que impulsiona a transformação digital de uma empresa. Cada negócio tem a sua necessidade e traz diferentes necessidades de usos de tecnologias. A cultura só muda a partir daí. Vivi bastante isso quando trabalhei num grande jornal que estava implementando a sua transformação digital, por exemplo. Não me refiro particularmente ao uso da IA, que não era o foco da empresa, mas de tecnologias digitais em geral, que foram alvo de muita resistência por parte de funcionários e até gerentes. A cultura, se emperrada não traz transformação.
  • Por trás das grandes empresas de tecnologias está a IA: Google, Amazon etc. O modelo de negócios delas é a inteligência de dados, e os modelos de IA são usados para extrair informações para a criação de serviços mais adaptados a seus públicos. Desse modo, a IA permeia diversas soluções tecnológicas que já estão entre nós;
  • A tecnologia dos bots/chatbots é a mais popular entre as empresas hoje (ex. a IA Bia do Bradesco). Mas as pessoas, segundo pesquisas, não gostam de se relacionar com máquinas e sim com pessoas (mesmo que humanos falhem mais!). Isso aponta para uma questão cultural. Um exemplo dado por Kaufman foi o do Japão: devido à crença no animismo (segundo a qual objetos também têm espírito), os robôs cuidadores são comuns, por exemplo; enquanto, para nós no Brasil, o valor das relações passa pelo olho no olho. Conheço pesquisas sobre robôs cuidadores em Portugal, também, algumas estavam indo bem até onde sei. Mas esse ponto levantado me fez repensar alguns aspectos que venho pesquisando em Hubert Dreyfus, filósofo que desenvolveu uma crítica à IA e sempre defendeu a ideia de que emoções são essenciais para a cognição. Ele menciona a questão do olho no olho na sala de aula: quando estamos online, acaba faltando esse cara a cara, típico do presencial. Quais as consequências disso? São mais relevantes/complexas quando se trata de educação do que de aplicações comerciais e/ou de entretenimento? Tendo a pensar que sim, mas sigo investigando.
  • Também temos, por outro lado, a característica de nos adaptar às transformações. Quanto ao uso de bots, por exemplo, 90% das perguntas feitas por usuários são perguntas padrão: podem, assim, ser previstas. Então, será que não podemos ter robôs respondendo a 95% delas, rápida e precisamente, e pessoas respondendo aos outros 5%, sem prejuízos para nossas interações e resoluções de problemas? Parece que sim. Outro dia, em meio à pandemia, troquei de operadora de celular e fiz tudo pela IA das operadoras, online. Gostei da experiência.
  • Entre os principais pontos de atenção da IA estão as questões éticas advindas do grande acúmulo e circulação de dados, pois eles podem sair do controle. Questões de privacidade surgem aí. Surgem também desigualdades no mercado de trabalho, que coloca as pessoas mais qualificadas (em menor quantidade) em uma ponta e um grande conjunto da população em outra ponta, muito mais numerosa, impactada pela perda de empregos em que a substituição pela tecnologia passa a predominar. Adiciono a essa questão ética uma que mencionei outro dia nesta live da TV PUC, e que diz respeito a educação e democracia: o acesso a tecnologias pode potencializar a cognição, especialmente no caso de tecnologias assistivas (utilizadas por pessoas com deficiência). Mas, como fica o caso das pessoas que não podem acessar essas tecnologias? Isso ficou bastante explícito e radicalmente posto no momento da pandemia, quando inúmeros estudantes, sem acesso à internet, ficaram sem poder assistir às aulas da escola ou faculdade, ou seguir estudando online de alguma maneira. Temos um problema ético, ou melhor, vários.
  • O modelo de deep learning é um modelo estatístico que tem uma capacidade de fornecer um conjunto de milhões de dimensões, enquanto modelos estatísticos tradicionais têm uma capacidade muito menor de fazer isso. Para sistemas de reconhecimento facial, por exemplo, isso faz toda a diferença. As expressões são captadas em detalhes, até mesmo em entrevistas de emprego em que algoritmos agem para identificar a forma como candidato se expressa (já tinha pensado nesse uso da IA? Eu não tinha!)
  • Esses modelos de aprendizagem de máquina correlacionam variáveis que fogem às ações do próprio programador. Eles não usam apenas variáveis pré-programadas. Esse é um ponto bastante importante e que deixa várias dúvidas, uma espécie de caixa preta da IA. Andy Clark fala sobre isso, se não me engano, em Mindware, este livro aqui.
  • Kaufman destacou que precisamos criar uma parceria com os modelos de IA, e podemos fazer isso compreendendo-os, conhecendo esse sistemas minimamente. Não só concordo com ela como falei sobre isso também na live da TV PUC, que já mencionei, bem como nos meus trabalhos acadêmicos. Conhecendo a IA, ainda que de maneira limitada; compreendendo seus usos possíveis, podemos nos posicionar criticamente em relação a essas tecnologias. Isso é fundamental. Temos que conhecer nossas potencialidades, nossas limitações e as potencialidades das tecnologias quando nos unimos a elas. A educação precisa conhecer essas tecnologias. Tememos o que não conhecemos…
  • Figueira destacou que precisamos compreender como as pessoas funcionam, sentem etc, para conseguirmos progredir mais nas tecnologias e em nossa relação com elas. Eu não podia concordar mais, tanto que dedico minha pesquisa de doutorado ao estudo da cognição na educação com foco nas emoções e no corpo. E Kaufman destacou que precisamos também conhecer sobre como as máquinas funcionam. Sim, totalmente. Os dois lados da mesma moeda, como a mente e o mundo na fenomenologia.

Introdução à Fenomenologia com Hubert Dreyfus

Hubert Dreyfus foi um filósofo que deixou como legado uma interpretação de conceitos da fenomenologia advindos de Husserl, Heidegger e Merleau-Ponty aplicados à inteligência artificial. Descobrir os conceitos da fenomenologia por meio dos ensinamentos desse filósofo é uma aventura bastante interessante e rica, que promete subverter muitas ideias pré concebidas que possamos ter da nossa existência no mundo.

Fiz aqui uma seleção de vídeos em que Dreyfus comenta alguns conceitos fundamentais da fenomenologia, que podem ser úteis para quem deseja entrar nesse universo.

Gap sujeito-objeto

Neste primeiro vídeo, na primeira parte da entrevista (chamada Fenomenologia), Dreyfus comenta sobre os movimentos de Heidegger contra a distinção sujeito-objeto cartesiana. Para a fenomenologia, não há um abismo entre sujeito e objeto, ou um gap; sujeito e objeto precisam um do outro para existir. Como aprendemos sobre o mundo? Não é armazenando uma série de fatos em nossas cabeças. Nós aprendemos na medida em que vamos discriminando o mundo, e assim ele vai se descortinando para nós. Merleau-Ponty compara esse fenômeno a uma cidade que a princípio não conhecemos e então nos parece caótica. Na medida em que a experimentamos, na medida em que a conhecemos, nós nos apropriamos dessa cidade e passamos a ser capazes de caminhar, de nos localizar por ela. Não precisamos de modelos do mundo armazenados em nossas mentes porque o mundo é o melhor modelo de si mesmo, diz Dreyfus, em clara referência à frase famosa do roboticista Rodney Brooks, “The world is its own best model”.

Na parte chamada de Inteligência Artificial, Dreyfus comenta sobre a premissa equivocada da IA, que partiu da ideia de que armazenamos representações do mundo, e sobre como isso não poderia dar certo porque não é assim que humanos funcionam. Ele explica o frame problem na IA (mais ou menos aos 13′ do vídeo) e comenta sobre a dificuldade de incutir, nas máquinas, conhecimentos do senso comum.

Imagem do post: Sharon McCutcheon @ Unsplash

Participei da live da PUC-Rio sobre inteligência artificial

Participei de uma das entrevistas ao vivo da série que a TV PUC-Rio criou no intuito de desenvolver temas que se relacionem de alguma maneira com a COVID. Esta teve a ver com inteligência artificial e internet das coisas. Ao lado de dois professores da PUC-Rio, comentei sobre a minha pesquisa em educação e IA sob o viés da filosofia e da educação. O debate pode ser assistido no link a seguir.

Palestra para a Escola Superior de Educação João de Deus, de Lisboa

Em 4 de maio de 2020, realizei, ao lado do professor Eduardo Santos, uma palestra intitulada IMPACTOS DA DISTÂNCIA NA EDUCAÇÃO – O que o eLearning nos diz sobre afetividade, tecnologias transparentes e outros desafios. A palestra foi realizada a convite da Escola Superior de Educação João de Deus, que fica em Lisboa, pela plataforma ZOOM, com a presença de mais de cem participantes. Foi uma oportunidade excelente de debatermos alguns assuntos essenciais relacionados ao ensino e à aprendizagem online, impulsionados, mas não limitados, pela pandemia de coronavírus.

Disponibilizo, a seguir, os vídeos da palestra – a qual, inicialmente prevista para uma duração e uma hora, acabou chegando a quase quatro, por conta do debate que se estabeleceu!

Agradecimentos especiais à Danielle Germano, minha editora de vídeos feríssima, e à Lili, pela ajuda com o canal do YouTube.

Parte 1

Parte 2

Parte 3

Parte 4

Como a distância impacta a educação? E o que podemos fazer?

Quais as diferenças entre aprender/ensinar a distância e presencialmente? Do que sentimos falta quando estamos distantes, fisicamente, uns dos outros? A internet pode ser utilizada de maneiras diferentes, de modo a unir mais as pessoas envolvidas em processos de ensino-aprendizagem por elearning? Como reduzimos a frieza das máquinas e aproximamos mais as pessoas nesse cenário, aumentando a afetividade, o compartilhamento?

Essas questões serão debatidas em uma apresentação que farei online com o professor Eduardo Santos no dia 18, às 10h (Brasil), na Here and Now, uma conferência organizada pela Social Pedagogy Associaton.

As inscrições gratuitas podem ser feitas online pelo link https://lnkd.in/eJ9B-cX

Impactos da distância na educação: o que o eLearning nos diz sobre afetividade, tecnologias transparentes e outros desafios

Palestra live stream dia 2 de maio

Nesta palestra, Eduardo Santos e Camila Leporace vão conversar sobre os desafios e oportunidades que as tecnologias educativas a distância nos proporcionam, sobretudo num tempo em que a distância ainda promete perdurar. Em redor do tema indutor, vão dialogar ao correr do pensamento a partir de perguntas específicas a serem enviadas pelos potenciais participantes, e de uma “word cloud”. As perguntas e sugestões deverão ser enviadas até uma semana antes da realização da palestra para o e-mail de contato.

INSCREVA-SE ATÉ 30 DE ABRIL!

Informações:

Impactos da distância na educação: o que o eLearning nos diz sobre afetividade, tecnologias transparentes e outros desafios – Palestra online com Eduardo Santos (E-Minds Lab/Universidade de Coimbra) e Camila Leporace (E-Minds Lab/PUC-Rio).

Organização: Escola Superior de Educação João de Deus, Lisboa & E-Minds Lab, IPCDHS, Universidade de Coimbra

Open web access (grátis): 2 maio 2020, 11h Brasil/15h Portugal (45 min. duração)

Contatos, informações e inscrições: emindslab@gmail.com (Ao se inscrever, opcionalmente envie sugestões de questões que gostariam de ver debatidas na conversa!)


Plataforma Zoom (instruções de acesso brevemente aos inscritos, por e-mail)