Big Data na Educação: é preciso abrir essa caixa preta

Navegando pela rede, você certamente já se viu diante de anúncios de algo que andou procurando, como se o seu navegador tivesse “adivinhado” o que você queria. Ou já recebeu uma sugestão de filme ou série que a Netflix achou que seria “a sua cara”…

(Bem, nem sempre funciona tão bem…)

… pois os nossos dados têm sido utilizados em sistemas de machine learning para fazer previsões e identificar tendências.

Muito se tem falado sobre as potencialidades do big data para a educação. Para quem não está familiarizado com o termo, trata-se dessas “coleções maciças de dados” (segundo os autores do artigo Tecnologias digitais na educação: a máquina, o humano e os espaços de resistência; clique para ler) que são geradas na medida em que navegamos por sistemas digitais e deixamos os nossos rastros nessas plataformas.

O que isso pode significar quando se trata de educação? A pergunta ainda é uma caixa preta, mas é preciso um esforço para abri-la.

Apesar do oceano de implicações positivas que vêm sendo apontadas para o uso de machine learning e de big data na educação, é preciso ir devagar com esse andor porque o santo é de barro. O que (vem sendo propagado que) o big data promete?

Quando se trata do uso de plataformas de aprendizagem baseadas em machine learning, basicamente o que se destaca é que, tendo mais informação sobre o desempenho e o ritmo individual de cada aluno, se poderá oferecer conteúdos mais apropriados à sua aprendizagem, no tempo e na sequência mais adequados para cada um. Com isso, se alcançaria “melhores” resultados, aproveitando ao máximo as potencialidades de cada aluno, resolvendo problemas e dificuldades que eles eventualmente tenham etc. Parece perfeito – e alinhado ao discurso da tecnologia como panaceia para tudo aquilo que se tem tentado solucionar na educação há tantos anos. Bem, esse, em si, já é um indício de que é preciso olhar para o tema com mais atenção.

Um exemplo, tirado deste livro aqui, intitulado Learning with Big Data – The Future of Education, é o rastreamento do comportamento de alunos em relação a vídeos de palestras numa plataforma online de atividades: é possível saber quando eles assistem aos vídeos, quando pausam, se aceleram para ver mais rápido, se os abandonam antes de terminar de assistir. Com base na identificação desses padrões, professores poderiam ajustar lições, decidir reforçar conceitos que aparentemente os alunos não entenderam bem ou mudar a maneira de explicar determinado assunto, por exemplo.

Mas, isso quer dizer que esteja ocorrendo um processo de aprendizagem melhor, realmente? Antes, aliás, isso significa que está ocorrendo, de fato, aprendizagem? O discurso costuma ser de que sim, mas… essa é uma conclusão que não se deve apressar.

Um artigo do New York Times – ‘The Machines Are Learning, and So Are the Students (“As Maquinas estão aprendendo, e também os alunos”), de Craig Smith, publicado em dezembro do ano passado – já no título traz um pressuposto enviesado para o uso de inteligência artificial na forma de machine learning: a ideia de que as máquinas aprendem. Mais audaciosamente, indica que os alunos estão aprendendo, também, graças a essas máquinas e sua suposta sagacidade. Smith diz:

Slowly, algorithms are making their way into classrooms, taking over repetitive tasks like grading, optimizing coursework to fit individual student needs and revolutionizing the preparation for College Board exams like the SAT. A plethora of online courses and tutorials also have freed teachers from lecturing and allowed them to spend class time working on problem solving with students instead.

Aqui, já vemos uma outra face do discurso: para além de individualizar o ensino, o uso de sistemas baseados em algoritmos poderia poupar os professores de tarefas como avaliar seus alunos e até de dar aulas expositivas (hum… alguém perguntou aos professores se eles querem parar de dar suas aulas?), podendo usar o tempo para trabalhar com seu alunos em “resolução de problemas”. Perceba que o discurso é sempre de usar melhor o tempo, aprender melhor, mas, não se sabe o que esse “melhor” de fato significa. Com frequência, a ideia adjacente é a de que o professor pode ser substituído, ao menos em certas atividades (tão diferentes quanto dar aulas expositivas e corrigir avaliações…).

Em outro trecho, que reproduzo a seguir, o jornalista aponta pesquisas (sem especificar quais) que teriam mostrado a superioridade de tutores na forma de inteligência artificial em relação a tutores humanos. Isso se daria porque “o computador é mais paciente” que o professor, além de mais insightful – o que poderia significar ter ideias melhores ou ser mais criativo (?)

Studies show that these systems can raise student performance well beyond the level of conventional classes and even beyond the level achieved by students who receive instruction from human tutors. A.I. tutors perform better, in part, because a computer is more patient and often more insightful.

Será?

Num cenário em que predomina o discurso sobre os efeitos positivos da inteligência artificial na educação, esse artigo é apenas um exemplo. São muitos os que trazem algo nessa mesma linha.

Somente com estas breves referências que apontei até aqui, já abrimos uma infinidade de questões a serem postas em xeque tanto sobre o uso efetivo da IA na educação na forma de [machine learning + big data] quanto sobre o discurso. Predomina uma argumentação acrítica e pasteurizada, que costuma assinalar os ganhos sem pesar as possíveis consequências advindas do uso massivo de dados.

Não se procura saber, nem mesmo, o que são esses dados. Isto é, o que quer dizer, efetivamente, o tempo que um estudante levou para fazer uma lição? Quando esse tempo é fornecido a partir do rastreamento da atividade desse aluno, ele não parece dizer muita coisa. O que realmente aconteceu com o aluno durante o tempo em que ele estava logado? Não somos meros logins, somos pessoas, num determinado espaço, em determinado momento. Talvez não possamos ser representados somente por números.

De volta para o futuro

Mesmo que se pudesse prever todas as adversidades envolvidas em dada situação cujo objetivo é o ensino e a aprendizagem, aí já está um x da questão: a previsão. Especialistas com um olhar crítico à IA na educação vêm indicando que isso pode gerar um passado cristalizado e prender os alunos a um futuro rígido, imutável.

This image has an empty alt attribute; its file name is antonino-visalli-Fu-K5VwabM8-unsplash-683x1024.jpg

Uma vez que o machine learning trabalha a partir de tais previsões, já que se utiliza de dados gerados pelos estudantes para que, com esses dados, possa identificar tendências, há o risco de os estudantes se tornarem eternamente atados ao seu passado – carregando uma espécie de mochila pesada de históricos escolares detalhados a seu respeito que nunca são esquecidos e podem permanecer acessíveis por mais tempo do que seria desejável.

Seu futuro lhes faria vítimas das previsões justamente baseadas em dados estáticos, os quais podem não corresponder mais à sua realidade. Somos, afinal, seres em constante transformação e evolução. Envolvidas nisso há diversas implicações, especialmente, para a privacidade dos alunos – já que os dados podem ficar acessíveis para fins questionáveis, o que pode prejudicar sua vida profissional e pessoal.

Neutralidade tecnológica?

De onde vêm os dados gerados a partir da atividade dos alunos em uma plataforma baseada em machine learning? Dados não surgem por acaso, não são espontâneos e nem existem por si só. Eles surgem nas interações entre alunos e máquinas, e essas interações são limitadas pela maneira como o sistema é construído, pelo que se espera dele, pelo que é injetado em seus algoritmos. Isto é, dados emergem a partir de decisões tomadas no desenvolvimento dos algoritmos para os sistemas de IA utilizados nas plataformas.

Nesse desenvolvimento, priorizam-se determinados aspectos em detrimento de outros.

Fatalmente, também por sua vez, os resultados obtidos trarão consigo a priorização de certo aspectos e não de outros. Um problema relevante, por trás disso, é que frequentemente somos avaliados por fórmulas secretas que não compreendemos, como ressalta a matemática Cathy O’Neil. Se o que se avalia não fica claro, é certo que, como O’Neil explica: “Para construir um algoritmo, são necessárias duas coisas: dados – o que aconteceu no passado – e uma definição de sucesso, aquilo que estamos procurando e pelo que estamos geralmente esperando”.

A definição de sucesso adotada estará instilada nos algoritmos. A suposta neutralidade tecnológica não existe...

Vieses

Pode-se facilmente compreender como pode haver (e há, muitos) vieses em algoritmos quando se trata do preconceito racial em alguns sistemas de reconhecimento facial, por exemplo. Esses são casos contundentes e que têm adquirido notoriedade, tornando-se o centro de preocupações éticas concernentes ao campo.

A IBM afirmou que abandonaria pesquisa em reconhecimento facial por conta das implicações éticas e da falta de regulamentação – Leia

Na educação, mencionei questões sobre a privacidade dos dados dos estudantes e ao fato de os sistemas não serem claros quanto às variáveis relacionadas ao que é avaliado. Mas, ainda não falei dos professores. Há também iniciativas que procuram avaliá-los a partir de big data, com consequências que merecem (muita!) atenção.

Em sua palestra no TED, O’Neil cita a diretora de um colégio no Brooklyn que, em 2011, disse a ela que sua escola estava avaliando os professores a partir de um algoritmo complexo – e secreto. A diretora relata que tentou conseguir a fórmula para entender os critérios envolvidos naquela avaliação, mas o que ouviu da secretaria de educação foi que não adiantava lhe explicar porque ela não entenderia, já que se tratava de matemática.

Conclusão (conheça a história no TED): professores daquela escola foram demitidos por causa da tal fórmula secreta, uma caixa preta que a diretora tentou abrir, sem sucesso.

Como O’Neil destaca, o poder de destruição de um algoritmo projetado de maneira equivocada é imenso, e essa destruição pode se arrastar por bastante tempo. Mas, quando o assunto é uma modelagem envolvendo algoritmos, o pior de tudo é a falta de transparência. Por isso ela cunhou o termo “armas de destruição matemática”.

Não somos somente pontinhos em um grande mapa de dados…
(Imagem: Maria Bobrova @ Unsplash)

O big data na educação é uma caixa preta devido à dificuldade, em geral, de entendimento do que a inteligência artificial, na forma do machine learning, significa ou pode significar para processos educacionais. E se torna ainda mais obscura quando, sem que se conheça os critérios utilizados, alunos e educadores sejam submetidos a avaliações e análises frequentemente injustas; e o pior, sem poder contestá-las.

O’Neil dá vários exemplos de como o uso indevido de dados tem prejudicado pessoas em variadas situações. Para entender isso melhor, é preciso olhar para a noção de modelo; o que é um modelo e por que ele pode se tornar uma arma de destruição matemática? Explicarei isso em outro post.

Agradeço à Giselle Ferreira, professora da PUC-Rio que está ministrando uma disciplina sobre big data e educação este semestre, pelos ricos debates que tanto colaboraram com insights para que este(s) post(s) fossem escritos. Leia o blog dela, no qual é possível obter uma perspectiva crítica sobre as tecnologias educacionais: https://visoesperifericas.blog/

Imagem principal do post: Franki Chamaki @ Unsplash

Um artigo enviesado enviesa muitos outros…

Como jornalista e pesquisadora de temas relacionados às tecnologias digitais, com foco na inteligência artificial, machine learning e afins, tenho estado atenta à maneira como esses temas vêm sendo abordados nos veículos midiáticos. Como se não bastassem os vieses embutidos nos algoritmos dos sistemas artificiais que temos produzido (os quais estendem os vieses que temos como seres humanos, vivendo em sociedade), o jornalismo (e os veículos pseudo jornalísticos…) não raro trabalham pela propagação de preconceitos, vieses e, consequentemente, pela desinformação.

Um caso que está se desenrolando agora é bem característico do que estou querendo dizer. Ele se desencadeia a partir deste artigo – Tracking historical changes in trustworthiness using machine learning analyses of facial cues in paintings – que foi publicado na prestigiada revista científica Nature. A publicação do estudo, por si só, já foi um susto para muitos pesquisadores, uma vez que a crença em características faciais como definidoras de comportamento e personalidade é considerada, hoje, comprovadamente falsa. Os autores do artigo utilizaram algoritmos para “rankear” o grau de confiabilidade de rostos de pessoas em pinturas históricas, e depois fizeram correlações bastante controversas. No resumo do artigo, seus autores dizem:

“Our results show that trustworthiness in portraits increased over the period 1500–2000 paralleling the decline of interpersonal violence and the rise of democratic values observed in Western Europe” – em tradução livre: “Nossos resultados mostram que a confiabilidade em retratos cresceu ao longo do período de 1500 a 2000, de maneira paralela ao declínio da violência interpessoal e da ascensão de valores democráticos observados na Europa Ocidental”).

Um dos problemas do estudo, apontados pelo pesquisador Rory Spanton em texto no Medium (A Top Scientific Journal Just Published a Racist Algorithm – How a flawed face recognition AI sparked worldwide outrage), é que os pesquisadores-autores investigaram a percepção humana da confiabilidade, não a confiabilidade em si. Apesar de os autores não fazerem inferências sobre o real comportamento humano diretamente de seu algoritmo, eles não deixam isso claro, ressalta Spanton. De fato, o artigo não enfatiza que está em busca de uma percepção.

Segundo Spanton, a omissão dos autores é um grave erro por criar uma definição confusa de confiabilidade e abrir espaço para se associe as classes sociais mais baixas a uma menor taxa de confiabilidade. Ele também ressalta que os autores não se preocupam em mencionar ou questionar quaisquer vieses raciais no algoritmo e parecem desavisados quanto às possíveis implicações de introduzir tal algoritmo na literatura.

O contexto em que vivemos é de uso real de algoritmos que usam rankings de confiabilidade para julgar cidadãos criminalmente, como Spanton destaca (veja neste post outras informaÇões sobre isso, especialmente o vídeo em que a matemática Cathy O’Neal fala sobre os preconceitos e vieses que os algoritmos trazem); ele afirma que faltou aos autores do artigos contextualizar as coisas nesse cenário, caracterizado por múltiplas implicações éticas, em vez de focar em questões artísticas e históricas. A falta de cuidado é o típico erro que pode contribuir para solidificar as bases sobre as quais são feitas inferências perigosas quanto a grupos menos privilegiados.

A estética não é estática

Outro ponto extremamente interessante que o pesquisador Rory Spanton destaca em seu texto no medium é que a pintura, a arte, não são algo estático; pinturas não são “fósseis cognitivos” (como disse Neville Mogford, especializado em arte, que está fazendo sua pesquisa pós-doutoral na Universidade de Birmingham), pois a arte é influenciada por mudanças nas atitudes culturais. Por isso, qual seria o sentido de dizer que as pessoas de antigamente eram menos confiáveis do que as de hoje? Spanton afirma que:

“[p]essoas há muito tempo poderiam ser tão confiáveis quanto são hoje. Mas podem ter sido pintadas assim devido ao contexto histórico e cultural ou às suas próprias preferências”

E diz ainda que “o artigo também assume que as características faciais que as pessoas consideram confiáveis se mantiveram constantes desde os anos de 1500”.

Em complementação ao que Spanton coloca sobre isso, eu diria que a percepção é uma via de mão dupla; nós percebemos as coisas enquanto as coisas agem sobre nós, nos moldam, e por isso a percepção e a nossa ação no mundo são indissociáveis. Constantemente, nós ajustamos as nossas percepções, porque vamos agindo e modificando aquilo que está em torno de nós. Não há nada esperando que o percebamos, estaticamente; nem mesmo um quadro é estático, e quando traz o retrato de alguém a maneira como vamos “ler” aquele rosto dependerá de inúmeros fatores que surgem da nossa interação com ele.

Caminhos de pesquisa questionáveis

Além dos problemas advindos de uma pesquisa envolvendo algoritmos que pode contribuir para aumentar o preconceito na IA, além da questão recorrente dos problemas possivelmente advindos de uma pesquisa baseada em percepções, Spanton aponta para o problema da generalização: como inferir a confiabilidade de uma população inteira a partir de uma amostra de indivíduos, provavelmente abastados, que foram retratados em pinturas?

Soma-se ainda o fato de os autores do estudo fazerem correlações espúrias, e… é como se todos os possíveis problemas que uma pesquisa pode trazer estivessem todos reunidos nesse artigo!

O que, afinal, isso tudo tem a ver com jornalismo?

Muita gente nao sabe, mas recai sobre pesquisadores acadêmicos uma imensa pressão por produtividade. Ou seja, é preciso publicar uma média altíssima de artigos por ano. Isso é resultado de uma estrutura que preza mais pela produtividade e menos pela qualidade. Ainda assim, concordo com Spanton quando ele diz que cabe aos pesquisadores a resistência à má ciência. Talvez tenha faltado, a esse artigo, uma revisão por pares (peer-review) mais cuidadosa? Também para quem não sabe, artigos científicos sempre precisam passar por uma revisão anônima antes de saírem numa publicação conceituada.

Em cima dos jornalistas também existe, sempre, uma enorme pressão pela publicação, pelo “furo” de reportagem (aquela notícia que o veículo consegue dar antes de todos os outros). Nessa busca insana pela novidade e pelo pioneirismo, não é raro ver textos muito ruins, cheios de erros e baseados em conclusões apressadas. Textos baseados em pesquisas científicas frequentemente trazem diversos problemas – de apuração, de compreensão da pesquisa, de interpretação de dados etc. Se forem fundamentados em uma pesquisa com muitas lacunas, a tendência é a de um terrível efeito em cascata.

Veja no tabloide THE SUN um exemplo desse efeito: PRETTY LITTLE LIARS – We reveal which celeb faces you can (and can’t) trust – from Kim Kardashian & Holly Willoughby to Meghan Markle

Artigos enviesados sobre a IA têm pipocado nos veículos midiáticos. O discurso é predominantemente positivo; as críticas quase nunca aparecem. Um exemplo desse viés puramente positivo pode ser encontrado no artigo a seguir, publicado recentemente na Forbes – Five Tech Innovations That Could Change Healthcare This Decade

Ok, é a Forbes, focada em negócios; mas, se as revistas, jornais e sites em geral vão dar espaço para colunistas de tech que são também executivos de companhias de tech, elas precisam dar espaço a colunistas filósofos, antropólogos, sociólogos, educadores, profissionais da saúde etc na mesma proporção, e ainda fazer reportagens sobre IA ouvindo vários lados, ou a visão que chegará por meio desses veículos seguirá com apenas um viés, e um viés positivo-näive que chega a irritar.

Claro, há diversas implicações positivas trazidas pela IA. Mas, é importante questionar, pensar um pouquinho a respeito. Veja estes trechos do artigo do colunista da Forbes, apresentado como “longevity investor and visionary with a mission to extend healthy lifespans of one billion people”:

“In the future, we might bypass hospitals when we are sick. Instead, we’ll head to the neighborhood Walmart, see our primary care physician, get our prescription and pick up some tissues and cough drops on our way out” (“No futuro, poderemos evitar hospitais quando estivermos doentes. Em vez disso, iremos para o Walmart da vizinhança, veremos nosso médico de atenção primária, obteremos nossa receita e recolheremos alguns lenços de papel e pastilhas para tosse ao sair”).

O autor foi irônico aqui? Pior que não. E isso foi depois deste parágrafo:

“One giant retailer with a strong focus on digital healthcare is Amazon, which recently purchased PillPack to make it easier to receive medication. The partnership sorts your pills by dosage, delivers them to you monthly and provides clear drug therapy instructions” (“Um grande varejista com forte foco em saúde digital é a Amazon, que comprou recentemente o PillPack para facilitar o recebimento de medicamentos. A parceria separa seus comprimidos por dosagem, entrega-os mensalmente e fornece instruções claras de terapia medicamentosa”).

Fica a dica: pensar criticamente sobre as coisas que têm sido publicadas sobre IA faz bem à saúde.


Eis o Dilemma

Documentário “The Social Dilemma“, da Netflix, está dando o que falar. Ficou pessimista depois de assistir? Leia este post.

The Social Dilemma (O Dilema das Redes, em português), que aborda a manipulação de nossos dados pelas redes sociais online, traz depoimentos de pessoas que desistiram de trabalhar nas gigantes de tecnologia – Google, Instagram, Facebook, Pinterest e afins. Os entrevistados perceberam, pode-se dizer, que os valores das empresas em que eles vinham trabalhando não estavam mais de acordo com aquilo que eles acreditam, e resolveram tomar outros rumos na vida.

Mas, então, onde é que essas pessoas estão hoje? O que elas estão fazendo de suas vidas? E os outros entrevistados que aparecem no doc, quem são e qual tem sido o seu papel no universo da tecnologia? Muitos deles estão fazendo coisas bem legais, algumas bastante inspiradoras, que podem ajudar a mudar significativamente a nossa relação com a tecnologia, tanto individual como coletivamente. Outros escreveram livros com temáticas excelentes.

Essas pessoas têm em comum a desconfiança quanto a esse status quo do universo tecnológico, e são movidas por suas experiências e pela vontade de levar mais gente a se preocupar com a maneira como fazemos e consumimos tecnologias.

Então, antes de ficar pessimista, ou de achar que não dá para fazer nada “porque o mundo agora é assim mesmo”, talvez valha conhecer algumas das iniciativas que têm surgido a partir dessa vontade de mudança. Escrevi sobre algumas delas, aqui – e pretendo escrever sobre as demais (pessoas do doc e iniciativas) num outro post. Vale pensar em se envolver em algum(ns) projetos capitaneados por essa galera ou, ao menos, ler alguns livros e/ou assistir a outros documentários. Quem sabe começar desativando suas notificações? Aproveita e ainda evita que a bateria do seu celular gaste à toa 😉 Se estamos preocupados, precisamos nos envolver, conhecer mais sobre o assunto e assumir uma postura diferente. Evitar o tema não é uma opção.

Tristan Harris

Ele passou anos no Google como Google Design Ethicist. No documentário, conta um pouco dessa sua experiência, que demonstra a falta de preocupação da empresa com questões éticas e de privacidade. Harris é fundador e presidente da ONG Center for Humane Technology A página que apresenta a iniciativa diz:

We envision a world where technology is realigned with humanity’s best interests. Our work expands beyond tech addiction to the broader societal threats that the attention economy poses to our well-being, relationships, democracy, and shared information environment. We must address these threats to conquer our biggest global challenges like pandemics, inequality, and climate change.

A ONG convida quem quiser ajudar a remodelar a maneira como construímos e consumimos tecnologias: https://www.humanetech.com/get-involved – e ressalta que não precisa ser empreendedor, programador ou o que quer que seja para se envolver; se você for da área de tecnologia é bem-vindo, mas basta ser “cidadão, educador ou pai/mãe”. Para saber o que exatamente dá para fazer junto a eles, é preciso fazer um cadastro inicial.

Shoshana Zuboff

Shoshana Zuboff é professora em Harvard e autora do livro “The Age of Surveillance Capitalism”, sobre o qual você pode ler neste link – https://shoshanazuboff.com/book/about/. Este documentário que postei aqui explica muito bem a ideia do capitalismo de vigilância de que ela fala.

Justin Rosenstein

Com mais de 170 mil seguidores no LinkedIn (o que não quer dizer nada por si só e nem sei por que citei aqui, mas ok), Justin, que estudou em Stanford (isso também não quer dizer lá muita coisa, por si só), foi da Google e do Facebook, e depois seguiu fazendo seus projetos pessoais: o Asana, um software independente que tem a função de melhorar a produtividade das pessoas, e o One Project, voltado para o design de governança e sistemas econômicos mais “equitativos, ecológicos e efetivos”, segundo ele informa no LinkedIn. O site dele é este: https://justinrosenstein.com/ e no vídeo ele fala sobre a Asana.

Roger McNamee

McNamee é um investidor no Vale do Silício. Ele injetou dinheiro no Facebook e ajudou Zuckerberg a crescer, mas, hoje, como o documentário da Netflix mostra, é um ferrenho crítico ao modo como a empresa orienta suas atividades. Ele afirma que o Facebook é uma ameaça à democracia, e acusa a rede de espalhar as chamadas fake news.

McNamee escreveu um livro chamado Zucked: Waking up to the Facebook Catastrophe. Vale dizer que, no vídeo que postei aqui, ele diz que a Apple, de maneira bem diferente do Facebook, é responsável com os usuários em relação a questões de privacidade – o que mostra que as opiniões de todas estas pessoas podem ser diferentes em relação às companhias de tecnologia envolvidas em todas essas temáticas. Serve para construirmos o nosso próprio pensamento crítico.

Tim Kendall

Kendall foi presidente do Pinterest e Diretor de Monetização do Facebook. Ele criou um app chamado Moment, desenvolvido para ajudar as pessoas a fazerem “detox” de seus smartphones. O aplicativo está disponível para ser baixado de graça na App Store e aqui há mais informações –  https://inthemoment.io

Rashida Richardson

Ela trabalhou no Facebook e em vários outros lugares, e hoje é a diretora de Policy Research no AI NOW – um instituto de pesquisa em inteligência artificial que examina as implicações da IA para a sociedade ligado à New York University; o site é este aqui: https://ainowinstitute.org/ e a página do site que fala sobre a Richardson é esta: https://ainowinstitute.org/people/rashida-richardson.html .

O instituto dedica-se a pesquisas que contribuam para que sejam criados mecanismos, políticas, leis etc. para que haja responsabilidade/responsabilização pelo uso e a produção de tecnologias envolvendo inteligência artificial. Atualmente, as quatro principais frentes de pesquisa do núcleo são: direitos e liberdade; trabalho e automação; preconceito e inclusão; segurança e infraestrutura crítica.

Jaron Lanier

Lanier, que é cientista da computação e filósofo, trabalhou na Microsoft até 2009. Depois, ele escreveu vários livros além do citado “Ten arguments for deleting your social media accounts right now”; escreveu um chamado “Who own the future?” e ainda “You are not your gadget”, entre outros, apresentados em seu site: http://www.jaronlanier.com/ . Aliás, no site ele reforça que não tem (mesmo!) contas em redes sociais.

Cathy O’Neil

Cathy é uma matemática americana, autora do site/blog mathbabe: https://mathbabe.org/ e do livro “Weapons of Math Destruction”, sobre o impacto dos modelos matemáticos e dos algoritmos de IA em diversas áreas da sociedade (destaque especial para a educação e para o mercado financeiro). O mais legal desse livro é que ela usa uma linguagem super corriqueira, inteligível, para nos explicar os modelos matemáticos e suas implicações (como jornalista e doutoranda, já estava desacostumando de livros que explicam as coisas de uma maneira mais, digamos, objetiva…). A obra ainda não está disponível em português, porém. De todo modo, a palestra dela no TED dá uma boa introdução à perspectiva de O’Neil.

Uma última curiosidade: Jeff Orlowski, o cineasta norte-americano realizador do doc, já tinha feito dois outros documentários, “Chasing Ice” (de 2012) e “Chasing Coral” (de 2017), que são ligados a temáticas de responsabilização, por assim dizer, mostrando impactos que a humanidade exerce sobre a natureza.

Para assistir ao doc na Netflix: https://www.netflix.com/title/81254224

Imagem do post: Markus Spiske @ Unsplash

Vou participar do Ladies that UX dia 20 de agosto

Dia 20/8 estarei num papo online sobre UX – User Experience, tudo o que diz respeito a navegação pela web, conteúdo digital, acessibilidade etc. O encontro é promovido pelo Ladies That UX, Edição Rio de Janeiro.

A ideia é reunir e dar voz a mulheres da tecnologia, desta vez a edição é exclusiva do Rio de Janeiro. Fui convidada para falar de UX e IA, juntando a área com a qual trabalho há muitos anos com a que venho pesquisando mais recentemente.

O desafio é grande e estou animada. Será uma fala curtinha, porque várias outras ladies também vão falar de suas experiências incríveis, e haverá espaço para debate. Se tiver interesse, faça sua inscrição com antecedência neste link. Nos vemos lá!

Como a distância impacta a educação? E o que podemos fazer?

Quais as diferenças entre aprender/ensinar a distância e presencialmente? Do que sentimos falta quando estamos distantes, fisicamente, uns dos outros? A internet pode ser utilizada de maneiras diferentes, de modo a unir mais as pessoas envolvidas em processos de ensino-aprendizagem por elearning? Como reduzimos a frieza das máquinas e aproximamos mais as pessoas nesse cenário, aumentando a afetividade, o compartilhamento?

Essas questões serão debatidas em uma apresentação que farei online com o professor Eduardo Santos no dia 18, às 10h (Brasil), na Here and Now, uma conferência organizada pela Social Pedagogy Associaton.

As inscrições gratuitas podem ser feitas online pelo link https://lnkd.in/eJ9B-cX

É preciso reduzir a distância da educação a distância

A educação a distância é capaz de gerar muitas oportunidades e abrir um sem-número de possibilidades. É uma modalidade que tem muito a crescer. No entanto, considero essencial que tenhamos um posicionamento crítico e reflexivo em relação ao uso das tecnologias digitais na educação, de um modo geral, incluindo-se aí a EaD.

A ideia da “distância” na EaD me incomoda, em um certo sentido; penso que devemos reduzir a distância da educação a distância, digamos assim. É importante nos preocuparmos para que, no espaço virtual da educação a distância baseada em tecnologias, não desapareçam as subjetividades, as particularidades de cada aluno e de cada professor. Cada um que participa do processo de ensino-aprendizagem carrega um olhar, uma série de experiências, muitas expectativas, ansiedades, filosofias. E isso tem um valor enorme para que aconteça uma educação humanizada, inclusiva e rica em vários sentidos.

Quando o ensino é presencial, essas subjetividades naturalmente aparecem, pois alunos e professores levam os seus corpos, a sua presença física para o ambiente de aprendizagem. Já a experiência restrita ao online, na modalidade a distância, envolve o risco de separar o sujeito de seu corpo – o qual é parte essencial do conjunto cognitivo de um indivíduo, apesar de às vezes isso ser esquecido (vide as reportagens sobre como O CÉREBRO aprende, O CÉREBRO se emociona, mas… o cérebro não está sozinho nessa…! É o corpo todo que vai junto com ele!).

Se há apenas o ambiente online para a aprendizagem, essas especificidades ficam escondidas, prejudicadas pela pasteurização que tantas vezes emerge da redução de indivíduos a logins. Especialmente quando se trata de um processo voltado para uma educação para a vida, ou seja, para a formação dos estudantes de um modo amplo, creio que isso pode ser bastante prejudicial. Talvez seja menos danoso no caso do ensino de uma habilidade mais focada na técnica, na aplicação imediata.

Soma, e não substituição

Diante disso, o caminho que me parece mais interessante para somarmos as potencialidades das tecnologias com a manutenção dessas importantes trocas de experiências é o da união de experiências online com experiências offline, sejam aulas, palestras, encontros, treinamentos, enfim.

Para diminuir a distância da educação a distância, também creio ser preciso oferecer apoio e incentivo ao aluno, de forma permanente. Estudar a distância, afinal, sempre exige uma dose maior de disciplina, organização, concentração e capacidade de priorização por parte do estudante. Ajudá-lo a evoluir com relação a essa organização e planejamento pode, então, contribuir para manter esse aluno interessado, confiante e motivado.

A motivação pode ser ainda maior quando o estudante encontra um ambiente virtual de aprendizagem intuitivo, que funcione bem, e ao mesmo tempo seja acolhedor; quando, nessa experiência virtual, ele encontra ferramentas bacanas e um conteúdo ao mesmo tempo envolvente, bem apresentado, claro e objetivo. E esse esforço de colaborar com a experiência do aluno e de apoiá-lo em sua aprendizagem a distância tem como pilar fundamental justamente o conhecimento que se tem desses alunos, que vem da convivência presencial com eles. Então, o online e offline retroalimentam-se. Um não deve substituir o outro.

O potencial das tecnologias digitais na educação a distância não é de substituição das capacidades humanas, mas de ampliação dessas capacidades. 

As iniciativas já existentes no sentido da união entre educação e tecnologias – cursos online, e-books e outros materiais digitais, ambientes virtuais de aprendizagem, o uso do machine learning em plataformas adaptativas, a gamificação de plataformas etc – têm sido essenciais para consolidar essa parceria entre educação e tecnologias digitais.

No entanto, educação e tecnologias podem ser aliadas mais fortes ainda se, por exemplo, conseguirmos minimizar dificuldades relacionadas à democratização do acesso à educação, utilizando as tecnologias digitais para isso. Não devemos perder de vista que essas tecnologias podem, ao mesmo tempo, contribuir para essa democratização ou causar mais problemas nesse sentido, uma vez que, se elas ampliam as possibilidades de aprendizagem e acesso à informação, isso precisa idealmente ser para todos, não apenas para alguns – caso contrário, a defasagem entre quem tem o acesso e quem não tem será ainda maior.

Acredito que a principal forma de aumentar e tornar mais eficaz ainda essa relação entre a educação e as tecnologias, de modo geral, é conhecendo as implicações das tecnologias digitais a nossa sociedade, analisando os seus impactos, de forma profunda. Por exemplo, precisamos pensar na nossa relação com a inteligência artificial.

Há um enorme medo de que os robôs nos substituam, mas será que é por aí?

Em alguns casos, máquinas trabalharem por nós não parece ser um problema, pelo contrário, já que robôs e sistemas podem desempenhar certas tarefas de um modo até mais eficiente que humanos, sim – podem fazer inúmeros cálculos em pouco tempo, apenas para citar uma das situações. Mas, há outros casos, aqueles que envolvem as experiências nas quais não podemos prescindir da nossa relação direta com o mundo, com as outras pessoas, que representam algo único, algo que nos ajuda a crescer; esses casos não podem ser protagonizados ou pautados por algoritmos e robôs.

Algoritmos não podem resumir ou restringir as nossas experiências, e robôs não podem ter experiências como nós temos, e que são imprescindíveis para o nosso crescimento. Erramos, acertamos, sofremos, comemoramos, tentamos de novo: isso é humano. Criamos, testamos, compartilhamos com os outros o que pensamos: isso é humano.

Muito do medo das tecnologias, acredito, vem do receio da perda de espaço, vem do medo de que as máquinas nos tornem obsoletos. Na verdade, devemos pensar em ampliação, parceria, novas possibilidades para quem aprende e para quem ensina.

Materialidades Digitais

Normalmente, quando pensamos em um livro de papel versus um livro digital, pensamos na materialidade desses artefatos: um livro impresso nós podemos manusear, passamos as páginas, sentimos seu cheiro etc. No caso de um livro digital, o qual lemos por meio de um e-reader, no computador, num tablet ou no smartphone, perdem-se essas experiências. O conteúdo digital não é material. Será mesmo?

Hoje, aqui na Universidade de Coimbra, onde estou realizando um período de investigação, assisti a uma palestra, ministrada por Serge Bouchardon, que desafia essa premissa. Ele levou o público a pensar sobre como a mídia digital proporciona ainda mais manipulação do que a mídia física, e isso se dá porque, no caso do online, o próprio conteúdo pode ser manipulável.

Desse modo, é como se os livros físicos tivessem uma certa materialidade e os digitais, outro tipo de materialidade. 

Há todo um gestual que é inerente às mídias digitais; desde quando teclamos no computador até quando usamos o mouse ou deslizamos o dedo na tela de um celular. E por que fazemos isso? Para manipular o conteúdo que ali está. Segundo Bouchardon, que atua também na área de mídias digitais na educação, a compreensão dessa gama de gestos ligada ao mundo digital deve ser parte da alfabetização digital.

Para experimentarmos tais ideias de forma prática, o pesquisador apresentou alguns de seus projetos, como o Loss of Grasp – que mistura arte, design, poesia, literatura e recursos digitais de uma maneira interessantíssima. Em quais circunstâncias nós perdemos o controle sobre nossas vidas? É sobre isso que o projeto nos leva a pensar, por meio de uma viagem pela materialidade digital: clicamos sobre as frases, e elas se movem; luzes coloridas nos dão a sensação da vida nos escapando ao controle; em breve perdemos o rumo do cursor e não sabemos por onde anda o mouse de nosso computador.

Quando a palestra foi aberta a perguntas, questionei o professor a respeito de como podemos ter mais sensações materiais com livros que lemos em e-readers (que, na minha opinião, são práticos, mas sem graça em termos de experiências que envolvem a manipulação física). E ele nos disse que os designers deverão resolver isso com sua criatividade 😉

Em tempo: a Universidade de Coimbra tem um doutoramento inteiro dedicado às materialidades na literatura; os alunos são designers, egressos da licenciatura de letras e de outras áreas; fica aqui o link para quem quiser conhecer.

Há ainda outras experiências indicadas por Bouchardon:

http://bram.org/toucher//index.htm

https://bouchard.pers.utc.fr/storyface/

Imagem do post: Julius Drost @ Unsplash

 

 

Conteúdo digital para a educação: uma breve reflexão

Desde 2005, quando me graduei em jornalismo, tenho trabalhado produzindo conteúdo para a Web. Passei por projetos de vários tipos, em várias empresas, com temas variados. Comecei minha carreira num site de notícias que hoje seria considerado uma espécie de startup, termo que não se usava na época. Trabalhei no British Council, na Infoglobo por quase quatro anos, fiz consultoria para a Petrobras, passei por agências digitais, trabalhei com intranet na Oi, fiz projetos para a Fundação Roberto Marinho, o Ibmec e, mais recentemente, a startup de educação Tamboro. Faço projetos para o Museu do Amanhã. Volta e meia, escrevo reportagens para o site Porvir. Entre todos os temas com os quais lidei, a educação me fisgou.

O primeiro contato que tive com a educação profissionalmente foi há 11 anos, quando escrevi uma reportagem, que ganhou dois prêmios de jornalismo, sobre déficit de atenção e hiperatividade, e com ela pude conhecer vários professores e pais de crianças que me contaram das dificuldades delas enquanto alunas, e também me revelaram o quanto a vida dos estudantes ficava mais difícil por conta da incompreensão daquele jeito “agitado e desatento” deles. Depois, trabalhei em um projeto de educação para a sustentabilidade para o British Council, onde era analista de comunicação digital. O projeto me possibilitou vivenciar diversos ambientes da educação, espaços de educação formais e não-formais, todos muito além do online – apesar de usarmos blogs, redes sociais e o site do projeto para comunicar e educar sobre meio ambiente. Frequentávamos as escolas, falávamos com os alunos, professores e coordenadores, conversávamos para entender as necessidades deles.

Na Infoglobo, coordenei O Livreiro, uma rede social voltada para apaixonados por livros. Meu primeiro trabalho foi ir à FLIP, a partir de uma narrativa que eu mesma criei e a chefe aprovou: o Mochilão do Livreiro. A ideia era mostrar a FLIP para quem era estudante, ia com pouca grana para Paraty ou já morava lá e todo ano via a FLIP acontecendo em sua cidade, mas sem atividades voltadas para jovens fora dos círculos intelectuais de debates. De mochila, mesmo, saíamos – em equipe – pela cidade distribuindo livros, promovendo ações, sentando em rodas para mostrar e-readers para crianças e adolescentes e ler livros com eles – ações offline, mas que tinham tudo a ver com a nossa rede, que era online.

Hoje, faço mestrado em educação, e sigo amando cada vez mais unir a comunicação digital à educação. Adoro produzir conteúdo digital para projetos educacionais, principalmente quando percebo que eles vão ter uma real relevância para a galera que terá acesso a eles. Mas, quanto mais digital o mundo fica, quanto mais digitais todos nós ficamos, mais eu penso o quanto nós temos que olhar para o offline, que é de onde viemos, é parte do que somos. Somos online e somos offline: tudo junto e misturado. Andy Clark, filósofo britânico que é figura central em minha pesquisa de mestrado, diz que somos ciborgues naturais, seres híbridos, porque o nosso acoplamento com as tecnologias é natural. Híbridos que somos – e eu concordo com ele – precisamos nos valer desse hibridismo, conversar, viver; fazer bom conteúdo é, afinal, ouvir as pessoas, é se enredar por narrativas, histórias, conhecer novos espaços, estar aberto a aprender, a se surpreender. Precisamos manter viva a curiosidade, e estar dispostos a cometer erros, mesmo que isso fique escancarado nas redes sociais – e daí, quem nao erra?

Na educação, para produzir bom conteúdo em meio às novas tendências tecnológicas, é isso que percebo: que não podemos perder a vontade de surpreender e de ser surpreendidos, e que não podemos esquecer que fazemos conteúdo para pessoas. Tudo o que falarmos e escrevermos terá um impacto super importante na vida delas. Cada “login” que se conecta para estudar online num ambiente virtual de aprendizagem é uma pessoa, é alguém cujo tempo dedicado aos estudos não se resume ao “time on site”; cujas dificuldades ou aptidões provavelmente não estão todas refletidas nas métricas vindas da aprendizagem adaptativa baseada em machine learning; é um aluno querendo aprender, um ser híbrido, online e offline o tempo todo, mas de carne e osso. Somos ciborgues naturais fazendo educação para ciborgues naturais. Mas o lado humano desse hibridismo não pode ser esquecido, em momento algum…!

 

Imagem: Giu Vicente @ Unsplash

Inteligência Artificial Humanística

Neste vídeo do TED, Tom Gruber, criador da Siri (assistente pessoal baseado em inteligência artificial da Apple) fala sobre como o caminho da inteligência artificial é amplificar e potencializar as capacidades humanas, gerando conexões e facilitando nossas vidas. É nisso que acredito: não se trata de substituir humanos em atividades que desenvolvemos bem. As máquinas podem nos ajudar com aquelas tarefas nas quais não somos tão bons, nos liberando delas para que nos dediquemos a outras coisas. A cognição humana se expande quando as tecnologias cognitivas se expandem…

Foto do post: Greg Rakozy @ Unsplash

Vício em tecnologia: o que estamos fazendo?

Escrevi uma matéria sobre o uso da tecnologia de inteligência artificial da IBM (chamada Watson) no Museu do Amanhã do Rio de Janeiro e na Pinacoteca de São Paulo. No Museu do Amanhã, o recurso localiza-se ao final da exposição principal, que é permanente. Para entender com detalhes como funciona e ler outros depoimentos e entrevistas, peço que o leitor visite a página da matéria no site Porvir, onde foi publicada.

O que venho abordar aqui neste post é uma das reflexões que a apuração da matéria me trouxe. Para levantar as informações, fui conhecer pessoalmente a tecnologia no Museu do Amanhã, batizada de IRIS+. Lá, conversei com especialistas e visitantes, entre eles um garoto de onze anos, para colher depoimentos para a reportagem. Eis que, ao lhe perguntar o que o afligia, ele respondeu: o vício. Tímido, foi bem sucinto em sua resposta, mas nem precisava mesmo falar muito, impactante que soou aquela afirmação para mim. Para completar, lhe perguntei o que ele havia aprendido ali, naquele dia, e ele me contou que se deu conta de que a tecnologia não é so vicio, mas pode ajudar as pessoas, também.

Tela da IRIS+, inteligência artificial do Museu do Amanhã

Talvez os familiares e professores desse menino já tenham chamado a sua atenção por ele estar “pendurado” no tablet, videogame ou no celular (como acontece com o meu enteado, esse da foto do post, ou outras tantas crianças que conhecemos). Talvez não. Mas o fato é que, caso esteja acostumado a ouvir esse tipo de comentário, ele é somente um em meio a um mar de dependentes das tecnologias, sejam eles jovens ou não. Muitas vezes, quem chama a atenção das crianças também está no caminho de se viciar, ou já é viciado. Ao menos, ele demonstrou uma postura consciente a respeito da questão.

Não vou, neste post, entrar no mérito de discutir o que caracteriza vício ou dependência. Há quesitos médicos para identificá-los? Sim. Mas, aqui, vou me limitar à faceta do vício que é aquela do bom senso e do bem estar (talvez a primeira barreira a ser ultrapassada rumo a uma dependência maior): se está nos fatigando, nos esgotando, roubando nosso tempo de atividades importantes, fazendo as pessoas chamarem a nossa atenção… tem grandes chances de ser vício. Foi assim com Catherine Prince, que escreveu este artigo para o New York Times. Ela concluiu que precisava encontrar uma maneira mais saudável de se relacionar com seu smartphone.

Lembro que fiquei absolutamente impressionada quando, ao assistir “Lo and Behold, Reveries of the Connected World”, de Werner Herzog (sobre o qual já comentei aqui antes) soube que adolescentes usam fraldas porque se recusam a levantar para ir ao banheiro durante as intermináveis partidas de videogame que disputam, sem poder correr o risco de perder. O documentário versa sobre essas e outras impugnações do mundo digital, sem deixar de destacar, por outro lado, algumas das grandes maravilhas fascinantes da nossa vida tão conectada.

“Heroína eletrônica”

Em 2014, um estudo da Universidade de Hong Kong revelou que cerca de 6% da população mundial seria viciada em internet. Na China, existem centros de reabilitação para dependentes da rede, que são como acampamentos militares, como conta esta matéria do Business Insider. No vídeo abaixo, dá para sentir um pouco do clima de um local como esses:

Nesse minidocumentário, no qual os games aparecem como os campeões de vício, um especialista refere-se aos jogos como uma espécie de “heroína eletrônica”. Ele fala do tal medo (preocupante, para dizer o no mínimo) que os dependentes sentem quanto a pausar para ir ao banheiro e perder o jogo. Muitos aparecem fumando enquanto jogam, o que mostra outro vício associado. Outros não se identificam como viciados. Os pais são aconselhados quanto às formas de lidar com o problema dos filhos. O especialista questiona: “Vocês sabiam que eles se sentem sozinhos?”

Conectados, mas sozinhos

A pesquisadora Sherry Turkle reforça esse argumento. Estamos hiperconectados, mas… nunca estivemos tão sozinho, diz ela, que é autora de vários livros sobre o tema e professora no Massachusetts Institute of Technology (MIT).

As pessoas deixam de se comunicar num mundo em que só se fala em comunicações e no qual as redes sociais online proliferam. Batem seus carros porque estão lendo mensagens no celular, ou checando suas redes sociais. Vidas são perdidas – no sentido literal ou não – em função desse vício. Perdem-se vidas, perde-se tempo. Ganha-se tempo com as tecnologias, também, é claro; sou uma entusiasta delas, afinal. Mas faço questão de criticá-las. Penso ser fundamental que todos nós façamos isso, pois somos os principais interessados. Tecnologias são feitas por nós e para nós, então para que nos interessam? Como podem nos ajudar, ampliar nossas capacidades, contribuir para que evoluamos como sociedade? Mais do criticar, isso é buscar aprofundamento, tentar compreender a função das tecnologias, o que está por trás delas, o que nos move para que tentemos tanto desenvolvê-las, aonde queremos chegar, em que elas nos transformam. Quem somos com as tecnologias? Quem seríamos sem elas? Somos dominados por elas ou as dominamos? #ficaareflexão

Imagem do post: foto de Luís Berbert