Big Data na Educação: é preciso abrir essa caixa preta

Navegando pela rede, você certamente já se viu diante de anúncios de algo que andou procurando, como se o seu navegador tivesse “adivinhado” o que você queria. Ou já recebeu uma sugestão de filme ou série que a Netflix achou que seria “a sua cara”…

(Bem, nem sempre funciona tão bem…)

… pois os nossos dados têm sido utilizados em sistemas de machine learning para fazer previsões e identificar tendências.

Muito se tem falado sobre as potencialidades do big data para a educação. Para quem não está familiarizado com o termo, trata-se dessas “coleções maciças de dados” (segundo os autores do artigo Tecnologias digitais na educação: a máquina, o humano e os espaços de resistência; clique para ler) que são geradas na medida em que navegamos por sistemas digitais e deixamos os nossos rastros nessas plataformas.

O que isso pode significar quando se trata de educação? A pergunta ainda é uma caixa preta, mas é preciso um esforço para abri-la.

Apesar do oceano de implicações positivas que vêm sendo apontadas para o uso de machine learning e de big data na educação, é preciso ir devagar com esse andor porque o santo é de barro. O que (vem sendo propagado que) o big data promete?

Quando se trata do uso de plataformas de aprendizagem baseadas em machine learning, basicamente o que se destaca é que, tendo mais informação sobre o desempenho e o ritmo individual de cada aluno, se poderá oferecer conteúdos mais apropriados à sua aprendizagem, no tempo e na sequência mais adequados para cada um. Com isso, se alcançaria “melhores” resultados, aproveitando ao máximo as potencialidades de cada aluno, resolvendo problemas e dificuldades que eles eventualmente tenham etc. Parece perfeito – e alinhado ao discurso da tecnologia como panaceia para tudo aquilo que se tem tentado solucionar na educação há tantos anos. Bem, esse, em si, já é um indício de que é preciso olhar para o tema com mais atenção.

Um exemplo, tirado deste livro aqui, intitulado Learning with Big Data – The Future of Education, é o rastreamento do comportamento de alunos em relação a vídeos de palestras numa plataforma online de atividades: é possível saber quando eles assistem aos vídeos, quando pausam, se aceleram para ver mais rápido, se os abandonam antes de terminar de assistir. Com base na identificação desses padrões, professores poderiam ajustar lições, decidir reforçar conceitos que aparentemente os alunos não entenderam bem ou mudar a maneira de explicar determinado assunto, por exemplo.

Mas, isso quer dizer que esteja ocorrendo um processo de aprendizagem melhor, realmente? Antes, aliás, isso significa que está ocorrendo, de fato, aprendizagem? O discurso costuma ser de que sim, mas… essa é uma conclusão que não se deve apressar.

Um artigo do New York Times – ‘The Machines Are Learning, and So Are the Students (“As Maquinas estão aprendendo, e também os alunos”), de Craig Smith, publicado em dezembro do ano passado – já no título traz um pressuposto enviesado para o uso de inteligência artificial na forma de machine learning: a ideia de que as máquinas aprendem. Mais audaciosamente, indica que os alunos estão aprendendo, também, graças a essas máquinas e sua suposta sagacidade. Smith diz:

Slowly, algorithms are making their way into classrooms, taking over repetitive tasks like grading, optimizing coursework to fit individual student needs and revolutionizing the preparation for College Board exams like the SAT. A plethora of online courses and tutorials also have freed teachers from lecturing and allowed them to spend class time working on problem solving with students instead.

Aqui, já vemos uma outra face do discurso: para além de individualizar o ensino, o uso de sistemas baseados em algoritmos poderia poupar os professores de tarefas como avaliar seus alunos e até de dar aulas expositivas (hum… alguém perguntou aos professores se eles querem parar de dar suas aulas?), podendo usar o tempo para trabalhar com seu alunos em “resolução de problemas”. Perceba que o discurso é sempre de usar melhor o tempo, aprender melhor, mas, não se sabe o que esse “melhor” de fato significa. Com frequência, a ideia adjacente é a de que o professor pode ser substituído, ao menos em certas atividades (tão diferentes quanto dar aulas expositivas e corrigir avaliações…).

Em outro trecho, que reproduzo a seguir, o jornalista aponta pesquisas (sem especificar quais) que teriam mostrado a superioridade de tutores na forma de inteligência artificial em relação a tutores humanos. Isso se daria porque “o computador é mais paciente” que o professor, além de mais insightful – o que poderia significar ter ideias melhores ou ser mais criativo (?)

Studies show that these systems can raise student performance well beyond the level of conventional classes and even beyond the level achieved by students who receive instruction from human tutors. A.I. tutors perform better, in part, because a computer is more patient and often more insightful.

Será?

Num cenário em que predomina o discurso sobre os efeitos positivos da inteligência artificial na educação, esse artigo é apenas um exemplo. São muitos os que trazem algo nessa mesma linha.

Somente com estas breves referências que apontei até aqui, já abrimos uma infinidade de questões a serem postas em xeque tanto sobre o uso efetivo da IA na educação na forma de [machine learning + big data] quanto sobre o discurso. Predomina uma argumentação acrítica e pasteurizada, que costuma assinalar os ganhos sem pesar as possíveis consequências advindas do uso massivo de dados.

Não se procura saber, nem mesmo, o que são esses dados. Isto é, o que quer dizer, efetivamente, o tempo que um estudante levou para fazer uma lição? Quando esse tempo é fornecido a partir do rastreamento da atividade desse aluno, ele não parece dizer muita coisa. O que realmente aconteceu com o aluno durante o tempo em que ele estava logado? Não somos meros logins, somos pessoas, num determinado espaço, em determinado momento. Talvez não possamos ser representados somente por números.

De volta para o futuro

Mesmo que se pudesse prever todas as adversidades envolvidas em dada situação cujo objetivo é o ensino e a aprendizagem, aí já está um x da questão: a previsão. Especialistas com um olhar crítico à IA na educação vêm indicando que isso pode gerar um passado cristalizado e prender os alunos a um futuro rígido, imutável.

This image has an empty alt attribute; its file name is antonino-visalli-Fu-K5VwabM8-unsplash-683x1024.jpg

Uma vez que o machine learning trabalha a partir de tais previsões, já que se utiliza de dados gerados pelos estudantes para que, com esses dados, possa identificar tendências, há o risco de os estudantes se tornarem eternamente atados ao seu passado – carregando uma espécie de mochila pesada de históricos escolares detalhados a seu respeito que nunca são esquecidos e podem permanecer acessíveis por mais tempo do que seria desejável.

Seu futuro lhes faria vítimas das previsões justamente baseadas em dados estáticos, os quais podem não corresponder mais à sua realidade. Somos, afinal, seres em constante transformação e evolução. Envolvidas nisso há diversas implicações, especialmente, para a privacidade dos alunos – já que os dados podem ficar acessíveis para fins questionáveis, o que pode prejudicar sua vida profissional e pessoal.

Neutralidade tecnológica?

De onde vêm os dados gerados a partir da atividade dos alunos em uma plataforma baseada em machine learning? Dados não surgem por acaso, não são espontâneos e nem existem por si só. Eles surgem nas interações entre alunos e máquinas, e essas interações são limitadas pela maneira como o sistema é construído, pelo que se espera dele, pelo que é injetado em seus algoritmos. Isto é, dados emergem a partir de decisões tomadas no desenvolvimento dos algoritmos para os sistemas de IA utilizados nas plataformas.

Nesse desenvolvimento, priorizam-se determinados aspectos em detrimento de outros.

Fatalmente, também por sua vez, os resultados obtidos trarão consigo a priorização de certo aspectos e não de outros. Um problema relevante, por trás disso, é que frequentemente somos avaliados por fórmulas secretas que não compreendemos, como ressalta a matemática Cathy O’Neil. Se o que se avalia não fica claro, é certo que, como O’Neil explica: “Para construir um algoritmo, são necessárias duas coisas: dados – o que aconteceu no passado – e uma definição de sucesso, aquilo que estamos procurando e pelo que estamos geralmente esperando”.

A definição de sucesso adotada estará instilada nos algoritmos. A suposta neutralidade tecnológica não existe...

Vieses

Pode-se facilmente compreender como pode haver (e há, muitos) vieses em algoritmos quando se trata do preconceito racial em alguns sistemas de reconhecimento facial, por exemplo. Esses são casos contundentes e que têm adquirido notoriedade, tornando-se o centro de preocupações éticas concernentes ao campo.

A IBM afirmou que abandonaria pesquisa em reconhecimento facial por conta das implicações éticas e da falta de regulamentação – Leia

Na educação, mencionei questões sobre a privacidade dos dados dos estudantes e ao fato de os sistemas não serem claros quanto às variáveis relacionadas ao que é avaliado. Mas, ainda não falei dos professores. Há também iniciativas que procuram avaliá-los a partir de big data, com consequências que merecem (muita!) atenção.

Em sua palestra no TED, O’Neil cita a diretora de um colégio no Brooklyn que, em 2011, disse a ela que sua escola estava avaliando os professores a partir de um algoritmo complexo – e secreto. A diretora relata que tentou conseguir a fórmula para entender os critérios envolvidos naquela avaliação, mas o que ouviu da secretaria de educação foi que não adiantava lhe explicar porque ela não entenderia, já que se tratava de matemática.

Conclusão (conheça a história no TED): professores daquela escola foram demitidos por causa da tal fórmula secreta, uma caixa preta que a diretora tentou abrir, sem sucesso.

Como O’Neil destaca, o poder de destruição de um algoritmo projetado de maneira equivocada é imenso, e essa destruição pode se arrastar por bastante tempo. Mas, quando o assunto é uma modelagem envolvendo algoritmos, o pior de tudo é a falta de transparência. Por isso ela cunhou o termo “armas de destruição matemática”.

Não somos somente pontinhos em um grande mapa de dados…
(Imagem: Maria Bobrova @ Unsplash)

O big data na educação é uma caixa preta devido à dificuldade, em geral, de entendimento do que a inteligência artificial, na forma do machine learning, significa ou pode significar para processos educacionais. E se torna ainda mais obscura quando, sem que se conheça os critérios utilizados, alunos e educadores sejam submetidos a avaliações e análises frequentemente injustas; e o pior, sem poder contestá-las.

O’Neil dá vários exemplos de como o uso indevido de dados tem prejudicado pessoas em variadas situações. Para entender isso melhor, é preciso olhar para a noção de modelo; o que é um modelo e por que ele pode se tornar uma arma de destruição matemática? Explicarei isso em outro post.

Agradeço à Giselle Ferreira, professora da PUC-Rio que está ministrando uma disciplina sobre big data e educação este semestre, pelos ricos debates que tanto colaboraram com insights para que este(s) post(s) fossem escritos. Leia o blog dela, no qual é possível obter uma perspectiva crítica sobre as tecnologias educacionais: https://visoesperifericas.blog/

Imagem principal do post: Franki Chamaki @ Unsplash

Eis o Dilemma

Documentário “The Social Dilemma“, da Netflix, está dando o que falar. Ficou pessimista depois de assistir? Leia este post.

The Social Dilemma (O Dilema das Redes, em português), que aborda a manipulação de nossos dados pelas redes sociais online, traz depoimentos de pessoas que desistiram de trabalhar nas gigantes de tecnologia – Google, Instagram, Facebook, Pinterest e afins. Os entrevistados perceberam, pode-se dizer, que os valores das empresas em que eles vinham trabalhando não estavam mais de acordo com aquilo que eles acreditam, e resolveram tomar outros rumos na vida.

Mas, então, onde é que essas pessoas estão hoje? O que elas estão fazendo de suas vidas? E os outros entrevistados que aparecem no doc, quem são e qual tem sido o seu papel no universo da tecnologia? Muitos deles estão fazendo coisas bem legais, algumas bastante inspiradoras, que podem ajudar a mudar significativamente a nossa relação com a tecnologia, tanto individual como coletivamente. Outros escreveram livros com temáticas excelentes.

Essas pessoas têm em comum a desconfiança quanto a esse status quo do universo tecnológico, e são movidas por suas experiências e pela vontade de levar mais gente a se preocupar com a maneira como fazemos e consumimos tecnologias.

Então, antes de ficar pessimista, ou de achar que não dá para fazer nada “porque o mundo agora é assim mesmo”, talvez valha conhecer algumas das iniciativas que têm surgido a partir dessa vontade de mudança. Escrevi sobre algumas delas, aqui – e pretendo escrever sobre as demais (pessoas do doc e iniciativas) num outro post. Vale pensar em se envolver em algum(ns) projetos capitaneados por essa galera ou, ao menos, ler alguns livros e/ou assistir a outros documentários. Quem sabe começar desativando suas notificações? Aproveita e ainda evita que a bateria do seu celular gaste à toa 😉 Se estamos preocupados, precisamos nos envolver, conhecer mais sobre o assunto e assumir uma postura diferente. Evitar o tema não é uma opção.

Tristan Harris

Ele passou anos no Google como Google Design Ethicist. No documentário, conta um pouco dessa sua experiência, que demonstra a falta de preocupação da empresa com questões éticas e de privacidade. Harris é fundador e presidente da ONG Center for Humane Technology A página que apresenta a iniciativa diz:

We envision a world where technology is realigned with humanity’s best interests. Our work expands beyond tech addiction to the broader societal threats that the attention economy poses to our well-being, relationships, democracy, and shared information environment. We must address these threats to conquer our biggest global challenges like pandemics, inequality, and climate change.

A ONG convida quem quiser ajudar a remodelar a maneira como construímos e consumimos tecnologias: https://www.humanetech.com/get-involved – e ressalta que não precisa ser empreendedor, programador ou o que quer que seja para se envolver; se você for da área de tecnologia é bem-vindo, mas basta ser “cidadão, educador ou pai/mãe”. Para saber o que exatamente dá para fazer junto a eles, é preciso fazer um cadastro inicial.

Shoshana Zuboff

Shoshana Zuboff é professora em Harvard e autora do livro “The Age of Surveillance Capitalism”, sobre o qual você pode ler neste link – https://shoshanazuboff.com/book/about/. Este documentário que postei aqui explica muito bem a ideia do capitalismo de vigilância de que ela fala.

Justin Rosenstein

Com mais de 170 mil seguidores no LinkedIn (o que não quer dizer nada por si só e nem sei por que citei aqui, mas ok), Justin, que estudou em Stanford (isso também não quer dizer lá muita coisa, por si só), foi da Google e do Facebook, e depois seguiu fazendo seus projetos pessoais: o Asana, um software independente que tem a função de melhorar a produtividade das pessoas, e o One Project, voltado para o design de governança e sistemas econômicos mais “equitativos, ecológicos e efetivos”, segundo ele informa no LinkedIn. O site dele é este: https://justinrosenstein.com/ e no vídeo ele fala sobre a Asana.

Roger McNamee

McNamee é um investidor no Vale do Silício. Ele injetou dinheiro no Facebook e ajudou Zuckerberg a crescer, mas, hoje, como o documentário da Netflix mostra, é um ferrenho crítico ao modo como a empresa orienta suas atividades. Ele afirma que o Facebook é uma ameaça à democracia, e acusa a rede de espalhar as chamadas fake news.

McNamee escreveu um livro chamado Zucked: Waking up to the Facebook Catastrophe. Vale dizer que, no vídeo que postei aqui, ele diz que a Apple, de maneira bem diferente do Facebook, é responsável com os usuários em relação a questões de privacidade – o que mostra que as opiniões de todas estas pessoas podem ser diferentes em relação às companhias de tecnologia envolvidas em todas essas temáticas. Serve para construirmos o nosso próprio pensamento crítico.

Tim Kendall

Kendall foi presidente do Pinterest e Diretor de Monetização do Facebook. Ele criou um app chamado Moment, desenvolvido para ajudar as pessoas a fazerem “detox” de seus smartphones. O aplicativo está disponível para ser baixado de graça na App Store e aqui há mais informações –  https://inthemoment.io

Rashida Richardson

Ela trabalhou no Facebook e em vários outros lugares, e hoje é a diretora de Policy Research no AI NOW – um instituto de pesquisa em inteligência artificial que examina as implicações da IA para a sociedade ligado à New York University; o site é este aqui: https://ainowinstitute.org/ e a página do site que fala sobre a Richardson é esta: https://ainowinstitute.org/people/rashida-richardson.html .

O instituto dedica-se a pesquisas que contribuam para que sejam criados mecanismos, políticas, leis etc. para que haja responsabilidade/responsabilização pelo uso e a produção de tecnologias envolvendo inteligência artificial. Atualmente, as quatro principais frentes de pesquisa do núcleo são: direitos e liberdade; trabalho e automação; preconceito e inclusão; segurança e infraestrutura crítica.

Jaron Lanier

Lanier, que é cientista da computação e filósofo, trabalhou na Microsoft até 2009. Depois, ele escreveu vários livros além do citado “Ten arguments for deleting your social media accounts right now”; escreveu um chamado “Who own the future?” e ainda “You are not your gadget”, entre outros, apresentados em seu site: http://www.jaronlanier.com/ . Aliás, no site ele reforça que não tem (mesmo!) contas em redes sociais.

Cathy O’Neil

Cathy é uma matemática americana, autora do site/blog mathbabe: https://mathbabe.org/ e do livro “Weapons of Math Destruction”, sobre o impacto dos modelos matemáticos e dos algoritmos de IA em diversas áreas da sociedade (destaque especial para a educação e para o mercado financeiro). O mais legal desse livro é que ela usa uma linguagem super corriqueira, inteligível, para nos explicar os modelos matemáticos e suas implicações (como jornalista e doutoranda, já estava desacostumando de livros que explicam as coisas de uma maneira mais, digamos, objetiva…). A obra ainda não está disponível em português, porém. De todo modo, a palestra dela no TED dá uma boa introdução à perspectiva de O’Neil.

Uma última curiosidade: Jeff Orlowski, o cineasta norte-americano realizador do doc, já tinha feito dois outros documentários, “Chasing Ice” (de 2012) e “Chasing Coral” (de 2017), que são ligados a temáticas de responsabilização, por assim dizer, mostrando impactos que a humanidade exerce sobre a natureza.

Para assistir ao doc na Netflix: https://www.netflix.com/title/81254224

Imagem do post: Markus Spiske @ Unsplash

Vou participar do Ladies that UX dia 20 de agosto

Dia 20/8 estarei num papo online sobre UX – User Experience, tudo o que diz respeito a navegação pela web, conteúdo digital, acessibilidade etc. O encontro é promovido pelo Ladies That UX, Edição Rio de Janeiro.

A ideia é reunir e dar voz a mulheres da tecnologia, desta vez a edição é exclusiva do Rio de Janeiro. Fui convidada para falar de UX e IA, juntando a área com a qual trabalho há muitos anos com a que venho pesquisando mais recentemente.

O desafio é grande e estou animada. Será uma fala curtinha, porque várias outras ladies também vão falar de suas experiências incríveis, e haverá espaço para debate. Se tiver interesse, faça sua inscrição com antecedência neste link. Nos vemos lá!

Are robots the teachers of the future?

Are robots the teachers of the future? Are we going to lose (all) our jobs to artificial intelligence machines? Is the Digital Singularity human’s inescapable future?
 
These questions are on the cutting edge when it comes to the relationship between human cognition and digital technologies. Hence, they also affect the way we glimpse the future of education. These subjects are closely related to questions about the human cognitive system: how do we perceive the world? How do we learn? What makes us cognizers, in the deepest sense of the term? How do we experience the world we inhabit?
 
Our close relationship with technologies transmutes us into cyborgs, according to the philosopher Andy Clark, author of Natural born Cyborgs (2003) and one of the developers of the Extended Mind Thesis. Clark’s thesis advocates that humans extend their cognitive systems through technologies, not only digital but of all kinds. And this ability to integrate these artifacts into our cognitive circuitry, linked to our capacity to transform the environment and be altered by it, would be some of the main elements to distinguish us from other animals. As natural beings, we are in a continuous circular movement with nature, its creatures, plants, all living beings. This connection between experience and nature is part of the philosophy of John Dewey and some ideas that resemble his are also present in the theses of philosophers like Maurice Merleau-Ponty and Hubert Dreyfus. They hold that we are much more than computer-like processing machines, defending that there is much more to human cognition than information processing. Or, as the philosopher Alva Noë and the psychologist James Gibson would say, perception and action cannot be segregated, because we act in order to perceive: without action, there would be no perception at all. This perspective is connected to the enactive cognition approach, one of the contemporary research lines linked to cognition and the human mind.
 
The extended and the enactive cognitive approaches show we are far from being replaceable by robots. Unless artificial intelligence machines become more than input-output information crunchers, they will not be able to simulate some of the most important features of human cognition, and it will be hard for them to substitute us in a range of activities in which our experience is irreplaceable. In what concerns teaching and learning, emotions are a fundamental part of the process – according to philosophers like Dreyfus and the neuroscientist António Damásio, author of Descartes’ Error and The Strange Order of Things. Robots don’t have feelings. Therefore, machines are not able to actually learn anything. So, we could ask: are “creatures” not able to learn skilled to teach? Unless they become sentient, conscious creatures, these systems will probably not be able to become teachers, and will remain, at best, auxiliaries to teaching. So, as these features remain far from reality concerning A.I., we can give a shot at the question in the first paragraph of this text: robots may be the teachers of a distant future, but they are certainly not able to replace our teachers in the present.
 
Some references for those who want to read more:

O professor é substituível pelas tecnologias digitais?

A pesquisa Nossa Escola em (Re)Construção, promovida pelo Porvir entre os anos de 2017 e 2018, coletou dados entre quase 20 mil jovens de 11 a 21 anos e constatou que “o melhor da escola é o professor“. Texto do Porvir sobre o assunto diz que:

“Na plataforma, os participantes foram convidados a dizer como é a sua escola atual ou a última em que estudaram e como eles gostariam que ela fosse. Ao avaliar 11 aspectos da instituição de ensino, em uma escala de 1 (Tá tenso) a 5 (Tá tranquilo, tá favorável), as maiores notas foram para o professores (3.9), seguidos pelas aulas e matérias (3.8). Entre os últimos itens, aparece o uso de tecnologia (2.7) e as atividades extraclasse (2.9)”.

Que o professor faz toda diferença na vida do aluno não é exatamente novidade. No Brasil, com toda a precariedade do ensino público, ameaçado ainda mais no governo atual, temos professores premiados (veja também este link) e sabemos que, em muita escola onde falta luz, água, merenda e tudo o que se pode imaginar, não raro sobra dedicação de boa parte dos docentes para que os alunos continuem aprendendo.

Mas a questão de a tecnologia aparecer como um dos últimos itens na pesquisa do Porvir, somada a outra notícia recente, é o que impulsiona esta minha reflexão aqui. Apesar de a cada dia ficar mais claro que a presença do professor é insubstituível e que não há tecnologia que dê conta de atuar no lugar dele (muito pelo contrário), existe uma certa tendência a enaltecer as possibilidades de que essa substituição aconteça.

O empreendedor Elon Musk recentemente premiou com U$ 10 milhões duas startups de tecnologias educacionais (as chamadas edtechs) capazes de “substituir” professores por meio do uso da tecnologia. Uma delas foi a onebillion e a outra foi a KitKitSchool. O site Business Insider diz que “launched in 2014, the competition was set up to empower children to take control of their learning. It challenged innovators around the world to create technology that would enable children to teach themselves basic reading, writing, and arithmetic within 15 months”. A competição como um todo me parece equivocada por promover “substituição” em vez de soma, mas este trecho me pareceu ser uma coleção de equívocos ainda maior. “Empoderar” crianças quanto ao “controle de seu aprendizado”? Leitura, escrita e aritmética básicas em 15 meses? Estimular gente inovadora a pensar em tecnologias que, de algum modo, promovem o descarte do professor?

A questão é: o que ganhamos com isso?

Afinal, é para isso mesmo que devemos trabalhar nossas tecnologias? Para substituir o professor, ou para fazer as pessoas pensarem que essa substituição é possível? E o que seria esse “professor”, tão facilmente substituível nessa concepção? Seria um mero transmissor de conteúdos “básicos”?

E mais: crianças “empoderadas” são crianças que têm “poder” e “controle” sua própria aprendizagem?

Não quero tirar o mérito de tecnologias que possam ajudar mais pessoas a aprender a ler e a escrever, de forma alguma. Também não sei ainda como em áreas remotas, pobres e com deficiências de tudo, crianças poderão ter acesso a aplicativos com tais recursos, a não ser aquelas selecionadas para a pesquisa empírica; porém, se tiverem, jamais serei contra; trata-se da importante questão da democratização da tecnologia digital. O ponto em que sempre insisto é o da substituição: é nela que devemos focar, quando falamos de tecnologias educacionais?

A responsabilidade da mídia

Talvez nós, jornalistas, sejamos grandes responsáveis por contribuir para a construção de conceitos equivocados nesse sentido. Afinal, a manchete “Elon Musk awards $10 million prize to 2 startups replacing teachers with tech” ficou a cargo do Business Insider; no site do XPrize, promovido pelo Musk, não se vende a coisa como substituição, ao menos nao num primeiro momento. O site diz “Empowering children to take control of their own learning”. Isso, sem a questão da substituição do professor, pode tomar ares bem diferentes.

Sem dúvida, há muitos fatores envolvidos nessa reflexão, e de indubitável há o fato de que sim, a educação e a tecnologia devem ser para todos. Mas parece estar havendo uma confusão bastante significativa quanto a esse ponto da substituição do professor pelas tecnologias, ainda mais com a popularização da inteligência artificial. Mesmo já tendo muito com o que nos preocupar no Brasil em termos de educação, precisamos ficar atentos a mais esse aspecto, que na realidade relaciona-se com a questão mais profunda e anterior da relação humana com as tecnologias digitais: para onde estamos caminhando? Quais os impactos dessa relação? O que esperamos dela? No que ela nos transforma?

Vale a reflexão.

É preciso reduzir a distância da educação a distância

A educação a distância é capaz de gerar muitas oportunidades e abrir um sem-número de possibilidades. É uma modalidade que tem muito a crescer. No entanto, considero essencial que tenhamos um posicionamento crítico e reflexivo em relação ao uso das tecnologias digitais na educação, de um modo geral, incluindo-se aí a EaD.

A ideia da “distância” na EaD me incomoda, em um certo sentido; penso que devemos reduzir a distância da educação a distância, digamos assim. É importante nos preocuparmos para que, no espaço virtual da educação a distância baseada em tecnologias, não desapareçam as subjetividades, as particularidades de cada aluno e de cada professor. Cada um que participa do processo de ensino-aprendizagem carrega um olhar, uma série de experiências, muitas expectativas, ansiedades, filosofias. E isso tem um valor enorme para que aconteça uma educação humanizada, inclusiva e rica em vários sentidos.

Quando o ensino é presencial, essas subjetividades naturalmente aparecem, pois alunos e professores levam os seus corpos, a sua presença física para o ambiente de aprendizagem. Já a experiência restrita ao online, na modalidade a distância, envolve o risco de separar o sujeito de seu corpo – o qual é parte essencial do conjunto cognitivo de um indivíduo, apesar de às vezes isso ser esquecido (vide as reportagens sobre como O CÉREBRO aprende, O CÉREBRO se emociona, mas… o cérebro não está sozinho nessa…! É o corpo todo que vai junto com ele!).

Se há apenas o ambiente online para a aprendizagem, essas especificidades ficam escondidas, prejudicadas pela pasteurização que tantas vezes emerge da redução de indivíduos a logins. Especialmente quando se trata de um processo voltado para uma educação para a vida, ou seja, para a formação dos estudantes de um modo amplo, creio que isso pode ser bastante prejudicial. Talvez seja menos danoso no caso do ensino de uma habilidade mais focada na técnica, na aplicação imediata.

Soma, e não substituição

Diante disso, o caminho que me parece mais interessante para somarmos as potencialidades das tecnologias com a manutenção dessas importantes trocas de experiências é o da união de experiências online com experiências offline, sejam aulas, palestras, encontros, treinamentos, enfim.

Para diminuir a distância da educação a distância, também creio ser preciso oferecer apoio e incentivo ao aluno, de forma permanente. Estudar a distância, afinal, sempre exige uma dose maior de disciplina, organização, concentração e capacidade de priorização por parte do estudante. Ajudá-lo a evoluir com relação a essa organização e planejamento pode, então, contribuir para manter esse aluno interessado, confiante e motivado.

A motivação pode ser ainda maior quando o estudante encontra um ambiente virtual de aprendizagem intuitivo, que funcione bem, e ao mesmo tempo seja acolhedor; quando, nessa experiência virtual, ele encontra ferramentas bacanas e um conteúdo ao mesmo tempo envolvente, bem apresentado, claro e objetivo. E esse esforço de colaborar com a experiência do aluno e de apoiá-lo em sua aprendizagem a distância tem como pilar fundamental justamente o conhecimento que se tem desses alunos, que vem da convivência presencial com eles. Então, o online e offline retroalimentam-se. Um não deve substituir o outro.

O potencial das tecnologias digitais na educação a distância não é de substituição das capacidades humanas, mas de ampliação dessas capacidades. 

As iniciativas já existentes no sentido da união entre educação e tecnologias – cursos online, e-books e outros materiais digitais, ambientes virtuais de aprendizagem, o uso do machine learning em plataformas adaptativas, a gamificação de plataformas etc – têm sido essenciais para consolidar essa parceria entre educação e tecnologias digitais.

No entanto, educação e tecnologias podem ser aliadas mais fortes ainda se, por exemplo, conseguirmos minimizar dificuldades relacionadas à democratização do acesso à educação, utilizando as tecnologias digitais para isso. Não devemos perder de vista que essas tecnologias podem, ao mesmo tempo, contribuir para essa democratização ou causar mais problemas nesse sentido, uma vez que, se elas ampliam as possibilidades de aprendizagem e acesso à informação, isso precisa idealmente ser para todos, não apenas para alguns – caso contrário, a defasagem entre quem tem o acesso e quem não tem será ainda maior.

Acredito que a principal forma de aumentar e tornar mais eficaz ainda essa relação entre a educação e as tecnologias, de modo geral, é conhecendo as implicações das tecnologias digitais a nossa sociedade, analisando os seus impactos, de forma profunda. Por exemplo, precisamos pensar na nossa relação com a inteligência artificial.

Há um enorme medo de que os robôs nos substituam, mas será que é por aí?

Em alguns casos, máquinas trabalharem por nós não parece ser um problema, pelo contrário, já que robôs e sistemas podem desempenhar certas tarefas de um modo até mais eficiente que humanos, sim – podem fazer inúmeros cálculos em pouco tempo, apenas para citar uma das situações. Mas, há outros casos, aqueles que envolvem as experiências nas quais não podemos prescindir da nossa relação direta com o mundo, com as outras pessoas, que representam algo único, algo que nos ajuda a crescer; esses casos não podem ser protagonizados ou pautados por algoritmos e robôs.

Algoritmos não podem resumir ou restringir as nossas experiências, e robôs não podem ter experiências como nós temos, e que são imprescindíveis para o nosso crescimento. Erramos, acertamos, sofremos, comemoramos, tentamos de novo: isso é humano. Criamos, testamos, compartilhamos com os outros o que pensamos: isso é humano.

Muito do medo das tecnologias, acredito, vem do receio da perda de espaço, vem do medo de que as máquinas nos tornem obsoletos. Na verdade, devemos pensar em ampliação, parceria, novas possibilidades para quem aprende e para quem ensina.

Materialidades Digitais

Normalmente, quando pensamos em um livro de papel versus um livro digital, pensamos na materialidade desses artefatos: um livro impresso nós podemos manusear, passamos as páginas, sentimos seu cheiro etc. No caso de um livro digital, o qual lemos por meio de um e-reader, no computador, num tablet ou no smartphone, perdem-se essas experiências. O conteúdo digital não é material. Será mesmo?

Hoje, aqui na Universidade de Coimbra, onde estou realizando um período de investigação, assisti a uma palestra, ministrada por Serge Bouchardon, que desafia essa premissa. Ele levou o público a pensar sobre como a mídia digital proporciona ainda mais manipulação do que a mídia física, e isso se dá porque, no caso do online, o próprio conteúdo pode ser manipulável.

Desse modo, é como se os livros físicos tivessem uma certa materialidade e os digitais, outro tipo de materialidade. 

Há todo um gestual que é inerente às mídias digitais; desde quando teclamos no computador até quando usamos o mouse ou deslizamos o dedo na tela de um celular. E por que fazemos isso? Para manipular o conteúdo que ali está. Segundo Bouchardon, que atua também na área de mídias digitais na educação, a compreensão dessa gama de gestos ligada ao mundo digital deve ser parte da alfabetização digital.

Para experimentarmos tais ideias de forma prática, o pesquisador apresentou alguns de seus projetos, como o Loss of Grasp – que mistura arte, design, poesia, literatura e recursos digitais de uma maneira interessantíssima. Em quais circunstâncias nós perdemos o controle sobre nossas vidas? É sobre isso que o projeto nos leva a pensar, por meio de uma viagem pela materialidade digital: clicamos sobre as frases, e elas se movem; luzes coloridas nos dão a sensação da vida nos escapando ao controle; em breve perdemos o rumo do cursor e não sabemos por onde anda o mouse de nosso computador.

Quando a palestra foi aberta a perguntas, questionei o professor a respeito de como podemos ter mais sensações materiais com livros que lemos em e-readers (que, na minha opinião, são práticos, mas sem graça em termos de experiências que envolvem a manipulação física). E ele nos disse que os designers deverão resolver isso com sua criatividade 😉

Em tempo: a Universidade de Coimbra tem um doutoramento inteiro dedicado às materialidades na literatura; os alunos são designers, egressos da licenciatura de letras e de outras áreas; fica aqui o link para quem quiser conhecer.

Há ainda outras experiências indicadas por Bouchardon:

http://bram.org/toucher//index.htm

https://bouchard.pers.utc.fr/storyface/

Imagem do post: Julius Drost @ Unsplash

 

 

Inteligência Artificial Humanística

Neste vídeo do TED, Tom Gruber, criador da Siri (assistente pessoal baseado em inteligência artificial da Apple) fala sobre como o caminho da inteligência artificial é amplificar e potencializar as capacidades humanas, gerando conexões e facilitando nossas vidas. É nisso que acredito: não se trata de substituir humanos em atividades que desenvolvemos bem. As máquinas podem nos ajudar com aquelas tarefas nas quais não somos tão bons, nos liberando delas para que nos dediquemos a outras coisas. A cognição humana se expande quando as tecnologias cognitivas se expandem…

Foto do post: Greg Rakozy @ Unsplash

Robôs: tecnologia corporificada?

O robô da foto acima é o Asimo, criado pela Honda. A primeira versão dele foi lançada em 1986. O Asimo anda, corre, sobre escadas, segura objetos, entende de comandos de voz; é um robô cada vez mais completo. Será mesmo?

Apesar de fazer tudo isso, Asimo consome 16 vezes mais energia que nós, humanos, para andar. Essa ineficiência energética decorre do fato de que, nesse robô, tudo é uma questão de processamento central: todo movimento que ele realiza, todas as suas ações são fruto de um design baseado em algoritmos, que resolvem questões relacionadas às funções da visão, navegação e do equilíbrio desse robô; os algoritmos passam instruções detalhadas para a máquina seguir.

Além da ineficiência energética, um outro problema que o Asimo enfrenta relaciona-se ao seu equilíbrio: ao caminhar sobre uma superfície plana, ele dá conta do recado. Mas, se precisar fazer movimentos para se resguardar de oscilações no chão, por exemplo, ele falha tentando realizar cálculos que o mantenham de pé.

Andrew D. Wilson é um cientista cognitivo interessado no estudo de robôs que conseguem aproveitar o ambiente para se saírem melhor nas tarefas para as quais são designados. Ele propõe em um artigo publicado no Psychology Today a comparação do Asimo a um outro robô, chamado Big Dog, desenvolvido pelo Leg Lab do MIT*. Contando com membros elásticos, ligamentos bem localizados, caudas que se movem corretamente por causa da forma como foram construídas, e não porque há um processador central no comando, diz Wilson, Big Dog se sai muito melhor do que Asimo no quesito movimentos corporais.

A forma como Big Dog foi pensado e construído voltou-se para o aproveitamento máximo do ambiente “real” (não de laboratório) com suas irregularidades e seus obstáculos. Esses elementos do ambiente, em conjunto com o “corpo” construído para o robô visando o melhor desempenho e fundamentado em suas características físicas, dá origem a um sistema dinâmico em que as partes se complementam. O resultado é que o Big Dog se sai muito bem em situações imprevisíveis; por exemplo, se cai, levanta; se é empurrado, seu “corpo” reage, e por aí vai.

O que esses robôs nos ensinam?

“A diferença entre os dois robôs é que o Asimo representa mentalmente suas habilidades, enquanto o Big Dog as corporifica”, diz Wilson. Isso significa que o Asimo precisa de um intrincado maquinário computacional, gerenciado por um processador central, capaz de apresentar um algoritmo para cada função que ele venha a exercer. Seu “corpo” é como se fosse um apêndice, um apoio; assim, para Wilson, o Asimo nao é de fato uma tecnologia corporificada: para sê-lo, precisaria de fato utilizar seu corpo e, na dinâmica com o ambiente, potencializar suas capacidades físicas. Esse é o caso do Big Dog e de muitos outros robôs, uma vez que essa tem sido a tendência no campo da inteligência artificial e da robótica.

Imagem: http://robohub.org/

O design do Asimo não reflete a forma como nós, humanos, funcionamos. Somos muito mais como o Big Dog.Nosso corpo aproveita o ambiente de diversas formas, algumas delas já exploradas aqui neste blog. Basta, para isso, nos observarmos andando a pé, correndo em ladeiras, pedalando bicicletas, andando de patins, enfim. Olhando para a forma de estarmos no mundo, de fato, poderemos ser melhores em produzir robôs. Mas para isso é necessário acreditar que nosso sistema cognitivo não se limita ao cérebro e que, acoplados ao ambiente, formamos com ele sistemas dinâmicos. Sobre isso, leia mais neste meu post aqui.

*Não encontrei, no site do MIT, o robô Big Dog, mas o artigo de Wilson é de 2012, então ele pode ter dado lugar a outros projetos (realmente não sei). De qualquer forma, a tendência no mundo da robótica é bem representada pelo Big Dog e por outros que você vê no MIT e em outros laboratórios, como os robôs-insetos da Barbara Webb.