Seria possível compreender a mente humana analisando cada indivíduo em separado? Ou será que a mente humana surge justamente da coletividade?
Ainda que cada sujeito tenha a sua contribuição a dar, um trabalho envolvendo muitas pessoas dá origem a ideias que não existiriam se fosse desenvolvido somente por um indivíduo. Já parou para pensar nisso?
Os pesquisadores proponentes da abordagem enativa para a cognição humana indicam que não é possível investigar o funcionamento da mente humana sem focar nas interseções entre mentes.
Falei sobre esse assunto na conferência de 2020 da MEA – Media Ecology Association, que este ano aconteceu na PUC-Rio. Estive presente remotamente, pois ainda estou em Portugal pelo doutorado. Deixo aqui algumas referências que usei em minha apresentação, para quem desejar saber mais.
CLARK, Andy. Natural-Born Cyborgs. Minds, Technologies and the Future of Human Intelligence. New York: Oxford University Press, 2003.
CLARK, Andy. Supersizing the Mind – Embodiment, action, and cognitive extension Oxford: Oxford University Press, 2011.
DE JAEGHER, Hanne.; DI PAOLO, Ezequiel. Participatory Sense-making: An enactive approach to social cognition. Phenomenology and Cognitive the Sciences, 6, pp. 485-507, 2007.
DE JAEGHER, Hanne.; DI PAOLO, Ezequiel. Making Sense in Participation: An Enactive Approach to Social Cognition. In: Enacting Intersubjectivity: A Cognitive and Social Perspective on the Study of Interactions. F. Morganti, A. Carassa, G. Riva (Eds.) Amsterdam, IOS Press, pp. 33-47, 2008.
DI PAOLO, E. A
Concepção Enativa da Vida. In: BANNELL, R. I.;
MIZRAHI, M.; FERREIRA, G. (Orgs.) (Des)educando a
educação: Mentes, Materialidades e Metáforas. Tradução de Camila De Paoli Leporace. Rio de Janeiro: PUC-Rio, 2021.
Conheça os três tipos mais comuns de machine learning ou aprendizagem de máquina:
Aprendizagem Supervisionada: neste caso, o sistema recebe não apenas dados para operar, mas dados já classificados de uma determinada maneira. O sistema recebe também esses rótulos e precisa, então, encaixar os dados neles. É se fosse um quebra-cabeças. Quando a gente tenta acessar um site e ele, por segurança, pede para marcarmos todas as imagens em que aparecem montanhas, por exemplo, estamos diante de um sistema assim. Também é o caso da classificação de e-mails como #spam: cria-se um conjunto de e-mails que são spams e treina-se o sistema para identificar quais são as características mais comuns nele; ele poderá então classificar e-mails nunca vistos como spam a partir desses elementos identificados em outros e-mails.
Aprendizagem Não Supervisionada: neste tipo, o sistema não tem as classes previamente definidas. Ele precisa criar os rótulos para os dados. Para isso, o próprio sistema deve identificar padrões no big data. Por exemplo, utiliza-se esse tipo de machine learning para inferir padrões de consumo nas pessoas e depois lhes oferecer produtos e serviços de acordo com o comportamento e as preferências demonstrados.
Aprendizagem por Reforço: o sistema tentará usar os dados que recebe para gerar modelos, na base da tentativa e do erro. Depois, será punido ou recompensado de acordo com aquilo que conseguir “fazer”. Este tipo é muito comum na robótica e nos games. É o tipo usado no AlphaGo.
Machine learning ou aprendizagem de máquina é um tipo de inteligência artificial. É uma tecnologia que está por trás das redes sociais, dos sites em que navegamos, dos aplicativos, dos sistemas digitais de bancos, sistemas de saúde, sites de compras etc. Os sistemas de machine learning são desenvolvidos para desempenhar determinadas atividades e funções. Os algoritmos funcionam, então, como “receitas” que esses sistemas seguem para conseguirem desempenhar essas atividades.
Mas, então, por que a palavra “aprendizagem”? Bem, assume-se que esses sistemas aprendem porque eles se baseiam em dados que coletaram para fazer previsões. Trata-se de uma concepção de aprendizagem que tem como base a estatística. Os nossos dados, usados por esses sistemas para fazerem essas previsões, são chamados de “big data” porque constituem enormes massas de dados. Quanto mais dados e mais diversificados eles forem, mais combinações diferentes esses sistemas podem fazer.
Um sistema de machine learning pode, por exemplo, identificar pessoas a partir de fotos dela. Pode classificar um determinado tipo de e-mail como SPAM por conta de características de outros e-mails que foram classificados pelos usuários como SPAM anteriormente. Pode identificar padrões em dados sobre a saúde de uma pessoa e apontar alguma tendência nesse sentido.
Esta semana, a internet chacoalhou com a notícia de que, segundo um funcionário da Google, o chatbot LaMDA, produzido pela empresa, seria senciente. O funcionário acabou afastado depois de suas declarações. O interessante é que uma discussão que está tão presente na filosofia veio à tona por conta disso tudo. Então, o que é que está por trás de desse debate?
A ciência cognitiva é uma área que vem crescendo desde os anos de 1950, e eclodiu bem perto da explosão também da inteligência artificial enquanto área de pesquisa. No início, a IA tinha como foco reproduzir as capacidades humanas. E não era tão difícil crer na viabilidade disso, porque se acreditava que o cérebro poderia ser feito de qualquer material que poderia, de todo jeito, gerar uma mente. Então, teoricamente, um “cérebro” de silício também seria capaz de dar origem a pensamentos, sentimentos, enfim, tudo que compõe a mente.
Com o passar do tempo, as experiências em IA e robótica mostraram que a coisa não era bem assim. Um pesquisador que ajudou a mostrar que a distância entre humanos e máquinas era grande, e que ainda haveria um longo caminho pela frente até que se pudesse instanciar a inteligência humana em sistemas artificiais, foi Hubert Dreyfus. Ele trabalhou no MIT bem próximo a cientistas da computação engajados nessas pesquisas. E era ele quem colocava questões que certamente irritavam os programadores, mas que eram certeiras!
Por exemplo: como um computador poderia prever as milhares de coisas que poderiam acontecer em dada situação da vida cotidiana? Nós conseguimos rapidamente mudar a nossa maneira de agir dependendo do contexto em que nos encontramos: se algo cai no chão, pegamos de volta, colocamos em cima da mesa; se algo se parte, colamos; se alguém se machuca ou chora de repente, vamos acudir. Já sistemas artificiais precisam de mudanças extensas e detalhadas em todo o seu código quando algo muda. Eles não compreendem contextos. Também não compreendem certos atributos simples da vida cotidiana, que fazem parte do senso comum. Tipo: quando atendemos ao telefone, dizemos alô – ou “tô”, se for em Portugal; a pessoa do outro lado responde; combina-se de sair para um bar em alguma rua perto da casa dessas pessoas. O computador precisa de mais do que um simples “Então, vamos lá hoje?” para “entender” o que se passa.
É que na verdade a máquina não “entende”nada, de fato! Todas as informações que as pessoas envolvidas na conversa vão conhecendo ao longo da vida e vão incorporando em seu repertório – o que significa alô, o que é um bar, onde ele fica, de que bar estão falando, o que significa vamos lá etc. etc. – o computador precisa receber como inputs (até mesmo a informação de que duas pessoas são pessoas, conversam ao telefone, o que é telefone, o que é conversar etc. etc., já pensou?!). Isso precisa estar na programação do sistema. E, mesmo assim, o computador efetivamente não saberá nada: ele vai manipular aquelas informações, mas elas não vão significar nada para ele.
E a filosofia no meio de tudo isso?
A filosofia é uma área que investiga a inteligência humana, a cognição, a mente, a consciência. Para isso procura, antes de tudo, entender como se pode compreender ou conceituar cada uma delas. A maneira como se conceitua algo, afinal, faz muita diferença para os debates. Para pensar se uma IA pode ser consciente ou não, se é senciente ou não, cabe perguntar: o que é ter consciência? O que é senciência?
Há pesquisadores, por exemplo, que buscam na biologia as raízes para se compreender a mente humana. Para eles, a mente é como uma extensão da vida; onde há vida há atividade mental. Consequentemente, onde não há vida não há mente. Também, se não há mente, não há sentimentos ou experiência. Por essa lógica, se robôs não são seres com vida biológica, não poderiam ter consciência ou senciência, nem sentir ou experimentar nada.
Esses pesquisadores acreditam, ainda, que a mente humana inclui muito mais do que o cérebro: o corpo como um todo constitui a mente. E é com a nossa atividade corporal, em acoplamento direto com o mundo natural, que vamos descobrindo e entendendo o que há no ambiente que nos cerca: assim é que fazemos sentido daquilo que está a nossa volta. Esses pesquisadores a que me refiro são estudiosos da cognição enativa. Alguns dos nomes mais importantes da área são Ezequiel Di Paolo, Hanne De Jaegher e Evan Thompson. Na minha tese de doutorado, eu abordo machine learning e enativismo. Se quiser saber mais, clica aqui.
Veja também o post especial no Instagram: @algoritmosfera
Este blog faz parte de um projeto de comunicação científica que venho desenvolvendo para abordar a relação humana com a inteligência artificial.
Eu desenvolvi uma pesquisa acadêmica de mestrado e doutorado voltada para a cognição humana e a IA Enquanto pesquisava, senti que desejava criar espaços nos quais pudesse comunicar de forma mais objetiva e simples as reflexões que vinha desenvolvendo. Por isso este blog nasceu.
Em maio de 2024, publiquei o livro “Algoritmosfera – A cognição humana e a inteligência artificial”, pela Editora PUC-Rio e pela Hucitec. O lançamento aconteceu Casa de Inovação da PUC-Rio, na Gávea, Rio de Janeiro, na 1a ExpoLivro que a PUC-Rio promoveu. Haverá um segundo lançamento dia 24 de junho na Janela Livraria, Shopping da Gávea, Rio de Janeiro, a partir das 19h. Apareça!
Tenho alimentado, ainda, a minha conta no Instagram, @camilaaleporace – também mais um recurso para quem deseja receber pílulas de informações sobre IA e a nossa relação com os sistemas artificiais.
Importância da divulgação científica
Acredito na importância de diversificar os produtos resultantes de uma investigação que se identifica como acadêmica. Uma dissertação, tese ou artigo científico é o produto final, mas não o único. Doutorandos publicam artigos, ensaios, apresentam trabalhos orais, ministram aulas e cursos.
Além disso, há outras possíveis formas de comunicar descobertas científicas. É isso que pretendo com o meu projeto. Ainda planejo um podcast e muitas outras novidades!
Você provavelmente conhece alguém que se casou com uma pessoa que conheceu pelo Tinder, OKCupid ou outro app de relacionamentos. Talvez esteja cansado ou cansada da sua vida de solteiro/a e esteja até pensando em dar uma chance para um desses aplicativos, ou já é usuário ativo e engajado. Quem sabe aparece alguém bacana? Pode ser. Mas você já parou para pensar em como funcionam esses apps?
Tudo o que você faz quando está logado/a num app como o Tinder serve para que esse app lhe traga possíveis matches. Até mesmo as suas mensagens “privadas” trocadas com os possíveis “candidatos” a dates entram na análise de dados dos algoritmos. E não é só o que você faz dentro do aplicativo que alimenta a base de dados desse software. Por exemplo, se você topa sincronizar as suas contas de redes sociais como o Instagram, elas passam a servir também como fonte para que o app “conheça” você melhor e dê as suas flechadas para ajudar na busca pelo grande amor. Tudo em que você clica nessas redes é detectado, rastreado e armazenado para ser devorado pelos sistemas de machine learning por trás desses apps.
Claro que, como esses aplicativos são parecidos com álbuns de figurinhas em que o usuário avalia o que lhe chama a atenção, são as características físicas aparentemente mais desejadas que vão criando filtros para que sejam mostrados perfis de acordo. Além disso, a opinião comum dos usuários, no sentido da percepção conjunta, também é levada em consideração. Isso significa que as preferências e similaridades entre usuários são usadas para fazer recomendações. E isso pode ser bem estranho.
Como funciona a “filtragem colaborativa”?
Vieses, preconceitos e a circularidade em que você acaba preso
“A maioria (dos aplicativos de relacionamentos) depende de uma combinação de preferências declaradas – o que você diz ao app que pretende num parceiro, seja explicitamente nas suas definições ou implicitamente através de engajamento – e de algo chamado filtragem colaborativa. Isto significa que uma aplicação procura padrões a partir das pessoas a quem os utilizadores disseram sim ou não, e depois tenta perceber como se assemelham a outros utilizadores para fazer previsões sobre quem vai acabar por gostar de quem. É semelhante à forma como o TikTok seleciona vídeos para você ver e a Amazon empurra você para as compras” (fonte: Wired)
Sabe os preconceitos e vieses que existem no discurso das atrações em geral, no mundo não virtual, mas físico mesmo? As características físicas que costumam ser enaltecidas nos filmes, no Instagram, no TikTok, enquanto outras são marginalizadas? Então. Essas tendências acabam ainda mais fortalecidas quando os algoritmos entram em jogo, especialmente a partir desse mecanismo que citei, da captura de percepções coletivas. Se você dá “like” em determinadas pessoas, com certas características, acabam aparecendo para você mais e mais pessoas com aquelas mesmas características, e menos com outras; mas isso é pior quando os algoritmos se baseiam não exatamente em você para fazer isso, mas em pessoas que eles consideram parecidas com você.
Isso gera uma circularidade que pode acabar lhe mantendo longe de pessoas que poderiam ser interessantes para o seu perfil.
Tem uma outra questão: todo mundo tem direito a mudar de ideia, e assim as nossas preferências podem simplesmente mudar no decorrer do tempo. Enquanto as pessoas podem mudar rápido, os algoritmos demoram um bom tempo para incorporar essas mudanças.
Para além da atração física
Na minha opinião, o problema maior de deixar os cupidos virtuais acertarem suas flechas por você é que nesses apps entram em jogo apenas a aparência física e aqueles gostos mais superficiais, que estão ao alcance dos algoritmos. Claro que muitos relacionamentos começam mesmo com uma troca de olhares baseada em aparência e atração física. Mas, e aqueles elementos que não conseguimos bem dizer de onde vêm, e às vezes são arrebatadores, decisivos para ficarmos com alguém? Quantas vezes acabamos na cama com um sujeito ou sujeita que nunca imaginávamos, ou nos vemos beijando uma boca absolutamente imprevisível – e gostando?! Amigos, pessoas com quem temos afinidades, trocas de ideias mágicas e com quem de repente nos vemos envolvidos.
Será que os algoritmos nos levariam a encontros assim, ou nós mesmos acabaríamos nos traindo, selecionando apolos e afrodites que são colírios para os olhos mas não dizem nada à alma?
Claro que há aí também uma boa dose do componente sorte. A roleta do amor gira em todos os lugares, e pode girar – e até acertar! – na algoritmosfera, também. Mas será que as nossas chances de nos dar bem não diminuem já que os algoritmos deixam de “ver” tanta coisa – e não são capazes de sentir nada? Ainda por cima, corremos o risco enorme de ter decepções como aquela de adorar uma casa online e, ao visitá-la pessoalmente, achar péssima…
Aliás, sobre os desapontamentos, uma notícia ruim: eles acontecem com muita frequência. O Tinder e o Grindr estão na lista dos apps que mais deixam as pessoas tristes!
Parece que as minhas intuições sobre por que os apps de dates falham tanto estão na direção certa. Eis algumas hipóteses sobre isso (com informações deste link):
Sistemas de machine learning operam estritamente a partir daquilo que lhes é fornecido. Alguns elementos são altamente previsíveis, enquanto outros não são. E ainda não se sabe exatamente de onde a atração vem, como destaca a pesquisadora Samantha Joel, da Western University, no Canadá, que investiga a maneira como as pessoas tomam decisões relacionadas ao amor.
Quando tentamos analisar os fatores que realmente pesam para nós, enquanto tentamos entender o que sentimos por alguém, podemos sentir vergonha dos fatores que nos são atraentes ou até mesmo ser completamente inconscientes a respeito de uma certa preferência que temos.
Se questionados sobre fatores que nos atraem, podemos, por exemplo, dizer que é o nível de escolaridade de alguém ou até declarar que altura é um fator inegociável; e aí, quando encontramos as pessoas na vida real, aparentemente mudamos tudo. Quem disse que nunca namoraria alguém que não fez faculdade se apaixona por um artista que aprendeu fazendo, e quem disse que nunca ficaria com alguém baixinho se apaixona pelo Charles Chaplin.
Enfim! Quando se trata de amor, nós mesmos não nos conhecemos direito, então… como os algoritmos haveriam de dar conta desse recado extremamente espinhoso?
Ainda assim, é preciso arriscar. Então, independentemente da loteria em que você vai jogar, desejo-lhe sorte. Ops, mas dizem que é sorte no jogo e azar no amor… então, melhor não jogar na Mega Sena. Vai que você ganha. Como ficará o amor? Você não vai querer alguém que só esteja interessado na sua conta bancária, né? Pois os algoritmos conhecem o estado da nossa saúde financeira também. Temos que ser cautelosos 😉
Concluí uma pós-graduação lato sensu (tipo MBA) em Marketing Digital em 2008. À vezes me perguntam se a pós não ficou “datada”, uma vez que os processos relativos ao mundo digital mudam rapidamente. Não, a pós não ficou datada, porque eu aprendi sobre a lógica de muitos processos, e essa lógica está valendo.
Por exemplo, as boas práticas de arquitetura de informação: a gente aprende, observa, põe em prática – como fiz com projetos como o do Acervo O GLOBO (2010 a 2014), a intranet da Oi (2014 a 2016) e venho fazendo mais recentemente com trilhas de aprendizagem online, por exemplo. Os recursos mudam, as ferramentas e plataformas se diversificam, mas os pressupostos se mantêm.
Outro exemplo: a lógica dos links patrocinados/das mídias pagas versus o SEO orgânico; boa parte dessa lógica vem de quando ainda trabalhava com Yahoo!, antes de trabalhar com Google AdSense… e usava Statcounter e não Google Analytics!
O que se preconiza como bons resultados para a navegação de um site pode mudar, de acordo com os KPIs (Key Performance Indicators) estabelecidos para cada projeto/empresa – por exemplo, o tempo que um usuário passa, em média, navegando num site: pode ser desejável que passe horas e horas, se for um site de e-commerce, ou que passe ‘voando’ pelas páginas, se for um site com informações sobre atendimentos médicos urgentes. No segundo caso, o sucesso está em levar informação rápida ao usuário para salvar vidas, enquanto no primeiro a ideia é tornar a experiência agradável, sem pressa e mostrando o máximo de opções possíveis. Aplica-se então o que se sabe sobre as boas práticas a cada caso específico, e avalia-se as métricas para ver se o empenho resultou como desejado. E por aí vai.
A lógica vale para SEO, Arquitetura da Informação, acessibilidade, user experience, CRM, webwriting etc.
Acho importante, porém, o seguinte: a lógica geral da comunicação pode não ter mudado muito, porque os paradigmas sobre os quais a Web se apoia estão mantidos. Mas… agora temos a dimensão do machine learning e do big data. São muitas e profundas camadas de dados que temos que tratar e gerir. Claro, nem todos os sistemas, sites, apps estão neste momento alavancados por #machinelearning. Mas as redes sociais e os sites de busca estão, e isso mexe com os sites e apps que se encontram inseridos nesse contexto maior. Afeta os caminhos que são feitos para se chegar a eles; afinal, os algoritmos “decidem” (com muitas aspas) muita coisa por nós.
Estou fazendo um curso na Universidade de Coimbra sobre comunicação de ciência para audiências não especializadas. Está sendo uma experiência excelente!
Eu acredito que a preocupação com essa comunicação começa no momento em que nós estamos escrevendo as nossas teses, dissertações e os nossos artigos.
Mesmo que nossas teses, dissertações e artigos sejam peças mais “duras”, com uma estrutura mais rígida, e que possivelmente não alcancem um público leigo, podemos escrevê-las e estruturá-las de uma maneira que de fato comunique as nossas descobertas (um bom revisor, aliás, pode ajudar e muito nisso! Recomendo demais o trabalho de meu pai, Sebastiao Jose Leporace Jr). Podemos adotar uma linguagem mais leve, direta e objetiva.
Para nos ajudar a comunicar bem o que estamos fazendo, podemos também participar de eventos que quebram a rotina dos congressos acadêmicos. Aqui em #portugal, onde estou fazendo doutorado sanduíche, vale a pena acompanhar a http://scicom.pt/, por exemplo. E há muitas outras iniciativas, como:
A inteligência artificial cada vez mais permeia e influencia nossas vidas. Afeta decisões das mais relevantes: quem pode conseguir um empréstimo ou financiamento, quem deve conseguir um emprego ou ser demitido, quem deve ser preso. Conecta indivíduos em apps de relacionamentos, podendo influenciar nos rumos sentimentais das vidas das pessoas, também.
Diante da presença crescente da IA em nossas vidas, cresce também a importância de compreender o que significa vivermos entrelaçados a sistemas que se alimentam dos nossos dados. Por isso, crescem as preocupações com os riscos a que potencialmente somos expostos.
Há uma mobilização enorme para que se analise esses riscos e para que sejam mitigados.
Nesse contexto, são preocupantes os mecanismos opacos de tomada de decisão embutida em sistemas algorítmicos.
Transparência é importante quando se trata de sistemas de #IA. A questão da transparência aparece nos documentos do AI HLEG – the European Commission’s High-Level Expert Group on Artificial Intelligence, de 2018.
“Os modelos de negócios baseados em dados, sistemas e AI devem ser transparentes: mecanismos de rastreabilidade podem ajudar nisso. Além disso, os sistemas de IA e suas decisões devem ser explicados de uma maneira adaptada às partes interessadas. Os seres humanos precisam estar cientes de que estão interagindo com um sistema de IA, e devem ser informados acerca das capacidades e limitações desse sistema”, diz documento do AI HLEG de 2019.
Vou mais além e defendo, com base em teorias da cognição em que venho me aprofundando no doutorado, que “interação” é humano-humano; quando lidamos com sistemas de IA temos uma troca, mas não é exatamente uma “interação” como seria uma interação social. Há algo que só humanos têm, ainda bem 😉
No artigo acadêmico disponível neste link, o qual inspirou este meu post, há uma discussão interessante sobre “variedades de transparência” em sistemas de IA. Foi escrito por Gloria Andrada, Robert Clowes e Paul Smart.
Audrey escreveu um livro sobre os antecedentes das “máquinas de ensinar” que existem atualmente: “Teaching Machines”, lançado em 2021 pela MIT Press. Ela escolheu falar sobre o passado para nos fazer refletir sobre o futuro.
Como Watters comentou, para compreender as tecnologias e a nossa relação com elas é preciso olhar para a história, para o passado, não apenas para o futuro. Ao motivar-se para escrever esse livro, ela estava interessada em saber como chegamos até aqui. Sentia-se incomodada com a falsa sensação de que “de repente a tecnologia educacional surgiu”, como se fosse “do nada”. Não podemos desconectar o passado do que o futuro é e de como o futuro será.
“I see behaviorism everywhere”, Watters disse se referindo ao filme “O Sexto Sentido”. B. F. Skinner é muito atual quando se trata de como concebemos a aprendizagem ainda hoje. A ideia de que se deve recompensar os estudantes imediatamente ela aprendizagem “bem sucedida” continua atualizada, e tem tudo a ver com o behaviorismo. Ainda somos fortemente orientados a esse processo de recompensa. Basta olhar ara o nosso comportamento online, evidente na dependência tecnológica que temos desenvolvido. Quando rolamos a tela do celular ávidos pela próxima informação ou aguardamos ansiosamente por novas mensagens, o que queremos, de certo modo, é ser recompensados.
“Não vejo a tecnologia como os vetores das mudanças, mas as pessoas”, disse Audrey. Concordo super com ela.