A IA deve ser usada para nos “unir” a entes queridos que já partiram?

Comercial da Volkswagen levanta questões filosóficas (quer queira, quer não…)

A primeira coisa que pensei quando vi o comercial da Volkswagen com a Elis e a Maria Rita foi: bom, a Maria Rita aprovou isso ; se ela aprovou, será que gostou do resultado? Fui procurar saber e sim, ela gostou, acha até que “realizou um sonho”.

O fato de ela ter gostado é, para mim, um dos sinais importantes a serem observados quando se trata de analisar a IA nas nossas vidas. A Elis foi sua mãe. A Maria Rita não poderia se sentir lesada ou triste de novo, já perdeu a mãe, ainda que há mais de 40 anos, então esse comercial tinha que ser algo bom para ELA, principalmente.

Respeitar as emoções que a IA origina é, eu defendo, um dos fatores mais relevantes quando se trata de ética na inteligência artificial. Não à toa se estuda até mesmo se as IAs podem “demonstrar” ou ” interpretar” emoções. Elas são importantes nos comerciais, também. E, claro, para os espectadores.

Um caso em que ambas as pessoas há tivessem morrido, e aí fizessem um comercial com elas usando IA, seria mais complicado. Quem poderia dizer se essas pessoas gostaram disso ou o que sentiram?

Aliás, vocês já viram o primeiro episódio da última temporada de Black Mirror na Netflix? Vale assistir. Vários questionamentos que estão lá já batem à nossa porta aqui, na “vida real”. E têm a ver com esse vídeo da Elis e da Rita.

Anúncio da Coca-Cola feito com IA nos instiga a pensar nos limites entre arte e sistemas artificiais

No anúncio acima, a “Moça com brinco de pérola” de Vermeer abre uma garrafa de Coca-Cola depois de ela passar por diversas obras de arte que fazem de tudo para não deixar a peteca, ou melhor, a garrafa cair. O anúncio foi feito com inteligência artificial e também com filmagens reais e efeitos digitais diversos.

O interessante é que, em meio às questões que pairam sobre as artes e a IA, se a criatividade será estendida ou ofuscada pela IA, se o que a IA faz é arte ou não etc, esse anúncio chega lembrando que uma pode viver com a outra e gerar algo fabuloso. Isto é, arte e IA podem ser uma mistura interessante. Mas é isso: o anúncio é uma obra-prima em si, mas envolveu intenso trabalho e empenho. O esforço criativo não apenas dos artistas cujas obras de arte aparecem no vídeo, mas daqueles que fizeram o vídeo, claro, continua tendo altíssimo valor. Isso diz algo sobre a discussão quanto à IA “dominar” ou “substituir”, ou eventualmente expandir e enriquecer possibilidades.

Onde estão as mulheres na tecnologia?

Dia 11 de fevereiro é o Dia Internacional das Mulheres e Meninas na Ciência

Neste Dia Internacional das Mulheres e Meninas na Ciência, data criada pela Organização das Nações Unidas (ONU) para ressaltar a participação feminina na comunidade científica, trago esta pergunta: onde estão as mulheres na tecnologia?

Imagem: https://unsplash.com/pt-br/@cdc

Em sua conferência TED, Zoe Philpott lança luz à primeira programadora de computadores do mundo, Ada Lovelace. Ela escreveu seu primeiro programa complexo em 1843. E sabem o que aconteceu com ela? Foi cancelada. Isso mesmo! Em vez de consagrada, Lovelace foi cancelada, basicamente porque sua mãe se separou do pai, que era o controverso poeta Lord Byron. Pois é.

Ao nome de Ada Lovelace na história da programação se soma o de Grace Hopper, responsável por introduzir as palavras no mundo da programação. A importância disso? Não era mais necessário ser matemático para trabalhar com programação. Isso mudou tudo.

Aproveito para deixar um incentivo especialmente às mulheres que queiram ser programadoras: a plataforma Potência Tech, do iFood, está oferecendo cursos rápidos e bolsas para cursos completos em programação. Eu produzi alguns dos cursos que estão na plataforma, incluindo esse que conta um pouco da história do universo da programação – passando, é claro, por Ada Lovelace.

Para acessar esse curso e o conteúdo completo da plataforma, basta clicar neste link e fazer um cadastro super rápido e gratuito, se ainda não tiver feito. Aproveitem para indicar a amigos e amigas. 

https://lnkd.in/dFsZhmPF

O que os computadores continuam não conseguindo fazer, 50 anos depois

O artigo que escrevi e submeti para a Revista Portuguesa de Educação, intitulado “O que os computadores continuam não conseguindo fazer, 50 anos depois: A aprendizagem sob a perspectiva da fenomenologia do cotidiano de Hubert Dreyfus”, foi publicado neste link.

É uma grande satisfação ter um artigo publicado nessa revista, que é muito bem conceituada na área da Educação. Vejo o filósofo Hubert Dreyfus como um precursor de ideias da abordagem chamada de cognição enativa, que é a base da minha tese de doutorado. Aqui no blog já escrevi sobre ele – releia os posts:

Introdução à Fenomenologia com Hubert Dreyfus

What Computers Can’t Do (Hubert Dreyfus)

Dreyfus fez críticas muito pertinentes à inteligência artificial quando a área estava ainda nascendo. Eu amo o trabalho dele. Por conta disso, quis fazer um artigo que fosse também uma espécie de homenagem. Por isso esse título, que ficou bem “jornalístico” – sou de fato jornalista, e afinal a identidade da gente se transforma, mas a essência permanece 😉 “What Computers Can’t Do” é o título de um livro de Dreyfus lançado em 1972, mas que mobiliza até hoje a atenção dos interessados em cognição e IA. Quando me dei conta do “aniversário” de 50 anos do livro (e eu ainda fiz 40 anos em 2022, nasci em 82 haha coincidências), fiz questão de que fosse publicado ainda este ano e corri para enviar para a revista. E eis que o artigo saiu faltando um dia para o ano acabar!

Buscando emprego? Os algoritmos irão “decidir” se você fica com a vaga

E isso não deveria ser como estar num cassino

Sabe-se que a inteligência artificial tem um potencial enorme de facilitar processos, automatizando-os. Mas também estamos conhecendo os imensos desafios envolvidos quando se trata de aplicar a IA a esses processos de uma maneira justa, ética e transparente.

Quando falamos de recrutamento e seleção, redes neurais artificiais empregadas na aprendizagem de máquina são capazes de processar uma quantidade absurda de dados em pouco tempo e “entregar” uma seleção que um ser humano levaria muito mais tempo para fazer. As redes são também capazes de fazer previsões sobre candidatos a partir dos dados armazenados.

Mas acredito que ainda falta muito esclarecimento sobre como o mecanismo/algoritmo realmente funciona em cada plataforma. Afinal, trata-se de algo que afeta profundamente a vida e o futuro das pessoas e suas famílias.

Para que o cadastro feito por candidatos numa plataforma baseada em IA garanta que eles irão participar de forma justa da seleção, é preciso que fique clara a maneira como eles devem preencher seus dados na plataforma. Apenas dicas como “escreva de forma direta” não são suficientes. Afinal, o fator humano sai desse processo inicial, bem como os detalhes que antes poderiam fazer toda a diferença no currículo. Estamos, todos, aprendendo a viver nesta era de dados. É uma transição. Os processos devem ser justos para ambos os lados, recrutadores e candidatos.

O candidato fica perdido em dúvidas como: quais palavras devo usar para sobressair? Como devo descrever minhas experiências? O que será avaliado primeiro? Terei oportunidade de conversar com um humano no processo?

Se o currículo não vai ser lido, prevalecendo apenas os campos preenchidos no formulário, isso gera insegurança. Pelo que entendo de taxonomia e semântica, a partir do tanto de tempo que trabalho com Web, pode ser bem complicado. Há, por exemplo, risco de que candidatos potenciais sejam eliminados somente porque não escreveram palavras e expressões da maneira como a empresa recrutadora se refere a esses termosEliminações poderão levar a outras eliminações sucessivas quando candidatos “errarem” o preenchimento, sem terem culpa!

Em busca de vislumbrar soluções, talvez caixinhas como as do LinkedIn para que habilidades sejam selecionadas, por exemplo, funcionem. Mas o mais importante de tudo – e defendo isso como uma pessoa que pesquisa impactos de machine learning – é que seres humanos não saiam do processo. Há que se ter um enorme cuidado na hora de decidir o que será cobrado em tais formulários e na hora de coletar informações reunidas. Um olhar crítico para observar o que os algoritmos não veem. As entrelinhas. Os detalhes que um bom recrutador aprende a observar com o tempo. Nada disso uma plataforma, por mais eficiente que seja, é capaz de substituir.

Se você criou uma dessas plataformas ou conhece mais sobre elas e pode contribuir com o que coloquei aqui, peço que contribua! Quero aprender mais.

Imagem: Terry Vlisidis @ Unsplash

Três tipos de machine learning

Conheça os três tipos mais comuns de machine learning ou aprendizagem de máquina:

  1. Aprendizagem Supervisionada: neste caso, o sistema recebe não apenas dados para operar, mas dados já classificados de uma determinada maneira. O sistema recebe também esses rótulos e precisa, então, encaixar os dados neles. É se fosse um quebra-cabeças. Quando a gente tenta acessar um site e ele, por segurança, pede para marcarmos todas as imagens em que aparecem montanhas, por exemplo, estamos diante de um sistema assim. Também é o caso da classificação de e-mails como #spam: cria-se um conjunto de e-mails que são spams e treina-se o sistema para identificar quais são as características mais comuns nele; ele poderá então classificar e-mails nunca vistos como spam a partir desses elementos identificados em outros e-mails.
  2. Aprendizagem Não Supervisionada: neste tipo, o sistema não tem as classes previamente definidas. Ele precisa criar os rótulos para os dados. Para isso, o próprio sistema deve identificar padrões no big data. Por exemplo, utiliza-se esse tipo de machine learning para inferir padrões de consumo nas pessoas e depois lhes oferecer produtos e serviços de acordo com o comportamento e as preferências demonstrados.
  3. Aprendizagem por Reforço: o sistema tentará usar os dados que recebe para gerar modelos, na base da tentativa e do erro. Depois, será punido ou recompensado de acordo com aquilo que conseguir “fazer”. Este tipo é muito comum na robótica e nos games. É o tipo usado no AlphaGo.

Leia também: O que é machine learning

O que é machine learning?

Machine learning ou aprendizagem de máquina é um tipo de inteligência artificial.  É uma tecnologia que está por trás das redes sociais, dos sites em que navegamos, dos aplicativos, dos sistemas digitais de bancos, sistemas de saúde, sites de compras etc. Os sistemas de machine learning são desenvolvidos para desempenhar determinadas atividades e funções. Os algoritmos funcionam, então, como “receitas” que esses sistemas seguem para conseguirem desempenhar essas atividades.

Mas, então, por que a palavra “aprendizagem”? Bem, assume-se que esses sistemas aprendem porque eles se baseiam em dados que coletaram para fazer previsões. Trata-se de uma concepção de aprendizagem que tem como base a estatística. Os nossos dados, usados por esses sistemas para fazerem essas previsões, são chamados de “big data” porque constituem enormes massas de dados. Quanto mais dados e mais diversificados eles forem, mais combinações diferentes esses sistemas podem fazer.

Um sistema de machine learning pode, por exemplo, identificar pessoas a partir de fotos dela. Pode classificar um determinado tipo de e-mail como SPAM por conta de características de outros e-mails que foram classificados pelos usuários como SPAM anteriormente. Pode identificar padrões em dados sobre a saúde de uma pessoa e apontar alguma tendência nesse sentido.

Conheça os três tipos mais comuns de machine learning

Robôs com sentimentos?

Esta semana, a internet chacoalhou com a notícia de que, segundo um funcionário da Google, o chatbot LaMDA, produzido pela empresa, seria senciente. O funcionário acabou afastado depois de suas declarações. O interessante é que uma discussão que está tão presente na filosofia veio à tona por conta disso tudo. Então, o que é que está por trás de desse debate?

A ciência cognitiva é uma área que vem crescendo desde os anos de 1950, e eclodiu bem perto da explosão também da inteligência artificial enquanto área de pesquisa. No início, a IA tinha como foco reproduzir as capacidades humanas. E não era tão difícil crer na viabilidade disso, porque se acreditava que o cérebro poderia ser feito de qualquer material que poderia, de todo jeito, gerar uma mente. Então, teoricamente, um “cérebro” de silício também seria capaz de dar origem a pensamentos, sentimentos, enfim, tudo que compõe a mente.

Com o passar do tempo, as experiências em IA e robótica mostraram que a coisa não era bem assim. Um pesquisador que ajudou a mostrar que a distância entre humanos e máquinas era grande, e que ainda haveria um longo caminho pela frente até que se pudesse instanciar a inteligência humana em sistemas artificiais, foi Hubert Dreyfus. Ele trabalhou no MIT bem próximo a cientistas da computação engajados nessas pesquisas. E era ele quem colocava questões que certamente irritavam os programadores, mas que eram certeiras!

Por exemplo: como um computador poderia prever as milhares de coisas que poderiam acontecer em dada situação da vida cotidiana? Nós conseguimos rapidamente mudar a nossa maneira de agir dependendo do contexto em que nos encontramos: se algo cai no chão, pegamos de volta, colocamos em cima da mesa; se algo se parte, colamos; se alguém se machuca ou chora de repente, vamos acudir. Já sistemas artificiais precisam de mudanças extensas e detalhadas em todo o seu código quando algo muda. Eles não compreendem contextos. Também não compreendem certos atributos simples da vida cotidiana, que fazem parte do senso comum. Tipo: quando atendemos ao telefone, dizemos alô – ou “tô”, se for em Portugal; a pessoa do outro lado responde; combina-se de sair para um bar em alguma rua perto da casa dessas pessoas. O computador precisa de mais do que um simples “Então, vamos lá hoje?”­ para “entender” o que se passa.

É que na verdade a máquina não “entende”nada, de fato! Todas as informações que as pessoas envolvidas na conversa vão conhecendo ao longo da vida e vão incorporando em seu repertório – o que significa alô, o que é um bar, onde ele fica, de que bar estão falando, o que significa vamos lá etc. etc. ­– o computador precisa receber como inputs (até mesmo a informação de que duas pessoas são pessoas, conversam ao telefone, o que é telefone, o que é conversar etc. etc., já pensou?!). Isso precisa estar na programação do sistema. E, mesmo assim, o computador efetivamente não saberá nada: ele vai manipular aquelas informações, mas elas não vão significar nada para ele.

E a filosofia no meio de tudo isso?

A filosofia é uma área que investiga a inteligência humana, a cognição, a mente, a consciência. Para isso procura, antes de tudo, entender como se pode compreender ou conceituar cada uma delas. A maneira como se conceitua algo, afinal, faz muita diferença para os debates. Para pensar se uma IA pode ser consciente ou não, se é senciente ou não, cabe perguntar: o que é ter consciência? O que é senciência?

Há pesquisadores, por exemplo, que buscam na biologia as raízes para se compreender a mente humana. Para eles, a mente é como uma extensão da vida; onde há vida há atividade mental. Consequentemente, onde não há vida não há mente.  Também, se não há mente, não há sentimentos ou experiência. Por essa lógica, se robôs não são seres com vida biológica, não poderiam ter consciência ou senciência, nem sentir ou experimentar nada.

Esses pesquisadores acreditam, ainda, que a mente humana inclui muito mais do que o cérebro: o corpo como um todo constitui a mente. E é com a nossa atividade corporal, em acoplamento direto com o mundo natural, que vamos descobrindo e entendendo o que há no ambiente que nos cerca: assim é que fazemos sentido daquilo que está a nossa volta. Esses pesquisadores a que me refiro são estudiosos da cognição enativa. Alguns dos nomes mais importantes da área são Ezequiel Di Paolo, Hanne De Jaegher e Evan Thompson. Na minha tese de doutorado, eu abordo machine learning e enativismo. Se quiser saber mais, clica aqui.

Veja também o post especial no Instagram: @algoritmosfera

Transparência na IA

A inteligência artificial cada vez mais permeia e influencia nossas vidas. Afeta decisões das mais relevantes: quem pode conseguir um empréstimo ou financiamento, quem deve conseguir um emprego ou ser demitido, quem deve ser preso. Conecta indivíduos em apps de relacionamentos, podendo influenciar nos rumos sentimentais das vidas das pessoas, também.  

Diante da presença crescente da IA em nossas vidas, cresce também a importância de compreender o que significa vivermos entrelaçados a sistemas que se alimentam dos nossos dados. 
Por isso, crescem as preocupações com os riscos a que potencialmente somos expostos.

Há uma mobilização enorme para que se analise esses riscos e para que sejam mitigados. 

Nesse contexto, são preocupantes os mecanismos opacos de tomada de decisão embutida em sistemas algorítmicos.

Transparência é importante quando se trata de sistemas de #IA
A questão da transparência aparece nos documentos do AI HLEG – the European Commission’s High-Level Expert Group on Artificial Intelligence, de 2018.

“Os modelos de negócios baseados em dados, sistemas e AI devem ser transparentes: mecanismos de rastreabilidade podem ajudar nisso. Além disso, os sistemas de IA e suas decisões devem ser explicados de uma maneira adaptada às partes interessadas. Os seres humanos precisam estar cientes de que estão interagindo com um sistema de IA, e devem ser informados acerca das capacidades e limitações desse sistema”, diz documento do AI HLEG de 2019. 

Vou mais além e defendo, com base em teorias da cognição em que venho me aprofundando no doutorado, que “interação” é humano-humano; quando lidamos com sistemas de IA temos uma troca, mas não é exatamente uma “interação” como seria uma interação social. Há algo que só humanos têm, ainda bem 😉 

No artigo acadêmico disponível neste link, o qual inspirou este meu post, há uma discussão interessante sobre “variedades de transparência” em sistemas de IA. Foi escrito por Gloria Andrada, Robert Clowes e Paul Smart.

Padrões Obscuros: quando a navegação é ‘malfeita’ de propósito

Você já se perguntou por que o design daquele site que deveria ser ótimo é tão ruim? Definitivamente, uma má experiência do usuário com um site nem sempre acontece porque a equipe de User Experience/Arquitetura de Informação precisa ser trocada. Veja como o Facebook e a Amazon irritam quando precisamos achar algo como desativar a nossa conta. É tão ruim ou pior do que cancelar a NET.

O que acontece é que a experiência está sendo boa para alguém que não é você, mas a empresa por trás daquele site. Estou falando dos chamados “Dark Patterns“, que são estratégias e maneiras de apresentar o conteúdo e de conduzir o usuário por um website que, em vez de ajudá-lo, o confundem. A experiência é desastrosa, mas o usuário faz o que a companhia quer, e então… bem, a meta está batida.

Quando fiz minha pós em Marketing Digital em 2008, uau, User Experience era realmente sobre deixar o usuário feliz. Era sobre tornar as coisas mas simples para o usuário, deixar a navegação intuitiva, levá-lo ao conteúdo que ele precisa acessar. As coisas mudaram muito na internet nos últimos anos. Quer dizer, não precisa ser assim. Há empresas e empresas. Dark Patterns me lembram as técnicas de “Black Hat SEO”, que eram códigos inseridos nos sites para que chegássemos até eles por meio das buscas; mas, quando chegávamos, os sites não tinham o que esperávamos. Uma frustração, porém isso ajudava a impulsionar os números de visitas e visitantes dos sites.

Hoje, técnicas aplicadas para que os usuários tomem decisões que beneficiam as companhias, em vez de beneficiarem aos usuários, têm uma ajudinha extra: a aprendizagem de máquina. Nossos dados ao infinito, processados por redes profundas com uma capacidade nunca vista antes de aproveitar esses dados para produzir mais dados ainda.

No entanto, a internet não é, ou não deveria ser, uma terra sem lei. A experiência que a gente tem navegando em sites, fazendo buscas etc deveria ser, efetivamente, boa. E, se todas as empresas na internet competem pela sua atenção, algumas deixam suas intenções mais claras, outras preferem te empurrar na direção que elas desejam. Saber o que está acontecendo a nossa volta nos ajuda a cobrar serviços melhores e isso inclui sites que funcionam pelo ponto de vista dos usuários, não somente das empresas. A quem trabalha com internet, bem, acho que vale se questionar: você deixou de ser consumidor para ser designer, arquiteto de informação, programador, empresário, empreendedor? Não. E você gostaria de encontrar Dark Patterns pela sua frente ao tentar fazer coisas que clientes fazem em sites de empresas?

Vale assistir ao vídeo a seguir:

Imagem do post: Carolina Pimenta @ Unsplash