A inteligência artificial cada vez mais permeia e influencia nossas vidas. Afeta decisões das mais relevantes: quem pode conseguir um empréstimo ou financiamento, quem deve conseguir um emprego ou ser demitido, quem deve ser preso. Conecta indivíduos em apps de relacionamentos, podendo influenciar nos rumos sentimentais das vidas das pessoas, também.
Diante da presença crescente da IA em nossas vidas, cresce também a importância de compreender o que significa vivermos entrelaçados a sistemas que se alimentam dos nossos dados.
Por isso, crescem as preocupações com os riscos a que potencialmente somos expostos.
Há uma mobilização enorme para que se analise esses riscos e para que sejam mitigados.
Nesse contexto, são preocupantes os mecanismos opacos de tomada de decisão embutida em sistemas algorítmicos.
Transparência é importante quando se trata de sistemas de #IA.
A questão da transparência aparece nos documentos do AI HLEG – the European Commission’s High-Level Expert Group on Artificial Intelligence, de 2018.
“Os modelos de negócios baseados em dados, sistemas e AI devem ser transparentes: mecanismos de rastreabilidade podem ajudar nisso. Além disso, os sistemas de IA e suas decisões devem ser explicados de uma maneira adaptada às partes interessadas. Os seres humanos precisam estar cientes de que estão interagindo com um sistema de IA, e devem ser informados acerca das capacidades e limitações desse sistema”, diz documento do AI HLEG de 2019.
Vou mais além e defendo, com base em teorias da cognição em que venho me aprofundando no doutorado, que “interação” é humano-humano; quando lidamos com sistemas de IA temos uma troca, mas não é exatamente uma “interação” como seria uma interação social. Há algo que só humanos têm, ainda bem 😉
No artigo acadêmico disponível neste link, o qual inspirou este meu post, há uma discussão interessante sobre “variedades de transparência” em sistemas de IA. Foi escrito por Gloria Andrada, Robert Clowes e Paul Smart.