Vieses em apps de inteligência artificial

Vieses em apps de inteligência artificial

Usamos um app de IA para produzir esse texto para uma reflexão sobre vieses, preconceitos e rótulos nos algoritmos usados na inteligência artificial

Foi-se o tempo que escrever um texto era uma atividade demasiadamente humana. Já não havia o papel e a caneta, nem o calejar nos dedos, mas ainda havia o gasto de tutano para encontrar energia, conhecimento, às vezes um posicionamento para cá ou para lá, e uma pitada do estado de espírito. Assim era escrever uma carta, um artigo, uma tese, um comunicado, um bilhete. Agora não mais!

Mais uma vez parece que nos aproximamos do universo Jetsoniano, onde os robôs realizam tarefas das pessoas. Quem nasceu nos anos 90 ou antes com certeza lembra do desenho The Jetsons, não é mesmo?

A equipe causadora entrou na onda do aplicativo da Open AI, o Chat GPT para  conhecer a ferramenta que virou celebridade dos textos automáticos e investigar o impacto disso na comunicação inclusiva. 

Fizemos um teste com o app que vamos compartilhar com você para reflexão sobre os vieses e preconceitos no conteúdo gerado. Usamos a própria ferramenta como fonte, com a seguinte pergunta: – Fale sobre vieses em apps de inteligência artificial. 

Vejam o que descobrimos:

Os aplicativos de inteligência artificial (IA) são projetados para automatizar tarefas e tomar decisões com base em algoritmos e análises de dados. No entanto, esses aplicativos podem apresentar vieses que afetam negativamente as pessoas que os usam. Aqui estão alguns exemplos de vieses em aplicativos de inteligência artificial:

Viés de dados: Os algoritmos de inteligência artificial são tão bons quanto os dados que os alimentam. Se os dados tiverem vieses, o algoritmo também terá. Por exemplo, se um algoritmo de seleção de currículo for alimentado com dados históricos de contratação que mostram que candidatos do sexo masculino são preferidos, o algoritmo pode excluir automaticamente as candidaturas de mulheres.

Viés de seleção: Alguns aplicativos de inteligência artificial podem ter vieses na seleção de dados que são usados para treinar seus modelos. Isso pode ocorrer se os dados usados forem selecionados de maneira não representativa da população em geral, excluindo grupos minoritários ou sub-representados. Como exemplos aplicativos de reconhecimento facial treinados com dados de rostos predominantemente brancos, excluindo amostras de pessoas com tons de pele mais escuros. Como resultado, o aplicativo tem dificuldades em reconhecer com precisão os rostos de pessoas com tons de pele mais escuros, e isso pode levar a preconceitos e discriminação.

Viés algorítmico: Os algoritmos usados em aplicativos de inteligência artificial podem ter vieses embutidos em sua lógica. Isso pode acontecer se as pessoas que os desenvolvem tiverem preconceitos ou crenças pessoais que sejam inadvertidamente incorporados no algoritmo. Por exemplo, um algoritmo de crédito pode ser programado para excluir automaticamente pessoas moradoras de bairros com baixa renda, com base na suposição de que esses elas têm maior probabilidade de inadimplência.

Viés de interação humano-computador: Alguns aplicativos de inteligência artificial podem ter vieses em como os usuários interagem com eles. Por exemplo, um chatbot pode ser programado para responder de maneira agressiva a perguntas de clientes insatisfeitos, o que pode levar a uma experiência negativa para a pessoa usuária.

Viés de confirmação: isso ocorre quando o modelo de inteligência artificial é viesado para confirmar as expectativas ou preconceitos das pessoas desenvolvedoras ou usuárias. Por exemplo, um aplicativo de seleção de emprego pode ser viesado em favor de candidatos com diplomas universitários, se os desenvolvedores ou usuários tiverem preconceitos em relação à escolaridade.

Viés de amostragem: Este viés ocorre quando os dados usados para treinar modelos de IA são coletados de uma amostra não representativa da população geral. Por exemplo, um modelo de IA usado para prever o desempenho acadêmico pode ser treinado com dados de estudantes de uma determinada escola ou região, o que pode não refletir com precisão a diversidade de experiências e desafios enfrentados em outras regiões ou escolas. Isso pode levar a previsões imprecisas ou enviesadas.

Esses vieses podem ter efeitos prejudiciais significativos sobre as pessoas que usam os aplicativos de inteligência artificial. É importante que as equipes de desenvolvimento reconheçam esses vieses e trabalhem para eliminá-los em seus produtos de IA. Isso pode incluir a realização de testes de vieses e a implementação de medidas para corrigi-los. Além disso, é importante que haja transparência em relação aos vieses presentes em aplicativos de inteligência artificial, para que as pessoas usuárias dos APPs possam tomar decisões informadas sobre como usá-los.

Conclusão

Pois bem, gente. Aí está! Curtimos o texto do Chat GPT, e vocês? Ficou evidente a existência de vieses, mas também que a origem desses vieses está nas pessoas. Afinal, os aplicativos são desenvolvidos por pessoas, os algoritmos são baseados em informações produzidas por pessoas, e como sabemos, pessoas têm seus vieses. 

Inclusive, notamos que o uso de linguagem neutra não é uma preocupação incorporada aos textos elaborados pelo sistema.

Quem nos conhece sabe que gostamos de novidades e das inúmeras possibilidades que a tecnologia pode nos proporcionar. Achamos que aplicativos de IA podem contribuir para diversas atividades, desde que sejam usados com responsabilidade e tenham os conteúdos revisados para que não excluam, ofendam ou discriminem ninguém. 

A comunicação é peça fundamental para que a inclusão aconteça. Por isso é importante que não reproduza preconceitos, não discrimine, que seja acessível, simples e inclusiva. Aí sim teremos uma sociedade evoluída.

E você? Já parou para pensar sobre isso? Ajude a levar essa reflexão para frente e alie-se à inclusão.

Créditos

Créditos: a imagem que ilustra esse artigo foi criada pelo serviço de IA do site DALL.E2 / parte do texto criada com a IA Chat GPT

Leia também

https://atitudeinclusiva.com.br/2021/08/20/oito-verdades-poderosas-sobre-diversidade-e-inclusao/