ai bias

Durante a Semana da IA 2025 houve muita discussão sobre algoritmos, inovação e automação, mas também sobre viés.

Mas um conceito crucial chamou a atenção dos ouvintes: a tecnologia não é neutra. Mesmo a inteligência artificial, por mais lógica e matemática que seja, amplifica intenções humanas.

Isso significa que se nossos processos mentais estão cheios de preconceitos, a IA também corre o risco de reproduzi-los em uma escala ampliada.

Neste artigo, exploramos a conexão entre preconceitos cognitivos e inteligência artificial, com foco em dois dos mais disseminados: viés de afinidade e viés de não simpatia.

Um tema que se torna cada vez mais central ao discutir liderança inclusiva e o desenvolvimento ético de tecnologias.

Por que os preconceitos são importantes no contexto da IA

A IA, apesar de ser uma tecnologia, é treinada com dados humanos. E os dados humanos refletem comportamentos, preconceitos, estereótipos. A IA, portanto, não nasce neutra, mas assume as nuances de seus criadores e de seus conjuntos de dados.

Os preconceitos não são apenas erros: são distorções sistemáticas em nossa maneira de perceber e tomar decisões.

Entender quais preconceitos nos afetam é fundamental para construir sistemas tecnológicos mais equitativos, éticos e sustentáveis.

O viés de afinidade: o inimigo silencioso da diversidade

O viés de afinidade é a tendência de preferir pessoas semelhantes a nós. Isso acontece, por exemplo, quando um gerente contrata colaboradores que compartilham seu contexto, gênero, visão de mundo.

No campo da inteligência artificial, isso pode se traduzir em:

  • Algoritmos que recompensam perfis semelhantes aos das pessoas que os projetaram

  • Sistemas de recomendação que reforçam a monocultura

  • Processos de seleção automáticos que penalizam minorias

Se todos ao nosso redor pensam da mesma maneira, a inovação para.

O viés da não simpatia: o rosto oculto da liderança

Isso se manifesta quando julgamos negativamente aqueles que se desviam do estilo dominante, especialmente em funções de liderança. Um exemplo comum? Mulheres em contextos profissionais predominantemente masculinos, que são percebidas como “não simpáticas” se mostram assertivas ou decisivas.

No contexto da IA, esse viés pode emergir quando:

  • Os modelos penalizam comportamentos que não se conformam à “norma” estatística

  • As métricas de avaliação automática replicam preconceitos culturais

O resultado é um círculo vicioso que limita a diversidade em funções de tomada de decisão e dificulta a inclusão.

Viés, IA e mudança: da conscientização à ação

Toda grande transição tecnológica gera medo, ceticismo e resistência. Mas apenas reconhecendo nossas limitações cognitivas podemos construir tecnologias mais humanas.

A IA, se guiada por uma liderança consciente, pode:

  • Ajudar a identificar e corrigir viés nos processos de tomada de decisão

  • Promover transparência nos critérios algorítmicos

  • Fornecer ferramentas para melhorar a equidade nas organizações

A verdadeira liderança hoje não pode mais ignorar a questão da inclusão. Um novo modelo é necessário que:

  • Reconhecer o poder (e os riscos) da IA

  • Fomentar ambientes de trabalho heterogêneos e criativos

  • Adotar práticas de tomada de decisão transparentes e verificáveis

A liderança do futuro será inclusiva, adaptativa e ciente de seus limites cognitivos. Ou não será.

Conclusão: projetando uma Inteligência Artificial ética

A inteligência artificial pode ser uma ferramenta incrível para melhorar o mundo. Mas se não entendermos os preconceitos cognitivos que transferimos para seus algoritmos, corremos o risco de amplificar os problemas em vez de resolvê-los.

O desafio não é apenas técnico, é profundamente humano. Começa com a conscientização de nossos preconceitos e se realiza em uma liderança capaz de guiar a inovação com ética, empatia e inclusão.