image

Accede a bootcamps ilimitados y a más de 650 cursos

50
%OFF
Article image
Patricia Assaf
Patricia Assaf11/04/2025 16:20
Compartir
Microsoft Certification Challenge #3 DP-100Recomendado para tiMicrosoft Certification Challenge #3 DP-100

Viés Inconsciente: quando a tecnologia exclui sem nem perceber

    Na era digital, a gente confia nos algoritmos pra quase tudo: descobrir músicas, conseguir um emprego, aprovar um crédito, decidir o que ver na TV. E como tudo parece baseado em dados e lógica, a impressão é de que esse sistema é justo, objetivo, imparcial.

    Mas por trás dessa aparência “neutra”, existe um risco que quase ninguém vê: o viés inconsciente. Ele está nas pessoas — e, por consequência, se infiltra na tecnologia que elas criam. E o mais complicado é que muitas vezes ninguém percebe que ele está ali.

    Tá, mas o que é esse tal de viés inconsciente?

    É um conjunto de associações automáticas que o nosso cérebro faz sem que a gente se dê conta. Elas são formadas por tudo o que vivemos, aprendemos, vimos, ouvimos, acreditamos — mesmo que de forma inconsciente.

    E mesmo que a gente se considere justa(o), aberta(o), sem preconceitos... esses vieses podem influenciar nossas decisões no dia a dia. Na hora de contratar, indicar alguém, avaliar uma ideia ou projetar um sistema.

    Na tecnologia, o risco é que esses vieses virem código — e sejam aplicados em larga escala, afetando milhares (ou milhões) de pessoas.

    Os 5 tipos de viés inconsciente mais comuns — e como eles aparecem

    Pra deixar mais claro, aqui estão alguns dos vieses mais frequentes no nosso dia a dia (e que muitas vezes acabam entrando, sem querer, na tecnologia):

    1. Viés de afinidade: Tendência de favorecer pessoas parecidas com a gente — seja no jeito, origem, idade, gênero, ou forma de pensar. Exemplo: escolher sempre o mesmo “perfil” pra uma vaga, porque “tem mais fit”.

    2. Viés de confirmação: A gente procura (e valoriza) informações que confirmam aquilo que já acredita, ignorando o resto. Exemplo: analisar dados só pra reforçar uma hipótese inicial, sem considerar visões diferentes.

    3. Viés de gênero: Atribuir, inconscientemente, certas competências a homens ou mulheres. Exemplo: achar que homens são mais “naturais” em áreas técnicas e mulheres em áreas de cuidado.

    4. Viés de representatividade: Julgar com base em estereótipos, e não em informações reais. Exemplo: achar que uma pessoa negra em uma vaga de liderança “não combina com o perfil da empresa”.

    5. Viés de idade (etarismo): Supor que pessoas mais jovens são mais inovadoras, ou que pessoas acima dos 40 “não se adaptam à tecnologia”. Exemplo: deixar de considerar uma candidatura por achar que a pessoa “já passou do tempo”.

    Esses exemplos são só a ponta do iceberg — mas ajudam a entender como a gente pode repetir exclusões sem nem perceber.

    E na tecnologia, como isso tudo se manifesta?

    Existem muitos pontos onde o viés entra sem convite. Aqui vão alguns:

    • Dados enviesados: Algoritmos aprendem com dados. Se os dados refletem um histórico excludente, o sistema vai reproduzir isso. Como sistemas de recrutamento que aprendem a rejeitar currículos de mulheres — simplesmente porque foram treinados com dados majoritariamente masculinos.

    • Design centrado em um único tipo de pessoa: Interfaces criadas só pensando em usuários jovens, brancos, neurotípicos e sem deficiência acabam deixando muita gente de fora. Um app com contraste ruim, letra pequena e sem comandos por voz é um pesadelo pra quem tem baixa visão ou dislexia, por exemplo.

    • Falta de diversidade nas equipes: Se quem cria a tecnologia vem de contextos muito parecidos, certos problemas nem chegam a ser considerados. É por isso que é tão importante ter diferentes vozes no processo — desde a ideia até a entrega.

    Casos reais que mostram o impacto

    Esses não são só exemplos teóricos — eles acontecem. Muito.

    • Reconhecimento facial: sistemas com alta taxa de erro ao identificar rostos de mulheres negras. Já em homens brancos, o erro quase não existe.
    • Assistentes de voz: funcionam melhor com vozes masculinas. E têm dificuldade com sotaques ou vozes femininas.
    • Algoritmos de crédito: já classificaram mulheres como menos confiáveis apenas por serem mulheres — mesmo com histórico financeiro igual ao dos homens.
    • Plataformas de anúncios: começaram a mostrar vagas técnicas pra homens e vagas de estética pra mulheres, baseando-se em padrões históricos de cliques.

    O que tudo isso significa?

    Que a exclusão na tecnologia não acontece só na usabilidade — mas no acesso a direitos, a oportunidades, a espaços.

    Quando um sistema recusa um currículo, não é só um erro técnico. É alguém sendo impedido de entrar. Quando uma interface não funciona, é alguém sendo deixado de fora. Quando um algoritmo reforça um padrão, ele está também validando um estereótipo.

    E tudo isso passa como se fosse “decisão objetiva” — porque veio de uma máquina.

    Dá pra fazer diferente. Mas dá trabalho

    Felizmente, o viés inconsciente pode ser enfrentado. Mas não dá pra resolver sem consciência. Aqui vão alguns caminhos possíveis:

    • Diversidade nas equipes desde o começo: Porque visões diferentes enxergam problemas diferentes — e criam soluções melhores.
    • Olhar crítico pra base de dados: Quem esses dados representam? Quem ficou de fora? Eles contam a realidade ou só repetem o passado?
    • Testes com usuários diversos: Não dá pra criar pra todo mundo se você só testa com um perfil.
    • Educação em ética e impacto social: Tecnologia não pode ser pensada só como código — mas como algo que afeta vidas. E isso precisa estar na formação de quem trabalha com ela.
    • Regulação e responsabilidade social: Políticas públicas e legislação precisam acompanhar a tecnologia — pra garantir direitos e evitar abusos.

    Pra fechar...

    O viés inconsciente não é sobre más intenções. É sobre ausência de intenção. Quando a gente não pensa em quem está fora da nossa bolha, a gente acaba excluindo — mesmo sem querer. E na tecnologia, esse “sem querer” vira escala, vira regra, vira algoritmo.

    Por isso, criar soluções mais justas não depende só de boas ideias. Depende de olhar pro outro com empatia, de escutar, de se perguntar: quem eu posso estar deixando de fora?

    Porque sim, o futuro pode (e deve) ser digital. Mas se não for humano, não vale a pena.

    Na série 'Desafiando Estereótipos: Uma Série sobre Tecnologia, Reinvenção e Inclusão', compartilho minha jornada de superação de barreiras e descoberta do meu espaço na tecnologia. Ao longo dos artigos, vou contar como enfrento estereótipos, me reinvento e busco um caminho que faça sentido para mim. Se você é uma mulher em um campo majoritariamente masculino, alguém que está mudando de carreira mais tarde na vida ou um profissional que busca um ambiente mais inclusivo, espero que minha história inspire você a seguir em frente. Acompanhe e junte-se a mim nessa jornada!

    Compartir
    Recomendado para ti
    Microsoft Azure Cloud Native
    XP Inc. - Cloud com Inteligência Artificial
    Microsoft AI for Tech - Azure Databricks
    Comentarios (0)
    Recomendado para tiMicrosoft Certification Challenge #3 DP-100