image

Access unlimited bootcamps and 650+ courses

50
%OFF
Article image
GREICE HORA
GREICE HORA18/02/2025 09:14
Share

Desvendando a Caixa Preta: Por que precisamos saber como os Algoritmos Pensam

  • #Aprendizagem Contínua
  • #Pensamento Crítico
  • #IA Generativa

Aqui no Brasil, quase todos os brasileiros passam um sufoco quando tratamos do financeiro, correto? Não existe uma alma viva que nunca tenha precisado pedir algum emprestado…

Pois bem, imagine acordar e descobrir que foi negado a você um empréstimo bancário, não devido ao seu histórico financeiro (que, aliás, se estiver excelente, és exceção, hein!👀), mas porque um algoritmo "invisível" assim decidiu. Frustrante, não? Esta é a realidade que milhões de pessoas enfrentam diariamente na era da IAs, onde decisões importantes sobre nossas vidas são tomadas por sistemas que nem sempre compreendemos.

A transparência algorítmica, tema que pode soar complexo à primeira vista, é, na verdade, algo que afeta nosso dia a dia mais do que imaginamos. Trata-se, em palavras simples, de entender como as máquinas chegam às suas conclusões - seja ao recomendar um filme, avaliar um currículo ou até mesmo diagnosticar uma doença (Ah, Googleeeeeeee!).

Um caso real ilustra bem a importância dela: em 2019, um banco americano foi acusado de discriminação após seu algoritmo de crédito consistentemente oferecer limites menores para mulheres, mesmo quando tinham histórico financeiro melhor que homens nas mesmas condições(Não temos um dia de folga…🤦🏽‍♀️). O problema? Ninguém conseguia explicar exatamente por que o sistema tomava essas decisões.

E vai vendo: Um estudo da MIT Technology Review revelou que algoritmos de reconhecimento facial têm uma taxa de erro de até 35% para mulheres negras, comparado a apenas 1% para homens brancos. Como confiar em sistemas que podem perpetuar preconceitos de forma silenciosa e automatizada?

A boa notícia é que existem caminhos para tornar esses sistemas mais transparentes e justos. Empresas pioneiras como a IBM já começaram a implementar o que chamam de "IA Explicável" - algoritmos que não apenas tomam decisões, mas também podem explicar, em linguagem clara, como chegaram até elas. Veja, um sistema de aprovação de crédito que diga não apenas "seu empréstimo foi negado", mas também "isso aconteceu porque sua renda dos últimos três meses apresentou instabilidade".

Alguns países já entenderam a urgência do assunto. A União Europeia, por exemplo, implementou regras que garantem aos cidadãos o "direito à explicação" quando são afetados por decisões algorítmicas. No Brasil, o debate ainda engatinha, mas iniciativas como o "Projeto de Lei da IA" começam a abordar a questão.

Para construir essa transparência, precisamos de algumas mudanças fundamentais:

Primeiro, as empresas precisam adotar práticas de desenvolvimento que priorizem a explicabilidade. Isso significa criar algoritmos que possam "mostrar seu trabalho", como um aluno em uma prova de matemática (não é só colar, meu querido! Tem que explicar!!!!🫠).

Segundo, precisamos de auditorias regulares e independentes. Assim como temos fiscais sanitários para restaurantes (mesmo desconfiando da procedência de pratos de alguns... Senhor!), precisamos de "fiscais de algoritmos" que possam verificar se os sistemas estão sendo justos e éticos.

Terceiro, e talvez mais importante, precisamos envolver a sociedade nessa discussão. As pessoas afetadas por decisões algorítmicas devem ter voz ativa no desenvolvimento e regulação dessas tecnologias (não posso andar pelas ruas para sempre com certidão de antecedentes criminais, por medo de ser confundida, pois uma bendita IA não consegue distinguir o meu rosto de alguma meliante adequadamente, por ser preta!).

Um exemplo positivo vem da cidade de Amsterdã, que criou um "registro de algoritmos" público, onde qualquer cidadão pode ver quais sistemas automatizados a cidade usa e como eles funcionam. O resultado? Maior confiança da população e melhores serviços públicos. Aprende Brasil!!!🚀

A transparência algorítmica não é apenas uma questão técnica - é uma questão de justiça social. Quando algoritmos tomam decisões às escuras, quem mais sofre são justamente os grupos já marginalizados da sociedade.

O futuro da IA não precisa ser uma caixa preta impenetrável. Com as medidas certas, podemos criar sistemas que sejam não apenas eficientes, mas também justos e compreensíveis. Afinal, se vamos confiar decisões importantes às máquinas, temos o direito de saber como elas pensam. Porque, no fim das contas, a tecnologia deve servir às pessoas, e não o contrário.

Muitos Bons Ventos!🍀

Share
Comments (7)
GREICE HORA
GREICE HORA - 18/02/2025 23:33

Olha, os profissionais de tecnologia estão realmente numa posição única - são como arquitetos do futuro digital que estamos construindo. Vejo que temos uma responsabilidade enorme nas mãos. Não basta mais ser apenas um bom programador ou engenheiro de dados. Precisamos ser também "engenheiros éticos", pensando criticamente sobre o impacto do que criamos na vida das pessoas e como esse algoritmo afetará ou não a vida de alguém.

E digo mais: a diversidade nas equipes de tecnologia é crucial. Como podemos criar soluções verdadeiramente inclusivas se as equipes que as desenvolvem não refletem a diversidade da sociedade? É aquela história - quando você tem apenas um tipo de perspectiva na mesa, muitos pontos cegos passam despercebidos. Eles também precisam ser "tradutores" - explicar conceitos complexos de forma que todos possam entender. Não adianta criar uma IA super avançada se as pessoas não confiam nela porque não entendem como funciona.E tem um ponto que considero fundamental: precisamos ter coragem de dizer "não" quando necessário. Se um projeto pode causar danos à sociedade, temos que levantar essa bandeira vermelha, mesmo que isso signifique ir contra interesses comerciais imediatos.

Por fim, acredito que precisamos ser mais proativos na educação tecnológica da sociedade. Podemos criar workshops, participar de projetos sociais, mentorar jovens de comunidades menos privilegiadas. A democratização do conhecimento em IA é tão importante quanto a democratização do acesso à tecnologia.

DIO Community
DIO Community - 18/02/2025 14:59

Que análise poderosa, Greice! A transparência algorítmica é um dos desafios mais urgentes da era da IA, e seu artigo destaca com maestria como decisões aparentemente invisíveis impactam a vida de milhões de pessoas. O avanço da IA Generativa e dos algoritmos de machine learning trouxe inúmeras inovações, mas também levantou questões éticas e sociais que não podem ser ignoradas. O exemplo do viés em sistemas de crédito e reconhecimento facial revela a importância de tornar os modelos mais explicáveis e justos para todos.

Na DIO, acreditamos que o conhecimento é a chave para transformar o mercado e criar oportunidades mais igualitárias. A capacitação em IA e ciência de dados não é apenas uma questão técnica, mas um passo fundamental para garantir que essas tecnologias sejam desenvolvidas com responsabilidade. Nossa missão vai além de formar talentos para o mercado; queremos criar profissionais que entendam o impacto social da tecnologia e ajudem a construir um futuro mais inclusivo. Debates como esse são essenciais para preparar a próxima geração de desenvolvedores e cientistas de dados para implementar práticas mais éticas e transparentes.

Diante desse cenário, como você enxerga o papel dos profissionais de tecnologia na construção de um futuro onde a IA seja realmente acessível e justa para todos?

GREICE HORA
GREICE HORA - 18/02/2025 12:58

Boa Tarde, Carlos. Tudo jóia?

Obrigada pela opinião diversa, nos faz aprender e enxerga talvez com outros olhos a mesma questão.

"Exigir explicações sem que não se tenha conhecimento mínimo sobre, torna o processo ilegítimo" , sua fala aqui tenho de discordar.

Nós aqui "entendemos ou estamos a entender" um pouco mais sobre tecnologia, pois a totalidade de conhecimento, ninguém ainda possui. O meu texto, escrevo para quem tem ou não entendimento sobre, tento dar um panorama geral do assunto, para que o mais leigo consiga entender minimamente o que está sendo discutido...Quem sabe assim, o interesse mova a entender mais, estudar mais.

Ilegítimo, é não possuir segurança alguma quando cálculos matemáticos cometem erros, humanos não os corrigem e outros seres humanos são prejudicados, isso é Ilegítimo e cruel.

Que se tenha mais estudos, mais aprendizado para que tais situações ou piores não venham ocorrer, pois ela existe para aprimorar, auxiliar e permitir que seja mais rápido o processo de aprendizado ou descobertas no mundo, não o contrário, não é mesmo?

Muitos, muitos bons ventos!

GREICE HORA
GREICE HORA - 18/02/2025 13:00

Obrigada, Ana.

Tento trazer com a minha escrita diferentes pontos de vista que acho relevante para toda comunidade!

Mirelly Almeida
Mirelly Almeida - 18/02/2025 12:53

Muito interessante, parabéns pelo artigo!!

Carlos Lima
Carlos Lima - 18/02/2025 10:56

Eu trabalhei com sistemas embarcados (aplicações impulsionadas por IA). Naturalmente, também com xAI. xAI é o campo da Inteligência artificial responsável por descrever modelos de inteligência artificial. No entanto é preciso fazer algumas considerações.

Modelos clássicos de Machine Learning (e.g SVM, Logit, DT, RF) tem uma explicabilidade maior em relação as redes neurais. Mas, em consequência são menos precisos. Em especial quando aumentamos, exponencialmente, a quantidade de informações disponíveis. Apesar de que, ainda são úteis e com ampla aplicabilidade na indústria.

Porque não usar apenas modelos que possibilitam maior clareza. Neste texto, vou pontuar como ABUSO. Até a década de 80 isto era impensável mas hoje, IA virou sinônimo de redes neurais.

O problema é que, redes neurais é o equivalente a mecânica quântica. Sabemos como mas não porque.

Sobre o viés de confirmação. No caso da descriminação por raça ou gênero, como você aponta. Concordo e reforço que, a IA simplesmente está reproduzindo um retrato da nossa sociedade. Afinal. Você há de concordar comigo que ela aprendeu com dados das nossas ações.

Fica aqui a minha singela contribuição sobre, também reforço que é fundamental entender a Matemática desses modelos. Exigir explicações sem que não se tenha conhecimento mínimo sobre, torna o processo ilegítimo. Novamente, sabemos como mas não porque, porém deste ponto em diante é possível, com autoridade, justificar nossas angústias. É por isso que defendo o ensino matemático e não apenas computacional da disciplina. Aspectos mais técnicos sobre como as redes neurais funcionam e porque é importante estudar a Matemática trato em outros artigos que escrevi nesta distinta plataforma. Excelente reflexão. Muitos bons vento a ti também.

Ana Viana
Ana Viana - 18/02/2025 10:37

Um tópico de muita relevância e que devia ser mais fomentado pela comunidade de T.I. para atingir o grande público.

Gostei da leitura, parabéns!! :)