5 dilemas éticos que desafiam empresas no uso da inteligência artificial – CartaCapital

A adoção da inteligência artificial já faz parte da rotina de mais de 70% das companhias, de acordo com levantamento da McKinsey. Mas, ao mesmo tempo em que gera ganhos de eficiência, a tecnologia trouxe dilemas éticos ainda sem resposta. Questões como propriedade intelectual, proteção de dados e impacto humano no trabalho estão no centro da agenda corporativa.

Segundo Kenneth Corrêa, palestrante de inteligência artificial, especialista em dados e professor de MBA da Fundação Getúlio Vargas (FGV), muitas organizações ainda lidam com a IA de maneira reativa. “O futuro aponta para agentes auditores, sistemas de IA capazes de explicar outros sistemas de IA em tempo real”, diz o autor do livro Organizações Cognitivas: Alavancando o Poder da IA Generativa e dos Agentes Inteligentes.

1. Direitos autorais e dados usados sem autorização

Ferramentas de IA podem infringir direitos de propriedade intelectual. Exemplos incluem o processo do New York Times contra a OpenAI e o uso de livros pirateados do LibGen pela Meta no treinamento do LLaMA. Corrêa ressalta que soluções como auditoria da origem dos dados e parcerias com criadores, a exemplo do Adobe Firefly, reduzem o risco.

2. Decisões opacas e falta de explicação

Sistemas de IA já foram usados para contratar, filtrar ou demitir pessoas sem critérios transparentes. O problema é o caráter de “caixa preta” dos algoritmos. A McKinsey identificou que 65% dos executivos C-level e 44% de gestores médios utilizam IA generativa com frequência. A saída, segundo especialistas, está em investir em “IA explicável”, que traz justificativas e permite revisão manual.

3. Automação sem responsabilidade social

O caso da Activision Blizzard, que substituiu parte de seus artistas por IA generativa, expôs riscos de uma automação voltada apenas à redução de custos. “Empresas mais bem-sucedidas enxergam a IA como multiplicadora de talentos, não como substituta”, afirma Corrêa. A visão é de que a tecnologia deve ampliar capacidades humanas e até abrir novas vagas.

4. Vieses ocultos que reforçam desigualdades

Algoritmos podem discriminar de forma invisível. Um sistema de crédito nos Estados Unidos rejeitou mulheres casadas por variáveis indiretas durante 18 meses. Já o LinkedIn identificou que seu modelo favorecia homens em recomendações de vagas de tecnologia e precisou corrigi-lo. Esses exemplos mostram a necessidade de monitoramento constante para evitar discriminação.

5. Privacidade e proteção de dados

Apesar da LGPD no Brasil, a privacidade ainda é um desafio. Informações pessoais usadas para treinar modelos muitas vezes não podem ser apagadas. Há riscos de funcionários inserirem dados sensíveis em ferramentas externas, de reidentificação a partir de dados anonimizados e de uso indevido em novos contextos. Nubank e Magazine Luiza criaram protocolos internos para reduzir essas falhas.

Caminhos para reduzir riscos

Entre as soluções em teste estão:

  • IA Auditora: sistemas que monitoram e explicam decisões algorítmicas em tempo real.

  • Redes de agentes inteligentes: diferentes algoritmos auditam e explicam uns aos outros, criando checagens automáticas.

  • Contratos inteligentes de ética: protocolos que interrompem operações em caso de violações, como discriminação ou uso indevido de dados.

Empresas como IBM e Microsoft já trabalham em mercados de auditoria de IA, oferecendo serviços de verificação ética de forma escalável. “A velocidade da evolução tecnológica exige mecanismos igualmente ágeis para garantir governança e responsabilidade”, conclui Corrêa.

Repost

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *