A inteligência artificial vem sendo adotada sem o rigor ético e estratégico que o tema exige. Conselhos despreparados podem comprometer os pilares ambientais, sociais e de governança das empresas. Investidores institucionais precisam estar atentos: o risco algorítmico já ameaça o ESG nas companhias investidas.
Inteligência artificial virou sinônimo de inovação. É difícil encontrar um pitch de transformação digital que não a coloque no centro da estratégia. Modelos generativos, automação preditiva, análise de sentimentos, o vocabulário da IA tomou de assalto os conselhos de administração, como se bastasse implementá-la para garantir modernidade, eficiência e, por algum motivo raramente questionado, sustentabilidade.
Mas... e se for exatamente o contrário?
E se a IA, tão celebrada como a nova fronteira da competitividade, for também um risco silencioso aos pilares do ESG? E se, ao adotá-la de forma acrítica, estivermos reforçando desigualdades, ampliando a pegada ambiental e construindo sistemas de decisão opacos, que desafiam os princípios básicos da boa governança?
A verdade é que IA não é, por definição, sustentável. Muito menos ética. É apenas uma tecnologia poderosa, promissora, mas profundamente ambígua. Seus impactos dependem de como, por quem e para que é usada. E é aí que entra o papel indelegável dos conselhos de administração.
Ignorar os riscos da IA no contexto ESG é uma omissão que conselhos não podem mais cometer. Porque, no fim das contas, a pergunta que realmente importa não é se vamos usar IA. A pergunta é: A IA que estamos adotando está alinhada com os valores que defendemos?
A pegada ambiental da IA
A imagem que se vende da inteligência artificial é de uma tecnologia "invisível": softwares que aprendem, algoritmos que otimizam, serviços que se tornam mais rápidos e personalizados. O que raramente se menciona é o preço ecológico dessa operação, e ele é alarmante.
Treinar um único modelo de IA generativa pode consumir mais energia do que uma pequena cidade. Estudos acadêmicos estimam que grandes modelos de linguagem podem emitir milhares de toneladas de CO₂ durante o treinamento. O Meta's Llama 3.1, por exemplo, gerou aproximadamente 8.930 toneladas de CO₂ equivalente, o que corresponde ao impacto ambiental de cerca de 496 americanos vivendo um ano inteiro. E isso é apenas o começo. A inferência, ou seja, o uso cotidiano do modelo, continua gerando um consumo energético crescente: uma consulta ao ChatGPT consome cerca de 2,9 watt-horas de eletricidade, comparado com apenas 0,3 watt-horas de uma busca no Google, quase 10 vezes mais energia.
O crescimento exponencial no uso de IA está transformando radicalmente o cenário energético global. Segundo a International Energy Agency, data centers, os bastidores físicos dessa revolução digital, já consomem cerca de 1 a 2% da eletricidade global. Mais importante: esse consumo está se acelerando dramaticamente. A IEA projeta que o consumo elétrico de data centers mais que dobrará até 2030, chegando a aproximadamente 945 terawatt-horas, ligeiramente superior ao consumo total de eletricidade do Japão hoje.
A IA será o principal motor desse crescimento. Nos Estados Unidos, data centers já representarão quase metade do crescimento da demanda elétrica até 2030. Globalmente, a IEA estima que data centers representarão cerca de 3% do consumo total de eletricidade até o final da década, um salto significativo que reflete não apenas o crescimento da IA, mas também sua crescente intensidade energética.
Essa realidade é particularmente incômoda quando colocada ao lado dos compromissos públicos de neutralidade de carbono que tantas empresas assumem. Como justificar, perante investidores e stakeholders, uma estratégia de descarbonização enquanto se incorporam modelos energicamente intensivos, sem critérios de eficiência ou compensação?
Ainda mais crítico é o fato de que muitas vezes esses dados sequer são medidos. Poucas empresas sabem calcular a pegada de carbono da sua IA. Menos ainda publicam esses números. Isso revela não apenas um problema operacional, mas uma falha estratégica: estamos adotando uma tecnologia sem sequer compreendermos seu verdadeiro custo ambiental.
A questão se torna ainda mais complexa quando consideramos que o impacto é altamente concentrado geograficamente. Em alguns países, como a Irlanda, data centers já representam mais de 20% do consumo nacional de eletricidade. Nos Estados Unidos, pelo menos cinco estados já vêem data centers consumindo mais de 10% de sua eletricidade total.
IA pode ser parte da solução para os desafios ambientais, mas, sem gestão, pode se tornar parte do problema. E os conselhos precisam decidir de que lado querem estar.
O impacto social ignorado
O discurso dominante é que a IA melhora a tomada de decisões. Mas raramente se pergunta: para quem?
Algoritmos são treinados com dados históricos e dados históricos carregam os vícios, vieses e exclusões do mundo real. Quando sistemas de IA são usados para avaliar candidatos a emprego, conceder crédito ou definir preços de seguros, eles não apenas replicam essas distorções: eles as escalam. Com a aparência de neutralidade técnica, tomam decisões discriminatórias em tempo real, afetando milhões de pessoas sem que ninguém perceba, até que seja tarde demais.
Pesquisas da Consumer Reports mostram que a maioria dos consumidores nos EUA expressa desconforto com o uso de IA em decisões sensíveis, como acesso à saúde, moradia e trabalho. Esse mal-estar é justificado: os próprios líderes corporativos admitem não ter controle sobre o viés de seus modelos. Segundo levantamento da Vena Solutions, 60% das empresas que utilizam IA ainda não estabeleceram políticas éticas para seu uso, e 74% não têm mecanismos eficazes para mitigar discriminações.
O problema se agrava quando pensamos na exclusão digital. Sistemas de IA são cada vez mais usados para triagem de currículos, seleção de crédito, atendimento automatizado e até gestão pública. Para quem vive nas margens do acesso tecnológico, por falta de conectividade, alfabetização digital ou representação adequada nos dados, isso significa um risco concreto de marginalização estrutural.
E o mais alarmante: não há transparência. Pouquíssimas empresas conseguem explicar, de forma clara, como seus sistemas de IA tomam decisões. Pior: muitas sequer sabem que essas decisões estão sendo tomadas por algoritmos. O resultado é um cenário de opacidade, onde as consequências sociais da tecnologia se tornam invisíveis e, portanto, incontroláveis.
Se ESG pressupõe responsabilidade com todos os stakeholders, não há como ignorar que a IA, hoje, pode estar comprometendo esse princípio. A tecnologia que prometia inclusão pode, se mal gerida, ser o maior vetor de exclusão da década.
Governança cega: o silêncio dos conselhos
Há uma dissonância perigosa entre a velocidade com que as empresas estão adotando soluções de inteligência artificial e a lentidão com que os conselhos de administração estão se posicionando sobre o tema. Na maioria dos casos, a IA entrou na organização como uma iniciativa de inovação ou eficiência operacional, sem passar pelo crivo da governança.
O resultado é uma adoção desordenada, onde decisões estratégicas estão sendo automatizadas por sistemas que não foram supervisionados, validados ou sequer compreendidos por quem tem a responsabilidade fiduciária de zelar pelos riscos da empresa. E isso não é exagero.
Relatórios da Deloitte alertam que a maioria dos conselhos ainda não possui competências técnicas internas para supervisionar projetos de IA. Não há comitês dedicados, nem estruturas de accountability claras. A discussão sobre ética algorítmica é inexistente na maioria das pautas. E, pior: em muitas empresas, os próprios conselheiros não sabem quais decisões já estão sendo influenciadas por algoritmos.
Esse vácuo de governança é grave. Porque IA não é apenas uma ferramenta. Ela pode tomar decisões sobre pessoas, recursos e reputações. Pode impactar diretamente o compliance, a estratégia e a imagem da empresa. E se algo der errado, como já vimos em inúmeros casos de viés, falhas ou discriminação algorítmica, é a reputação da empresa e a responsabilidade do conselho que estarão em jogo.
Imagine um sistema de IA que automatiza a concessão de crédito e acaba sendo denunciado por práticas discriminatórias. Ou um modelo de recomendação que privilegia fornecedores sem critérios transparentes. Sem uma estrutura robusta de governança, esses riscos passam despercebidos até se tornarem crises públicas.
O que espanta é o silêncio. Conselhos que cobram métricas ESG, que exigem planos de descarbonização e políticas de diversidade, parecem cegos quando o assunto é IA. Por quê? Porque falta repertório, coragem ou consciência?
Seja qual for a razão, o fato é que a omissão já não é mais neutra. Ela é uma escolha, e uma escolha arriscada.
A pressão dos investidores e da regulação
O vácuo de governança interna está sendo rapidamente preenchido por pressões externas. Investidores institucionais, reguladores e organismos internacionais estão se movendo com força para colocar a IA sob o guarda-chuva do ESG. E quem não estiver preparado vai sentir o impacto em forma de questionamentos duros, exigências de transparência e até sanções.
Comecemos pela regulação. A União Europeia lidera com o AI Act, um marco regulatório ambicioso que classifica sistemas de IA por nível de risco e impõe obrigações específicas de governança, transparência e direitos dos usuários. O texto exige, por exemplo, que sistemas de alto risco sejam auditáveis, explicáveis e supervisionados por humanos. Empresas que descumprirem podem enfrentar multas pesadas com base no faturamento anual global.
Nos Estados Unidos, a SEC já tem recomendado que empresas listadas declarem, com mais clareza, como a IA é usada em seus modelos de negócio e quais os riscos associados. E a expectativa é que o Brasil siga a mesma trilha, com legislações e regulações inspiradas nesses padrões.
Do lado dos investidores, a mudança de tom é perceptível. Alguns grandes gestores de ativos, como o Norges Bank (fundo soberano da Noruega), já estabeleceram expectativas claras sobre transparência e responsabilidade no uso de IA por suas empresas investidas, enquanto outros começam a incorporar considerações sobre IA em suas práticas de stewardship. Em cartas públicas e assembleias, já se ouve uma nova pergunta: “Quais decisões críticas sua IA já tomou?”
A lógica é pragmática. Investidores sabem que empresas que adotam IA de forma irresponsável estão mais expostas a riscos reputacionais, litígios e escândalos. A ausência de governança tecnológica passa a ser vista como falha material e, portanto, com impacto direto na precificação dos ativos.
A pressão também vem de agências de rating ESG, que começam a incluir critérios de IA responsável em suas análises. Modelos opacos, viesados ou não auditáveis começam a penalizar scores, afetando acesso a capital e atratividade de investimentos.
Ou seja: a era da IA sem freios está com os dias contados. E as empresas que não se anteciparem à regulação e à cobrança dos stakeholders vão descobrir, da pior forma, que ignorar o tema não é mais uma opção.
O novo papel do conselho na era da IA
A inteligência artificial está reconfigurando o núcleo decisório das organizações. Não se trata mais de uma tecnologia de apoio, mas de um novo ator dentro da empresa, um ator que analisa, sugere, decide e, cada vez mais, age. Diante disso, o conselho de administração não pode mais se contentar com uma posição passiva ou meramente observadora.
O papel do conselho precisa evoluir. Se antes era suficiente aprovar orçamentos de TI e acompanhar indicadores de eficiência, agora é necessário compreender como os algoritmos estão moldando o comportamento da empresa. Isso exige uma governança proativa da IA, com envolvimento estratégico, supervisão ética e responsabilidade técnica.
O primeiro passo é aceitar que IA não é apenas uma questão operacional. Ela é, cada vez mais, uma questão de impacto e, portanto, de governança. A escolha de um modelo, a definição dos dados de treinamento, a ausência de supervisão humana e a falta de transparência nos outputs não são decisões neutras. São decisões com potenciais implicações regulatórias, sociais e reputacionais.
Isso significa que conselhos precisam revisar sua composição. A diversidade de habilidades deve incluir, também, competências tecnológicas e éticas. Conselheiros com background em ciência de dados, cibersegurança, regulação digital ou filosofia da tecnologia podem ser tão valiosos quanto especialistas financeiros ou jurídicos. Em alguns casos, será necessário criar comitês específicos de tecnologia e inovação, com foco em IA e seus riscos associados.
Mais do que isso, conselhos precisam criar estruturas de accountability. Quem responde por uma decisão automatizada? Como se garante que os sistemas da empresa não estão operando com vieses? De que forma é feita a validação dos modelos? Existe um processo de revisão? Os stakeholders podem questionar essas decisões?
As perguntas são muitas. Mas ignorá-las é negligenciar a função fiduciária do conselho. O desafio agora é transformar a curiosidade tecnológica em responsabilidade institucional. IA é fascinante, sim, mas mais do que isso, ela é um tema de governança.
Recomendações práticas aos conselhos
Se há um consenso emergente entre as grandes consultorias e centros de pesquisa em governança, é este: os conselhos precisam assumir protagonismo na supervisão da IA. Não basta delegar à TI ou ao jurídico. É responsabilidade fiduciária, estratégica e reputacional. Abaixo, uma agenda prática de ações que os conselhos podem, e devem, adotar imediatamente:
Essas recomendações não são exaustivas, mas formam uma base mínima para conselhos que desejam exercer seu papel com responsabilidade no século XXI. Ignorar essa agenda é, mais do que um risco: é uma falha de governança.
Conclusão
A inteligência artificial já não é mais promessa de futuro. Ela é presente e, cada vez mais, um espelho do que somos enquanto organizações, líderes e sociedade. E é esse espelho que os conselhos de administração precisam encarar com honestidade.
Não se trata de rejeitar a IA. Trata-se de assumi-la com consciência. De entendê-la não como um oráculo infalível, mas como uma ferramenta poderosa que exige limites, critérios e supervisão. Porque a verdadeira inovação não está em adotar o novo a qualquer custo, mas em fazê-lo com responsabilidade, propósito e alinhamento com os valores que se proclama.
A pergunta, portanto, já não é se a IA será regulada, monitorada e cobrada como parte da agenda ESG. A pergunta é: O seu conselho vai descobrir isso antes ou depois da próxima crise algorítmica?
Marcelo Murilo
é Co-Fundador e VP de Inovação e Tecnologia do Grupo Benner, Palestrante, Mentor, Conselheiro, Embaixador e membro do Senior Advisory Board do Instituto Capitalismo Consciente Brasil, Embaixador e Membro da Comissão ESG da Board Academy BR e Especialista do Gerson Lehrman Group e da Coleman Research – Fala sobre Inovação, Governança e ESG.
marcelo.murilo@benner.com.br