Inteligência Artificial

IA NO COMANDO: O MERCADO DE CAPITAIS AINDA PRECISA DE HUMANOS?

Eles não têm MBA, nem tomam café. Mas já decidem para onde o seu dinheiro vai. A inteligência artificial assumiu o comando no mercado de capitais. E se ela performa melhor que humanos, quem ainda merece sentar-se à mesa? Talvez você pense que o futuro é sobre tecnologia - mas é, mesmo, sobre poder!

Imagine um comitê de investimento onde nenhum dos membros tem carteira assinada, histórico em Harvard ou perfil no LinkedIn. Eles também não pedem aumento, não fazem pausas para o café e, definitivamente, não dormem. São modelos de inteligência artificial operando com autonomia, acessando milhões de dados em tempo real e tomando decisões de compra e venda com uma precisão que envergonha muitos gestores veteranos.

Estamos vivendo uma mudança de paradigma silenciosa, mas profunda, no mercado de capitais. A IA não é mais uma assistente que sugere insights – ela já senta na cabeceira da mesa, guiando decisões, reequilibrando portfólios e influenciando estratégias de longo prazo. Fundos quantitativos, plataformas autônomas de trading e algoritmos de análise de risco são apenas a superfície de uma tendência que se acelera: a substituição da intuição humana pela precisão estatística.

O mercado celebra os resultados. Afinal, o que importa é retorno. Mas por trás dos números brilhantes, surge uma pergunta incômoda e cada vez mais urgente: Se os algoritmos performam melhor, mais rápido e com menos viés, ainda faz sentido termos humanos decidindo onde alocar capital?

O avanço silencioso: IA já está no comando
A presença da inteligência artificial nas decisões de investimento deixou de ser um experimento e se tornou uma disrupção estrutural. Fundos como o Renaissance Technologies, Bridgewater Associates, D.E. Shaw e Two Sigma operam com modelos proprietários que processam volumes absurdos de dados – do preço do barril de petróleo às menções em redes sociais sobre determinado ativo – e tomam decisões em frações de segundo. O diferencial não está apenas na velocidade, mas na amplitude de variáveis e na capacidade de adaptação contínua.

Um estudo recente da PwC mostra que mais de 60% das gestoras globais já utilizam algum nível de automação inteligente para decisões de investimento. A adoção cresce também entre os grandes bancos, que passaram a substituir departamentos inteiros de análise por squads de data scientists, especialistas em IA e engenheiros de dados. No Brasil, a expansão segue com fundos como Giant Steps, que utiliza modelos estatísticos e algoritmos evolutivos para operar carteiras multimercado com resultados consistentes.

Além do ganho operacional, há uma vantagem competitiva clara: algoritmos não sofrem com cansaço, ansiedade, viés de confirmação ou pressão política. Eles otimizam, ajustam e aprendem. E fazem isso em tempo real. O que antes era uma prerrogativa dos grandes fundos quantitativos agora se dissemina em fintechs, plataformas de trading automatizado e até produtos de varejo com IA embarcada para rebalanceamento automático de portfólios.

Estamos diante de uma “uberização” da inteligência financeira, onde o modelo estatístico tem mais peso que a reputação do gestor. Isso muda radicalmente a lógica de valor no mercado de capitais. Se a performance vem do código, o que fazer com o capital humano?

IA como conselheira de investimentos... e de administração?
A atuação da IA não se restringe ao trading. Cada vez mais, ela participa das decisões de alto nível, inclusive em ambientes que antes exigiam forte carga política, experiência humana e repertório institucional. Estamos falando dos conselhos de administração, comitês de investimento e áreas de estratégia corporativa.

Empresas como BlackRock e Vanguard vêm testando soluções baseadas em IA para mapear riscos ESG, identificar fragilidades reputacionais e recomendar caminhos estratégicos com base em cenários simulados. A IA pode cruzar relatórios financeiros, dados climáticos, histórico regulatório e tendências sociais para sugerir, por exemplo, o impacto de uma aquisição sob diferentes perspectivas: financeira, ambiental e reputacional.

Mais do que ferramenta, a IA passa a ser agente de decisão. Sua entrada nos conselhos ocorre de forma disfarçada, como dashboards preditivos, relatórios dinâmicos e simulações estratégicas que moldam a percepção dos decisores. Na prática, ela está moldando os rumos das companhias, mesmo sem direito a voto.

Essa lógica se estende para conselhos fiscais e comitês de auditoria. Algoritmos de IA já são usados para detectar fraudes contábeis com altíssimo grau de acurácia, muitas vezes antes que os humanos sequer desconfiem. A lógica do “auditor invisível” é irresistível para quem busca eficiência e compliance.

Mas a pergunta que fica é: se os sistemas sugerem tudo, analisam tudo e validam tudo... para que servem os humanos no processo?

Os riscos do apagão humano
Com a delegação crescente à IA, corremos o risco de eliminar justamente o que torna a gestão estratégica: a consciência crítica. Modelos de deep learning operam como caixas-pretas, com níveis de complexidade que impedem até mesmo seus criadores de explicarem suas decisões. Isso gera uma assimetria perigosa entre resultado e responsabilidade.

O chamado “Flash Crash” de 6 de maio de 2010 é um exemplo emblemático dos riscos envolvidos na automação excessiva do mercado financeiro. A queda abrupta de quase 1.000 pontos no índice Dow Jones – cerca de 9% – em poucos minutos eliminou temporariamente mais de US$ 1 trilhão em valor de mercado. A origem do evento remonta à ordem de venda massiva de contratos futuros do índice S&P 500 executada por um operador humano com base em critérios automatizados. Isso desencadeou uma cascata de reações entre algoritmos de alta frequência, que amplificaram o movimento com base em padrões de volume e liquidez. Foi a combinação entre ação humana e resposta algorítmica descontrolada que levou o sistema a um colapso momentâneo – e evidenciou o risco real de mercados operando em modo automático, sem freio manual.

Esse tipo de situação levanta uma questão ética central: é aceitável terceirizar decisões críticas a entidades que não compreendemos? E se sim, como responsabilizar alguém por um erro que ninguém entende?

A regulamentação começa a reagir, mas está em desvantagem. A proposta da União Europeia para IA em finanças exige interpretabilidade dos modelos, o que na prática inviabiliza muitos dos algoritmos mais poderosos. A SEC, por sua vez, estuda impor limites ao uso de IA generativa em plataformas de investimentos voltadas ao varejo.

Sem transparência, não há governança. E sem governança, o mercado de capitais vira uma roleta. Automatizada, sim. Mas ainda uma roleta.

E os humanos, onde ficam?
No novo paradigma, os humanos não desaparecem — mas mudam de função. Em vez de serem os executores das decisões, tornam-se os intérpretes do sistema, os curadores do processo e os vigilantes da ética. É um papel menos glamouroso, mas essencial.

O gestor do futuro não será o oráculo com a melhor aposta. Será o profissional capaz de formular as melhores perguntas, contextualizar os outputs dos modelos e garantir que as decisões estejam alinhadas a um propósito que vá além do ROI.

Isso exige um novo tipo de formação. O Chartered Financial Analyst - CFA técnico, obcecado por valuation, dá lugar ao analista híbrido: alguém que entenda estatística, filosofia moral, psicologia comportamental e geopolítica. Alguém que entenda que decisões financeiras não são apenas sobre números, mas sobre impactos.

Essa transição é especialmente sensível nos conselhos. Conselheiros que ignoram ou temem a IA correm o risco de se tornarem irrelevantes. Aqueles que entendem seu potencial e seus limites poderão usá-la como aliada para decisões mais lúcidas, rápidas e baseadas em evidência.

A convivência entre homem e máquina será o grande diferencial competitivo. Mas, como toda boa convivência, exigirá respeito mútuo — e limites claros.

Conclusão
Se os algoritmos são mais racionais, mais rápidos e mais rentáveis, talvez já tenham vencido o debate técnico. Mas isso não encerra a discussão — apenas a desloca. O que está em jogo não é a eficiência da máquina, mas o papel do humano em um sistema que já não precisa dele para gerar resultado.

No mundo dos dados perfeitos, sobra pouco espaço para a dúvida, para o conflito e para a moral. Mas são justamente essas imperfeições humanas que, historicamente, protegeram o capital dos delírios da eficiência absoluta. Quando se remove o ser humano do processo, o que se perde junto com ele?

A responsabilidade, a ética, o discernimento. A capacidade de dizer “não” a uma decisão que parece tecnicamente correta, mas moralmente inaceitável. O algoritmo não teme um colapso sistêmico — ele o calcula. É o ser humano quem o evita.

Talvez a pergunta certa não seja se ainda precisamos de humanos no mercado de capitais. Talvez seja: o que acontece com o mercado de capitais quando ele já não precisa mais de nós?

Se os algoritmos vencerem, não será porque são mais inteligentes — mas porque os humanos se esqueceram do seu papel.

Marcelo Murilo
é Co-Fundador e VP de Inovação e Tecnologia do Grupo Benner, Palestrante, Mentor, Conselheiro, Embaixador e membro do Senior Advisory Board do Instituto Capitalismo Consciente Brasil, Embaixador e Membro da Comissão ESG da Board Academy BR e Especialista do Gerson Lehrman Group e da Coleman Research – Fala sobre Inovação, Governança e ESG.
marcelo.murilo@benner.com.br


Continua...