*Por Ricardo Maravalhas

O ano de 2026 se consolida como um ponto de virada na economia digital global. Depois de um ciclo marcado pela rápida adoção da inteligência artificial, especialmente de modelos generativos, o mundo começa a lidar com as consequências de um uso acelerado, muitas vezes sem governança adequada. 

O debate internacional deixa de ser apenas tecnológico e passa a ser econômico, jurídico e social. Para empresas brasileiras, esse cenário traz implicações diretas sobre a Lei Geral de Proteção de Dados (LGPD), que exige uma postura muito mais atenta por parte dos gestores.

Relatórios internacionais indicam que a inteligência artificial passou a ser incorporada aos processos decisórios sensíveis, como seleção de pessoas, concessão de crédito, definição de preços, segmentação de consumidores e monitoramento comportamental. 

A Organização para a Cooperação e Desenvolvimento Econômico (OCDE)  alerta que grande parte desses sistemas depende do tratamento massivo de dados pessoais, frequentemente sem transparência suficiente sobre origem, finalidade ou base legal.

Esse descompasso entre inovação e governança amplia riscos de discriminação algorítmica, uso excessivo de dados e violações de direitos fundamentais.

“A LGPD impõe limites claros ao uso de dados pessoais em decisões automatizadas, especialmente quando afetam direitos dos titulares. Ignorar esses limites não é inovação, é exposição ao risco”, explica Ricardo Maravalhas

Na Europa, a resposta regulatória já está em curso. O avanço do AI Act europeu sinaliza uma tendência clara de classificação de sistemas de inteligência artificial conforme o nível de risco que representam à sociedade. 

Aplicações consideradas de alto risco passam a exigir avaliações de impacto, documentação robusta, mecanismos de aplicabilidade e controles mais rígidos sobre o uso de dados. 

Embora o Brasil ainda esteja estruturando sua regulação específica de IA, a LGPD já oferece um arcabouço suficiente para enquadrar grande parte dessas obrigações, especialmente no que diz respeito à transparência, à necessidade e à responsabilização. 

Estudos globais reforçam que a proteção de dados não é inimiga da inovação. Pesquisa publicada em 2025, no Journal of International Business Studies, analisou o impacto de leis de privacidade, como o GDPR europeu, sobre a inovação em inteligência artificial. 

O estudo conclui que ambientes regulatórios mais claros tendem a favorecer uma inovação mais sustentável, reduzindo incertezas jurídicas e evitando retrocessos causados por abusos no uso de dados. Em outras palavras, a ausência de regras não acelera o progresso, apenas transfere riscos para o futuro. 

Do ponto de vista econômico, organismos internacionais também destacam que empresas que adotam práticas responsáveis no uso de IA demonstram maior resiliência em cenários de crise. 

Relatórios da OCDE sobre governança de dados e inteligência artificial mostram que falhas em sistemas automatizados geram custos ocultos relevantes, como retrabalho tecnológico, judicialização de decisões, exclusão de bases de dados comprometidas por vieses e perda de confiança de consumidores. 

Em mercados cada vez mais competitivos, esses fatores podem comprometer seriamente a sustentabilidade dos negócios. 

Para gestores brasileiros, o recado é inequívoco. A inteligência artificial não pode ser tratada como uma solução puramente técnica delegada à área de tecnologia. 

Trata-se de uma decisão estratégica que envolve jurídico, compliance, liderança executiva e governança corporativa. 

A LGPD impõe limites claros ao uso de dados pessoais em decisões automatizadas, especialmente quando afetam direitos dos titulares. Ignorar esses limites não é inovação, é exposição ao risco.

Já os relatórios internacionais sobre governança pública e corporativa da IA reforçam que organizações mais maduras são aquelas que incorporam proteção de dados desde a concepção de seus projetos tecnológicos. 

Avaliações de impacto à proteção de dados, políticas de transparência algorítmica e mecanismos de explicação das decisões deixam de ser exigências formais e passam a funcionar como instrumentos reais de gestão de risco e reputação.

Em 2026, a linha que separa inovação de imprudência ficará ainda mais visível. Empresas que compreenderem esse movimento tendem a ganhar confiança, estabilidade e competitividade. 

As que insistirem em atalhos tecnológicos, sem governança e sem ética no uso de dados, enfrentarão um ambiente regulatório mais rigoroso, consumidores mais atentos e um custo crescente de erros evitáveis. 

Para os gestores atentos, a LGPD deixa de ser um obstáculo e se consolida como aliada na construção de uma estratégia sólida de uso da inteligência artificial.

Ricardo Maravalhas é fundador e CEO da DPOnet, empresa com mais de 5.000 clientes, que nasceu com o propósito de democratizar, automatizar e simplificar a jornada de conformidade com a LGPD (Lei Geral de Proteção de Dados) por meio de uma plataforma SaaS completa de Gestão de Privacidade, Segurança e Governança de Dados, com serviço de DPO embarcado, atendimento de titulares, que utiliza o conceito de Business Process Outsourcing (BPO) e IA integrada (DPO Artificial Intelligence)

Compartilhar matéria no
Gestão de Dados em 2026: o desafio de conciliar a inovação da IA com o rigor da LGPD em um cenário global de incertezas