Utilizar peças de publicidade geradas por inteligência artificial cria resultados variáveis (westend61/Getty Images)
Plataforma de conteúdo
Publicado em 11 de novembro de 2025 às 15h00.
Por Ligia Godoy, Ivo Bedini Wernecke e Maria Carolina Vitorino Lopes*
A inteligência artificial (IA) transformou profundamente a lógica do marketing e da comunicação corporativa.
O que antes era um processo artesanal – baseado em campanhas padronizadas e decisões humanas – hoje é cada vez mais automatizado, dinâmico e orientado por dados.
Ferramentas de IA são capazes de redigir textos, criar imagens, prever padrões de consumo e até reajustar preços em tempo real, redefinindo a maneira como as marcas interagem com seus públicos.
Com a aproximação da Black Friday, período em que o volume de transações e o número de interações digitais cresce exponencialmente, a tendência é de intensificação do uso dessas tecnologias para ampliar alcance e conversão, com maiores benefícios aos fornecedores.
A promessa é clara: eficiência, personalização e escala. Contudo, o mesmo fator que torna a IA uma aliada estratégica pode torná-la um vetor de risco jurídico quando o conteúdo gerado se afasta dos parâmetros legais de clareza, veracidade e transparência.
Sistemas de IA generativa são treinados a partir de grandes bases de dados e, em alguns casos, com intervenção humana limitada.
Isso significa que a qualidade das informações publicitárias depende diretamente do treinamento do modelo, da precisão dos prompts e da etapa de validação. Quando essas etapas falham, as consequências podem ser significativas.
Essas situações não decorrem de má-fé, mas de falhas operacionais, automatizações excessivas e ausência de supervisão humana, atreladas à fluidez típica das vendas digitais.
A consequência, contudo, é objetiva: campanhas incorretas podem ensejar autuações, litígios e, principalmente, perda de credibilidade da marca em um momento de alta visibilidade.
O Código de Defesa do Consumidor (CDC) estabelece que toda informação publicitária deve ser clara, precisa, ostensiva e verdadeira (arts. 4º, caput e IV, 6º, III e IV, 31 e 36).
Mais do que isso, o art. 30 do CDC torna a publicidade vinculante: toda informação ou publicidade obriga o fornecedor que a veicular, ainda que tenha sido produzida por um sistema automatizado.
Ao atrelar o uso de IA às ofertas e ao material publicitário, o fornecedor pode incorrer em situações reprováveis pela perspectiva legal.
O uso de modelos gerados por IA que enganam quanto à realidade do produto, apresentando situações que não condizem com o produto real ou com o corpo real de modelos humanos, capazes de gerar expectativas irreais.
Vídeos ou imagens criados com IA nos quais simulam celebridades ou influenciadores endossando produtos ou serviços, sem que estes de fato o façam; e imagens, reviews e produtos que não existem, a fim de obter maior aprovação e aderência dos clientes são alguns exemplos.
Caso o consumidor seja induzido em erro, por exemplo, por um preço incorreto, uma imagem irreal ou uma promoção inexistente, poderá exigir o cumprimento forçado da oferta, a entrega de produto equivalente ou a rescisão contratual com restituição de valores e indenização (art. 35).
Isso significa que, mesmo que um anúncio tenha sido elaborado automaticamente por um sistema de IA, a responsabilidade jurídica continua sendo integralmente do fornecedor. Não há, portanto, a figura do “erro automatizado” como excludente de responsabilidade.
O dever de controle, validação e supervisão recai sobre a empresa. É ela quem deve garantir que o uso da IA se dê dentro de parâmetros de governança e conformidade, inclusive documentando suas etapas de verificação. O discurso de eficiência tecnológica não substitui o dever jurídico de diligência.
Publicidade gerada por IA que contenha informações total ou parcialmente falsas, imprecisas ou que possam induzir o consumidor a erro pode ser enquadrada como publicidade enganosa, nos termos do art. 37, §1º, do CDC.
Nessa hipótese, a empresa se sujeita às sanções administrativas previstas no CDC (art. 56), aplicáveis por órgãos de defesa do consumidor como a Secretaria Nacional do Consumidor (Senacon) e os Procons.
Há ainda o risco de ação civil pública promovida por entidades de defesa do consumidor ou pelo Ministério Público, especialmente em situações de ampla repercussão.
É importante lembrar que campanhas de Black Friday têm alto alcance e são frequentemente objeto de monitoramento pelas autoridades, o que aumenta a exposição a fiscalizações e a medidas coercitivas.
No contexto digital, esses riscos se amplificam. Um erro de preço ou de imagem se propaga em minutos pelas redes sociais, convertendo-se em crise de reputação e litígios em escala.
A questão, portanto, é tanto jurídica quanto estratégica: a falha informacional deixa de ser apenas um incidente de marketing e passa a ser um problema de governança corporativa.
Diante desse cenário, empresas que utilizam IA em campanhas publicitárias devem implementar estruturas robustas de governança e compliance digital, ancoradas em três eixos principais: processos, pessoas e rastreabilidade.
Manter estrutura prática capaz de equilibrar eficiência operacional e segurança jurídica, especialmente em volumes massivos de atendimento, é essencial.
Nesse contexto, ganha destaque o papel das centrais de atendimento ao consumidor, por meio dos quais os fornecedores podem monitorar a percepção dos clientes sobre as promoções automatizadas por inteligência artificial durante Black Friday e, assim, apurar eventuais incompreensões e erros, a fim de saná-los de forma célere, antes de haver maior escalonamento e repercussão.
Adicionalmente, recomenda-se que as empresas revisem suas políticas internas de publicidade automatizada, integrando-as a programas mais amplos de governança de IA, privacidade de dados e ESG, de modo a reforçar a cultura de responsabilidade tecnológica.
Essas práticas demonstram maturidade institucional e reduzem significativamente o risco de responsabilização civil/consumerista e administrativa.
A publicidade automatizada por inteligência artificial é, sem dúvida, um dos marcos da transformação digital no consumo. Mas sua adoção requer mais do que entusiasmo tecnológico – exige maturidade regulatória, controle interno e responsabilidade empresarial.
Delegar à IA a criação de campanhas publicitárias não significa abdicar da responsabilidade jurídica; ao contrário, implica ampliar o dever de diligência e supervisão.
O fornecedor deve se preparar para lidar com os desafios de transparência, rastreabilidade e verificação contínua das informações publicadas.
Na era da hiperpersonalização, em que cada clique gera uma oportunidade e cada erro repercute em segundos, a combinação entre inovação e conformidade legal é o verdadeiro diferencial competitivo.
Empresas que souberem aliar tecnologia, governança e compliance não apenas reduzirão riscos, mas também consolidarão sua imagem como players responsáveis e confiáveis – atributos cada vez mais valorizados por consumidores, reguladores e investidores.
*Ligia Godoy é sócia e Ivo Bedini Wernecke e Maria Carolina Vitorino Lopes são advogados do Mattos Filho.