Thales apresenta o Imperva AI Application Security

Views: 252
0 0
Read Time:5 Minute, 52 Second

Por Michael Wright, Sr. Product Marketing Manager, Cybersecurity & Digital Identity da Thales

A inteligência artificial transformou de forma fundamental o cenário de ameaças.

Hoje, 67% das organizações em todo o mundo estão adotando ou desenvolvendo internamente LLMs e aplicações de GenAI. Quase 70% dos respondentes do Thales 2025 Data Threat Report consideram esse ecossistema em rápida evolução como o risco de segurança em GenAI mais preocupante. De acordo com o Imperva Bad Bot Report 2025, o tráfego automatizado já representa 51% de toda a atividade na web.

Até agora, porém, a forma como protegemos as aplicações praticamente não mudou. Ainda dependemos de ferramentas tradicionais que não conseguem combater ameaças e vulnerabilidades específicas de IA. É por isso que a Thales desenvolveu o Imperva AI Application Security.

Por que as organizações precisam do Imperva AI Application Security?

Os LLMs introduzem vulnerabilidades únicas nos ambientes de aplicações corporativas. Ferramentas tradicionais de segurança, como WAFs, proteção de endpoint e segurança de rede, simplesmente não conseguem compreender nem se defender contra ameaças específicas da lógica e da interface de um LLM. Veja por quê.

Ameaças baseadas em lógica

A segurança tradicional se concentra em bloquear códigos maliciosos conhecidos ou anomalias de rede. Já as ameaças a LLMs costumam explorar a funcionalidade pretendida do próprio modelo — também chamada de lógica — para executar ações maliciosas. Isso torna essas ameaças muito mais difíceis de detectar.

Muitas delas aparecem no OWASP Top 10 para LLMs. Por exemplo:

Injeção de prompt: essa ameaça envolve o uso de um prompt cuidadosamente elaborado para manipular um LLM a agir de forma indevida, como ignorar instruções do sistema, revelar dados internos ou executar outras ações não intencionais. Como se trata de uma entrada em linguagem natural, filtros tradicionais geralmente a tratam como inofensiva.

Vazamento de dados sensíveis: os LLMs são treinados e processam grandes volumes de dados, incluindo informações potencialmente sensíveis de usuários ou dados proprietários das empresas. Um invasor pode usar injeção de prompt ou explorar uma falha na aplicação para induzir o modelo a expor essas informações confidenciais.

Vazamento de prompts de sistema: os prompts de sistema são as instruções centrais e a lógica operacional de um LLM. Eles são proprietários e críticos para o funcionamento do modelo. Se um atacante conseguir acesso a esses prompts, poderá usá-los para explorar ainda mais o sistema ou contornar suas defesas.

Lacunas críticas na pilha de segurança

Firewalls de aplicações web tradicionais são eficientes para bloquear entradas maliciosas, como SQL injection ou cross-site scripting. No entanto, eles não têm o contexto nem a lógica necessários para analisar a saída de um LLM.

Como resultado, essas ferramentas tradicionais, sozinhas, não conseguem determinar se a saída de um LLM é prejudicial, insegura, fora de conformidade ou se expõe dados sensíveis. Isso deixa a organização vulnerável a um tratamento inadequado de saídas.

Além disso, como os LLMs são intensivos em computação, atacantes podem sobrecarregá-los com consultas que consomem muitos recursos — o chamado Unbounded Consumption. Isso pode causar lentidão, problemas de negação de serviço (DoS) ou custos operacionais extremamente elevados. O simples rate limiting é a única defesa que as ferramentas tradicionais oferecem contra esse tipo de ataque, e isso é insuficiente.

Em resumo, riscos específicos de IA exigem mitigações específicas de IA. É exatamente isso que o Imperva AI Application Security oferece.

O que é o Imperva AI Application Security?

O Imperva AI Application Security é uma solução de segurança de nível corporativo projetada especificamente para proteger aplicações de GenAI e LLMs. Ela fornece proteção em tempo de execução, posicionando-se entre as aplicações corporativas e os LLMs nos quais elas operam.

Pense no Imperva AI Application Security como um escudo inteligente. Um escudo que analisa cada entrada e saída em tempo real para detectar e bloquear atividades maliciosas. Que protege os comportamentos e resultados únicos das aplicações de GenAI — tudo isso sem impactar o desempenho das aplicações.

Entre os principais recursos estão:

  • Defesa contra injeção de prompt: bloqueia prompts maliciosos ou manipuladores antes que cheguem ao modelo.
  • Proteção de dados sensíveis: detecta e bloqueia a exposição de informações sensíveis ou proprietárias, incluindo dados pessoais (PII), dados financeiros e chaves de API.
  • Prevenção de vazamento de prompts de sistema: impede que atacantes acessem instruções internas ou a lógica operacional.
  • Tratamento inadequado de saídas: filtra saídas de IA prejudiciais, inseguras ou fora de conformidade antes que cheguem aos usuários finais.
  • Mitigação de consumo ilimitado: previne tarefas abusivas ou excessivamente pesadas que poderiam causar lentidão, indisponibilidade ou custos operacionais elevados.

A solução é flexível e independente de ambiente, permitindo implantação e integração perfeitas com a infraestrutura existente. No fim das contas, ela oferece um nível de proteção que as ferramentas tradicionais não conseguem alcançar.

O Imperva AI Application Security substitui as ferramentas tradicionais de segurança?

Não. WAFs, proteção de endpoint e ferramentas de segurança de rede continuam sendo essenciais. O Imperva AI Application Security resolve um problema muito específico: a lacuna crítica na interface de IA das aplicações, onde ferramentas legadas não conseguem detectar ou prevenir ameaças. Ele permite que as organizações:

  • Implantem aplicações baseadas em IA com confiança, protegendo usuários e operações contra riscos específicos de IA.
  • Evitem incidentes custosos e prejudiciais à reputação, bloqueando injeção de prompt, vazamento de dados e manipulação de modelos antes que afetem o negócio.
  • Acelerem a inovação mantendo a conformidade, viabilizando a adoção segura de IA em escala sem interromper fluxos de trabalho ou obrigações regulatórias.
  • Foquem no crescimento do negócio, garantindo que ameaças exclusivas de LLMs sejam gerenciadas para que as equipes possam inovar e expandir sem preocupações adicionais de segurança.

Como o Imperva AI Application Security se encaixa na visão de segurança da Thales?

O Imperva AI Application Security é um componente-chave da visão mais ampla de segurança da Thales. Ele faz parte do conjunto de soluções de proteção de IA em tempo de execução da Thales, conhecido como Thales AI Security Fabric, que também inclui proteção de dados para RAG e outras capacidades que serão lançadas em 2026.

A Thales está posicionada de forma única para proteger todo o ciclo de vida do GenAI, assegurando cada camada dos sistemas de IA — dos usuários às aplicações, das aplicações aos LLMs e aos repositórios de dados subjacentes.

Com o Thales AI Security Fabric, as organizações poderão:

  • Habilitar a IA para o crescimento dos negócios, maximizando seu valor e permitindo inovação sem riscos adicionais de segurança.
  • Evitar incidentes custosos e danos à reputação, reduzindo riscos de injeção de prompt, vazamento de dados e manipulação de modelos.
  • Acelerar a inovação mantendo a conformidade, permitindo que IA agêntica e GenAI acessem conjuntos de dados enquanto dados sensíveis e regulados permanecem protegidos.

A oferta Imperva AI Application Security da Thales estará disponível de forma geral em meados de 2026. Até lá, considere firmar uma parceria conosco nessa jornada ou explorar outros aspectos da segurança de aplicações de classe mundial da Imperva.

Esse artigo tem informações retiradas do blog da Thales. A Neotel é parceira da Thales e, para mais informações sobre as soluções e serviços da empresa, entre em contato com a gente.

POSTS RELACIONADOS