A IA não pode ser totalmente confiável — mas ainda precisa da sua confiança

Views: 302
0 0
Read Time:5 Minute, 22 Second

Por Chris Harris | Associate VP, Sales Engineering da Thales

É impossível ignorar o impacto transformador da Inteligência Artificial Generativa (GenAI) nas operações das empresas. De interações personalizadas com clientes à geração acelerada de conteúdo e automações mais inteligentes, a GenAI está remodelando a forma como os negócios operam e competem.

No entanto, por trás do entusiasmo, existe um paradoxo complexo e urgente. O Thales 2025 Data Threat Report revelou que, embora 69% das empresas reconheçam que a velocidade vertiginosa da evolução da GenAI é sua maior ameaça, muitas ainda tratam a segurança dos dados e a confiabilidade como questões secundárias.

O paradoxo da confiança na IA

A GenAI depende de dados: ela aprende com eles. Não se trata apenas de gerar respostas — ela influencia decisões, sistemas e pessoas. Quando os modelos que impulsionam essa revolução estão vulneráveis a vieses, roubo ou manipulação, os riscos não são apenas técnicos. Eles ameaçam a integridade, a confiança e a reputação das empresas.

De forma surpreendente, o Thales 2025 Consumer Digital Trust Index mostrou que entre 32% e 33% dos consumidores afirmam confiar mais em marcas que utilizam IA ou GenAI. Eles acreditam que essas ferramentas trazem mais personalização e segurança, tornando as interações mais eficientes. O uso responsável da IA pode, portanto, fortalecer relacionamentos duradouros com os clientes.

Estamos adotando a IA rápido demais?

As empresas sabem disso. Segundo o Data Threat Report 2025, quase três quartos (73%) estão investindo em ferramentas de segurança para proteger suas iniciativas em IA. Mas é evidente que muitas ainda não entenderam completamente a complexidade de suas arquiteturas de GenAI ou as implicações de integrar esses sistemas em plataformas SaaS em larga escala.

IA costuma ser descrita como uma “caixa-preta” — mas o que acontece quando essa caixa-preta se torna um ponto cego?

Hoje, os CISOs são chamados a aprovar e supervisionar sistemas movidos por IA que tomam decisões com impactos reais nos negócios. Mas surge o dilema: como confiar nesses sistemas se não há confiança nos dados que os alimentam?

Essa não é uma questão teórica. Modelos de GenAI estão suscetíveis a:

  • Vieses e problemas de justiça — pois aprendem com padrões históricos, que podem refletir preconceitos do passado;
  • Roubo de modelo — em que agentes maliciosos extraem arquitetura ou parâmetros para replicar ou corromper os sistemas;
  • Entradas adversárias — pequenas alterações em prompts ou dados que enganam o modelo, gerando saídas falsas ou perigosas;
  • Manipulação de saída — como deepfakes e conteúdo sintético usado para fraude, desinformação ou danos à reputação.

Cada um desses riscos ameaça diretamente os princípios de confidencialidade, confiabilidade e integridade. E exige uma abordagem mais estratégica e disciplinada quanto aos dados.

A pergunta central do relatório da Thales é: as empresas estão realmente preparadas para adotar IA em larga escala ou estão apenas correndo atrás da inovação, negligenciando a segurança?

Vigilância contínua dos dados é essencial na era da IA

Com a adoção acelerada da GenAI, qualidade e segurança de dados tornaram-se prioridades críticas. Dados poluídos levam a decisões erradas — com consequências graves para os negócios. Os CISOs precisam se perguntar se estão promovendo inovação ou abrindo uma Caixa de Pandora.

Um bom exemplo é o retrieval-augmented generation (RAG). Esse recurso insere dados corporativos no contexto dos modelos. Mas, se ignorar regras de classificação ou incluir dados sensíveis, torna-se um risco. Do mesmo modo, se modelos públicos forem treinados com dados proprietários ou confidenciais, há chances de violação de propriedade intelectual, problemas de conformidade e perda de confiança.

A nova fronteira da segurança é fluida, dinâmica e centrada em dados. E apesar dos avanços, o relatório mostra que eles ainda são lentos.

Em 2021, 36% dos entrevistados disseram não conseguir localizar seus dados com confiança. Em 2025, esse número caiu — mas apenas para 24%. A classificação de dados se mantém estável: entre 80% e 85% afirmam conseguir classificar ao menos metade das informações. Ainda assim, isso deixa um volume significativo de dados circulando sem controle.

A boa notícia: mais empresas estão criptografando seus dados sensíveis na nuvem. Em 2021, apenas 46% disseram criptografar 40% ou mais dessas informações. Em 2025, esse número saltou para 68%. Um avanço relevante — mas criptografia sem visibilidade é como trancar portas numa casa sem mapa.

Por que essa desconexão? Fragmentação. Quase dois terços das empresas usam cinco ou mais ferramentas para descoberta ou classificação de dados. Mais da metade usa cinco ou mais soluções diferentes para gestão de chaves de criptografia. Esse emaranhado leva à duplicação de regras, proteções inconsistentes e silos que enfraquecem a estratégia de segurança como um todo.

Em resumo: não se pode proteger o que não se encontra — nem confiar no que não está protegido.

O que precisa mudar?

Para usar o potencial da GenAI com segurança, é necessário antecipar a segurança, movê-la para a fase inicial dos projetos. Isso significa:

  • Reforçar a classificação e a rastreabilidade dos dados — saiba onde seus dados estão, de onde vieram e como estão sendo usados;
  • Consolidar e racionalizar as ferramentas de segurança — a fragmentação aumenta os riscos. Prefira plataformas que unifiquem visibilidade e controle;
  • Aplicar criptografia de forma consistente — proteja os dados em todos os ambientes, não só os “sensíveis”, com gestão centralizada de chaves;
  • Criar limites claros para o uso da IA — evite envenenamento dos modelos, alucinações ou uso indevido com controles baseados em funções e validação de prompts;
  • Construir confiança desde o início — transparência e auditabilidade devem estar integradas à arquitetura da IA desde o projeto.

Confiança não é consequência — é o ponto de partida

A GenAI é poderosa demais, onipresente demais e tem impactos profundos demais para ser implementada sem limites claros. Embora o ritmo da inovação impressione, os CISOs precisam ser a voz da prudência e da visão estratégica.

A boa notícia? A maioria das organizações já começou a investir em segurança voltada para IA. Melhor ainda: agora temos visibilidade para agir.

Mas a pergunta permanece: vamos tratar a confiança como uma prioridade estratégica — ou apenas como nota de rodapé na corrida pela inovação?

O Thales 2025 Data Threat Report aprofunda essas questões e traz insights práticos e dados alarmantes para os CISOs que estão navegando esse novo cenário. Se sua empresa leva a sério a segurança da IA, esse é um relatório que você não pode deixar de ler.

Esse artigo tem informações retiradas do blog da Thales. A Neotel é parceira da Thales e, para mais informações sobre as soluções e serviços da empresa, entre em contato com a gente.

POSTS RELACIONADOS