< Back
cyberthreat news

Tags:

18 Setembro 2025

A IA está a facilitar a vida dos atacantes. Sabe porquê? E como podem os CISO defender-se?

Os cibercriminosos são pioneiros entusiastas no uso de ferramentas de IA. Numa edição do podcast Thales Security Sessions, três especialistas em cibersegurança debateram as melhores contramedidas...

Os cibercriminosos são pioneiros entusiastas no uso de ferramentas de IA. Numa edição do podcast Thales Security Sessions, três especialistas em cibersegurança debateram as melhores contramedidas...

Reid Hoffman, cofundador do LinkedIn, descreve a IA como um novo tipo de superpoder. Hoffman afirma: «Um carro dá-lhe superpoderes de mobilidade.  Um telefone dá-lhe superpoderes de conectividade e informação. A IA dá-lhe superpoderes para todo o mundo da informação, navegação e tomada de decisões».

Infelizmente, esses superpoderes estão ao alcance de todos, incluindo os cibercriminosos. Na verdade, os atacantes já estão a utilizar ferramentas de IA para melhorar os esquemas existentes e inventar novos. Um estudo revelou que os esquemas baseados em IA aumentaram 456% entre maio de 2024 e abril de 2025, em comparação com o mesmo período de 2023/2024.

Então, como está a IA está a mudar a natureza do cibercrime?

Para Nadav Avital, Senior Director of Threat Research na Imperva (uma empresa da Thales), talvez o fator novo mais importante seja a forma como a IA amplia o acesso às ferramentas, permitindo que invasores sem conhecimentos técnicos cometam mais crimes.

Avital afirma: «A IA está a permitir o acesso ao cibercrime a atacantes inexperientes, sobrecarregando os defensores com muito mais ataques para enfrentar». Avital dá alguns exemplos destas novas capacidades:

    Criação de conteúdo de melhor qualidade. Os criminosos podem usar ferramentas de IA para aceder a conhecimentos específicos e redigir e-mails e mensagens de texto de phishing mais convincentes.

    Mapeamento de sistemas-alvo. Os atacantes podem usar a IA para sondar um sistema-alvo e, de seguida, encontrar e explorar vulnerabilidades. Este processo, que habitalmente era manual, tornou-se automatizado.

    Descoberta de vulnerabilidades zero-day. A Google utilizou recentemente a IA para descobrir uma vulnerabilidade zero-day oculta no motor de base de dados SQLite. Parece inevitável que os atacantes copiem esta tática.

Obviamente, uma forma de abordar o problema do conteúdo e das falsificações é melhorar a educação dos consumidores. Mas esta é apenas a dimensão pública. Para os especialistas em cibersegurança, a questão mais profunda é como proteger os próprios sistemas de IA contra ataques de agentes hostis.

Tal exige uma nova abordagem, diferente da proteção contra vírus ou malware. De acordo com Asad Ali, diretor de tecnologia da Thales, a defesa começa com a definição das quatro fases principais dos ataques à IA.

    A fase de recolha de dados. Refere-se ao possível envenenamento dos dados quando são recolhidos (dentro ou fora da organização).

    A fase de treino do modelo. Nesta etapa, os atacantes podem modificar o comportamento do modelo para afetar os seus resultados. 

    A fase de implementação. Uma vez criado o modelo, normalmente é implementado num servidor ou numa aplicação. Agora está «à vista» e vulnerável a roubo.

    A etapa de influência. É aqui que os utilizadores entram em cena. Se o modelo estiver contaminado, os resultados serão corrompidos e poderão ser prejudiciais para a segurança da empresa.

É claro que a utilidade da IA tem dois lados. Os CISO estão a aprender a utilizar ferramentas de IA para detetar ameaças, aliviar a carga de trabalho e ajudar o pessoal não técnico a juntar-se à defesa. Avital afirma: «A IA pode reduzir a quantidade alertas e falsos positivos, filtrando o ruído. Permite que pessoas menos qualificadas utilizem a linguagem natural para aprofundar questões complexas de segurança».

Outra dimensão importante da ameaça da IA é a forma como distribui dados e modelos entre vários locais. Em algumas implementações, os dados podem estar a ser executados na cloud privada de um cliente. Noutras, o modelo pode estar na periferia, a ser executado localmente num veículo autónomo ou mesmo num PC. Em todos os exemplos, o proprietário do modelo não tem controlo sobre os dados.

Michael «MiZu» Zunke, VP and CTO of Software Monetization na Thales, explica o desafio: «Nesses cenários, a superfície de ataque é a interface do serviço», afirma. «Um criminoso pode desmontá-la o quanto quiser, porque é o proprietário da máquina... Portanto, isso vai além da simples segurança do modelo. O que é necessário é proteção contra engenharia reversa, contra a análise e a modificação da aplicação.»

Um método de defesa fundamental neste caso é a gestão de identidades e acessos. Isto significa implementar sistemas que perguntem: tem permissão para aceder aos dados e utilizar o modelo?

A Thales tem uma vasta experiência nesta área e agora está a aplicar os seus conhecimentos no campo da IA. Está a explorar como proteger as implementações de RAG (Retrieval-Augmented Generation) e também está a dedicar-se à descoberta de dados, classificação e encriptação com capacidade de pesquisa.

Asad Ali, diretor de Tecnologia e Inovação da Thales, resume o desafio da seguinte forma: «No lado do servidor, tem-se controlo total: é possível estabelecer restrições físicas sobre quem pode aceder ao ambiente periférico. Mas quando o modelo em si está no periférico, essas restrições desaparecem. Como saber se está protegido? Qualquer pessoa com um dispositivo pode manipular o modelo».

Outro desafio em matéria de gestão de identidades e acessos surge da utilização de agentes de IA. Por outras palavras, dos bots que agem em nome de alguém. Mais adiante, há a questão da encriptação transparente que levanta a utilização de GPU de IA.

Ali afirma: «A encriptação transparente é um produto em que encriptamos tudo o que toca a camada IO de um sistema operativo, e essa camada IO é gerida através das CPU. Mas os modelos de IA utilizam GPU. Se a GPU pode aceder diretamente à camada IO, então temos de alterar os nossos modelos ou implementações. Estamos a investigar ativamente esta questão, embora por enquanto não seja algo comum».

Em última análise, os especialistas em cibersegurança esperam que as organizações protejam os seus sistemas com um novo tipo de firewall dedicado à IA. Tal como um firewall tradicional, atuará como guardião e aplicará políticas de segurança, mas adaptar-se-á à natureza não determinista dos LLM. Os firewalls de IA utilizarão o processamento de linguagem natural e a análise contextual, em vez de se concentrarem apenas nos padrões de tráfego da rede.

Nadav Avital afirma: «A IA genérica introduz um novo tipo de superfície de ataque, pelo que precisamos de mecanismos de defesa que compreendam o contexto, a intenção e a semântica. É aqui que entra em jogo a firewall de IA. Estamos agora a trabalhar para criar uma solução deste tipo para os nossos clientes... Acredito que quanto mais cedo tivermos este tipo de soluções de segurança, mais pessoas aprenderão a confiar e a utilizar a IA de forma segura em grande escala.»