< Back
cyberthreat news

Tags:

18 Septiembre 2025

La IA está facilitando la vida a los cibercriminales. ¿Por qué? ¿Y cómo pueden defenderse los CISO?

Los ciberdelincuentes son entusiastas pioneros en el uso de herramientas de IA. En una edición del podcast Thales Security Sessions, tres especialistas en ciberseguridad debatieron sobre las mejores contramedidas...

Reid Hoffman, cofundador de LinkedIn, describe la IA como un nuevo tipo de superpoder. Afirma: «Un coche te da superpoderes de movilidad.  Un teléfono te da superpoderes de conectividad e información. La IA te da superpoderes para todo el mundo de la información, la navegación y la toma de decisiones».

Lamentablemente, estos superpoderes están al alcance de todo el mundo, incluidos los cibercriminales. De hecho, los atacantes ya están utilizando herramientas de IA para mejorar las estafas existentes e inventar otras nuevas. Un estudio reveló que las estafas basadas en IA aumentaron un 456 % entre mayo de 2024 y abril de 2025, en comparación con el mismo periodo de 2023/2024.

Entonces, ¿cómo está cambiando exactamente la IA la naturaleza del cibercrimen?

Para Nadav Avital, Senior Director de Threat Research in Imperva (una empresa de Thales), quizás el factor nuevo más importante sea la forma en que la IA amplía el acceso a las herramientas, lo que permite a los atacantes sin conocimientos técnicos cometer más delitos.

Afirma: «La IA está bajando el listón para los atacantes sin experiencia, lo que sobrecarga a los defensores con muchos más ataques que deben afrontar». Avital ofrece algunos ejemplos de estas nuevas capacidades.

    Creación de contenido de mejor calidad. Los delincuentes pueden utilizar herramientas de IA para acceder a conocimientos específicos y redactar correos electrónicos y mensajes de texto de phishing más convincentes.

    Mapeo de sistemas objetivo. Los hackers pueden utilizar la IA para sondear un sistema objetivo y, a continuación, encontrar y explotar vulnerabilidades. Este proceso solía ser manual, ahora está automatizado.

    Descubrimiento de vulnerabilidades zero-day. Google utilizó recientemente la IA para descubrir una vulnerabilidad zero-day oculta en el motor de base de datos SQLite. Parece inevitable que los atacantes copien esta táctica.

Obviamente, una forma de abordar el problema del contenido y las falsificaciones es mejorar la educación de los consumidores. Pero esto es solo la dimensión pública. Para los especialistas en ciberseguridad, la cuestión más profunda es cómo proteger los propios sistemas de IA de los ataques de actores hostiles.

Esto exige un nuevo enfoque, diferente al de la protección contra, por ejemplo, virus o malware. Según Asad Ali, director de Tecnología de Thales, la defensa comienza con la definición de las cuatro fases principales de los ataques a la IA.

    La fase de recopilación de datos. Se refiere al posible envenenamiento de los datos cuando se recopilan (desde dentro o fuera de la organización).

    La fase de entrenamiento del modelo. En esta etapa, los atacantes pueden modificar el comportamiento del modelo para afectar a sus resultados. A veces se denomina «inserción por la puerta trasera».

    La fase de implementación. Una vez creado el modelo, normalmente se implementa en un servidor o una aplicación. Ahora está «a la vista» y es vulnerable al robo.

    La etapa de influencia. Aquí es donde entran en juego los usuarios. Si el modelo está contaminado, los resultados se verán corruptos y podrían ser perjudiciales para la seguridad de la empresa.

Por supuesto, la utilidad de la IA tiene dos caras. Los CISO están aprendiendo a utilizar herramientas de IA para detectar amenazas, aligerar la carga de trabajo de los CISO y ayudar al personal no técnico a unirse a la defensa. Avital afirma: «La IA puede reducir la fatiga de las alertas filtrando el ruido y los falsos positivos. Permite a las personas menos cualificadas utilizar el lenguaje natural para profundizar en cuestiones de seguridad complejas».

Otra dimensión importante de la amenaza de la IA es la forma en que distribuye los datos y los modelos entre múltiples ubicaciones. En algunas implementaciones, los datos podrían estar ejecutándose en la nube privada de un cliente. En otras, el modelo podría estar en el borde, ejecutándose localmente en un vehículo autónomo o incluso en un PC. En todos los ejemplos, el propietario del modelo no tiene el control de los datos.

Michael «MiZu» Zunke, vicepresidente y director técnico de Monetización de Software en Thales, explica el reto: «En estos escenarios, la superficie de ataque es la interfaz del servicio», afirma. «Un delincuente puede desmontarla todo lo que quiera, porque es el dueño de la máquina... Por lo tanto, esto va más allá de la simple seguridad del modelo. Lo que se necesita es protección contra la ingeniería inversa, contra el análisis y la modificación de la aplicación».

Un método de defensa clave en este caso es la gestión de identidades y accesos. Esto significa implementar sistemas que pregunten: ¿tienes permiso para acceder a los datos y utilizar el modelo?

Thales tiene una amplia experiencia en este ámbito y ahora está aplicando sus conocimientos al campo de la IA. Está explorando cómo proteger las implementaciones de RAG (Retrieval-Augmented Generation, generación aumentada por recuperación) y también se está dedicando al descubrimiento de datos, la clasificación y el cifrado con capacidad de búsqueda.

Asad Ali, director de Tecnología e Innovación de Thales, resume el reto de la siguiente manera: «En el lado del servidor, se tiene un control total: se pueden establecer restricciones físicas sobre quién puede acceder al entorno periférico. Pero cuando el modelo en sí mismo está en el periférico, esas restricciones desaparecen. ¿Cómo se sabe que está protegido? Cualquiera con un dispositivo puede manipular el modelo».

Otro reto en materia de gestión de identidades y accesos surge del uso de agentes de IA. En otras palabras, de los bots que actúan en nombre de alguien. Más adelante, está la cuestión del cifrado transparente que plantea el uso de GPU de IA.

Ali afirma: «El cifrado transparente es un producto en el que ciframos todo lo que toca la capa IO de un sistema operativo, y esa capa IO la gestionamos a través de las CPU. Pero los modelos de IA utilizan GPU. Si la GPU puede acceder directamente a la capa IO, entonces tenemos que cambiar nuestros modelos o implementaciones. Estamos investigando activamente esta cuestión, aunque por ahora no sea algo habitual».

En última instancia, los especialistas en ciberseguridad esperan que las organizaciones protejan sus sistemas con un nuevo tipo de cortafuegos dedicado a la IA. Al igual que un cortafuegos tradicional, actuará como guardián y aplicará políticas de seguridad, pero se adaptará a la naturaleza no determinista de los LLM. Los cortafuegos de IA emplearán el procesamiento del lenguaje natural y el análisis contextual, en lugar de centrarse únicamente en los patrones de tráfico de la red.

Nadav Avital afirma: «La IA genérica introduce un nuevo tipo de superficie de ataque, por lo que necesitamos mecanismos de defensa que comprendan el contexto, la intención y la semántica. Aquí es donde entra en juego el firewall de IA. Ahora estamos trabajando para crear una solución de este tipo para nuestros clientes... Creo que cuanto antes dispongamos de este tipo de soluciones de seguridad, más gente aprenderá a confiar y a utilizar la IA de forma segura a gran escala».