• Saltar a la navegación principal
  • Saltar al contenido principal
S2GRUPO

Empresa Española Especializada en Ciberseguridad

  • Empresa
    • Sobre nosotros
    • Equipo directivo
    • RSE
    • Reconocimientos
  • Especialización
    • OT Industrial
    • IT
    • OT Salud
  • Soluciones
  • I+D+i
    • I+D
    • S2X
  • Talento
  • Noticias y publicaciones
  • Contacto
  • facebook
  • twitter
  • instagram
  • linkedin
|
es arrow down
  • en
© 2026 S2 Grupo
Actualidad

Riesgos de la IA 2025: Amenazas reales detectadas por Threat Intelligence

04 Feb 2026

La inteligencia artificial (IA) se ha convertido en un elemento transformador dentro de las organizaciones, acelerando procesos, optimizando decisiones y habilitando nuevos modelos de negocio basados en datos.

Sin embargo, este avance ha ampliado de forma significativa la superficie de exposición tecnológica y ha introducido vectores de riesgo que afectan a los ámbitos técnico, operativo y humano.

Los riesgos de la IA ya no son hipotéticos: según múltiples análisis recogidos por el equipo de Threat Intelligence de S2GRUPO, constituyen amenazas reales que impactan en la integridad, disponibilidad y confidencialidad de sistemas críticos en todo el mundo.

A fecha de 2025, la IA debe entenderse como una tecnología de doble uso. Mientras agiliza la prevención y respuesta ante incidentes, también proporciona a ciberdelincuentes y actores estatales capacidades ofensivas más baratas, rápidas y escalables.

El informe sobre riesgos de la IA de S2GRUPO detalla de forma exhaustiva las amenazas y desafíos emergentes, así como los actores que ya están explotándolos con fines delictivos o estratégicos.

1. Una superficie de ataque extendida: dónde nacen los riesgos de la IA

La IA amplía la exposición a lo largo de todo su ciclo de vida: datos, entrenamiento, validación, despliegue e integración con otros sistemas.

Cada fase incorpora dependencias distintas —datasets externos, modelos preentrenados, APIs, frameworks o repositorios abiertos— que introducen vulnerabilidades no contempladas en el software tradicional.

Los equipos de Threat Intelligence identifican que estos riesgos no solo afectan a la tecnología, sino a la gestión operativa y al factor humano.

Los errores de configuración, la falta de controles, el desconocimiento y la automatización sin supervisión siguen siendo vectores altamente explotables.

2. Principales ataques y vectores de riesgo contra modelos de IA

La expansión de la IA ha generado lo que se denomina superficie de ataque extendida. Cada fase del ciclo de vida (obtención de datos, entrenamiento, validación, despliegue y operación) incorpora vulnerabilidades específicas.

Entre los ataques más relevantes destacan:

Inyección de prompts

El atacante manipula la entrada del modelo para alterar su comportamiento o extraer información sensible.

Puede realizarse de manera directa o camuflada dentro de documentos, páginas web o repositorios que el modelo procesa. Este ataque rompe la separación entre datos e instrucciones, permitiendo saltarse controles internos.

Gestión de salida insegura

Cuando los outputs de la IA se consumen de forma automática —por ejemplo, en generación de código, soporte clínico o automatización operativa—, una salida errónea puede traducirse en impactos críticos.

Este vector suele ser la consecuencia de ataques previos como la inyección de prompts o el data poisoning.

Envenenamiento de datos

Implica contaminar datasets de entrenamiento para manipular la lógica del modelo o introducir sesgos dañinos.

El riesgo se amplifica en entornos donde se utilizan datos externos o modelos preentrenados sin validación rigurosa.

Fuga de información del modelo (data leakage)

A través de consultas maliciosas, ataques de model inversion o configuraciones deficientes, un modelo puede revelar datos personales, estratégicos o fragmentos de su entrenamiento.

Es uno de los riesgos más graves por su impacto legal y reputacional.

Denegación de servicio (DoS) aplicada a IA

Saturar APIs, cargas de inferencia o pipelines de datos puede bloquear sistemas críticos e incrementar de forma artificial los costes operativos.

Los modelos son especialmente vulnerables por su alto consumo de memoria, GPU y dependencias externas.

Vulnerabilidades en la cadena de suministro

La IA depende de componentes externos  (librerías, frameworks, repositorios públicos, APIs y modelos de terceros).

Cualquier fallo en estas capas puede comprometer todo el sistema, incluso sin afectar al modelo central.

Divulgación de información confidencial

Respuestas filtradas, permisos mal gestionados o falta de filtros de salida pueden hacer que la IA comparta información sensible sin intención.

Manipulación de plugins inseguros

Los plugins amplían capacidades, pero también exponen superficies críticas: acceso a bases de datos, correo, almacenamiento o sistemas financieros.

Un plugin comprometido puede convertirse en una vía directa de ataque.

Agencia y dependencia excesiva

La agencia excesiva aparece cuando un agente de IA actúa con autonomía excesiva sin supervisión humana. La IA puede ejecutar acciones críticas sin supervisión, amplificando cualquier vulnerabilidad previa.

La dependencia excesiva surge cuando las organizaciones delegan demasiado en la IA, debilitando su resiliencia y su capacidad de respuesta ante fallos.

Robo de modelos

Mediante consultas sistemáticas o ingeniería inversa, atacantes pueden replicar modelos comerciales, violar propiedad intelectual o redistribuir versiones manipuladas.

Te podría interesar: Grupos de ransomware: Cuáles son los más destacados en 2025

3. Desafíos estructurales que amplifican los riesgos

Más allá de los ataques, existen problemas de fondo que hacen que estos riesgos prosperen:

Mantenibilidad del código de IA

Frameworks que evolucionan rápidamente, falta de documentación, modelos heredados y pipelines cambiantes dificultan la trazabilidad y el testing.

Esto impacta directamente en la seguridad y el cumplimiento normativo.

Complejidad de la cadena de suministro

Los sistemas de IA dependen de datasets externos, modelos preentrenados, APIs en la nube y componentes opacos.

Los sesgos, las vulnerabilidades y la falta de transparencia se propagan a velocidad sistémica.

  • Reutilización de código y modelos: 

Integrar librerías o modelos de terceros acelera el desarrollo, pero también introduce puertas traseras, sesgos heredados y problemas de responsabilidad legal y técnica.

  • Optimización de las capacidades de los atacantes: 

Los ciberdelincuentes ya usan IA para automatizar explotación de vulnerabilidades, crear deepfakes, mejorar phishing y generar malware adaptativo.

Herramientas como FraudGPT, WormGPT o DarkGPT ejemplifican esta tendencia.

4. Actores que explotan los riesgos de la IA

El informe identifica múltiples categorías de atacantes:

Cibercrimen

Grupos como FunkSec, GXC Team, Indrik Spider o Renaissance Spider emplean IA para fraude, ransomware, phishing y automatización del delito.

Grupos APT

Actores estatales —incluyendo APT28, APT41, Ember Bear, RedHotel, Charming Kitten, Lazarus Group, entre otros— han integrado IA en sus campañas de espionaje, sabotaje y operaciones de influencia.

La IA se ha convertido en una herramienta clave tanto para actores criminales como para operaciones geopolíticas.

Descarga el informe completo que hemos preparado desde S2GRUPO para conocer todos los detalles de los riesgos de la IA 2025: 

La necesidad de un enfoque integral de seguridad

Los riesgos de la IA identificados por Threat Intelligence son reales, crecientes y pueden abordarse desde tres dimensiones inseparables:

  1. Técnica: modelos, datos, infraestructura y dependencias.
  2. Operativa: procesos internos, continuidad de negocio y resiliencia.
  3. Humana: errores, manipulación, sesgos y falta de supervisión.

La combinación de vulnerabilidades, complejas cadenas de suministro y actores cada vez más sofisticados obliga a diseñar sistemas con supervisión humana efectiva, trazabilidad, control del dato y una gestión rigurosa del ciclo de vida completo de la IA.

En S2GRUPO ayudamos a las organizaciones a afrontar los riesgos reales de la IA con un enfoque práctico y especializado:

  • Detectando amenazas emergentes mediante inteligencia proactiva.
  • Analizando modelos, datos y cadenas de suministro para identificar vectores críticos.
  • Integrando controles de seguridad y supervisión humana en todo el ciclo de vida de la IA.
  • Acompañando a equipos técnicos y directivos para fortalecer su capacidad de respuesta.

Nuestro objetivo es que la IA sea un habilitador seguro, no una fuente de exposición.

¿Quieres evaluar el nivel de riesgo de tu organización? En S2GRUPO podemos ayudarte.

  • Facebook
  • Twitter
  • LinkedIn
Artículos relacionados
Cozy Bear: quiénes son y cómo actúa uno de los grupos de ciberespionaje más avanzados del mundo
Leer más →
Ataques Zero Day: qué son, por qué son peligrosos y cómo protegerse
Leer más →
Guía de herramientas de ciberseguridad para empresas: esenciales, avanzadas y específicas
Leer más →

Síguenos en nuestra newsletter

Suscríbete a través de tu email para estar al día

S2GRUPO
© 2026 S2 Grupo
  • Central de prensa
  • Aviso legal
  • Política de Privacidad
  • Política de Cookies
  • Canal Ético
  • Política de Innovación