El informe Tendencias del Ciberdelincuencia 2025 ya está aquí. Obtén información experta para afrontar los riesgos cibernéticos de próxima generación. Leer más.

Cybersecurity

El punto ciego de la IA: cómo los líderes pueden recuperar el control

27 November 2025 · 6 min de lectura

La inteligencia artificial (IA) ya no es una promesa del futuro, lleva años ocupando un lugar protagonista, integrándose en la rutina laboral de millones de empleados hoy día. Desde el correo electrónico que sugiere respuestas hasta los asistentes de escritura o análisis de datos, la IA se ha infiltrado en el flujo de trabajo sin pedir permiso ni recibir nada a cambio, ¿o sí?

Un caso reciente ilustra los riesgos de esta adopción silenciosa. En 2024, la Oficina Federal de Transporte de Alemania sufrió una fuga de datos confidenciales después de que algunos de sus empleados usaran un chatbot no autorizado para redactar informes técnicos. La información, que incluía detalles de infraestructuras críticas, quedó almacenada en servidores externos. El incidente costó más de 1,2 millones de euros en auditorías, sanciones y pérdida de confianza pública.

El mensaje no puede ser más claro: la IA ya está en uso, pero no siempre de forma segura ni visible para los directivos. La brecha entre lo que los jefes creen que ocurre y lo que realmente sucede se amplía cada día. Y esa brecha no se suprime con más control, sino con comprensión y alfabetización en IA.

En este artículo exploraremos cómo las empresas pueden recuperar esa visibilidad, entender el verdadero alcance del uso de IA en su organización y fortalecer su liderazgo en una era en la que el conocimiento práctico es la nueva forma de control.

Lo que SoSafe aprendió al hablar con los CISO

En conversaciones con responsables de seguridad de múltiples sectores, se repite un patrón muy común. Los líderes suelen creer que los empleados usan la IA como si fuera Google: una herramienta puntual, de bajo riesgo. Sin embargo, los CISO describen una realidad totalmente diferente y, a su vez, más compleja.Muchos empleados desconocen qué tipo de información puede introducirse en un modelo generativo, cómo se almacenan los datos o qué implicaciones legales puede tener su uso. A menudo copian fragmentos de códigos, informes financieros o documentos internos en herramientas que no pertenecen al ecosistema corporativo.

“Uno de los valores que hemos conseguido es que la concienciación en ciberseguridad no quede restringida al departamento de IT, si no que llegue a más departamentos”, señaló un líder durante una entrevista con el equipo de SoSafe.

Los líderes, además, tienden a subestimar la magnitud del fenómeno. Según Microsoft en 2024, un 78 % de los empleados utilizó herramientas de IA no aprobadas, y uno de cada cinco incidentes de ciberseguridad ya está vinculado a esta práctica.

La desconexión se agrava porque muchos directivos piensan que la Ley Europea de IA (EU AI Act) es un asunto de cumplimiento técnico, no una oportunidad educativa. Esta visión reduce la IA a un problema de auditoría, cuando en realidad se trata de un reto cultural y de aprendizaje continuo.En definitiva, los líderes quieren un uso seguro y ético de la IA, pero carecen de la visibilidad y las estructuras necesarias para hacerlo realidad.

El estado de la IA en el trabajo

La adopción de la IA crece a un ritmo que supera la capacidad de las empresas para regularla. El 92 % de las organizaciones europeas planea aumentar su inversión en IA, pero solo el 1 % considera que su despliegue es maduro.

Los empleados van por delante. Mientras que los equipos directivos creen que la IA se usa de manera limitada, los trabajadores reportan niveles de adopción tres veces superiores. Y lo hacen movidos por la eficiencia, no por la desobediencia.

Sin embargo, este entusiasmo no va acompañado de preparación. El 48 % afirma que recibir formación formal en IA aumentaría su uso diario seguro, y más del 50 % cita la ciberseguridad y la privacidad como sus principales preocupaciones.

La Microsoft Work Trend Index destaca que la IA ya transforma los flujos de trabajo más rápido de lo que las empresas pueden adaptar sus políticas. En la práctica, esto significa que cada semana surgen nuevas integraciones de IA en herramientas de productividad antes de que el área de seguridad pueda evaluarlas.El resultado es una brecha de conocimiento que crece tanto como la brecha tecnológica.

Lo que ya está fuera del control de los líderes

Intentar contener el uso de IA no autorizada con prohibiciones o bloqueos técnicos es, en el mejor de los casos, una estrategia temporal. El fenómeno de la “Shadow AI” —el uso de herramientas de IA sin aprobación corporativa— se expande por varias razones.

Los empleados recurren a cuentas personales, extensiones de navegador o funciones integradas en SaaS que parecen inofensivas. A menudo, lo hacen por conveniencia o desconocimiento, no por negligencia. Como advierte Cox & Palmer Law (2025), los empleadores deben asumir que la línea entre el uso personal y el profesional de la IA “se ha difuminado irreversiblemente”.

Además, muchas organizaciones confían ciegamente en las garantías de seguridad que ofrecen los proveedores tecnológicos, sin verificar cómo esos modelos almacenan o reutilizan la información. Y la cultura de la inmediatez —la necesidad de entregar resultados más rápidos— empuja a los equipos a experimentar sin esperar la aprobación formal.La conclusión es sencilla pero crítica: no se puede controlar lo que no se comprende.

Lo que los líderes sí pueden (y deben) controlar

El liderazgo moderno no consiste en restringir, sino en dirigir con conocimiento y anticipación. Las organizaciones pueden recuperar el control en cinco frentes:

Alfabetización en IA

Formar a todos los empleados, no solo a técnicos, para que comprendan cómo funcionan los modelos, qué sesgos pueden arrastrar y cómo evaluar sus resultados de manera crítica.

Políticas vivas

Establecer guías de uso claras —qué datos pueden compartirse, cuándo se requiere revisión humana— que evolucionen al ritmo del mercado.

Cultura de aprendizaje continuo

Integrar la formación en IA en los programas de desarrollo profesional, en lugar de ofrecer cursos aislados.

Responsabilidad compartida

Involucrar a los mandos intermedios para que modelen buenas prácticas y detecten riesgos tempranos.

Ciclos de retroalimentación

Revisar periódicamente cómo se usa realmente la IA dentro de la empresa, ajustando políticas según evidencia y no suposiciones. Como señala Chartered Accountants Ireland, el verdadero reto no es enseñar a programar, sino a “entender lo suficiente para no delegar el juicio humano en una máquina”.En este sentido, en SoSafe ofrecemos módulos de formación en concienciación en ciberseguridad diseñados para que los empleados aprendan a detectar desvaríos o engaños, reconocer sesgos y proteger información sensible. Una intervención temprana puede transformar comportamientos y fortalecer el “firewall humano” que toda empresa necesita.

La alfabetización en IA es el nuevo estándar de liderazgo

El control real sobre la IA no se logra con prohibiciones, sino con visibilidad, curiosidad y aprendizaje continuo. Cada nueva funcionalidad de IA en herramientas cotidianas —desde un CRM hasta un procesador de texto— plantea dilemas que las políticas tardan en solucionar. Pero los hábitos correctos, una vez adquiridos, perduran. Los líderes que prioricen la educación sobre la imposición construirán organizaciones más seguras, resilientes y, sobre todo, más preparadas para innovar sin perder el control.

En la era de la IA generativa, el liderazgo no consiste en tener todas las respuestas, sino en aprender a formular las preguntas correctas.

¿Quieres saber lo último en ciberseguridad?

Suscríbete a nuestra newsletter para recibir los artículos, eventos y recursos más recientes sobre ciberseguridad. No recibirás spam, solo contenido relevante.

Newsletter visual

Experimente nuestros productos de primera mano

Utilice nuestro entorno de pruebas en línea para ver cómo nuestra plataforma puede ayudarle a capacitar a su equipo para evitar continuamente las ciberamenazas y mantener segura su organización.

This page is not available in English yet.

This page is not available in your language yet. You can continue in English or return to the US homepage.

This page is not available in your language yet. You can continue in English or return to the Aus homepage.

Diese Seite ist noch nicht in Ihrer Sprache verfügbar. Sie können auf Englisch fortfahren oder zur deutschen Startseite zurückkehren.

Cette page n’est pas encore disponible dans votre langue. Vous pouvez continuer en anglais ou revenir à la page d’accueil en français.

Deze pagina is nog niet beschikbaar in uw taal. U kunt doorgaan in het Engels of terugkeren naar de Nederlandse startpagina.

Esta página aún no está disponible en español. Puedes continuar en inglés o volver a la página de inicio en español.

Questa pagina non è ancora disponibile nella tua lingua. Puoi continuare in inglese oppure tornare alla home page in italiano.