Jordi García Castillón: “La ciberseguridad clásica ha muerto"
- hace 1 día
- 3 Min. de lectura

El experto en IA y ciberseguridad defiende que el verdadero riesgo de la inteligencia artificial no es técnico, sino cognitivo, y que la pregunta es en qué medida podemos confiar en lo que ésta decide
Jordi García Castillón, Chief AI Scientist y director de CibraLAB, CEO de CiberTECCH y fundador de eHealthAI y CyberAssistant, subió al escenario del AI Summit con la energía de alguien acostumbrado a decir en voz alta lo que muchos piensan en voz baja. Investigador, empresario y fundador de varias iniciativas en el cruce entre inteligencia artificial y salud digital, se presentó así: "Soy aquel que hace dos años llamaban loco y excéntrico cuando decía que la IA sí que venía a sustituir".
La IA es infraestructura crítica
García Castillón rechazó de plano los marcos conceptuales que siguen describiendo la IA como una herramienta de apoyo. "No es una herramienta, no es ChatGPT, no es un resumen de texto. Es infraestructura. Es la nueva electricidad". Y como ocurre con la electricidad, lo relevante no es el suministro en sí, sino lo que se construye a partir de él.
En ese contexto, advirtió de que la dependencia creciente de sistemas de IA está generando "una nueva capa de riesgo estructural que aún apenas existe" y para la que la industria no está preparada.
Su diagnóstico fue directo: "La ciberseguridad clásica ha muerto". Las bolsas de empleo, dijo, se están llenando de ingenieros de ciberseguridad tradicional "cuando el problema ya no es el puerto abierto ni la autenticación. El problema es cognitivo".
Auditoría cognitiva
El núcleo de la intervención fue la propuesta de lo que García Castillón denomina auditoría cognitiva para la IA, un enfoque que parte de una premisa provocadora: si vamos a dejar que un sistema de IA tome decisiones críticas, tenemos que evaluarlo como evaluaríamos a una persona antes de contratarla.
Su empresa trabaja con un test de cien preguntas diseñado para analizar el comportamiento cognitivo de los modelos: su resistencia a la manipulación, la estabilidad de su razonamiento, su capacidad para detectar que alguien le está intentando engañar o que se le está pidiendo algo que supera sus límites éticos. "Voy más allá de las alucinaciones. Voy al por qué toma las decisiones y hasta qué punto es capaz de entender que la estamos engañando o que se le está pidiendo algo que supera los límites éticos y morales".
Un gran poder conlleva una gran responsabilidad
García Castillón subrayó que la transformación no equivale automáticamente a confianza. "Podemos innovar y desplegar sistemas que no sean confiables. Si buscamos sólo ser eficientes, podemos conseguir una eficiencia con una falta de seguridad palmaria". La clave, insistió, es el equilibrio: avanzar y transformarse sin perder el control. "Como decía Spiderman: …el gran poder, …la gran responsabilidad".
Para construir esa IA confiable identificó cuatro ejes: seguridad desde el diseño, gobernanza y control —"no es lo mismo gobernarla en China que en Estados Unidos que en Europa"—, transparencia y trazabilidad, y supervisión humana efectiva.
En su propia empresa, señaló, trabajan con una ratio de sustitución real de dos o tres sistemas de IA por cada humano, aunque el objetivo a largo plazo es de diez a uno.
Soberanía, regulación y el precio de quedarse en Europa
Sobre soberanía, García Castillón fue contundente. Reconoció que la soberanía pura "no existe ni existirá por muchos años" y mostró abiertamente su escepticismo hacia la regulación excesiva: "Bien conocida es mi poca estima por la mala regulación y la regulación excesiva". Y lo ilustró con una decisión empresarial concreta: una de sus compañías ya está operando desde Boston. "Si quieren que nos vayamos con la segunda también a Estados Unidos, podemos hacerlo".
Cerró con una reflexión que amplió el foco más allá de la tecnología. La IA, dijo, no es sólo un reto estratégico, sino también social. "Yo sustituiré humanos, pero a mí me tienen que poner algún impuesto o algo. La IA tiene que pagar de algún modo".
El reto no es adoptar inteligencia artificial, concluyó, sino implementarla bien: "Mantenerla segura, confiable y bien gobernada, y que suponga finalmente una ventaja competitiva real".




Comentarios