Aleida Alcaide: “Controlar la IA no puede implicar frenarla"
- hace 14 horas
- 3 Min. de lectura

Una charla sobre regulación, normativa y ética reunió a la Agencia Española de Supervisión de la IA, la Asociación Española de Normalización y Cloudera para debatir cómo hacer que la IA sea confiable sin frenar su adopción
La directora general de Inteligencia Artificial de la Secretaría de Estado de Digitalización e IA, Aleida Alcaide, resumió con una sola frase el espíritu de toda una mesa de debate: "Controlar la IA en ningún momento puede implicar frenarla".
En torno a ese eje giró la charla entre Alberto Gago, director general de la Agencia Española de Supervisión de la IA (AESIA); Paloma García, directora de Normalización y Grupos de Interés de la Asociación Española de Normalización (UNE), y Juan Carlos Sánchez de la Fuente, vicepresidente regional de España y Portugal de Cloudera. El diagnóstico fue unánime: la regulación, bien entendida y bien aplicada, no es un freno a la innovación sino el mecanismo que genera la confianza necesaria para que la IA se adopte a escala.
La AESIA: acompañar antes de sancionar
Alberto Gago fue claro sobre el enfoque con el que la agencia afronta su misión: "Lo último que queremos hacer es sancionar. Queremos acompañar a las empresas antes y durante la integración de los sistemas de IA en el mercado".
En esa línea, destacó dos iniciativas concretas. La primera es el sandbox regulatorio de inteligencia artificial, un entorno donde las empresas pueden desarrollar y probar sus sistemas antes de lanzarlos al mercado con plena alineación con el reglamento europeo (España fue el primer país en poner en marcha este mecanismo).
La segunda es el laboratorio de ideas de la AESIA, una iniciativa de política pública centrada en analizar el impacto de la IA en cuatro retos clave: la desinformación, la brecha de género, el mercado laboral y la protección de menores.
Gago también reivindicó el papel de la agencia en formación y alfabetización, y anunció que en el último año han respondido más de 700 consultas a través de un buzón abierto en su web.
UNE: traducir la ley al lenguaje técnico
Paloma García explicó el papel esencial pero poco visible de la normalización en el ecosistema regulatorio: "Los reglamentos establecen los límites en un lenguaje legal. La estandarización los traduce a requisitos técnicos para que las organizaciones, especialmente las pymes, tengan claro lo que pueden y lo que no pueden hacer". El modelo europeo, subrayó, es novedoso: la Comisión desarrolla la legislación pero confía en las mesas de normalización para que la industria, la academia y la sociedad civil desarrollen el cómo.
Actualmente se trabaja en doce ámbitos derivados del mandato del Reglamento de IA, entre ellos normas de gestión de riesgos, transparencia, ciberseguridad y gobierno de datos. Además, mencionó una iniciativa pionera a nivel mundial: España está desarrollando, a través de UNE, una norma para medir el consumo energético de los modelos y algoritmos de IA.
De cara al futuro, García apostó por usar la propia IA para hacer la normalización más accesible: "Queremos poner en el mercado aplicaciones que ayuden a una empresa a saber qué normas le aplican y qué parte de cada norma le afecta".
Cloudera: el mayor reto es cultural
Juan Carlos Sánchez de la Fuente aportó la perspectiva de una empresa tecnológica global que trabaja a diario con los responsables de grandes organizaciones públicas y privadas. Su diagnóstico sobre el mayor obstáculo para una IA responsable fue rotundo: "Sin duda, el cambio cultural. Todo lo técnico preocupa mucho, pero es algo que se puede abordar. Lo cultural es lo que más cuesta".
Señaló que el miedo a que la IA destruya empleo sigue siendo un freno importante, y lo contrarrestó con datos de su propia empresa: "En Cloudera, con unas 3.000 personas, estamos creciendo en contratación a un ritmo del 20%. No estamos destruyendo empleo, estamos creando empleo".
Sobre la regulación europea, fue igualmente directo: "Rotundamente, la vemos como una ventaja competitiva". Citó el informe Stanford AI Index para argumentar que Europa está muy por encima de mercados como el estadounidense o el chino en términos de control sostenido. Y apuntó a uno de los problemas más extendidos: "Estamos sacando en las organizaciones más o menos un tercio del potencial de la información que tienen. Para que esa información sea verdadera, tenemos que tener control sobre ella".
Menos hablar de regulación y más fomentar la adopción
Alcaide cerró la mesa reivindicando un cambio de enfoque en el debate público: "En Europa deberíamos hablar cada vez menos de regulación, porque la regulación está ahí y va aplicándose. Tenemos que empezar a hablar más de adopción, de cómo fomentarla".
Pero el objetivo final, concluyó, es que nadie sienta que el uso de la IA puede alterar sus derechos en el mundo digital.




Comentarios