El Colegio de la Abogacía de Madrid (ICAM) acogió una jornada bajo el título «Reglas de juego para la IA: nuevo escenario regulatorio y de gobernanza», organizada por las secciones TIC, Robótica y Gobierno Corporativo y Desarrollo Sostenible. La sesión, que reunió a destacados expertos del sector, puso de relieve los retos y oportunidades que plantea la regulación y gobernanza de la inteligencia artificial (IA) en el contexto actual.
Alejandro Touriño, presidente de la Sección TIC del ICAM, dio inicio al encuentro destacando la necesidad de dar un salto cualitativo hacia un modelo más maduro de implementación de la IA en el ámbito corporativo. Touriño subrayó que no basta con enumerar las bondades de esta tecnología, sino que es imperativo abordar su integración desde una perspectiva de gobernanza que permita alinearla con las políticas de riesgo empresarial.
El keynote speaker, Alberto Gago, director de la Oficina para la España Digital 2030, abordó el desarrollo del sandbox regulatorio para sistemas de IA de alto riesgo, concebido como una herramienta para que las empresas puedan adaptar sus productos a las exigencias del reglamento europeo en un entorno controlado. En su intervención, Gago abogó por una «tercera vía» que equilibre innovación y regulación, superando la dicotomía tradicional. «No se trata de elegir entre regular o innovar, sino de avanzar hacia un modelo de innovación responsable que proteja a los ciudadanos y a las empresas, generando confianza y seguridad jurídica», afirmó. Asimismo, destacó el papel de España como líder en iniciativas como la creación de la Agencia de Supervisión de IA en A Coruña y su rol facilitador en los debates globales sobre gobernanza de la inteligencia artificial en Naciones Unidas.

Gobernanza de la IA en las organizaciones: retos y estrategias
En la primera mesa redonda, Teresa Jambrina, directora legal corporativa de NTT Data, y Bernardo Blanco, representante de Gestamp e INDESIA, compartieron experiencias sobre la implementación de modelos de gobernanza en sus respectivas organizaciones. Jambrina explicó cómo NTT Data ha diseñado un modelo basado en un enfoque personalizado, subrayando la importancia de evaluar el impacto de la IA en las operaciones de la empresa y establecer órganos de gobierno operativos y estratégicos. También ofreció consejos prácticos, como la necesidad de crear políticas de alcance claro, capacitar a los empleados para que entiendan los riesgos de la IA y establecer sistemas de auditoría para garantizar su cumplimiento. Asimismo, recordó la inminente obligación de alfabetizar a los empleados en IA, en vigor desde febrero de este año: “El plazo es inmediato y no cumplir con esta capacitación puede tener un impacto significativo en el negocio. Es una prioridad que debe abordarse de forma urgente”.
Por su parte, Blanco destacó la complejidad de coordinar estos esfuerzos en una multinacional como Gestamp, donde la diversidad de jurisdicciones y culturas requiere soluciones a medida. También abordó el debate sobre qué perfil debe liderar la gobernanza de la IA en las organizaciones. «El liderazgo debe adaptarse a los riesgos principales de cada empresa. En sectores como el industrial, la gobernanza debería estar más cerca de perfiles de IT y ciberseguridad, mientras que en ámbitos como el financiero, podrían ser más relevantes los perfiles ligados a protección de datos. En cualquier caso, el liderazgo debe ser multidisciplinar, con roles bien definidos para cada área implicada».
IA generativa: desafíos éticos y legales
En la segunda mesa redonda, moderada por Cristina Villasante, el debate se centró en la IA generativa y sus implicaciones legales y éticas. Clara Ruipérez (Telefónica) reflexionó sobre la doble vertiente de su empresa, tanto como integradora de IA en operaciones tecnológicas como titular de contenidos culturales. Subrayó que la falta de claridad jurídica actual plantea riesgos importantes, especialmente en el contexto del Real Decreto sobre licencias colectivas para entrenamientos masivos de IA. «Aunque es un intento valiente por parte del Ministerio de Cultura, aún deja abiertas muchas incógnitas que podrían comprometer tanto la innovación como la protección de los derechos de autor», señaló.

Gabriel López (Microsoft) ofreció un enfoque práctico, destacando que la compañía ha asumido compromisos contractuales para defender a sus clientes frente a posibles reclamaciones de propiedad intelectual por el uso de herramientas como Copilot. López también enfatizó la importancia de simplificar la regulación para no frenar el avance tecnológico y abogó por soluciones que permitan equilibrar los intereses de innovación y protección de derechos.
María Pedrosa (Repsol) expuso cómo su empresa ha integrado principios de IA responsable en todas sus áreas de negocio. Pedrosa destacó la colaboración multidisciplinar como un factor clave, incorporando a departamentos como compliance, recursos humanos y auditoría en el diseño de sistemas que permitan mitigar los riesgos y garantizar el cumplimiento normativo. También subrayó el reto de adaptar el ritmo de implementación de la IA a los exigentes plazos del reglamento europeo, sin comprometer la eficiencia operativa.
Un futuro de innovación responsable
La jornada concluyó con una ronda de preguntas en la que se abordaron cuestiones como los riesgos reputacionales, la ciberseguridad y las estrategias para mitigar los sesgos algorítmicos. Este evento dejó patente que, aunque los desafíos son significativos, existe un amplio consenso sobre las oportunidades que la IA ofrece para transformar las organizaciones y generar valor en un marco de innovación responsable.
