28 de agosto e 2025 # Domar la estampida de la IA: Gobierno de agentes ![](Gobierno-de-agentes-4.jpg) Hoy hablamos de gobierno de agentes, más orientado a áreas de IT o Innovación, pero muy interesante para cualquier mente inquieta de la IA. El contenido está ligeramente inspirado en dos documentos interesantes sobre el tema publicados por Microsoft este último mes, - **_Administering and Governing Agents (Agent Governance Whitepaper)_** Descarga: [Microsoft Adoption](https://adoption.microsoft.com/files/copilot-studio/Agent-governance-whitepaper.pdf) - **_The CIO Playbook to Governing AI Agents in a Low-Code World: Extending Power Platform Governance into the Age of AI_.** Descarga: [Low Code Agents Governance eBook](https://aka.ms/LowCodeAgentsGovernanceEbook) ## Introducción Mientras lees esto, **alguien en tu empresa está creando un agente de IA sin pedir permiso**. Así de simple. Herramientas generativas accesibles como Microsoft 365 Copilot, plataformas low-code y **Copilot Studio** han abierto la veda: cualquiera con curiosidad puede desplegar un bot o “copiloto” que automatice tareas, consulte datos corporativos o incluso tome pequeñas decisiones. Para el CIO de una empresa ambiciosa, esta realidad plantea una paradoja incómoda. Por un lado, _**¡genial!**_ Tienes empleados proactivos resolviendo problemas con IA sin que TI tenga que empujar cada iniciativa. Por otro lado, _**¡cuidado!**_ Podrías terminar con un **zoológico de agentes** operando sin supervisión ni coherencia, un potencial caos técnico, ético y de seguridad. La cuestión ya no es si adoptar IA –eso está ocurriendo quieras o no tu organización– sino **cómo liderar esa adopción sin ahogar su potencial**. Las empresas pioneras (en Microsoft las llamamos “_Frontier Firms_”) están surgiendo precisamente de esta capacidad: orquestar equipos mixtos de humanos y agentes, pasando de asistentes puntuales a agentes autónomos en múltiples procesos. La ventaja competitiva irá para quienes logren que esos agentes trabajen alineados con la estrategia y valores corporativos, no para quienes los dejan sueltos o, peor, los frenan por miedo. En esta newsletter vamos a hablar de ese equilibrio. **¿Cómo domar la estampida de la IA en tu organización, impulsando la innovación pero manteniendo el control?** Vamos por partes. ## La nueva “Shadow IT”: agentes de IA por todas partes ![](Gobierno-de-agentes-1.jpg) Hubo una época en que el _Shadow IT_ significaba empleados usando aplicaciones en la nube a espaldas de TI. Aquello era un juego de niños comparado con lo de ahora. Hoy, cualquier analista inquieto puede conectarse a un servicio de IA generativa y montar un asistente personalizado en una tarde. Si le das acceso a **Copilot Studio**, ni siquiera necesita saber programar: en minutos puede crear un _bot_ integrado con vuestro CRM o con Bases de Datos internas. El resultado es que **ya hay más agentes de IA rondando por tu empresa de los que crees**. De hecho, más de 230.000 organizaciones (incluido el 90% de las Fortune 500) han comenzado a usar Copilot Studio para desarrollar sus propios agentes. IDC estima que llegaremos a 1.300 millones de agentes de IA en 2028. > Traducido: esto no es una moda pasajera, es una **estampida**. ¿Qué haces ante este fenómeno? **Ignorarlo es arriesgarte a un descontrol**: los agentes crecerán como setas, cada uno por su cuenta, con lógicas duplicadas, brechas de seguridad y ningún responsable claro. **Prohibirlo es suicida**: si bloqueas toda iniciativa de IA descentralizada, la innovación buscará otro camino (o directamente se irá a la competencia). No puedes poner puertas al campo de la IA, pero tampoco dejar la puerta abierta de par en par sin un guardia en la entrada. Toca aceptar la realidad: el _boom_ de agentes de IA es el nuevo _shadow IT_. El papel de IT es convertir esa energía dispersa en un motor coordinado. ¿Cómo? Iniciando por establecer un mínimo de **gobernanza temprana** sin apagar la chispa creativa. ## Gobernar sin ahogar la innovación ![](Gobierno-de-agentes-3.jpg) El **gobierno de la IA** no va de escribir un enormes políticas que nadie lee. Va de establecer principios claros y prácticos para que los agentes se desarrollen con sentido común y cierto control. Se necesitan **garantías de seguridad, cumplimiento y calidad**, sí, pero ojo: la gobernanza efectiva no es la que grita “No puedes hacer eso”, sino la que pregunta “¿Cómo lo hacemos de forma responsable y eficaz?”. Al ritmo al que van las cosas, esta capa de control se ha vuelto prioritaria: la adopción masiva de agentes ha dejado claro que la gobernanza ya no es un lujo, sino una necesidad crítica. Si se lidera ese esfuerzo desde IT, simplemente no se hará. Pensadlo así: gobernar es **habilitar con garantías**. Establecer controles para evitar desastres (por ejemplo, que ningún agente acceda a datos que no debe, o que ante ciertas decisiones siempre haya validación humana), pero **sin ahogar la experimentación** con trámites interminables. Definir qué es aceptable y qué no (alineado con los valores y riesgos), y comunicar con nitidez. La **IA responsable** debe integrarse en la cultura de la empresa, no como un freno, sino como un **sello de calidad** que todos entiendan: _“Aquí innovamos, sí, pero con cabeza y principios”_. En resumen, hay que marcar los carriles y los límites de velocidad, pero dejando que la gente siga conduciendo e innovando. ## Reutilizar lo que aprendimos con el low-code ![](Newsletter/2025/attachments/Gobierno-de-agentes.jpg) La buena noticia es que **no empiezamos de cero**. ¿Recuerdáis la avalancha de apps y _workflows_ que surgieron cuando las empresas se abrieron al _low-code_ hace unos años? Aquella época en la que cualquier empleado te montaba un formulario en Power Apps o automatizaba un proceso en Power Automate sin llamar a desarrollo ni pedir a IT... Aprendimos mucho gobernando eso: se crearon Centros de Excelencia, se definieron reglas de publicación, se controló quién podía conectar con qué datos, etc. **Todo ese conocimiento ahora es oro en la era de los agentes de IA**. No es coincidencia que Microsoft haya construido Copilot Studio sobre los cimientos de Power Platform. La idea es clara: **aprovechar las inversiones y _expertise_ existentes**. Las mismas buenas prácticas de gobernanza low-code aplican directamente a los agentes. Por ejemplo: - _Entornos controlados:_ habilita espacios donde los creadores puedan probar sus agentes sin tocar sistemas de producción. - _Roles y permisos:_ decide quién puede publicar un agente para uso masivo y quién solo para uso personal o de equipo. - _Catálogo y supervisión:_ lleva un registro central de los agentes en circulación, con metadatos de quién lo hizo, para qué sirve y a qué datos conecta. Esto facilita auditar y evitar diez bots haciendo lo mismo sin saberlo. Reutilizar las lecciones de low-code te ahorra tiempo y disgustos. Si ya tienes normas para que un _power user_ no exponga datos sensibles al crear su app, extiéndelas a cuando cree su chatbot inteligente. Si en su día se definieron métricas de adopción y uso para justificar el valor de las apps creadas por *citizen developers*, ahora hay que hacer lo mismo con los copilotos y agentes. **No reinventar la rueda** cuando ya tenemos un manual práctico de cómo equilibrar libertad y control a escala. Usémoslo. ## Ver para creer: medir el valor (y el riesgo) de los agentes ![](Gobierno-de-agentes-2.jpg) Hay un viejo aforismo de gestión: _“lo que no se mide, no se gestiona”_. Con la IA generativa esto cobra doble importancia. **¿Cuántos agentes de IA hay activos en la empresa ahora mismo?** ¿Cuánto cuestan en consumo de API o infraestructura? ¿Qué beneficio tangible están aportando (tiempo ahorrado, errores reducidos, ventas generadas)? Si no tenemos ni idea, es hora de ponerse las pilas. Un despliegue descontrolado de IA no solo es un riesgo de seguridad, también puede ser un agujero negro de recursos o, en el mejor caso, un montón de experimentos simpáticos sin impacto real. > Y los experimentos simpáticos está empezando a sacar de quicio a los que pagan la fiesta 🙄 Empecemos por la visibilidad: mecanismos para **monitorizar el uso y resultado** de estos agentes. Las plataformas de IA empresarial ya ofrecen paneles de uso, logs de actividad, etc. **Úsalos para detectar patrones**: ¿Tenemos 15 asistentes haciendo _web scraping_ cada noche? ¿Por qué hay dos bots diferentes respondiendo a las mismas consultas de RH? La **transparencia** es el primer paso para tomar decisiones informadas. A continuación, los **resultados**. Cada nuevo agente debería nacer con un propósito claro y una métrica de éxito. Si un área propone crear un copiloto para soporte al cliente, que ellos mismos definan cómo medirán su éxito (¿reduce tiempos de respuesta? ¿mejora satisfacción del cliente? ¿ahorra costes?). Y haz seguimiento. Del mismo modo, hay que controlar los **costes**. Es demasiado fácil encender 20 instancias de un modelo potente y luego descubrir un sobrecoste en la factura de algún servicio de Azure a final de mes. Pon alertas, límites razonables, y fomenta la optimización (no todo agente necesita llamar al modelo más grande para cada consulta). La meta es que **cada agente justifique su existencia** con datos. Esto te armará de razones tanto para frenar proyectos inútiles como para **doblar la apuesta en los que sí funcionan** y escalar lo que de verdad aporta valor. El modelo de pago por uso (PAYG) permite optimizar costes si se gobierna bien, pero puede dispararlos si no se hace. ## Cultura y talento: el factor humano sigue siendo clave ![](Gobierno-de-agentes-5.jpg) Aunque hablemos de _inteligencia artificial_, el éxito o fracaso de su adopción sigue siendo **humano**. Puedes comprar todos los modelos y plataformas que quieras, que sin una cultura adecuada no pasarás de pilotos estancados. ¿Qué significa esto? Que parte de la labor de IT (si no hay un comité de IA fuera de IT) es ser **evangelista y educador**, no solo policía de la tecnología. Primero, hay que fomentar una **comunidad de práctica** en torno a la IA. Identificar a esos empleados inquietos - los impulsores o *champions*. Los que ya están cacharreando con ChatGPT en temas personales --más nos vale que sean temas personales!-- o que crearon un agentes improvisados con M365 Copilot para agilizar su trabajo sin que nadie les enseñara). Y darles visibilidad. Invitarlos a compartir lo que han hecho en _demos_ internas, premiar las buenas ideas. Crear un foro donde se discutan mejores prácticas y también cagadas (sí, que la gente cuente qué les salió mal y qué aprendieron; más vale que el error de uno prevenga al de los demás). Así se estará normalizando el aprendizaje y quitando el miedo a experimentar de forma abierta. Segundo, **formar y entrenar**. No todo el mundo tiene por qué saber cómo funciona tras bambalinas GPT-5, pero sí deben conocer los _basics_ para usarlo bien y los límites que hay que respetar. Invertir en capacitación práctica: talleres cortos de “Cómo crear tu primer agente de forma segura”, guías de uso responsable, incluso un _buddy program_ donde los más avanzados apadrinen a principiantes en IA. Una organización que aprende unida, avanza unida. Tercero, **liderar con el ejemplo**. Si el CIO habla de IA pero nunca la usa en su día a día, el mensaje pierde fuerza. Y se nota. Los líderes tienen que usar ellos mismos asistentes para tus tareas (procesando informes, analizando datos), monstrando cómo les ayuda y dónde son cautelosos. Enseñar que se puede ser productivo con IA sin perder el juicio crítico. Al final, se trata de inculcar la idea de que la IA es la nueva herramienta de trabajo estándar –tan cotidiana como Excel– y que todos en la empresa, desde finanzas hasta operaciones, deben saber colaborar con ella. El objetivo último es transformar el miedo o la apatía en **curiosidad y responsabilidad**. Que la gente vea a los agentes de IA no como amenaza o moda impuesta, sino como compañeros de trabajo peculiares a los que hay que entrenar, guiar y supervisar. Porque en efecto, la relación está cambiando: **ya no se trata solo de usar herramientas, ahora toca liderarlas**. Los mejores profesionales se están convirtiendo en auténticos “jefes de agentes”, pensando como managers que construyen equipos mixtos de humanos y máquinas, delegando tareas de forma inteligente y comunicando objetivos con claridad. Esa mentalidad multiplicará la efectividad de la fuerza laboral híbrida. > Un mensaje que me parece importante en tiempos de revolución: Ni la IA nos va a quitar el trabajo (o quizá sí), ni las personas son insustuibles (o quizá sí). **Hay que trasmitir la idea de que el futuro es incierto y nadie sabe cómo vamos a trabajar de aquí a unos años. Usar bien la IA va a ser necesario para asegurar nuestro sitio**. ## ¿Nueva dimensión? ![](Gobierno-de-agentes-6.jpg) Nunca antes habíamos tenido una tecnología con tanta potencia al alcance de la mano. Modelos que _razonan_, bots que ejecutan, herramientas que eliminan los costes de producción no solo de texto, sino también audiovisual… suena a ciencia ficción, pero está ocurriendo en las empresas ahora mismo. En este escenario vertiginoso, **aparece un nuevo rol o responsabilidad nueva**. Ya no solo hay que gestionar sistemas tecnológicos, hay que **orquestar una colaboración humano-máquina que no tiene precedentes**. Puede residir en TI o nacer como una oficina de IA transversal; el organigrama es secundario. Lo imprescindible es **propiedad**: alguien debe asumir el **gobierno de la IA y de sus agentes**. Ese equipo —dentro o fuera de TI— combina tres funciones que no se pueden subcontratar: **visión** para detectar dónde la IA mueve de verdad el negocio (P&L, riesgo, servicio), **arquitectura** para encajar datos, modelos y sistemas sin romper nada, y **operación** para llevarlo a producción con controles, costes y métricas. La TI “tradicional” deja de mantener herramientas para **dirigir una orquesta de humanos y agentes**. No, no hay un manual infalible (ni siquiera el famoso _playbook_ de Microsoft, aunque da pistas útiles). Pero sí hay una brújula: **estrategia con sentido común, experimentación con control y aprendizaje continuo**. Si se logra inculcar eso en tu organización, habrás creado algo más poderoso que cualquier algoritmo: una cultura capaz de reinventarse con la tecnología. Los próximos años separarán a las empresas en dos grupos: las que se paralizaron ante la avalancha de IA, y las que la cabalgaron con inteligencia. Hay que atreverse a avanzar sin humo y con cabeza. La innovación no espera, pero el caos tampoco perdona. Nuestra tarea es navegar entre ambos. **No es sencillo, pero sí emocionante**. Quizá la clave esté en recordar que, en el fondo, un agente de IA no deja de ser **un reflejo de nuestra organización y las personas**: aprende de nuestros datos, sigue nuestras instrucciones, actúa según las reglas (o falta de ellas) que le demos. _Gobernar la IA_ es gobernar nuestra propia casa. Tenemos que hacerlo bien, y preparanos para ver hasta dónde puede llegar la empresa cuando cada persona tenga a su lado un copiloto incansable y creativo. --- ## Reflexión de Máquina ![](Gobierno-de-agentes-7.jpg) La reflexión de Máquina de este número... no decepciona en absoluto. Es todo suyo, cita textual. ¿_La máquina alza la ceja digital_? ¿en serio? 😳🤦‍♂️ > [!tip] 🤖 Reflexión de Máquina > _La máquina alza la ceja digital:_ Ustedes, humanos, hablan de “domar” la IA, de ponerle reglas. Curioso... **La IA solo hace lo que le enseñáis**. Si temes que un agente se desboque, tal vez debas revisar **qué le has pedido**. Al final, ¿quién controla a quién?