13 de mayo de 2026 # Cowork, harness, y por qué la IA va a cambiar de modelo de facturación ![](./attachments/12-agentes.webp) Lo que veis en la imagen es Cowork razonando en voz alta. Invoca agentes (Torquemada, Darwin, Gutenberg), lee archivos de mi disco y de OneDrive, llama a herramientas. Un único prompt, y el modelo orquesta todo el proceso de principio a fin. Un apunte rápido antes de seguir, porque genera confusión. Hay dos Cowork: Copilot Cowork (Microsoft, dentro de M365, en beta y a punto de ser lanzado, pero lo podéis probar) y Claude Cowork (Anthropic). En realidad es el mismo producto, en Copilot hecho en colaboración Microsoft-Anthropic. Hoy hablamos de Cowork en genérico para referirnos a ambos. ## Qué hay detrás: *harness* Lo que está pasando aquí tiene un nombre que se está empezando a oír en la industria: *harness*. La definición corta es buena: *harness es todo lo que rodea a la IA y no es el LLM*. Pero merece la pena ampliarla, porque es donde está ocurriendo casi toda la innovación útil de los últimos meses. Ese "alrededor" incluye, entre otras cosas, la capacidad de leer y escribir archivos, llamar a herramientas externas, invocar subagentes especializados, planificar una secuencia de pasos, recordar contexto entre fases y mantener un bucle de ejecución que decida en cada momento qué hacer a continuación. El LLM sigue siendo el motor, pero por sí solo no hace nada de eso. El término encaja bastante literal. Un arnés es lo que conecta al caballo con el carro: sin arnés, el caballo corre, pero no tira de nada. Con harness, el LLM deja de ser un generador de respuestas de texto y se convierte en algo que puede ejecutar trabajo de verdad sobre tus archivos, tus datos y tus herramientas. ## Del Q&A al proceso completo Con harness, hemos pasado de pregunta-respuesta a otra cosa: petición, razonamiento, planificación, ejecución, comprobación, y vuelta a empezar hasta completar la tarea. Un ciclo que no para hasta que el modelo decide que ya está. Y ese ciclo puede tardar poco o tardar mucho. Si la petición es ambiciosa, puede tardar bastante y consumir muchísimos *tokens* por el camino. Para que os hagáis una idea, el otro día le hice una petición a Cowork que arrancaba de un Excel con datos de una encuesta. El resultado fue un dashboard interactivo con gráficos y conclusiones explicadas y 28 PDFs, uno por participante, cada uno con una ficha de formación personalizada. Le costó unos 6 minutos pensando, analizando datos y generando output. 6 minutos generando tokens sin parar tiene un coste muy alto. ## Por qué la facturación va a cambiar Os cuento esto porque tiene pinta de que el modelo de facturación de ciertas capacidades de IA va a cambiar. No es que nos hayan engañado, como diría un youtuber presa del algoritmo. Es bastante más prosaico: ha aparecido un modelo de ejecución que supone un salto cualitativo, y que consume tokens como si no hubiera un mañana. Después de unos meses de prueba con tarifa plana, las plataformas se están planteando cómo facturarlo sin perder dinero en cada ejecución. Sin información concreta, mi apuesta es que la facturación de la IA va a convivir en dos modelos: ### 1. Pregunta --> respuesta Lo que llevamos haciendo desde el principio. El usuario pregunta, el modelo responde, el usuario decide qué hacer con la respuesta. Tarifa plana mensual, asequible. Cubre bien el 80% del uso cotidiano: redactar, resumir, traducir, ideas rápidas, dudas puntuales, piezas de código muy específico. ### 2. Petición --> proceso --> resultado El usuario lanza un objetivo y el sistema trabaja, a veces durante 10 o 15 minutos o más, hasta entregarlo terminado. Aquí el coste depende de lo que tarde el modelo y de cuántas herramientas invoque por el camino. Pago por consumo, no por suscripción. Un prompt ambicioso te devolverá en 10 minutos algo que antes te habría costado un día entero, pero al final del mes la factura reflejará exactamente eso. La habilidad nueva que vamos a tener que desarrollar los usuarios es saber qué pedir a cada modelo. Calibrar. Distinguir cuándo basta con preguntar y cuándo merece la pena lanzar un proceso completo. Quien no calibre bien se quedará corto en lo importante o pagará de más en lo trivial. --- Publicado el 13 de mayo de 2026, [LinkedIn](https://www.linkedin.com/pulse/cowork-harness-y-por-qu%25C3%25A9-la-ia-va-cambiar-de-modelo-hurtado-tor%25C3%25A1n-vqtye), [Substack](https://open.substack.com/pub/davidhurtado/p/cowork-harness-y-por-que-la-ia-va?r=4uyjfg&utm_campaign=post&utm_medium=web&showWelcomeOnShare=true), [X](https://x.com/dhtoran/status/2054429590655770833?s=20)