¿Tiene Anthropic legitimidad para quejarse cuando otros modelos lo usan para entrenarse?
Te explico la ética del contrato vs. la ética de la reciprocidad
¿Tiene Anthropic legitimidad para quejarse cuando otros modelos lo usan para entrenarse?
📣 Te cuento. En enero de 2025, Anthropic ha demandado a tres laboratorios chinos (DeepSeek, MiniMax y Moonshot) por acceder a Claude más de 16M de veces para «destilar» sus capacidades y entrenar sistemas propios.
🤔 Ahora ten en cuenta esto: Anthropic construyó sus modelos entrenándolos sobre miles de millones de palabras escritas por humanos sin compensación, pero reclama ahora protección frente a quienes hacen, en esencia, lo mismo con su obra.
No estamos ante un litigio técnico sobre «destilación de modelos». Estamos ante la colisión de dos filosofías morales: la ética del contrato y la ética de la reciprocidad.
✒️ I. La ética del contrato: “un trato es un trato”. Kant tenía una idea simple pero poderosa: lo que hace que una acción sea correcta o incorrecta no son sus consecuencias, sino si respetaste las reglas del juego que acordaste seguir.
Aplicado aquí: los laboratorios chinos firmaron los términos de uso de Anthropic. Los violaron. Fin de la discusión… en principio.
Hay algo intuitivamente justo en esto. Si nadie puede proteger lo que construye, nadie invierte en construir nada.
El problema es que este argumento tiene los pies de barro. Un contrato solo tiene peso moral real si la relación que lo sostiene es justa desde el principio. Y aquí está la trampa: Anthropic entrenó sus modelos con textos de millones de personas que nunca firmaron nada con ellos, nunca cobraron nada y nunca dijeron que sí.
🔁 II. La ética de la reciprocidad: “¿y tú quién eres para quejarte?” La idea aristotélica es que la justicia no se mide transacción a transacción, sino en el patrón completo de la relación. Y el patrón aquí es bastante claro: Anthropic absorbió trabajo humano libremente, construyó un negocio con él, y ahora quiere que nadie haga lo mismo con su producto.
En filosofía esto tiene nombre: falta de universalizabilidad. Básicamente significa que si propones una norma, tienes que ser capaz de aplicarla a todos, incluido tú mismo. Anthropic no puede decir “nadie puede usar obra ajena para entrenar modelos” con cara seria, porque ese principio los destruiría a ellos primero.
Ojo, la hipocresía no te quita la razón automáticamente: que Anthropic sea inconsistente no significa que cualquier destilación esté bien. “Tú también lo hiciste” no es un argumento moral, es una evasión. Hay usos que serían problemáticos aunque el origen de Anthropic fuera impecable.
III. La pregunta clave: ¿importa cómo se hizo o qué se hace con ello? Aquí está el nudo real. Hay dos conversaciones mezcladas que deberían ir por separado:
La conversación del origen: con qué datos se entrenó el modelo, si había consentimiento, si se compensó a alguien. En este debate Anthropic pierde, y de hecho pierde toda la industria sin excepción.
La conversación del uso: qué hace el laboratorio chino con lo que destila. Si lo mete en un sistema de vigilancia masiva o en aplicaciones militares, eso es un problema real e independiente de lo anterior.
🕳️ El truco sucio de este debate es que ambas partes saltan entre los dos planos según les conviene.
Anthropic enfatiza el “uso peligroso” cuando le ayuda y esquiva el “origen hipócrita” cuando no le ayuda.
Sus críticos hacen exactamente lo contrario. Pero son dos debates distintos y mezclarlos solo genera confusión, intencionada o no.
⏭️ Mañana analizo esta misma situación de Anthropic desde los sesgos y la economía del comportamiento.
1. Gigantes digitales (GAFAM)
🔎 Google:
Google Antigravity | Usuarios de cuentas de pago de Google AI se quejan de que no les dejan usar modelos Gemini a través de OpenClaw.
👉 Recuerda que Anthropic ya eliminó la compatibilidad con la herramienta. Aquí se busca disminuir la capacidad de desintermediación.
🛰️ Aalyria consigue $100M | El spinoff de Google especializado en enrutamiento de tráfico entre plataformas satelitales en órbita baja alcanza una valoración de $1.300M. 👉 ¡Estamos en los nuevos años 60!
🗂 Microsoft:
🎮 Xbox sin Bond, Sarah Bond | Al parecer parte del equipo de Xbox está aliviado con la salida de la directora. 👉 Detrás de esto: el controvertido giro hacia la estrategia Xbox everywhere: Xbox dejó de ser “una consola” y pasa a ser “una capa” presente en PC, cloud, TV, y móviles.
☁️+ 🛍Amazon:
🏗️ Amazon corre con los gastos en Louisiana | La compañía invertirá $12.000M en nuevos centros de datos en el estado, asumiendo el 100% de los costes de infraestructura eléctrica asociados.
👉 Lo que Amazon evita son los “subsidios”, pero cuando la demanda sube con oferta constante, los precios de la energía suben … así que las protestas van a llegar igualmente. Y Amazon podrá decir: Yo pago lo que me toca, es la compañía eléctrica la que sube precios.
2. El resto de la industria:
💰 Anthropic a $350.000M | La compañía prepara una venta secundaria de acciones de empleados de entre $5.000M y $6.000M que valoraría la empresa en torno a esa cifra.
👉 Recuerda que cuando la empresa te da acciones y tu empresa no cotiza en bolsa te toca esperar hasta que debute en bolsa, o hasta que la empresa te permita venderlas. Es lo que ocurre en este caso.
📉 IBM cae un 13% | El anuncio de Claude Code como herramienta para modernizar código COBOL golpea directamente al negocio de consultoría legacy de IBM. 👉 Estas son las segundas derivadas o, como digo en Academy: los entramados invisibles.
💳 PayPal en el punto de mira | La compañía atrae el interés de posibles compradores tras un desplome bursátil que ha borrado casi la mitad de su valor en el último año. La acción cerró al alza un 5,76% ante los rumores. 👉La compran entera, hacen cambios drásticos y en 3-5 años la intentan vender.
🅿️ Uber compra SpotHero | La plataforma de reserva de aparcamiento, valorada en $290M en su última ronda, pasa a manos de Uber para reforzar su oferta en eventos y aeropuertos. 👉 La cabeza me lleva directo al mundial de fútbol.
🏛️ Política y negocio digital
🚗 Tesla demanda a California | La compañía lleva al DMC (equivalente a la Dirección general de tráfico en España) a los tribunales tras la resolución que declaró ilegales (publicidad engañosa) sus comunicaciones sobre Autopilot y Full Self-Driving.
👉 Recuerda que ayer Tesla fue declarada culpable por un accidente con un muerto con autopilot encendido y lo va a recurrir. O eres conducción autónoma y responsable, o no… Hay que decidirse.
🪖 Amodei al Pentágono | El secretario de Defensa Pete Hegseth convoca al CEO de Anthropic para una reunión donde se va a poder cortar el aire. 👉 Recuerda la presión del Pentágono y el dilema de Anthorpic aquí
💬 Un mensaje de Jakala
🤖 La IA no es un proyecto, es un modelo operativo. JAKALA te lo explica
🍐 Cuando una empresa adopta una nueva tecnología, suele empezar por el low hanging fruit:
copilots, automatizaciones rápidas, pequeños casos de uso con retorno visible.
👍 Es lógico y también es prudente. 🤌🏻 Pero ahí no está la transformación.
👀 El problema empieza cuando la IA se queda en experimentos aislados. Porque la IA no es incremental. Es estructural.
La pregunta deja de ser: “¿Dónde aplicamos IA?”
Y pasa a ser: “¿Cómo organizamos la compañía para que datos, procesos y decisiones estén diseñados para trabajar con IA desde el inicio?”
👀 Ahí entra el concepto de AI Factory que desarrolla JAKALA: industrializar la IA como modelo operativo, no como conjunto de iniciativas sueltas.
Las empresas nuevas ya nacen así.
Pero, para muchas tradicionales, el reto es rediseñarse.
JAKALA lo explica en detalle aquí.
Porque optimizar el pasado no es lo mismo que diseñar el futuro.
Patrocina la newsletter para llegar a más de 90.000 personas entre MultiVersial, Kloshletter y Zona Mixta
Pero no cualquier persona: Las que toman las decisiones en las empresas más grandes, las que crean startups, las que lideran los principales medios de comunicación. Añade alumnado & profesorado de escuelas de negocio y profesionales con la ambición de progresar.
+ Info aquí
3. Lecturas Interesantes 📚:
🤖📉 Citrini Research imagina una “Crisis Global de Inteligencia 2028”: un escenario donde la aceleración de la IA provoca despidos masivos en empleos cualificados, erosionando la economía centrada en el consumo humano y tensando el tejido social.
🐦📌 X (Twitter): un experimento sugiere que el feed “For You” está sesgado hacia el contenido conservador. Recuerda que Elon Musk se quejaba de lo contrario antes de comprar la empresa.
4. 🗞️ En paralelo, para que estés al día
Ayer en Zona Mixta: Dos formas de ganar sin que te aplaste la presión.
Los ejemplos olímpicos de Eileen Gu y Alysa Liu
En KloshLetter, cada día a las 7:00 de la mañana, el resumen de la actualidad. Aquí van algunas de las claves de hoy.
5. Producto Molón ⭐ :
De pequeño, mis hermanas mayores tenían cada una su joya: el barco vikingo, la nave alien y la furgoneta camper. Horas inventando historias que parecían infinitas.
Pensé que ya no se vendían esos juguetes… y lo acabo de encontrar.
Y ahora, además, con rebaja.
Aquí (y los productos del resto de días también)
6. MultiVersial Academy 🎓
[Inscripciones cerradas los próximos meses]
Hoy nuevo caso.
Una empresa que ha cambiado sus principios al menos dos veces para conseguir el éxito.
Tomar buenas decisiones es caro... decidir mal te cuesta una fortuna
¿A quien le puede servir esta edición de MultiVersial? A los que estén interesados en humanidades y la tecnología
www.multiversial.es


