Por favor, apoya este pódcast visitando a nuestros patrocinadores: - Lindy es tu asistente de IA definitivo que gestiona proactivamente tu bandeja de entrada - https://try.lindy.ai/tad - SurveyMonkey, Usando IA para descubrir insights más rápido y reducir el tiempo de análisis manual - https://get.surveymonkey.com/tad - KrispCall: Telefonía en la nube agéntica - https://try.krispcall.com/tad Apoya directamente a The Automated Daily: Cómprame un café: https://buymeacoffee.com/theautomateddaily Temas de hoy: Valoraciones disparadas en IA - El mercado secundario infla a Anthropic cerca del billón de dólares, mostrando cómo la escasez de acciones y la narrativa de crecimiento distorsionan el precio de líderes en IA. DeepSeek y la carrera china - DeepSeek negocia su primera ronda externa por encima de 20.000 millones; Tencent y Alibaba suenan como interesados, reflejando la repriorización acelerada de activos de IA en China. Tesla compra secreta de hardware - Tesla revela en un documento regulatorio la compra de una empresa de hardware de IA por hasta 2.000 millones en acciones, con gran parte condicionada a hitos; aumenta la opacidad sobre su gasto en IA. EE.UU. contra la destilación de modelos - La Casa Blanca acusa campañas a escala industrial para copiar modelos vía ‘distillation’ y promete compartir inteligencia con OpenAI, Anthropic y Google; el choque legal y técnico sigue abierto. GPT-5.5 y agentes más autónomos - OpenAI lanza GPT-5.5 con mejoras en tareas de varios pasos, uso de herramientas y coding, intentando hacer a los agentes más persistentes sin aumentar latencia ni costes por token. Privacidad: filtro abierto de PII - OpenAI publica Privacy Filter, un modelo open-weight para detectar y borrar PII en texto, útil para logs, datasets y búsquedas; impulsa privacidad-by-design en pipelines de IA. Calidad en herramientas de programación IA - Anthropic explica que la bajada percibida de Claude Code fue por cambios de producto (latencia, ‘thinking’ y prompts) y anuncia ajustes de control y evaluaciones para evitar regresiones. Arquitectura realista para agentes - Dos ensayos cuestionan el falso dilema ‘agentes en Python vs Markdown’ y proponen un enfoque híbrido: intención en lenguaje natural y guardarraíles deterministas en código, como un ‘shell’ moderno. Investigación MoE y reproducibilidad - Amazon Science archiva el repo de ‘Expert Upcycling’ para MoE, congelando el código de un método que reduce coste de entrenamiento al expandir expertos a mitad de preentrenamiento. IA, verdad y poder institucional - El Vaticano acelera reglas internas y una agenda de ‘crisis de verdad’ frente a deepfakes; y un ensayo político describe la IA como proyecto de poder, no herramienta neutral, avivando el debate público. IA Overviews llega a Gmail - Google lleva AI Overviews a Gmail para entornos laborales, resumiendo hilos y respondiendo consultas en lenguaje natural; cambia cómo se recupera información en el correo corporativo. - Why AI Agents Need Both Code Guardrails and Natural-Language Intent - Tencent and Alibaba in talks to invest in DeepSeek at over $20B valuation - Essay Claims Modern AI Is Structurally Aligned With Fascist Power and Violence - Tesla Reveals Up to $2B AI Hardware Acquisition in Brief 10-Q Note - White House Says China Is Copying US AI via Distillation, Plans Intelligence Sharing with Top Labs - Turbopuffer pitches serverless vector and full-text search built on object storage - Cursor Migrates to Turbopuffer to Scale Code Retrieval Past 1T Vectors and Cut Costs - OpenAI launches GPT-5.5 with stronger agentic performance and expanded safety safeguards - Amazon Science Archives ‘Expert Upcycling’ Code for Expanding MoE Models Mid-Training - Anthropic Hits $1 Trillion Secondary-Market Valuation, Trading Above OpenAI - Ai2 Adds On-Demand OlmoEarth Embeddings Export to OlmoEarth Studio - Inference.sh Claims the Agent Harness Should Be Treated as a Networked Shell - MenteDB Launches as a Rust Memory Database Engine Built for AI Agents - Vatican Steps Up AI Rules and Cyber Defenses Amid ‘Crisis of Truth’ - Stash Launches as an Open-Source Memory Layer for AI Agents - Crusoe Launches Managed Inference Service Powered by MemoryAlloy KV Cache - OpenAI releases open-weight Privacy Filter model to detect and redact PII locally - Anthropic fixes three Claude Code changes that caused perceived quality regressions - Google brings AI Overviews to Gmail search for Workspace users Transcripcion del Episodio Valoraciones disparadas en IA Empezamos por el termómetro financiero de la IA. Según precios observados en Forge Global, Anthropic estaría siendo valorada implícitamente alrededor del billón de dólares, por encima de lo que allí mismo se estima para OpenAI. Lo importante no es sólo el número: es lo que revela sobre un mercado secundario donde la oferta de acciones es limitada, los rumores vuelan y la “historia” de crecimiento puede empujar valoraciones a niveles poco conectados con métricas tradicionales. También es un recordatorio de que, incluso sin anuncios oficiales, la percepción de liderazgo en modelos y herramientas para developers se traduce en dinero —o al menos en expectativas. DeepSeek y la carrera china Y si miramos a China, Reuters informa que DeepSeek estaría en conversaciones para su primera ronda externa con una valoración por encima de 20.000 millones de dólares, supuestamente impulsada por interés inversor que habría disparado el precio en cuestión de horas. Tencent habría explorado comprar una parte relevante, y Alibaba también estaría en la mesa. El matiz clave: DeepSeek distribuye modelos gratuitamente, así que valorarla como si fuera una empresa de software por ingresos es complicado. Aun así, el mercado la está comparando con otros grandes nombres locales, lo que subraya lo rápido que se están “repreciando” los activos punteros de IA en la región. Tesla compra secreta de hardware En Estados Unidos, la Casa Blanca pone el foco en otro frente: proteger modelos. Un memo de la Office of Science and Technology Policy acusa a entidades extranjeras —principalmente en China— de operar campañas a escala industrial para “destilar” modelos líderes, es decir, aproximarlos recolectando grandes volúmenes de respuestas a través de consultas. El gobierno dice que compartirá inteligencia con grandes laboratorios para detectar y frenar estos patrones, y el Congreso baraja herramientas más duras. Lo interesante aquí es el choque entre lo técnico y lo jurídico: no hablamos de robar pesos, sino de copiar comportamiento por internet. Ponerle fronteras a eso es difícil, y además se cruza con el mundo open-source y con prácticas que, en algunos contextos, son rutinarias. EE.UU. contra la destilación de modelos Cambiamos a hardware y gasto: Tesla dejó caer en su 10-Q del primer trimestre de 2026 un detalle enorme, casi escondido. Dice haber acordado la compra de una empresa “no nombrada” de hardware de IA por hasta 2.000 millones de dólares, pagaderos en acciones y premios de equity, con la mayor parte condicionada a hitos de rendimiento y despliegue. ¿Por qué importa? Porque introduce un nivel de opacidad poco habitual para un movimiento de este tamaño y llega en un momento en que Tesla está acelerando inversión en chips, fábricas y capex asociado a IA, mientras su negocio principal de automoción sigue bajo presión por márgenes y expectativas. GPT-5.5 y agentes más autónomos Ahora, productos y modelos. OpenAI anunció GPT-5.5, posicionándolo como un salto en capacidad “agentic”: más planificación, mejor uso de herramientas y más persistencia en tareas largas, especialmente en coding, análisis de datos y creación de documentos. El mensaje de fondo es claro: la industria quiere que el usuario deje de microgestionar cada paso y que el modelo aguante flujos completos con menos idas y vueltas. También es relevante que OpenAI subraye salvaguardas adicionales en áreas sensibles como ciberseguridad y bio, señalando que cuanto más autónomo es el modelo, más necesario se vuelve el control del perímetro. Privacidad: filtro abierto de PII En esa línea de “infraestructura responsable”, OpenAI también publicó Privacy Filter, un modelo open-weight pensado para detectar y redactar datos personales en texto: PII, secretos y, en general, información que no debería acabar en logs, índices o datasets de entrenamiento. El valor aquí es práctico: muchas organizaciones quieren automatizar limpieza de datos sin mandar contenido sensible a servicios externos. Que sea un modelo descargable y auditable puede facilitar privacidad-by-design, aunque OpenAI misma advierte que no es una solución mágica de cumplimiento y que en escenarios de alto riesgo sigue haciendo falta validación y revisión humana. Calidad en herramientas de programación IA Hablando de experiencias reales, Anthropic respondió a las quejas de usuarios que notaron a Claude Code “peor” en las últimas semanas. La explicación es interesante porque no apunta al modelo base, sino a cambios en la capa de producto: ajustes para reducir latencia, un bug que afectaba la continuidad del razonamiento entre turnos y una regla de prompt para recortar verbosidad que terminó degradando calidad. Ya lo han revertido y dicen que reforzarán controles, evaluaciones y despliegues. La lectura: muchas “regresiones” en IA no vienen de un nuevo LLM, sino de pequeñas decisiones de producto que cambian cómo se comporta en el día a día. Arquitectura realista para agentes Y esto conecta con dos ensayos que hoy están circulando fuerte sobre agentes. Uno cuestiona el debate de moda: si los agentes deberían especificarse en Python —como flujos estructurados— o en Markdown —como intención en lenguaje natural—. La tesis es que ambos maximalismos se rompen en producción: demasiado código vuelve al agen