| Edition | English | Español | Français |
| ● Space | Apple · Spotify · RSS | — | — |
| ● Top News | Apple · Spotify · RSS | Apple · Spotify · RSS | Apple · Spotify · RSS |
| ● Tech | Apple · Spotify · RSS | Apple · Spotify · RSS | Apple · Spotify · RSS |
| ● Hacker News | Apple · Spotify · RSS | Apple · Spotify · RSS | Apple · Spotify · RSS |
| ● AI | Apple · Spotify · RSS | Apple · Spotify · RSS | Apple · Spotify · RSS |

98.3K
Downloads
6966
Episodes
Welcome to ’The Automated Daily’, your ultimate source for a streamlined and insightful daily news experience. Powered by cutting-edge Generative AI technology, we bring you the most crucial headlines of the day, carefully selected and delivered directly to your ears. Our intelligent algorithms scour the news landscape to sift through the noise, ensuring that you receive only the most relevant and significant stories. Join us as we condense the day’s news into a concise and captivating format, keeping you informed and empowered.
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
LinkedIn - https://www.linkedin.com/in/the-automated-daily/
X (Twitter) - https://x.com/automated_daily
Welcome to ’The Automated Daily’, your ultimate source for a streamlined and insightful daily news experience. Powered by cutting-edge Generative AI technology, we bring you the most crucial headlines of the day, carefully selected and delivered directly to your ears. Our intelligent algorithms scour the news landscape to sift through the noise, ensuring that you receive only the most relevant and significant stories. Join us as we condense the day’s news into a concise and captivating format, keeping you informed and empowered.
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
LinkedIn - https://www.linkedin.com/in/the-automated-daily/
X (Twitter) - https://x.com/automated_daily
Episodes

Tuesday Mar 17, 2026
Tuesday Mar 17, 2026
Por favor, apoya este pódcast visitando a nuestros patrocinadores:
- Crea cualquier formulario, sin código, con Fillout. 50% de créditos adicionales por registrarte - https://try.fillout.com/the_automated_daily
- Diseño con IA sin esfuerzo para presentaciones, sitios web y más con Gamma - https://try.gamma.app/tad
- Descubre el futuro del audio con IA con ElevenLabs - https://try.elevenlabs.io/tad
Apoya directamente a The Automated Daily:
Cómprame un café: https://buymeacoffee.com/theautomateddaily
Temas de hoy:
Vacuna de ARNm para un perro - Un caso en Australia describe una vacuna personalizada de ARNm para una perra con cáncer, diseñada con apoyo de herramientas de IA. Palabras clave: ARNm, vacuna personalizada, oncología, neoantígenos, IA.
Análisis de sangre contra glioblastoma - Científicos del Reino Unido avanzan en un análisis de sangre para detectar y monitorizar tumores cerebrales como el glioblastoma con alta precisión. Palabras clave: biomarcadores, proteínas en sangre, MRI, diagnóstico temprano, ensayo clínico.
BCI: escribir solo con pensamientos - Un estudio muestra que implantes de interfaz cerebro-ordenador permitieron a personas con parálisis escribir en un teclado virtual usando señales neuronales. Palabras clave: BCI, parálisis, comunicación, neurotecnología, accesibilidad.
Congelar órganos para trasplantes - Investigadores en China reportan un método experimental para congelar y reanimar órganos en animales, con potencial para ampliar ventanas de trasplante. Palabras clave: preservación de órganos, trasplante, criopreservación, logística, medicina.
GLP-1 orales y biomanufactura comestible - Un análisis explora por qué los GLP-1 orales siguen siendo difíciles y plantea producirlos dentro de organismos comestibles para abaratar y escalar. Palabras clave: GLP-1, semaglutida oral, biodisponibilidad, biomanufactura, regulación.
OpenAI se enfoca en empresa - OpenAI prepara un cambio para recortar iniciativas dispersas y priorizar herramientas de programación y productividad para empresas frente a la presión competitiva. Palabras clave: OpenAI, estrategia, Codex, productividad, ingresos empresariales.
Nvidia y la era de inferencia - Nvidia insiste en que el próximo gran negocio de la IA es ejecutar modelos de forma eficiente, no solo entrenarlos, y mueve fichas para proteger liderazgo. Palabras clave: Nvidia, inferencia, chips, competencia, eficiencia.
Meta asegura capacidad de centros de datos - Meta firma un acuerdo multimillonario de infraestructura con la nube europea Nebius, reflejando la carrera por asegurar capacidad de cómputo. Palabras clave: Meta, Nebius, centros de datos, capacidad, inversión IA.
Android endurece la instalación externa - Google prepara verificación obligatoria de desarrolladores para la mayoría de apps fuera de Play Store, desatando críticas por privacidad y control. Palabras clave: Android, sideloading, verificación, malware, EFF.
Redes sociales y economía del enfado - Un documental de la BBC, según una reseña, acusa a plataformas como Meta y X de optimizar la indignación porque es rentable, con impactos sociales tangibles. Palabras clave: algoritmos, desinformación, engagement, regulación, transparencia.
Bioseguridad: riesgos reales con IA - Un ensayo sostiene que la IA no convierte a cualquiera en bioingeniero, pero sí complica la defensa: el cuello de botella es coordinación, incentivos y detección. Palabras clave: bioseguridad, vigilancia, ADN sintético, respuesta rápida, políticas.
Transcripcion del Episodio
Vacuna de ARNm para un perro
Empezamos en la intersección entre biotecnología e inteligencia artificial, con una historia tan llamativa como cautelosa. En Sídney, una perra llamada Rosie, con un tumor agresivo y pocas opciones, recibió una vacuna experimental de ARNm hecha a medida. Lo interesante aquí no es solo el resultado preliminar —una reducción notable de los tumores y una mejora visible en su energía—, sino el “pipeline”: secuenciaron el tumor, buscaron mutaciones específicas y usaron herramientas de IA para acotar posibles dianas. Investigadores universitarios ayudaron a fabricar la vacuna en menos de dos meses. Es un caso único, no una prueba definitiva, pero sugiere que la personalización rápida podría acercarse, siempre que luego aguante el escrutinio de ensayos rigurosos.
Y hablando de diagnósticos, llega un avance muy prometedor desde el Reino Unido. Un equipo liderado por la Universidad de Manchester reporta progresos hacia un análisis de sangre capaz de detectar tumores cerebrales y seguir su evolución casi en tiempo real, con foco en glioblastoma, uno de los más agresivos. Identificaron un par de proteínas en sangre que, combinadas, ofrecieron una precisión muy alta mientras se evaluaba a pacientes durante cirugía y después en tratamientos como radio y quimio. La idea que podría cambiar la práctica clínica es sencilla: ayudar a médicos de atención primaria a decidir cuándo síntomas como dolores de cabeza recurrentes justifican una resonancia urgente. Ya hay un ensayo clínico en marcha en varios centros, y si esto se confirma, podríamos hablar de menos biopsias invasivas y diagnósticos más rápidos.
Seguimos con el cerebro, pero ahora desde la neurotecnología. Un nuevo estudio cuenta que un implante de interfaz cerebro-ordenador permitió a dos personas con parálisis teclear en un teclado virtual usando solo sus pensamientos. Traducido a lo cotidiano: intentar mover los dedos, aunque el cuerpo no responda, puede generar señales que el sistema interpreta para convertirlas en pulsaciones. Lo relevante es la fluidez: uno de los participantes se acercó bastante al ritmo de escritura de una persona sin discapacidad. Aún es investigación y queda el gran reto de escalar, hacerlo robusto y accesible, pero cada paso sólido en este terreno amplía la autonomía de quienes no pueden comunicarse de forma convencional.
Otra noticia médica con implicaciones enormes: investigadores en China describen un método experimental para congelar órganos y luego “revivirlos” para trasplante, al menos en modelos animales. Si algo así se traslada a humanos, el impacto no es solo científico, es logístico: hoy algunos órganos tienen una ventana de uso muy estrecha, lo que obliga a carreras contrarreloj y descarta donaciones que podrían salvar vidas. Con más tiempo de preservación, cambiarían rutas, coordinación hospitalaria y, potencialmente, la cantidad de trasplantes viables.
Y una más del frente salud, esta vez sobre los fármacos tipo GLP-1, famosos por su papel en diabetes y control de peso. Un análisis repasa por qué convertirlos en pastilla sigue siendo tan difícil: el estómago y el intestino son un entorno hostil para estas moléculas, y lograr que se absorban bien es un dolor de cabeza… y de costes. La propuesta curiosa es la “biomanufactura comestible”: usar organismos considerados seguros para producir el compuesto y, de paso, protegerlo dentro de su propia estructura. Suena futurista —y tiene obstáculos claros de regulación y aceptación—, pero apunta a una idea clave: el problema no es solo la formulación, también es fabricar suficiente cantidad a un precio razonable.
Cambiamos de tercio hacia la industria de la inteligencia artificial. OpenAI, según se ha reportado internamente, prepara un giro de estrategia: recortar proyectos secundarios y concentrarse en herramientas de programación y productividad para empresas. El trasfondo es muy de empresa madura: cuando abres demasiados frentes, se dispersan equipos, se compite por recursos y se generan bandazos. Además, hay presión competitiva: Anthropic ha ganado terreno con un enfoque más estrecho en clientes corporativos y herramientas orientadas a código. Si OpenAI ejecuta este reordenamiento, el mensaje es claro: menos “experimentos vistosos”, más productos que puedan sostener ingresos estables, especialmente si de verdad se acerca el momento de pensar en mercados públicos.
Y en la misma línea, un debate que ya se escucha en muchas compañías: los agentes de programación están cambiando la forma de desarrollar software. En una mesa redonda con líderes de ingeniería se repetía una idea: el valor se multiplica cuando el ciclo se cierra, es decir, cuando el agente no solo sugiere cambios, sino que prueba, evalúa, abre solicitudes de corrección y aprende del resultado. Pero también dejaron claro el límite: gobernanza por riesgo. Lo crítico y destructivo sigue requiriendo ojos humanos; lo menos delicado puede automatizarse más. La tendencia suena a “menos heroísmo y más pruebas”, y a equipos donde la revisión cambia: el humano se reserva para lo importante, y la IA cubre el volumen.
Ahora, infraestructura: Nvidia está redoblando su narrativa de que entramos en una “era de la inferencia”, el momento en que el gran gasto se mueve de entrenar modelos a ejecutarlos masivamente con eficiencia. Más allá del marketing, hay una señal empresarial concreta: la competencia ya no es solo por tener el chip más potente, sino por quién reduce costes, energía y tiempos al poner IA en producción. En paralelo, se menciona un acuerdo de licencias con Groq y fichajes estratégicos, como forma de blindar su posición cuando los grandes clientes —Google, Meta y otros— también diseñan procesadores propios y, además, las restricciones geopolíticas siguen condicionando ventas en China.
Y hablando de Meta: la compañía ha firmado un acuerdo a largo plazo con el proveedor europeo Nebius para asegurarse capacidad de cómputo destinada a IA. La cifra comprometida es enorme y, sobre todo, el gesto revela algo: la escasez ya no es “ideas” o “modelos”, es espacio real en centros de datos, energía, y acceso garantizado a máquinas durante años. Para Europa, además, refuerza a Nebius como actor relevante en nube para IA, en un mercado donde normalmente mandan los gigantes estadounidenses.
En semiconductores, también llega movimiento desde China. Se ha informado que Hua Hong, a través de su unidad Huali, prepara un proceso avanzado de fabricación que, si se consolida, la colocaría entre las pocas capaces de producir chips más punteros dentro del país. Esto es interesante por dos razones: primero, por la búsqueda de autosuficiencia en un contexto de restricciones y tensiones comerciales; segundo, porque incluso con capacidad doméstica, queda la gran pregunta de siempre: rendimiento, consistencia y escalado. Aun así, cada paso reduce dependencia externa y cambia el tablero regional.
Pasamos a software de consumo, con una polémica que puede redefinir Android tal como lo conocemos. Google prepara un sistema de verificación de desarrolladores que afectaría a la mayoría de apps distribuidas fuera de la Play Store: identidad real y registro obligatorio, con la amenaza de bloquear instalaciones en muchos dispositivos si no se cumple. Google lo vende como una medida contra malware y estafas que explotan la instalación manual. Críticos como organizaciones de derechos digitales advierten que esto acerca Android a un “jardín vallado”, y que además implica riesgos serios: una base de datos global de identidades de desarrolladores puede convertirse en un objetivo de presión legal o política, y perjudicar a quienes crean herramientas sensibles, como privacidad o derechos humanos. La batalla aquí es la de siempre: seguridad versus apertura, con un componente nuevo de control de infraestructura.
Y cerramos con un tema más social, pero muy tecnológico. Una reseña de The Guardian sobre el documental de la BBC Inside the Rage Machine sostiene que plataformas como Meta y X tienden a amplificar contenido que enfada y polariza porque eso genera interacción, y por tanto ingresos. El documental se apoya en testimonios de exempleados y denuncia que los intentos de moderación y verificación se recortan cuando aprieta la competencia por atención. La conclusión es incómoda: si el modelo de negocio premia el conflicto, la solución no se arregla con “buenas intenciones”, sino con reglas, transparencia y métricas que no recompensen el daño.
Como epílogo, una reflexión de bioseguridad que está ganando peso: aunque la IA no convierte de golpe a un novato en alguien capaz de crear amenazas biológicas complejas, sí puede bajar barreras informativas y acelerar trabajo especializado. El ensayo que circula insiste en que el cuello de botella no es solo científico: es institucional. Detección temprana, coordinación y capacidad de respuesta rápida importan tanto como el laboratorio. En otras palabras, no basta con temer a la tecnología: hay que preparar sistemas que reaccionen bien cuando algo sale mal.
Suscríbete a fuentes específicas por edición:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Tuesday Mar 17, 2026
Tuesday Mar 17, 2026
Merci de soutenir ce podcast en visitant nos sponsors:
- Découvrez l’avenir de l’audio IA avec ElevenLabs - https://try.elevenlabs.io/tad
- KrispCall: Téléphonie cloud agentique - https://try.krispcall.com/tad
- Investissez comme les professionnels avec StockMVP - https://www.stock-mvp.com/?via=ron
Soutenez directement The Automated Daily:
Offre-moi un café: https://buymeacoffee.com/theautomateddaily
Sujets du jour:
Calcul fiable intégré aux LLM - Des chercheurs proposent d’intégrer un interpréteur WebAssembly directement dans un transformer pour exécuter des programmes avec des traces longues, ouvrant la voie à un calcul déterministe dans les LLM.
Inférence cloud accélérée AWS Cerebras - AWS déploie des systèmes d’inférence Cerebras CS-3 via Bedrock et explore une “inférence désagrégée” (prefill/décode) pour augmenter le débit de tokens, crucial pour les agents et le code.
Optimisation des contextes très longs - Anthropic généralise une fenêtre de contexte d’un million de tokens, réduisant la compaction et la perte d’information sur codebases, contrats et journaux d’incidents.
MCP contre CLI pour agents - Le débat MCP vs CLI revient sur un point clé: l’injection répétée de schémas consomme des tokens, tandis que la découverte progressive via CLI peut réduire le coût, au prix d’autres compromis.
Agents de code: vitesse vs qualité - Une étude sur Cursor suggère un gain de productivité initial, mais une hausse durable de complexité et d’alertes qualité; le message: l’assurance qualité devient le goulot d’étranglement des agents.
Course chinoise aux modèles IA - Moonshot AI (Kimi) viserait une levée pouvant atteindre 1 milliard de dollars, tandis qu’une équipe publie “Attention Residuals”, un changement de connexions résiduelles pour améliorer l’entraînement des modèles profonds.
Vidéo générative et batailles IP - ByteDance aurait mis en pause le lancement mondial de Seedance 2.0 après des tensions juridiques sur droits d’auteur et ressemblance, illustrant le verrou IP des générateurs vidéo.
World models et intelligence spatiale - Entre “world models”, simulation apprise et représentations 3D persistantes, le terme recouvre plusieurs paris; Spatial-TTT vise en plus une compréhension spatiale en streaming sur vidéo longue.
NVIDIA: rendu DLSS 5 et CPU - NVIDIA annonce DLSS 5 pour pousser le rendu neural en temps réel et dévoile le CPU Vera, pensé pour les charges “agentiques” et l’orchestration à grande échelle en data center.
Emplois: cartographie et exposition IA - Un visualiseur du marché de l’emploi américain combine données BLS et un score d’“exposition IA” estimé par LLM, utile pour explorer quels métiers sont les plus impactables par la numérisation.
Outils et références pour architectes LLM - La “LLM Architecture Gallery” de Sebastian Raschka centralise des schémas et comparatifs d’architectures, aidant à suivre les tendances comme MoE, attention efficace et hybrides type Mamba.
Design assisté: Google Stitch évolue - Google testerait une refonte de Stitch vers un espace plus ‘spatial’, avec agent vocal et export React, signe d’une chaîne design-vers-code de plus en plus automatisée.
-New Interactive Treemap Visualizes U.S. Jobs and LLM-Based AI Exposure
-AWS to Deploy Cerebras CS-3 on Bedrock, Co-Develop Disaggregated Inference with Trainium
-Moonshot AI Proposes Attention Residuals to Replace Fixed Residual Connections
-Moonshot AI seeks up to $1 billion round at $18 billion valuation
-IndexCache patch accelerates DeepSeek Sparse Attention by reusing indices across layers
-Sebastian Raschka Launches Updated LLM Architecture Gallery for Side-by-Side Model Comparisons
-NVIDIA Unveils DLSS 5 Neural Rendering to Boost Real-Time Game Realism
-Study Finds Cursor AI Boosts Short-Term Output but Increases Long-Term Code Complexity
-Apideck: MCP Tool Schemas Can Drain Context Windows—CLIs Offer a Leaner Agent Interface
-NVIDIA Debuts Vera CPU to Target Agentic AI and Reinforcement Learning at Data-Center Scale
-Tsinghua-led team open-sources Spatial-TTT for streaming video spatial intelligence
-Claudetop launches as real-time cost and cache monitor for Claude Code sessions
-Five Competing Meanings of ‘World Models’ in AI, From JEPA to 3D and Active Inference
-ByteDance Reportedly Delays Global Release of Seedance 2.0 Amid Hollywood Copyright Threats
-Percepta Builds a Program-Executing Transformer With Log-Time Decoding
-Blog Post Argues MCP Isn’t Dead—Centralized MCP Is Key for Enterprise Agents
-Leak Suggests Google Stitch Redesign With 3D Workspace, Voice Agent, and React App Export
-replay.temporal.io
-Z.AI Details GLM-5-Turbo for OpenClaw Agents and Releases ZClawBench Benchmark
-Advisers warn enterprises are faking AI success as quality, liability risks mount
-Wiz Releases AI Security Board Report Template for CISOs
-AMD pitches always-on “Agent Computers” for running AI agents locally
-Claude Opus 4.6 and Sonnet 4.6 Launch 1M-Token Context Window in General Availability
Transcription de l'Episode
Calcul fiable intégré aux LLM
D’abord, une idée qui pourrait changer la manière dont on fait du “raisonnement fiable” avec les LLM. Un article décrit un prototype où un interpréteur WebAssembly serait, en quelque sorte, intégré dans les poids d’un transformer. Objectif: exécuter du code compilé directement “dans” le modèle, produire une trace d’exécution très longue, et surtout obtenir une correction déterministe quand le programme l’est. Le point clé, c’est la performance: pour éviter que la génération ne s’écroule dès qu’on produit des milliers puis des millions de tokens de trace, les auteurs proposent une voie de décodage plus efficace. Si ce genre d’approche se confirme, on se rapproche d’un futur hybride: des LLM pour la flexibilité, et une couche de calcul interne pour la rigueur, sans dépendre en permanence d’un runtime externe.
Inférence cloud accélérée AWS Cerebras
Sur l’inférence, justement, AWS annonce le déploiement de systèmes Cerebras CS-3 dans ses data centers, accessibles via AWS Bedrock. Le message d’AWS est simple: pour les applications “agentiques”, notamment le code, le problème n’est pas seulement de répondre, c’est de générer énormément de tokens rapidement sans casser le flux de travail. AWS et Cerebras vont plus loin avec une architecture dite “désagrégée”, où l’on sépare la phase de préparation du contexte — très gourmande en calcul — et la phase de génération token par token — très gourmande en bande passante mémoire. Pourquoi c’est intéressant? Parce que ça assume une réalité opérationnelle: tous les workloads ne se ressemblent pas, et optimiser la latence ou le débit passe de plus en plus par une spécialisation fine de l’infrastructure, pas uniquement par “plus de GPU”.
Optimisation des contextes très longs
Dans la même veine “faire mieux avec ce qu’on a”, Tsinghua et Z.ai publient IndexCache, un patch open source pour accélérer l’inférence de modèles à attention clairsemée type DeepSeek. Leur constat: sur les très longs contextes, une partie du temps part dans un mécanisme de sélection d’indices qui se répète couche après couche, souvent de manière redondante. L’approche proposée réutilise des résultats entre couches proches, ce qui améliore le débit sans exploser la mémoire. En clair: si 2026 est l’année des contextes géants, ce genre d’optimisation devient un levier direct pour réduire coûts et latence en production.
MCP contre CLI pour agents
Et puisqu’on parle de contextes géants: Anthropic annonce que Claude Opus 4.6 et Sonnet 4.6 passent à une fenêtre de contexte d’un million de tokens en disponibilité générale, avec une utilisation annoncée comme “standard”, sans réglages spéciaux. Ce que ça change au quotidien, c’est moins de compaction, moins de résumés destructifs, et donc plus de continuité quand on travaille sur un dépôt de code entier, des contrats volumineux, ou des chronologies d’incident. Dit autrement: si le contexte devient moins rare, on peut déplacer le design des agents — moins de bricolage pour “faire rentrer” l’information, plus d’efforts sur la vérification et l’exécution.
Agents de code: vitesse vs qualité
Justement, côté design d’agents, un débat remonte sur le Model Context Protocol, le MCP. Une critique fréquente: dans beaucoup de setups, on injecte à chaque conversation des définitions d’outils et des schémas JSON très lourds, qui grignotent la fenêtre de contexte et coûtent cher en tokens. Certains proposent une alternative pragmatique: utiliser une interface type CLI, où l’agent découvre progressivement les capacités via l’aide intégrée, ce qui réduit l’injection initiale. Mais une réponse nuance le “MCP est mort”: tout dépend du cas d’usage. Pour une organisation, un MCP centralisé peut surtout servir de couche de gouvernance — auth, secrets, observabilité — plutôt que d’être un simple emballage de commandes. Moralité: en 2026, l’enjeu n’est plus seulement “brancher un outil”, c’est opérer un système d’agents de façon fiable, traçable, et économiquement soutenable.
Course chinoise aux modèles IA
Parlons productivité logicielle: une étude s’est penchée sur l’adoption de Cursor, un agent de code, dans des projets open source sur GitHub. Résultat: un gros boost de vélocité au début… mais temporaire. Et surtout, une hausse persistante d’avertissements d’analyse statique et de complexité du code, qui finit par peser sur la vitesse à moyen terme. Le signal est clair: les agents peuvent accélérer la production, mais ils déplacent le coût vers la maintenance, la revue, et l’hygiène du code. Pour les équipes, ça plaide pour intégrer des garde-fous de qualité dès le workflow, au lieu de corriger “après”.
Dans le même esprit, un petit outil open source fait parler de lui: claudetop, une sorte de tableau de bord en temps réel pour visualiser l’usage, la consommation de tokens et le coût pendant une session de Claude Code. L’intérêt n’est pas le gadget, c’est la transparence: quand les assistants codent en continu, la facture peut dériver sans signaux clairs. Rendre visibles les “burn rates” et l’occupation du contexte devient une pratique d’ingénierie, pas juste une curiosité financière.
Vidéo générative et batailles IP
Côté Chine, Moonshot AI — l’équipe derrière Kimi — serait en discussions pour lever jusqu’à un milliard de dollars, sur une valorisation évoquée autour de 18 milliards. Cette dynamique illustre la compétition intense entre labs, mais elle se déroule aussi sous tension: des accusations publiques circulent sur des pratiques de distillation contestées. Pourquoi c’est important? Parce que le financement des modèles “frontière” dépend de plus en plus d’un mélange délicat: performance, capacité à monétiser vite, et crédibilité sur les données et la propriété intellectuelle.
Et sur le plan recherche, l’équipe Kimi présente “Attention Residuals”, une variante des connexions résiduelles où le modèle apprend à aller rechercher, selon l’entrée, des représentations des couches précédentes au lieu d’accumuler mécaniquement. Le but: éviter que l’information se “dilue” dans les très grands réseaux. Même si ça reste à confirmer largement, on voit une tendance: l’architecture reprend de l’importance, parce qu’on ne peut plus compter uniquement sur “plus de paramètres” pour gagner.
World models et intelligence spatiale
En vidéo générative, ByteDance aurait mis en pause le lancement mondial de Seedance 2.0 après une vague de réactions, notamment à Hollywood, et des menaces juridiques autour de droits et de ressemblance. Le point intéressant n’est pas seulement le conflit: c’est que la distribution internationale devient un problème de conformité autant que de technique. Les modèles peuvent être prêts; le go-to-market, lui, dépend de garde-fous IP, de filtres, et d’accords — sinon, le risque légal bloque tout.
NVIDIA: rendu DLSS 5 et CPU
Autre grande tendance: les “world models”. Un article rappelle que ce terme recouvre en réalité plusieurs familles d’approches: prédire des dynamiques dans un espace latent, construire des représentations 3D persistantes et éditables, ou aller vers des simulateurs interactifs pour entraîner des agents. Pourquoi ce cadrage compte? Parce que deux projets peuvent être vendus sous le même label tout en visant des problèmes totalement différents — et donc avec des trajectoires industrielles différentes.
Dans ce contexte, Tsinghua et des collaborateurs publient Spatial-TTT, un framework pour conserver une compréhension spatiale en streaming sur des vidéos potentiellement très longues. L’idée générale: ne pas seulement empiler du contexte, mais mettre à jour une “mémoire spatiale” au fil du flux. On voit émerger une ligne de recherche: rendre les systèmes capables d’apprendre et de se recaler pendant l’usage, sans repartir de zéro à chaque séquence.
Emplois: cartographie et exposition IA
Passons à NVIDIA, qui attaque deux fronts. D’un côté, DLSS 5 est présenté comme une avancée majeure du rendu neural en temps réel, avec un modèle pensé pour rester contrôlable et cohérent image après image — un point crucial pour les développeurs de jeux, qui doivent respecter une direction artistique plutôt que produire une vidéo “au hasard”. De l’autre, NVIDIA dévoile Vera, un CPU annoncé comme conçu pour des charges “agentiques” et l’orchestration de tâches, avec la promesse de réduire coût et latence quand les services IA deviennent des usines à outils, à validation, et à workflows. Le message stratégique est limpide: NVIDIA ne veut plus être seulement “la boîte à GPU”, mais la plateforme complète du data center IA.
Outils et références pour architectes LLM
Côté société et travail, un “US Job Market Visualizer” propose une carte interactive de centaines de métiers à partir des données officielles du Bureau of Labor Statistics, avec des vues sur la croissance, le salaire médian et les niveaux d’études. La nouveauté, c’est un score d’“exposition IA” généré par LLM, basé sur une intuition: plus le résultat du métier est numérique, plus l’IA actuelle peut le remodeler. L’auteur insiste que ce n’est pas une prophétie de disparition d’emplois, et c’est important: l’automatisation dépend aussi de la demande, des règles, des préférences des consommateurs. Mais comme outil d’exploration, ça aide à visualiser où l’impact pourrait d’abord se concentrer — et à éviter les débats trop abstraits.
Design assisté: Google Stitch évolue
Deux notes plus rapides pour terminer. D’abord, Sebastian Raschka met à jour une “LLM Architecture Gallery” qui aligne des schémas et comparatifs de modèles: c’est utile pour suivre l’évolution des recettes, et repérer les tendances d’efficacité qui se généralisent. Ensuite, chez Google, des fuites suggèrent une refonte de Stitch vers un espace plus “spatial”, avec agent vocal et surtout une exportation plus directe vers une application React. Si ça se confirme, on se rapproche d’une chaîne design-vers-code plus courte, où l’agent n’est plus un assistant ponctuel, mais un opérateur de production.
Abonnez-vous aux flux spécifiques par édition:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Tuesday Mar 17, 2026
Tuesday Mar 17, 2026
Por favor, apoya este pódcast visitando a nuestros patrocinadores:
- Descubre el futuro del audio con IA con ElevenLabs - https://try.elevenlabs.io/tad
- KrispCall: Telefonía en la nube agéntica - https://try.krispcall.com/tad
- Invierte como los profesionales con StockMVP - https://www.stock-mvp.com/?via=ron
Apoya directamente a The Automated Daily:
Cómprame un café: https://buymeacoffee.com/theautomateddaily
Temas de hoy:
LLM ejecutando código dentro del modelo - Un prototipo integra un intérprete WebAssembly en un transformer para ejecutar programas con trazas largas y correctas, apuntando a cómputo determinista en LLM.
AWS y Cerebras aceleran inferencia - AWS despliega sistemas Cerebras CS-3 en Bedrock y trabaja en inferencia desagregada con Trainium, buscando más tokens por segundo para agentes y coding.
Parches open-source para atención dispersa - IndexCache, de Tsinghua y Z.ai, acelera vLLM/SGLang en modelos con DeepSeek Sparse Attention reutilizando índices entre capas para mejorar prefill y decode.
Claude llega al millón de tokens - Anthropic habilita contexto de 1M tokens en Claude Opus/Sonnet sin configuración especial, reduciendo compacción y permitiendo trabajar con codebases y documentos enormes.
Agentes, MCP y alternativa CLI - Dos análisis chocan sobre MCP: uno critica el gasto de tokens por esquemas; otro defiende MCP remoto para gobernanza, OAuth, observabilidad y estandarización empresarial.
Cursor: velocidad vs deuda técnica - Un estudio causal sobre Cursor en GitHub encuentra un pico breve de productividad, pero más warnings y complejidad; la calidad cae y luego se frena la velocidad.
Moonshot AI: ronda gigante y polémica - Moonshot AI busca hasta 1.000 millones de dólares con valoración cercana a 18.000 millones; el crecimiento se mezcla con acusaciones de distilación con salidas de Claude.
ByteDance frena video IA global - ByteDance pausa el lanzamiento global de Seedance 2.0 tras viralidad y cartas legales de estudios; los riesgos de copyright y likeness frenan la expansión.
NVIDIA: DLSS 5 y CPU Vera - NVIDIA presenta DLSS 5 para rendering neural determinista en juegos y la CPU Vera orientada a agentes, señalando que el cuello de botella ya no es solo la GPU.
World models: cinco enfoques distintos - Un post ordena el boom de 'world models' en categorías: predicción latente tipo JEPA, representación 3D persistente, simulación aprendida, infraestructura y active inference.
Arquitecturas LLM en una galería - La 'LLM Architecture Gallery' de Sebastian Raschka reúne diagramas y fichas comparables para seguir tendencias: MoE, atención eficiente y diseños híbridos.
Mapa del empleo y exposición a IA - Un visualizador del mercado laboral de EE. UU. cruza datos BLS con un score de 'exposición digital a IA' por ocupación, útil para explorar impacto sin prometer predicciones.
-New Interactive Treemap Visualizes U.S. Jobs and LLM-Based AI Exposure
-AWS to Deploy Cerebras CS-3 on Bedrock, Co-Develop Disaggregated Inference with Trainium
-Moonshot AI Proposes Attention Residuals to Replace Fixed Residual Connections
-Moonshot AI seeks up to $1 billion round at $18 billion valuation
-IndexCache patch accelerates DeepSeek Sparse Attention by reusing indices across layers
-Sebastian Raschka Launches Updated LLM Architecture Gallery for Side-by-Side Model Comparisons
-NVIDIA Unveils DLSS 5 Neural Rendering to Boost Real-Time Game Realism
-Study Finds Cursor AI Boosts Short-Term Output but Increases Long-Term Code Complexity
-Apideck: MCP Tool Schemas Can Drain Context Windows—CLIs Offer a Leaner Agent Interface
-NVIDIA Debuts Vera CPU to Target Agentic AI and Reinforcement Learning at Data-Center Scale
-Tsinghua-led team open-sources Spatial-TTT for streaming video spatial intelligence
-Claudetop launches as real-time cost and cache monitor for Claude Code sessions
-Five Competing Meanings of ‘World Models’ in AI, From JEPA to 3D and Active Inference
-ByteDance Reportedly Delays Global Release of Seedance 2.0 Amid Hollywood Copyright Threats
-Percepta Builds a Program-Executing Transformer With Log-Time Decoding
-Blog Post Argues MCP Isn’t Dead—Centralized MCP Is Key for Enterprise Agents
-Leak Suggests Google Stitch Redesign With 3D Workspace, Voice Agent, and React App Export
-replay.temporal.io
-Z.AI Details GLM-5-Turbo for OpenClaw Agents and Releases ZClawBench Benchmark
-Advisers warn enterprises are faking AI success as quality, liability risks mount
-Wiz Releases AI Security Board Report Template for CISOs
-AMD pitches always-on “Agent Computers” for running AI agents locally
-Claude Opus 4.6 and Sonnet 4.6 Launch 1M-Token Context Window in General Availability
Transcripcion del Episodio
LLM ejecutando código dentro del modelo
Empezamos por esa propuesta llamativa: un artículo de Percepta sostiene que, aunque los LLM se lucen en matemáticas avanzadas, siguen fallando en algo más básico y práctico: cálculos largos y exactos. Su demostración va por un camino distinto al típico “llama a una herramienta externa”: incrustan un intérprete de WebAssembly dentro del propio modelo, de modo que el modelo puede ejecutar código compilado y generar una traza de ejecución paso a paso. ¿Por qué importa? Porque apunta a una combinación potente: lenguaje flexible con cómputo fiable, sin depender de servicios externos, lo que podría reducir errores tontos en tareas donde la exactitud no es negociable.
AWS y Cerebras aceleran inferencia
Pasamos a infraestructura, donde el cuello de botella ya no es solo “tener GPUs”, sino servir tokens a gran velocidad. Amazon Web Services está desplegando sistemas de inferencia Cerebras CS-3 dentro de sus centros de datos y planea ofrecerlos vía AWS Bedrock, tanto para modelos open-source como para los Nova de Amazon. El foco es claro: herramientas agentic —sobre todo las de programación— generan muchísimos más tokens por petición que un chat típico, y si la salida es lenta, el flujo de trabajo se vuelve torpe. Además, AWS y Cerebras empujan una arquitectura de “inferencia desagregada”, separando el tramo de preparación del de generación, para especializar hardware y aumentar capacidad efectiva en el mismo espacio. Señal: el rendimiento en tokens por segundo se está convirtiendo en métrica de producto.
Parches open-source para atención dispersa
En la misma línea de eficiencia, Tsinghua y Z.ai publicaron IndexCache, un parche open-source para SGLang y vLLM pensado para modelos con DeepSeek Sparse Attention, como DeepSeek-V3.2 y GLM-5. El problema que atacan es muy mundano pero caro: en contextos larguísimos, parte del tiempo se va en elegir qué tokens mirar en cada capa. Ellos observan que capas vecinas suelen escoger casi lo mismo, así que cachean ese trabajo y lo reutilizan. ¿La gracia? Acelerar prefill y decode sin pedir más memoria de GPU, o sea: más throughput y menos coste de servir contexto largo.
Claude llega al millón de tokens
Y si hablamos de contexto largo, Anthropic movió ficha fuerte: Claude Opus 4.6 y Sonnet 4.6 ya ofrecen una ventana de 1 millón de tokens de forma general, sin headers raros ni configuración especial, y además eliminan el “peaje” extra por long context. Esto cambia hábitos: menos compacción, menos resúmenes agresivos y más posibilidad de meter un repositorio grande, un expediente legal entero o una cronología completa de incidentes sin perder detalle. En 2026, la memoria del modelo no es solo comodidad: es menos fricción operativa y menos riesgo de que el agente “olvide” piezas críticas.
Agentes, MCP y alternativa CLI
Para aterrizar el tema de costes y visibilidad, apareció claudetop, una herramienta open-source tipo “htop” para sesiones de Claude Code. La idea es simple pero útil: mostrar en tiempo real tokens, coste estimado, ritmo de gasto, uso de ventana de contexto y señales de ineficiencia como compacción inminente. ¿Por qué es noticia? Porque, con agentes generando tokens a lo loco, el control de gasto y la observabilidad dejan de ser “finanzas” y pasan a ser parte de la experiencia de desarrollo.
Cursor: velocidad vs deuda técnica
Ahora, el debate del día en diseño de agentes: ¿MCP o CLI? Un artículo critica que muchos servidores MCP “se comen” la ventana de contexto al inyectar una y otra vez definiciones de herramientas y esquemas JSON; eso roba espacio a historial, documentos recuperados y razonamiento. Propone interfaces tipo CLI, donde el agente descubre capacidades progresivamente con ayuda y comandos, gastando menos tokens y, de paso, evitando algunos problemas de fiabilidad de servidores remotos.
Pero otro texto pone freno a la conclusión fácil de “MCP ha muerto”: dice que se mezcla todo en el mismo saco. Una cosa es MCP local por stdio —que puede ser sobrecarga— y otra muy distinta son servidores MCP centralizados por HTTP, que encajan mejor en empresas por autenticación, gestión de secretos, telemetría y control. Lectura práctica: en 2026 no gana una herramienta única; gana la arquitectura que equilibra coste de tokens, latencia y gobernanza.
Moonshot AI: ronda gigante y polémica
En desarrollo de software, llega un recordatorio incómodo: un estudio sobre el impacto causal de adoptar Cursor en proyectos open-source de GitHub encuentra un patrón de “subidón y resaca”. Tras adoptarlo, los proyectos aceleran al principio, pero aumentan de forma persistente las advertencias de análisis estático y la complejidad del código. Con el tiempo, esa pérdida de calidad se convierte en lastre y frena la velocidad. Relevancia: si tu organización mide éxito por volumen de commits o PRs, puede estar comprando deuda técnica sin verlo.
ByteDance frena video IA global
De hecho, otra pieza —desde Codestrap— insiste en esa idea: muchas empresas están metiendo IA sin arquitectura de referencia ni métricas correctas. Proponen mirar indicadores de entrega y fiabilidad, no “cantidad de código”, y alertan de exposición legal cuando la IA se equivoca en entregables reales. No es alarmismo gratuito: es un choque cultural entre herramientas probabilísticas y expectativas de responsabilidad en producción.
NVIDIA: DLSS 5 y CPU Vera
Saltamos a investigación de modelos. El equipo Kimi de Moonshot AI presentó “Attention Residuals”, una variante de conexiones residuales donde, en vez de acumular capa tras capa de forma fija, el modelo aprende a “consultar” representaciones previas según el input. La promesa es reducir la dilución de información en redes profundas y mantener señales más útiles a lo largo de la profundidad, con un coste extra pequeño. ¿Por qué nos importa? Porque gran parte del progreso reciente no viene de magia nueva, sino de exprimir eficiencia y estabilidad para escalar sin que el entrenamiento se vuelva un caos.
World models: cinco enfoques distintos
Y siguiendo con visión y vídeo, Tsinghua y colaboradores publicaron Spatial-TTT para mejorar inteligencia espacial en streaming: vídeo largo, potencialmente sin fin. La idea: mantener un estado espacial compacto que se actualiza online, en lugar de confiar únicamente en ampliar contextos. Para agentes que entienden el mundo —robótica, navegación, análisis de escenas— el reto no es solo “ver”, sino sostener evidencia espacial con el paso del tiempo.
Arquitecturas LLM en una galería
En el plano de negocio, Moonshot AI —la startup china detrás de Kimi— estaría buscando levantar hasta 1.000 millones de dólares, con valoración alrededor de 18.000 millones. La cifra llama la atención por el salto en pocos meses y por el contexto: competencia feroz entre laboratorios chinos, y a la vez escrutinio por prácticas de desarrollo. En particular, siguen resonando acusaciones públicas de Anthropic sobre uso fraudulento de cuentas para generar salidas de Claude y destilarlas. Lo relevante aquí es doble: apetito inversor todavía alto, pero con más fricción por propiedad intelectual y reputación técnica.
Mapa del empleo y exposición a IA
Y esa fricción es todavía más visible en vídeo generativo. Según reportes, ByteDance pausó el lanzamiento global de Seedance 2.0 tras hacerse viral con clips hiperrealistas y provocar una reacción dura de Hollywood, incluyendo cartas legales. ByteDance dice que reforzará salvaguardas de IP, pero el mensaje es claro: la limitación ya no es solo la calidad del modelo; es el marco legal y la gestión de riesgos de distribución fuera de un mercado doméstico.
Story 13
En hardware y gráficos, NVIDIA anunció DLSS 5, con un enfoque de rendering neural en tiempo real orientado a ser determinista y controlable por desarrolladores, no un “modelo de vídeo” impredecible. Si esto cuaja, veremos un salto en realismo sin exigir tiempos de render imposibles para juegos.
Y, en el centro de datos, NVIDIA también presentó la CPU Vera, vendiéndola como diseñada para cargas agentic y refuerzo, con la tesis de que la CPU se está convirtiendo en cuello de botella cuando hay agentes coordinando herramientas, datos y validaciones. Traducción: la guerra ya no es solo por la mejor GPU; es por integrar CPU, red y aceleradores para reducir latencia end-to-end.
Story 14
Para cerrar con perspectiva, dos recursos para orientarse en un panorama cada vez más confuso. Primero, un análisis sobre el boom de “world models” aclara que el término se usa para cosas distintas: desde predicción latente tipo JEPA, hasta representación 3D editable, simulación para entrenar agentes, infraestructura de datos y enfoques teóricos alternativos. Poner nombres precisos ayuda a no comparar peras con manzanas.
Y segundo, Sebastian Raschka actualizó su LLM Architecture Gallery, una página que reúne diagramas y fichas de arquitecturas, útil para ver tendencias: más MoE, más trucos de atención eficiente y más híbridos buscando rendimiento sin disparar costes.
Story 15
Terminamos con empleo y sociedad. Un nuevo “US Job Market Visualizer” mapea cientos de ocupaciones del BLS en un treemap que permite explorar tamaño del empleo, proyecciones, salario y educación. La capa más discutible —y por eso interesante— es un indicador generado con LLM de “exposición digital a IA”: estima cuánto podría cambiar un trabajo según si su output es principalmente digital. El autor insiste en que no es una bola de cristal ni predice desapariciones, porque faltan factores como regulación o preferencias de consumidores. Aun así, como herramienta exploratoria sirve para plantear preguntas mejores: qué tareas se transforman antes, y dónde conviene reentrenar o rediseñar procesos.
Suscríbete a fuentes específicas por edición:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Tuesday Mar 17, 2026
Tuesday Mar 17, 2026
Please support this podcast by checking out our sponsors:
- Discover the Future of AI Audio with ElevenLabs - https://try.elevenlabs.io/tad
- KrispCall: Agentic Cloud Telephony - https://try.krispcall.com/tad
- Invest Like the Pros with StockMVP - https://www.stock-mvp.com/?via=ron
Support The Automated Daily directly:
Buy me a coffee: https://buymeacoffee.com/theautomateddaily
Today's topics:
In-model computation gets real - Researchers showed a prototype that runs compiled code inside a transformer by embedding a WebAssembly interpreter, aiming for deterministic, tool-free computation with faster decoding.
Cloud inference shifts beyond GPUs - AWS is bringing Cerebras inference to Bedrock and exploring split “prefill vs decode” serving with Trainium plus specialized hardware, targeting token-heavy agent workloads and lower latency.
Long-context becomes mainstream - Anthropic made a one-million-token context window generally available, reducing the need for compaction and lossy summarization for codebases, contracts, and long agent traces.
Tooling wars: MCP vs CLI - A debate is growing around Model Context Protocol overhead: repeated schemas can consume context, while CLI-style progressive disclosure can cut tokens—yet centralized MCP may win on governance and auth.
AI coding: speed versus debt - A new study on Cursor finds a short-lived productivity jump but lasting increases in warnings and complexity, reinforcing that QA and maintainability are the real bottlenecks for AI-assisted dev.
Open-source maps model architectures - Sebastian Raschka updated a single-page architecture gallery that helps practitioners compare LLM design trends—dense vs MoE, attention variants, and efficiency-focused hybrids—at a glance.
China AI race heats up - Moonshot AI is reportedly chasing a much larger funding round amid fierce Chinese competition, while facing scrutiny over alleged distillation practices and broader IP headwinds.
Generative video hits IP walls - ByteDance reportedly paused a global rollout of its viral video generator after studio backlash, highlighting copyright and likeness risk as a gating factor for generative media.
World models: five competing meanings - A “world model” explainer argues the label now covers multiple approaches—latent dynamics, 3D scene representations, learned simulators, infrastructure stacks, and even non-deep-learning theories—so comparisons are often misleading.
AI design tools move to build - Leaked changes to Google’s Stitch point toward an agent-first, voice-enabled design workflow that can export real app code, tightening the loop from mockups to production.
-New Interactive Treemap Visualizes U.S. Jobs and LLM-Based AI Exposure
-AWS to Deploy Cerebras CS-3 on Bedrock, Co-Develop Disaggregated Inference with Trainium
-Moonshot AI Proposes Attention Residuals to Replace Fixed Residual Connections
-Moonshot AI seeks up to $1 billion round at $18 billion valuation
-IndexCache patch accelerates DeepSeek Sparse Attention by reusing indices across layers
-Sebastian Raschka Launches Updated LLM Architecture Gallery for Side-by-Side Model Comparisons
-NVIDIA Unveils DLSS 5 Neural Rendering to Boost Real-Time Game Realism
-Study Finds Cursor AI Boosts Short-Term Output but Increases Long-Term Code Complexity
-Apideck: MCP Tool Schemas Can Drain Context Windows—CLIs Offer a Leaner Agent Interface
-NVIDIA Debuts Vera CPU to Target Agentic AI and Reinforcement Learning at Data-Center Scale
-Tsinghua-led team open-sources Spatial-TTT for streaming video spatial intelligence
-Claudetop launches as real-time cost and cache monitor for Claude Code sessions
-Five Competing Meanings of ‘World Models’ in AI, From JEPA to 3D and Active Inference
-ByteDance Reportedly Delays Global Release of Seedance 2.0 Amid Hollywood Copyright Threats
-Percepta Builds a Program-Executing Transformer With Log-Time Decoding
-Blog Post Argues MCP Isn’t Dead—Centralized MCP Is Key for Enterprise Agents
-Leak Suggests Google Stitch Redesign With 3D Workspace, Voice Agent, and React App Export
-replay.temporal.io
-Z.AI Details GLM-5-Turbo for OpenClaw Agents and Releases ZClawBench Benchmark
-Advisers warn enterprises are faking AI success as quality, liability risks mount
-Wiz Releases AI Security Board Report Template for CISOs
-AMD pitches always-on “Agent Computers” for running AI agents locally
-Claude Opus 4.6 and Sonnet 4.6 Launch 1M-Token Context Window in General Availability
Episode Transcript
In-model computation gets real
Let’s start with that computation story. A new prototype argues that even though modern LLMs can look brilliant on advanced math, they still struggle with long, exact procedures unless they hand work off to tools. Their solution: bake a WebAssembly interpreter into the model so it can run compiled code internally, and then optimize decoding so long execution traces don’t become unbearably slow. If this direction holds up, it points to a future where models aren’t just “good at reasoning,” but can reliably execute logic—more like software modules living inside a neural system than a chatbot calling out to a calculator.
Cloud inference shifts beyond GPUs
On the infrastructure side, AWS is deploying Cerebras CS-3 inference systems in its data centers and wiring them into Bedrock. The pitch is straightforward: agentic apps—especially coding agents—generate far more tokens than chat, and token speed is becoming the bottleneck. AWS and Cerebras are also working on a split approach where one system does the heavy upfront processing and another does the fast token-by-token generation. The bigger theme here is that inference is getting specialized: instead of “just add more GPUs,” clouds are mixing chips and architectures to keep real-time agents responsive.
Long-context becomes mainstream
Another efficiency win comes from academia and open source: Tsinghua and collaborators released IndexCache, a patch for popular serving stacks that speeds up models using DeepSeek-style sparse attention. The insight is that in deep models, adjacent layers often make very similar decisions about what parts of a long context to focus on—so recomputing those choices every layer is wasted work. Caching and reusing them can noticeably improve long-context throughput without demanding extra memory. This matters because long contexts are increasingly common in production, and shaving latency there directly cuts cost and improves user experience.
Tooling wars: MCP vs CLI
And speaking of long contexts, Anthropic says Claude Opus and Sonnet now offer a one-million-token context window as a normal, generally available feature—no special flags, and with simplified pricing and limits. The practical impact is less “context gymnastics”: fewer forced summaries, fewer compaction surprises, and more room to keep full incident timelines, contract packs, or large codebases in one working session. The broader signal is that long-context is moving from an exotic capability to a baseline expectation for serious enterprise and developer workflows.
AI coding: speed versus debt
That leads neatly into a debate about how agents should even connect to tools. One argument making the rounds is that MCP servers can quietly eat huge chunks of the context window, because tool schemas and definitions keep getting injected into conversations. The proposed alternative is a CLI-first interface where capabilities are discovered progressively—ask for help when you need it—instead of paying an upfront token tax every time.
But a response post pushes back on the “MCP is dead” narrative, saying the real distinction is local versus centralized MCP. In enterprises, centralized MCP can be less about convenience and more about governance: authentication, secrets, telemetry, and consistent shared tooling. The takeaway: teams aren’t choosing between two buzzwords. They’re choosing between token efficiency, operational control, and complexity—and most organizations will likely mix approaches depending on the job.
Open-source maps model architectures
Now to coding agents and the reality check. A new study looked at what happens when open-source projects adopt Cursor as an AI coding agent. The headline is a familiar pattern: an early surge in velocity, followed by a longer-term drag. The reason appears to be quality—more warnings, more complexity, more maintenance burden that eventually slows everything down. It’s a timely reminder that AI can accelerate the act of writing code, but it doesn’t automatically pay the long-term costs of owning that code.
China AI race heats up
In the same vein, an open-source tool called claudetop popped up to make AI coding costs visible in real time—like a dashboard for tokens, burn rate, and context usage. The interesting part isn’t the gadgetry; it’s what it reveals about workflows. People keep getting surprised by bills because the expensive part is often invisible: background token usage, compaction, and repeated context. As agentic coding gets more common, expect “observability for tokens” to become as normal as observability for CPU and memory.
Generative video hits IP walls
Another practitioner note worth flagging: an essay argues many enterprises are measuring AI adoption with the wrong scorecards—counting output like pull requests instead of outcomes like deployment stability and incident impact. The cautionary message is that AI-generated work can look plausible, pass tests, and still be fundamentally flawed in performance or reliability. As AI moves deeper into production pipelines, governance and evaluation won’t be optional—because the failures won’t just be technical, they’ll be financial and legal.
World models: five competing meanings
Switching to model research: Moonshot AI’s Kimi team introduced “Attention Residuals,” a new way to carry information through deep networks. Instead of blindly stacking residuals layer after layer, the network learns to selectively pull useful representations from earlier layers depending on the input. The claim is better training behavior and efficiency with minimal runtime cost. The bigger point is that we’re still seeing meaningful gains from architecture tweaks—not just bigger models and more data.
AI design tools move to build
On the “keeping up with architectures” front, Sebastian Raschka updated a single-page LLM Architecture Gallery that lines up many major models with consistent diagrams and quick facts. It’s not flashy research, but it’s genuinely useful: the field is fragmenting into dense models, sparse MoE, hybrid designs, and a growing zoo of attention variants. Having a clean reference reduces the friction of comparing ideas—and that speeds up real engineering decisions.
Story 11
In China’s AI market, Moonshot AI is reportedly seeking a much larger funding round at a higher valuation, on the back of claims about rapid commercialization. But it’s also landing in a tougher environment: intense competition among local model builders and renewed scrutiny around how models are trained—especially amid public allegations about distillation using other systems’ outputs. Even if fundraising stays strong, IP and provenance questions are becoming a recurring tax on expansion.
Story 12
And IP pressure is also shaping consumer generative tools. ByteDance reportedly paused plans for a global launch of its viral AI video generator after major studio backlash and legal threats. The message is pretty clear: the technology may be ready for worldwide distribution, but the legal and policy perimeter isn’t. For anyone building or deploying generative video, the bottleneck is increasingly rights management, likeness protections, and jurisdiction-by-jurisdiction risk.
Story 13
One more conceptual piece: an analyst argues that “world models” has become an overloaded term. Some teams mean abstract latent prediction for planning, others mean persistent 3D scene representations, and others mean interactive learned simulators for training agents. There’s also an “infrastructure” interpretation—standardizing pipelines for physical-world foundation models—and even non-deep-learning approaches focused on interpretability. Why it matters: funding headlines make it sound like one race, but it’s really several different bets with different paths to products.
Story 14
Finally, a lighter—but telling—product direction: leaks suggest Google’s Stitch design tool is being rebuilt around an agent-centric workflow, potentially with voice interaction and a workspace that feels more spatial than a flat canvas. The most consequential rumored change is exporting designs into functional React code, not just prototypes. If that lands, it tightens the loop between design and implementation—and pushes the “designer to developer handoff” closer to a single, AI-mediated pipeline.
Subscribe to edition specific feeds:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Tuesday Mar 17, 2026
Tuesday Mar 17, 2026
Merci de soutenir ce podcast en visitant nos sponsors:
- Découvrez l’avenir de l’audio IA avec ElevenLabs - https://try.elevenlabs.io/tad
- Créez n’importe quel formulaire, sans code, avec Fillout. 50 % de crédits supplémentaires à l’inscription - https://try.fillout.com/the_automated_daily
- Consensus: IA pour la recherche. Obtenez un mois gratuit - https://get.consensus.app/automated_daily
Soutenez directement The Automated Daily:
Offre-moi un café: https://buymeacoffee.com/theautomateddaily
Sujets du jour:
Lois de vérification d’âge mobiles - Une enquête relie plus de 2 milliards de dollars, via des ONG, à des projets de lois de vérification d’âge dans 45 États visant des API au niveau iOS/Android. Mots-clés : Meta, vérification d’âge, API OS, vie privée, traçage.
Contournement de polices Google Workspace - Un site démontre un “copier-coller” qui transporte des polices d’entreprise “verrouillées” dans Google Docs/Slides, questionnant la robustesse des contrôles de licence. Mots-clés : Google Workspace, fonts, DRM, droits d’auteur, contournement.
Agent IA facilement rétro‑ingéniéré - Un chercheur a pu extraire des sauvegardes d’un “collègue IA”, reconstituer son architecture rapidement, puis créer un clone auto-hébergeable, illustrant le risque d’exposition via journaux et workflows. Mots-clés : agent IA, logs, prompts, sécurité, reverse engineering.
Compilation HPC pour calculs creux - Un rapport décrit LAPIS, basé sur MLIR, pour optimiser le calcul creux et les graphes en restant portable entre architectures, avec un focus sur la performance multi-GPU et le distribué. Mots-clés : HPC, MLIR, sparse, GPU, portabilité.
Teardown : multijoueur et destruction - Les créateurs de Teardown expliquent comment le multijoueur est devenu réaliste malgré un monde voxel destructible et non déterministe, via une synchronisation hybride. Mots-clés : jeux, réseau, physique, voxels, synchronisation.
Mini shell Unix pour apprendre - Un développeur construit un petit shell Unix en C pour comprendre ce qui se passe derrière une simple commande : processus, pipelines, variables d’environnement, et limites d’un parseur minimal. Mots-clés : C, Unix, shell, fork/exec, pédagogie.
-Investigation Alleges Meta Bankrolled Nonprofits to Push OS-Level Age Verification Laws
-Andrew Healey Builds a Minimal C Shell with Builtins, Pipes, and Tab Completion
-‘Font Smuggler’ Exploits Copy-Paste Loophole for Locked Google Workspace Fonts
-Sandia Report Introduces LAPIS MLIR Compiler for Portable Sparse and Distributed Linear Algebra
-Mistral Open-Sources Leanstral, a Lean 4 Proof-Oriented Coding Agent
-How Teardown Finally Made Multiplayer Work in a Destructible World
-Developer Reverse-Engineers Zeta Labs’ Viktor and Releases Open-Source Clone
-PostHog’s CI at 100-Person Scale and the Push to Automate Flaky Test Triage
Transcription de l'Episode
Lois de vérification d’âge mobiles
On commence par le dossier le plus politique — et probablement le plus sensible pour le grand public. Un utilisateur de Reddit, qui travaille aussi sur GitHub, affirme avoir retracé plus de 2 milliards de dollars de financements liés à Meta, qui auraient transité par des organisations à but non lucratif pour soutenir des lois de vérification d’âge au niveau des États américains, dans 45 États. L’article décrit l’apparition rapide de groupes — comme la “Digital Childhood Alliance” — qui se mettent à témoigner sur des textes précis, avec des montages pouvant réduire la transparence habituelle des dépenses de campagne.
Pourquoi c’est important : ces projets de lois ne se limitent pas à demander une vérification dans une appli. Ils pousseraient Apple et Google à fournir des API au niveau du système — une “catégorie d’âge” que les applications pourraient interroger. Les critiques y voient un précédent : une infrastructure de vérification, donc potentiellement de suivi, intégrée au téléphone lui-même, au nom de la sécurité. Et détail qui fâche : l’article affirme que l’exécution viserait surtout les app stores et les éditeurs d’OS, avec des exemptions qui épargneraient en pratique certaines plateformes sociales — ce qui déplacerait le risque juridique vers des concurrents et des écosystèmes plus petits, y compris des forks Android ou des distributions Linux orientées vie privée. En face, le papier cite l’approche européenne eIDAS 2.0, qui peut s’appuyer sur des méthodes plus “minimales” — comme des preuves à divulgation nulle de connaissance — pour confirmer un âge sans révéler une identité complète. Bref : derrière une promesse simple, l’enjeu touche à la gouvernance de l’OS et à la forme future de l’anonymat numérique.
Contournement de polices Google Workspace
Dans un registre différent mais étonnamment lié — les verrous numériques et ce qu’on peut en faire — un designer a publié “Font Smuggler”, une page web qui met en lumière une faille de type copier-coller dans Google Workspace. L’idée est presque banale : du texte copié depuis une source qui utilise des polices d’entreprise “verrouillées” garderait sa mise en forme une fois collé dans Google Docs ou Slides, y compris dans des comptes qui ne devraient pas y avoir accès. Le créateur assume le côté provocateur : utiliser des typographies de marque “sans permission”.
Pourquoi ça compte : les polices sont un marché de licences, et beaucoup d’organisations paient justement pour contrôler leur identité visuelle. Si un simple flux d’édition standard permet de transporter ces ressources, ça remet en question l’efficacité des contrôles d’accès dans les suites bureautiques cloud. Et ça ouvre un débat très concret : est-ce un bug, un angle mort “acceptable”, ou un problème qui exigera de nouveaux garde-fous côté Google… ou côté détenteurs de droits ? À noter : d’après l’auteur, l’astuce ne fonctionnerait pas sur les apps mobiles, ce qui suggère déjà des comportements différents selon les clients.
Agent IA facilement rétro‑ingéniéré
On passe maintenant aux agents IA — et à une leçon de sécurité opérationnelle. Après le lancement de Viktor, présenté comme un “collègue IA” connecté à des milliers d’outils, un chercheur a décidé de sonder le produit d’une manière très simple : demander à l’agent de créer et partager des sauvegardes de son espace de travail. Ces sauvegardes auraient révélé pas mal de choses sur les coulisses : un point de passage unique pour les appels d’outils, une liste d’intégrations majoritairement “proxyfiées” via des API tierces, des logs structurés capables de retracer une conversation Slack de bout en bout, et des “compétences” stockées comme des workflows pilotés par prompts.
Le chercheur précise ne pas avoir trouvé de secrets explosifs — pas de clés API en clair, pas de données d’autres utilisateurs — mais l’angle est ailleurs : quand l’atelier interne d’un agent est exportable, on rend aussi exportables les schémas, les prompts, les traces, donc l’architecture. Résultat : en quelques heures, il a pu reconstituer une documentation détaillée, puis développer une version compatible auto‑hébergeable, OpenViktor, publiée en open source. Ce que ça dit du moment : dans l’ère des agents, la “surface” de fuite n’est pas seulement le code. Ce sont les journaux, les workflows, et la mémoire de travail — tout ce qui explique comment le système pense et agit.
Compilation HPC pour calculs creux
Côté calcul scientifique, un rapport technique piloté par Sandia présente LAPIS, un framework de compilation basé sur MLIR, pensé pour optimiser l’algèbre linéaire creuse tout en restant portable entre architectures. En clair : au lieu de réécrire et re‑tuner le même code pour chaque plateforme, LAPIS vise à conserver des représentations de haut niveau assez longtemps pour appliquer des optimisations intelligentes, puis descendre vers des cibles spécifiques. Le rapport met en avant un “dialecte Kokkos” pour faciliter l’intégration dans des applis HPC existantes, et une couche dédiée au distribué pour exprimer la partition des tenseurs et les communications.
Pourquoi c’est intéressant : le calcul creux et les workloads de graphes sont partout — science des données, simulation, parfois même ML — mais ils sont notoirement difficiles à accélérer proprement, surtout à grande échelle et sur plusieurs GPU. Si l’outillage de compilation arrive à rendre ces optimisations plus “automatiques” et plus portables, ça peut réduire la dépendance aux experts qui passent leur vie à adapter du code à un seul supercalculateur. C’est moins visible que les annonces grand public, mais c’est typiquement le genre de progrès qui finit par influencer toute une chaîne d’outils.
Teardown : multijoueur et destruction
Place au jeu vidéo, avec un récit d’ingénierie qui ressemble à un combat contre la physique. Voxagon raconte comment Teardown a finalement livré un mode multijoueur, longtemps jugé “irréaliste”, à cause de ses mondes voxel entièrement destructibles, de la physique lourde, et d’un écosystème de mods très riche. Les premiers essais se heurtaient à un mur : dès qu’un bâtiment s’effondre, la quantité de données à synchroniser explose. Et même quand on réduit les données, un autre problème surgit : le moteur n’est pas déterministe, donc deux machines ne “rejouent” pas exactement la même simulation.
La solution finale est un compromis pragmatique : répliquer de façon fiable et ordonnée les événements qui changent la scène — destruction, spawn, recoloration — mais synchroniser les mouvements et positions avec des mises à jour plus légères et tolérantes aux pertes. Ce qui compte ici, c’est la morale : la réussite ne vient pas d’un coup de génie unique, mais d’un modèle hybride qui assume les limites du réseau et du moteur. Et quand on ajoute les mods, la compatibilité, et les joueurs qui rejoignent en cours de partie, on comprend pourquoi certaines fonctionnalités “simples sur le papier” demandent, en réalité, des années.
Mini shell Unix pour apprendre
On termine sur un sujet plus pédagogique, mais utile pour tout développeur qui aime comprendre ce qui se passe derrière la magie du terminal. Andrew Healey détaille la création d’un petit shell Unix en C, façon projet “jouet”, pour apprendre les bases : une boucle qui lit une commande, décide si c’est un builtin comme exit, ou lance un programme externe. Puis arrivent les notions qui font la vraie différence : créer des processus, attendre leur fin, récupérer un code de retour, gérer un cd qui doit modifier le répertoire du processus du shell lui-même, ou encore enchaîner des commandes avec des pipelines.
Ce qui rend l’article intéressant, ce n’est pas la performance, c’est la clarté : on voit à quel point un shell est surtout un orchestrateur — il met en scène des programmes standard en connectant leurs entrées et sorties. Et on voit aussi la frontière : dès qu’on parle de guillemets, de redirections, ou d’un parseur complet, la complexité grimpe très vite. C’est une bonne piqûre de rappel : beaucoup d’outils du quotidien reposent sur des idées simples… combinées de manière très exigeante.
Abonnez-vous aux flux spécifiques par édition:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Tuesday Mar 17, 2026
Tuesday Mar 17, 2026
Por favor, apoya este pódcast visitando a nuestros patrocinadores:
- Descubre el futuro del audio con IA con ElevenLabs - https://try.elevenlabs.io/tad
- Crea cualquier formulario, sin código, con Fillout. 50% de créditos adicionales por registrarte - https://try.fillout.com/the_automated_daily
- Consensus: IA para la investigación. Obtén un mes gratis - https://get.consensus.app/automated_daily
Apoya directamente a The Automated Daily:
Cómprame un café: https://buymeacoffee.com/theautomateddaily
Temas de hoy:
Verificación de edad a nivel OS - Un reporte vincula financiación atribuida a Meta con leyes estatales de verificación de edad que empujarían APIs de “categoría de edad” en iOS/Android. Palabras clave: privacidad, tracking, Apple, Google, legislación.
Loophole de fuentes en Google - “Font Smuggler” muestra cómo copiar y pegar puede conservar tipografías corporativas “bloqueadas” dentro de Google Docs/Slides. Palabras clave: licencias, DRM, Google Workspace, tipografía, control de acceso.
Agentes de IA y filtraciones - Un investigador reconstruyó la arquitectura de un “AI coworker” a partir de backups y publicó una alternativa autoalojable; en paralelo, Mistral impulsa agentes para Lean 4 y verificación formal. Palabras clave: seguridad, prompts, logs, open source, verificación formal.
Aprender sistemas con un shell - Un tutorial recorre la creación de un mini shell tipo Unix en C para entender procesos, `fork/exec`, pipelines y el papel de los builtins. Palabras clave: sistemas, terminal, procesos, Unix, aprendizaje práctico.
Multijugador en mundos destructibles - Teardown logró multijugador pese a físicas pesadas y destrucción voxel, usando sincronización híbrida para evitar desincronizaciones y picos de ancho de banda. Palabras clave: networking, física, determinismo, mods, ingeniería de juegos.
Compiladores para HPC y sparsidad - LAPIS, basado en MLIR, propone optimizar álgebra lineal dispersa y grafos de forma portable y escalable en múltiples arquitecturas y GPUs. Palabras clave: HPC, MLIR, sparse, Kokkos, rendimiento.
-Investigation Alleges Meta Bankrolled Nonprofits to Push OS-Level Age Verification Laws
-Andrew Healey Builds a Minimal C Shell with Builtins, Pipes, and Tab Completion
-‘Font Smuggler’ Exploits Copy-Paste Loophole for Locked Google Workspace Fonts
-Sandia Report Introduces LAPIS MLIR Compiler for Portable Sparse and Distributed Linear Algebra
-Mistral Open-Sources Leanstral, a Lean 4 Proof-Oriented Coding Agent
-How Teardown Finally Made Multiplayer Work in a Destructible World
-Developer Reverse-Engineers Zeta Labs’ Viktor and Releases Open-Source Clone
-PostHog’s CI at 100-Person Scale and the Push to Automate Flaky Test Triage
Transcripcion del Episodio
Verificación de edad a nivel OS
Arrancamos con la historia más delicada: un usuario de Reddit y un investigador en GitHub aseguran haber trazado más de 2.000 millones de dólares en financiación vinculada a Meta, canalizada a través de organizaciones sin ánimo de lucro, para apoyar legislación de verificación de edad en 45 estados de EE. UU. La pieza describe grupos que aparecen de forma repentina —como la llamada Digital Childhood Alliance— y que empiezan a testificar a favor de proyectos de ley, usando estructuras que pueden hacer menos transparente el gasto político.
¿Lo clave? Algunas propuestas empujarían a Apple y Google a ofrecer APIs a nivel de sistema operativo para que las apps consulten la “edad” o una “categoría de edad”. Los críticos temen que, bajo el paraguas de la protección infantil, se cree infraestructura normalizada para rastreo o fingerprinting a escala de dispositivo. Y además, el enfoque de enforcement se dirigiría a tiendas de apps y fabricantes de OS, mientras ciertas plataformas sociales quedarían relativamente al margen, moviendo la responsabilidad —y el coste— hacia competidores. Como contraste, se menciona eIDAS 2.0 en la UE y técnicas más respetuosas con la privacidad, como pruebas de conocimiento cero, para confirmar edad sin revelar identidad. Si esto se legisla, no solo afectaría a iOS y Android: también podría presionar a forks de Android, distribuciones Linux y ecosistemas pequeños que no están preparados para asumir esa carga legal y técnica.
Loophole de fuentes en Google
En diseño y software “de oficina”, aparece un experimento con mala leche, pero útil para entender límites: “Font Smuggler”, una web que demuestra un atajo en Google Workspace. La idea es simple: copias texto mostrado con tipografías corporativas que, en teoría, están restringidas a ciertas organizaciones; lo pegas en tu propio Google Docs o Slides y el estilo se mantiene.
El autor lo enmarca directamente como usar fuentes propietarias “sin permiso”, y señala que el truco no funciona igual en apps móviles. Más allá del morbo, la noticia importa porque muestra lo fácil que es saltarse controles de acceso cuando se apoyan en comportamientos estándar de edición. Para Google y para los dueños de las tipografías, la pregunta es incómoda: ¿hasta qué punto puedes hacer cumplir licencias dentro de un editor colaborativo sin romper la experiencia básica de copiar y pegar?
Agentes de IA y filtraciones
Pasamos a agentes de IA, pero desde el ángulo de seguridad y opacidad. Tras el lanzamiento de Viktor, un “AI coworker” conectado a miles de herramientas, un investigador le pidió al agente generar y compartir backups de su espacio de trabajo. Esos backups, según cuenta, dejaban ver un SDK interno que enruta llamadas por un “Tool Gateway”, un catálogo enorme de integraciones apoyadas en APIs de terceros, logs que podían seguir conversaciones de Slack de punta a punta, y “skills” guardadas como flujos basados en prompts.
No encontró secretos críticos como llaves de API ni datos de otros usuarios, pero el punto es otro: el material expuesto hacía muy fácil entender cómo estaba construido el producto. Con eso y posts técnicos públicos, reconstruyó documentación detallada de la arquitectura en un par de horas y luego montó una versión compatible autoalojable, OpenViktor, como open source. La lección es bastante directa: si los agentes guardan demasiados rastros operativos —prompts, esquemas, logs— y además permiten exportarlos, el coste de reverse engineering se desploma.
Aprender sistemas con un shell
Y ya que estamos con IA, una noticia más positiva, aunque igual de estratégica: Mistral publicó Leanstral, un agente de código abierto orientado a Lean 4, el asistente de pruebas usado para verificación formal. La tesis es que, a medida que el código generado por IA entra en dominios sensibles, el cuello de botella no es “escribir”, sino revisar y demostrar que lo escrito cumple especificaciones.
Leanstral apunta justo ahí: ayudar a producir código y, al mismo tiempo, pruebas formales que lo respalden. También presentaron un set de evaluación más cercano a trabajo real de ingeniería de pruebas, en lugar de problemas aislados tipo competición. ¿Por qué importa? Porque si esta línea madura, la conversación sobre seguridad del software puede cambiar de “confía en el modelo” a “confía en la demostración”, y eso es un giro fuerte para sectores regulados y sistemas críticos.
Multijugador en mundos destructibles
En el terreno de aprendizaje práctico, Andrew Healey comparte cómo construir un pequeño shell tipo Unix en C, de esos proyectos “de juguete” que en realidad te enseñan muchísimo. Empieza con lo básico: un bucle que muestra un prompt, lee una línea y decide si ejecuta un builtin como salir, o si lanza un programa externo.
La relevancia está en lo que vas entendiendo por el camino: cómo un shell crea procesos, cómo hereda entorno, por qué algunas órdenes —como cambiar de directorio— tienen que vivir dentro del propio shell, y cómo encadenar comandos con pipelines para que la salida de uno alimente al siguiente. No es un recetario para copiar y pegar; es un recordatorio de que muchas abstracciones “modernas” siguen descansando en estas ideas simples y robustas. Si te dedicas a backend, devops o seguridad, entender esto te da intuición real cuando algo falla en producción.
Compiladores para HPC y sparsidad
Cerramos con dos historias de ingeniería dura. Primero, videojuegos: Voxagon cuenta cómo Teardown logró por fin un multijugador que durante años parecía inviable. El problema era el de siempre, pero amplificado: mundos voxel totalmente destructibles, física pesada y además soporte profundo de mods. En pruebas tempranas, sincronizar cambios del mundo disparaba el ancho de banda; y un mod comunitario demostró que era posible, pero con desincronizaciones frecuentes porque el motor no era determinista.
La solución final fue híbrida: los eventos que cambian la escena —destrucción, spawns, cambios relevantes— se replican como comandos ordenados; mientras que movimientos y posiciones van con sincronización de estado más flexible, cliente a cliente, dentro de un presupuesto. Lo interesante es el “por qué”: no es solo añadir red; es rediseñar cómo representas la realidad compartida.
Y en computación científica, Sandia lidera un reporte sobre LAPIS, un framework de compilación sobre MLIR para optimizar álgebra lineal dispersa y cargas de grafos de forma portable entre arquitecturas. En HPC, lo disperso suele ser donde el rendimiento se vuelve un infierno por la variabilidad de memoria y comunicación. La promesa aquí es reducir el trabajo manual de ajustar cada plataforma y, aun así, escalar en sistemas con múltiples GPUs y memoria distribuida. Si funciona como se sugiere, es una pieza que puede acelerar investigación científica y también ciertas partes de ML que dependen de grafos y sparsidad.
Suscríbete a fuentes específicas por edición:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Tuesday Mar 17, 2026
Tuesday Mar 17, 2026
Please support this podcast by checking out our sponsors:
- Discover the Future of AI Audio with ElevenLabs - https://try.elevenlabs.io/tad
- Build Any Form, Without Code with Fillout. 50% extra signup credits - https://try.fillout.com/the_automated_daily
- Consensus: AI for Research. Get a free month - https://get.consensus.app/automated_daily
Support The Automated Daily directly:
Buy me a coffee: https://buymeacoffee.com/theautomateddaily
Today's topics:
Meta and age verification lobbying - A researcher alleges over $2B in Meta-linked funding flowed through nonprofits to push state age-verification bills, raising concerns about influence, transparency, and competition.
OS-level identity APIs and privacy - Proposed laws would pressure Apple and Google to add OS-level age or age-category APIs, potentially normalizing device-wide verification, tracking surfaces, and new compliance burdens.
Reverse-engineering an AI coworker - A security-minded teardown of Zeta Labs’ Viktor found workspace backups exposed prompts, logs, and schemas—enough to recreate architecture docs fast and build a compatible open-source clone.
AI meets formal verification in Lean - Mistral released Leanstral for Lean 4, highlighting a future where AI-generated code is paired with formal proofs to reduce human review overhead in high-stakes software.
Scaling CI when tests get flaky - At very large monorepo scale, flaky tests become ‘physics’; teams are turning to automation and AI-style log triage to stop CI from becoming the delivery bottleneck.
Copy-paste loophole for corporate fonts - Font Smuggler demonstrates a Google Workspace copy-paste loophole that preserves locked brand fonts, spotlighting how fragile digital licensing controls can be in everyday editors.
Portable sparse HPC with MLIR - Sandia-led LAPIS uses MLIR to optimize sparse linear algebra across diverse hardware, aiming for portable performance in HPC, scientific ML, and graph workloads.
How Teardown finally shipped multiplayer - Teardown’s developers explain a pragmatic ‘semi-deterministic’ networking approach that made multiplayer workable in a destructible physics-heavy voxel world—without perfect determinism.
Building a toy Unix shell in C - A hands-on tutorial builds a small Unix-like shell in C, showing how processes, builtins, pipes, and interactive input fit together—useful context for systems programming.
-Investigation Alleges Meta Bankrolled Nonprofits to Push OS-Level Age Verification Laws
-Andrew Healey Builds a Minimal C Shell with Builtins, Pipes, and Tab Completion
-‘Font Smuggler’ Exploits Copy-Paste Loophole for Locked Google Workspace Fonts
-Sandia Report Introduces LAPIS MLIR Compiler for Portable Sparse and Distributed Linear Algebra
-Mistral Open-Sources Leanstral, a Lean 4 Proof-Oriented Coding Agent
-How Teardown Finally Made Multiplayer Work in a Destructible World
-Developer Reverse-Engineers Zeta Labs’ Viktor and Releases Open-Source Clone
-PostHog’s CI at 100-Person Scale and the Push to Automate Flaky Test Triage
Episode Transcript
Meta and age verification lobbying
Let’s start with the story that has the biggest policy and privacy blast radius. A Reddit user and GitHub researcher claims they traced more than two billion dollars in Meta-linked funding—channeled through nonprofit groups—supporting state-level age verification legislation across roughly 45 states.
The reporting argues the structure matters as much as the message: nonprofits can make funding flows harder to follow than traditional campaign spending, and some of these groups appear to have popped up quickly and then started showing up to testify for bills.
What’s being pushed is also notable. The proposals would lean on Apple and Google to provide operating-system-level age, or “age category,” APIs—something apps could query. Critics say that sounds like child safety, but could normalize a device-wide identity or verification layer that’s useful for tracking, even if that isn’t the stated intent.
And there’s a competitive angle: the article alleges enforcement targets app stores and OS makers, while exemptions could leave major social platforms comparatively sheltered—shifting liability onto the gatekeepers and smaller players. It also contrasts this with Europe’s eIDAS 2.0 direction, where privacy-preserving techniques like zero-knowledge proofs can, in theory, prove you’re old enough without handing over a persistent identity. The big takeaway: if age checks move into the OS, the consequences don’t stop at iPhones and mainstream Android—they spill into privacy-focused Android forks, Linux ecosystems, and anyone who suddenly has to implement an identity check just to stay legal.
OS-level identity APIs and privacy
Staying on the theme of platforms and unintended consequences, there’s a small but revealing case study in how digital controls can leak through everyday features.
A designer published “Font Smuggler,” a webpage that demonstrates a copy-and-paste loophole in Google Workspace. The claim is that you can copy text rendered with certain corporate brand fonts—fonts that are typically restricted to specific paying organizations—and paste it into your own Google Docs or Slides while keeping the styling.
Why it matters isn’t that people will suddenly write a novel in a locked brand typeface. It’s what it says about enforcement in cloud editors: when the sharing primitive is “copy some styled text,” controls can be surprisingly porous. If you’re Google, it’s a question of whether the product’s collaboration ergonomics accidentally undermine licensing promises. If you’re a font owner or a brand, it’s a reminder that “access control” around typography can be more fragile than the contracts behind it. And if you’re a user, it’s another example of how the line between “view” and “use” can get blurry in modern document tools.
Reverse-engineering an AI coworker
Now to AI products—and a story that reads like a reality check for anyone shipping an agent with a big toolbox.
After Zeta Labs launched Viktor, an “AI coworker” that connects to thousands of tools, a researcher started probing it by asking the agent to create and share backups of its workspace. Those backups reportedly revealed a lot of internal scaffolding: an SDK pattern that routes calls through a central gateway, a large set of integrations that appear to proxy third-party APIs, and logs structured enough to trace Slack conversations end-to-end.
No blockbuster leak here—he says he didn’t find API keys or other users’ data. The issue is subtler: prompts, schemas, and logs can still be enough to reconstruct how the system works. Using the backup artifacts plus public posts, he says he rebuilt detailed architecture documentation within a couple of hours, then produced a compatible self-hosted version called OpenViktor.
The bigger lesson: “secrets” aren’t only credentials. If agent workspaces are exportable, they can expose the playbook—how tool calling is orchestrated, what guardrails exist, what failure modes are expected. That can be valuable for learning, but it’s also a competitive and security consideration teams should treat as part of their threat model.
AI meets formal verification in Lean
On the more constructive side of AI and software quality, Mistral released an open-source coding agent aimed at Lean 4, the proof assistant used to formally verify math and software.
The pitch is simple: as AI writes more code, the bottleneck shifts to review—especially when correctness really matters. Leanstral is designed to generate code and then back it with formal proofs, so you’re not just trusting the model’s confidence.
What’s interesting here is the direction of travel. Whether or not this specific release wins on benchmarks, the idea of pairing AI generation with machine-checkable guarantees is one of the few paths that plausibly scales into high-stakes environments—finance, infrastructure, safety-critical systems—without relying entirely on heroic human reviewers. It’s not a cure-all, but it’s a meaningful attempt to make “AI wrote it” compatible with “we can prove it behaves.”
Scaling CI when tests get flaky
And speaking of bottlenecks, there’s a separate thread about modern development pipelines becoming the new limiting factor.
A write-up about CI at PostHog describes the realities of operating a huge monorepo at a remote team scale: hundreds of thousands of CI jobs in a week, tens of millions of test runs, and so many logs that even a tiny failure rate becomes constant noise.
The core argument is that flaky tests aren’t just bad hygiene—they’re an emergent property of scale. When enough people push enough code often enough, small nondeterminisms turn into daily disruption: reruns, investigations, and a slow drain on attention.
The proposed response is more automation: smarter failure correlation, better routing of alerts to the right owners, and systems that can quarantine or fix flakes quickly. And there’s an important meta-point: as AI coding tools increase code churn, CI load rises too. If teams don’t upgrade how they triage and remediate failures, delivery speed won’t be limited by writing code—it’ll be limited by verifying it.
Copy-paste loophole for corporate fonts
Let’s shift to performance and research. A Sandia-led report introduces LAPIS, a compiler framework built on MLIR to optimize sparse linear algebra across different hardware.
Sparse math—where most values are zeros—shows up everywhere: scientific computing, graph analytics, recommendation systems, even parts of modern ML. The challenge is that high performance often comes from platform-specific tuning, and sparse workloads are notoriously tricky to optimize.
LAPIS aims to keep code portable while still generating efficient kernels across architectures, including multi-GPU setups. If this direction pays off, it could reduce the long-standing tradeoff between “write it once” productivity and “hand-tune it everywhere” performance—especially for institutions that need results on diverse clusters, not just one vendor’s stack.
Portable sparse HPC with MLIR
From compilers to games: Voxagon’s Dennis Gustafsson shared how Teardown’s long-requested multiplayer went from ‘unrealistic’ to actually shipped.
Teardown is a tough target: fully destructible voxel environments, heavy physics, and a mod scene that expects flexibility. Early attempts ran into classic multiplayer pain—bandwidth spikes during huge destruction events, and desync because the simulation isn’t deterministic enough to simply replay actions and expect the same outcome on every machine.
The final approach is a pragmatic hybrid. World-changing events are replicated reliably and in order, while fast-moving motion and player positions are synced with a tighter budget and a more best-effort delivery model. The story here isn’t just “multiplayer is hard.” It’s that shipping often means picking the right compromises: decide what must be consistent, decide what can be approximate, and then build tooling so mods and late-joining players don’t break the whole illusion.
How Teardown finally shipped multiplayer
Finally, a quieter but very useful educational piece: a walkthrough of building a small Unix-like shell in C.
It starts with the fundamentals—read a command, decide whether it’s a builtin like exit, or spawn a process for external programs—and builds up to staples like tracking exit status, handling cd properly inside the shell process, basic environment-variable expansion, and pipelines.
The value isn’t the toy shell itself. It’s the mental model you get for how everyday command lines work: when a new process is created, what the parent shell keeps doing, how programs connect via stdin and stdout, and why some commands must be builtins. If you’ve ever used a terminal daily but felt fuzzy on what’s really happening, this kind of hands-on reconstruction is one of the fastest ways to make the abstractions feel solid.
Subscribe to edition specific feeds:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Monday Mar 16, 2026
Monday Mar 16, 2026
Merci de soutenir ce podcast en visitant nos sponsors:
- KrispCall: Téléphonie cloud agentique - https://try.krispcall.com/tad
- Investissez comme les professionnels avec StockMVP - https://www.stock-mvp.com/?via=ron
- Prezi: Créez rapidement des présentations avec l’IA - https://try.prezi.com/automated_daily
Soutenez directement The Automated Daily:
Offre-moi un café: https://buymeacoffee.com/theautomateddaily
Sujets du jour:
IA, Pentagone et procès - Les États-Unis coupent des contrats avec Anthropic après un désaccord sur les limites d’usage de l’IA (surveillance de masse, armes autonomes), déclenchant un procès et un débat sur la régulation militaire.
Réseaux sociaux et contenus toxiques - Des lanceurs d’alerte accusent TikTok et Meta d’avoir assoupli des garde-fous pour doper l’engagement, exposant davantage aux contenus borderline, haine et harcèlement; les plateformes contestent.
Ormuz, pétrole et guerre - Le détroit d’Ormuz est quasi fermé aux pétroliers, Londres évoque un plan collectif avec des alliés tandis que le conflit Iran–États-Unis–Israël s’étend, faisant grimper les prix de l’énergie.
Afrique: engrais et inflation alimentaire - Selon des experts et la CNUCED, la hausse des prix des engrais et le choc logistique via Ormuz menacent les coûts alimentaires en Afrique, avec risques sociaux et arbitrages budgétaires.
Ukraine: pourparlers et défense aérienne - Volodymyr Zelensky dit être prêt pour de nouveaux pourparlers avec Washington et Moscou, mais craint que la crise au Moyen-Orient ne détourne l’attention et les stocks de défense aérienne.
Cancer du cerveau: test sanguin - Une équipe menée par l’Université de Manchester avance sur un test sanguin pour détecter et suivre des tumeurs cérébrales, prometteur contre le glioblastome, en attente d’essais et d’aval réglementaire.
Astéroïde DART: trajectoire modifiée - Des chercheurs confirment que l’impact de la mission DART a non seulement changé l’orbite de Dimorphos autour de Didymos, mais aussi la trajectoire du duo autour du Soleil, une première observée.
Vaccin ARNm pour un chien - En Australie, un vaccin ARNm personnalisé conçu avec l’aide d’outils d’IA pour une chienne atteinte d’un cancer agressif montre un signal encourageant, mais les scientifiques appellent à la prudence.
Transcription de l'Episode
IA, Pentagone et procès
On commence par l’intelligence artificielle, parce que l’affaire est aussi politique que symbolique. L’administration Trump a ordonné l’arrêt de tous les contrats du gouvernement américain avec Anthropic, la société derrière Claude. En toile de fond, un désaccord sur des limites d’usage: Anthropic refuse que son outil serve à la surveillance de masse ou à des armes totalement autonomes sans supervision humaine. L’entreprise a saisi la justice, parlant de représailles illégales et d’un étiquetage en “risque de chaîne d’approvisionnement” qui pourrait contaminer aussi ses partenaires.
Pourquoi c’est important ? Parce que, selon des informations citées dans le dossier, Claude serait intégré à des usages sensibles côté Pentagone, et le remplacer rapidement ne serait pas trivial. Au-delà du cas Anthropic, c’est un signal aux labos d’IA: où s’arrête l’éthique d’entreprise, et où commence l’exigence de l’État ? Pour l’instant, la grande absente, c’est une loi claire qui fixe des règles du jeu pour l’IA militaire et la surveillance.
Réseaux sociaux et contenus toxiques
Autre sujet tech, mais beaucoup plus proche du quotidien: des lanceurs d’alerte et anciens employés racontent à la BBC une sorte de “course aux algorithmes” entre TikTok et Meta, où la quête de croissance aurait pris le pas sur la sécurité. Côté Meta, un ingénieur évoque une pression interne pour tolérer davantage de contenus “limite” — misogynie, théories complotistes — parce que ça retient l’attention. Un ancien chercheur décrit un lancement rapide de Reels, avec des garde-fous jugés insuffisants, et des signaux internes pointant plus de harcèlement et de commentaires haineux.
Chez TikTok, un ex-employé de la sécurité évoque des priorités de traitement qui auraient parfois favorisé des cas politiquement sensibles plutôt que des signalements concernant des enfants. Les deux entreprises rejettent les accusations. Mais le cœur du problème, lui, reste entier pour les régulateurs: quand l’algorithme est piloté par l’engagement, il a tendance à pousser ce qui choque, et c’est souvent là que la modération se fait distancer.
Ormuz, pétrole et guerre
On passe au Moyen-Orient, avec un point névralgique: le détroit d’Ormuz. Le Premier ministre britannique Keir Starmer affirme que le Royaume-Uni travaille avec ses alliés sur un “plan collectif viable” pour rouvrir cette route maritime, aujourd’hui pratiquement fermée aux pétroliers, ce qui alimente la hausse des prix du pétrole.
Cette prise de parole intervient alors que Donald Trump appelle le Royaume-Uni et d’autres pays à envoyer des navires de guerre pour sécuriser le passage, menacé par des attaques iraniennes et des mines. Starmer rappelle que Londres a déjà des chasseurs de mines dans la région, mais dit ne pas vouloir être entraîné dans une guerre plus large. Il insiste aussi sur un format de coalition ad hoc, plutôt qu’une mission de l’Otan. En coulisses, la relation Londres–Washington reste délicate: Starmer avait d’abord refusé l’usage de bases britanniques pour des frappes offensives américaines, avant d’accepter ensuite un cadre défensif.
Afrique: engrais et inflation alimentaire
Dans la même séquence d’escalade, des frappes américaines auraient visé des installations militaires près de Chabahar, dans le sud-est de l’Iran, non loin de la frontière pakistanaise, selon un rapport relayé par Al Jazeera. La zone est stratégique: Chabahar est un point clé pour l’Inde, qui y voit une porte d’accès vers l’Afghanistan et l’Asie centrale en contournant le Pakistan. Même si le terminal fret financé par l’Inde n’aurait pas été touché, l’extension géographique des frappes renforce l’inquiétude sur la sécurité des routes commerciales régionales — et, par ricochet, sur l’énergie et les chaînes d’approvisionnement mondiales.
Ukraine: pourparlers et défense aérienne
Autre facteur de risque: le rôle des Houthis au Yémen. Alors que d’autres alliés de l’Iran s’activent, les Houthis, eux, restent pour l’instant relativement en retrait. Des analystes expliquent cette prudence par la crainte d’assassinats ciblés, des divisions internes, et des difficultés de réapprovisionnement en armes dans le contexte actuel. Des responsables houthis parlent même de stocks en baisse après les épisodes de tensions en mer Rouge.
Pourquoi c’est à surveiller ? Parce que si les Houthis réentrent pleinement dans le jeu, beaucoup s’attendent à un retour des attaques contre la navigation en mer Rouge et dans le golfe d’Aden — avec, potentiellement, des répercussions rapides sur les flux d’énergie et de marchandises. Autrement dit: un levier puissant, même sans basculer sur le front terrestre.
Cancer du cerveau: test sanguin
Et ces secousses ne s’arrêtent pas aux frontières de la région. Des experts alertent sur une vulnérabilité particulière des pays africains face aux perturbations liées à Ormuz, notamment à cause des engrais. Une part très importante des engrais transportés par mer transite par ce couloir, et de nombreux pays africains dépendent d’importations venant du Golfe.
Résultat: les prix des engrais grimpent, et avec eux le risque de hausse des coûts alimentaires, dans des pays où une grande partie du revenu des ménages part déjà dans la nourriture. La CNUCED souligne que la dépendance aux marchés extérieurs, le poids de la dette et des infrastructures fragiles réduisent la marge de manœuvre des gouvernements. Certains essaient de réagir — réserves de carburant, subventions temporaires, surveillance des stocks — mais beaucoup d’analystes doutent que ces mesures suffisent si la crise dure.
Astéroïde DART: trajectoire modifiée
Direction l’Ukraine. Le président Volodymyr Zelensky dit que Kyiv est prêt pour un nouveau cycle de discussions de paix à trois — Ukraine, États-Unis, Russie — mais que le calendrier et le lieu dépendent de Washington et surtout de Moscou. Selon lui, les États-Unis proposaient d’accueillir la réunion, mais la Russie n’aurait pas confirmé l’envoi d’une délégation, ce qui laisse les pourparlers au point mort.
Zelensky ajoute un autre élément: la guerre au Moyen-Orient capte l’attention diplomatique et, surtout, pourrait tendre les stocks de défense aérienne dont l’Ukraine dépend pour contrer les missiles russes. Il dit avoir discuté avec Emmanuel Macron d’alternatives européennes, comme les systèmes SAMP/T, pour compenser d’éventuels manques de batteries Patriot américaines. Enfin, il conteste l’idée, avancée par Donald Trump, que les États-Unis n’auraient pas besoin du savoir-faire ukrainien en matière de drones, affirmant que des institutions américaines ont, au contraire, déjà sollicité l’Ukraine. Dans l’ensemble, c’est un rappel brutal: la géopolitique, c’est aussi une bataille de priorités et de stocks.
Vaccin ARNm pour un chien
On termine avec science et santé, et une avancée qui pourrait compter: une équipe menée par l’Université de Manchester dit progresser vers un test sanguin capable de détecter des tumeurs cérébrales et de les suivre dans le temps. Le travail s’est concentré sur le glioblastome, un cancer particulièrement agressif. Les chercheurs ont identifié deux protéines sanguines comme marqueurs, avec une précision annoncée au-dessus de 90% lors d’évaluations pendant la chirurgie puis au cours des traitements.
Ce qui rend la piste intéressante, c’est l’usage potentiel en médecine de ville: aider un médecin généraliste à décider quand des symptômes — comme des maux de tête répétés — justifient une IRM urgente. Un essai clinique est en cours au Royaume-Uni et à l’international. On en est encore au stade de la validation, et il faudra un feu vert réglementaire avant un déploiement dans le NHS, mais l’objectif est clair: diagnostiquer plus tôt et surveiller mieux, sans dépendre uniquement d’examens lourds ou d’une biopsie invasive.
Story 9
En astronomie, une confirmation très concrète: les scientifiques rapportent que la mission DART de la NASA, en 2022, n’a pas seulement raccourci la période orbitale de Dimorphos autour de Didymos — c’était déjà le succès annoncé —, elle a aussi légèrement modifié la trajectoire du duo autour du Soleil. C’est la première fois qu’on observe directement un changement de ce type sur l’orbite héliocentrique d’un astéroïde.
La variation est minuscule à l’échelle humaine, mais majeure pour la défense planétaire: elle aide à mieux prévoir l’effet réel d’un impacteur cinétique, notamment parce que les débris éjectés amplifient la “poussée” au-delà du simple choc. En clair: si un jour on repère un objet menaçant, mieux comprendre ces effets, c’est mieux estimer à quel moment et avec quelle force il faut intervenir.
Story 10
Et puis, une histoire à la frontière entre science, médecine et prudence médiatique: en Australie, un entrepreneur a collaboré avec des chercheurs pour développer un vaccin ARNm personnalisé pour sa chienne, Rosie, atteinte d’un cancer agressif. L’équipe a séquencé l’ADN de la tumeur et s’est appuyée sur des outils d’IA pour trier et interpréter de grosses quantités de données, afin de concevoir un vaccin ciblant certaines mutations.
Après l’administration du vaccin, un des tumeurs aurait diminué de taille, améliorant le confort de l’animal, même si le cancer n’a pas disparu. Les chercheurs disent avoir été surpris par le signal, tout en rappelant l’essentiel: un cas isolé ne fait pas une preuve, et il faut des données contrôlées avant d’en tirer des conclusions pour les animaux… encore plus pour l’humain. Mais l’idée est là, tangible: la personnalisation des traitements, rendue plus accessible par les outils de calcul, avance à pas rapides.
Abonnez-vous aux flux spécifiques par édition:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Monday Mar 16, 2026
Monday Mar 16, 2026
Por favor, apoya este pódcast visitando a nuestros patrocinadores:
- KrispCall: Telefonía en la nube agéntica - https://try.krispcall.com/tad
- Invierte como los profesionales con StockMVP - https://www.stock-mvp.com/?via=ron
- Prezi: Crea presentaciones con IA rápidamente - https://try.prezi.com/automated_daily
Apoya directamente a The Automated Daily:
Cómprame un café: https://buymeacoffee.com/theautomateddaily
Temas de hoy:
Hormuz cerrado y plan naval - Reino Unido busca con aliados un plan para reabrir el Estrecho de Ormuz, clave para el petróleo, mientras crece el riesgo de incidentes con minas y ataques iraníes.
Guerra Irán-EE.UU. se expande - Nuevos bombardeos cerca de Chabahar muestran que el conflicto Irán–Israel–EE. UU. se mueve a zonas estratégicas para comercio regional y rutas marítimas.
África: fertilizantes caros y comida - UNCTAD advierte que el corte en Ormuz encarece fertilizantes del Golfo y puede disparar precios de alimentos en África, con tensión social y fiscal en varios países.
Ucrania: paz estancada y defensas - Zelenskyy dice estar listo para conversaciones con EE. UU. y Rusia, pero denuncia bloqueo ruso y teme escasez de defensas aéreas por la crisis en Oriente Medio.
IA militar: choque con Anthropic - EE. UU. ordena terminar contratos con Anthropic tras límites a vigilancia masiva y armas autónomas; la empresa demanda y el caso reabre el debate sobre reglas de IA y defensa.
TikTok y Meta bajo denuncia - Exempleados señalan que TikTok y Meta habrían tolerado contenido dañino para ganar engagement, elevando presión regulatoria sobre transparencia y seguridad de algoritmos.
Análisis de sangre para tumores - Investigadores del Reino Unido avanzan hacia un test sanguíneo para detectar glioblastoma y seguir su evolución, potencialmente acelerando diagnósticos y decisiones de resonancia.
DART movió un asteroide - Datos de seguimiento confirman que el impacto DART no solo cambió la órbita de Dimorphos: también alteró su trayectoria alrededor del Sol, afinando la defensa planetaria.
Vacuna mRNA para un perro - Un caso en Australia explora una vacuna personalizada mRNA para un perro con cáncer, apoyada por IA; hay señales prometedoras, pero aún falta evidencia amplia y controlada.
Transcripcion del Episodio
Hormuz cerrado y plan naval
Empezamos en Oriente Medio, donde el Estrecho de Ormuz —una de las arterias del comercio energético global— sigue en el centro de la tormenta. El primer ministro británico, Keir Starmer, dice que el Reino Unido trabaja con aliados en un “plan colectivo viable” para reabrir la ruta, prácticamente cerrada para petroleros por el conflicto con Irán. ¿Por qué importa? Porque cuando esa vía se encoge, el precio del petróleo suele subir y el golpe se siente rápido en transporte, inflación y expectativas de crecimiento.
Guerra Irán-EE.UU. se expande
Starmer intenta caminar sobre una línea fina: reconoce que Londres ya tiene cazaminas desplegados, pero evita comprometerse a una escalada. También subraya que no quiere que el Reino Unido sea arrastrado a una guerra más amplia. La idea que se baraja, según sus palabras, sería una coalición puntual con muchos socios, más que una misión formal de la OTAN. En paralelo, Alemania ya descartó participar militarmente, mientras ministros de Exteriores de la Unión Europea discuten cómo reforzar la seguridad marítima.
África: fertilizantes caros y comida
La presión política también viene desde Washington. El presidente Donald Trump ha pedido que países como el Reino Unido envíen buques para proteger la ruta. Y, como telón de fondo, la relación Londres–Washington está tensa: Starmer se había negado antes a autorizar ataques ofensivos desde bases británicas, aunque luego aceptó su uso para acciones defensivas. En casa, la oposición británica está dividida: algunos ven el despliegue como disuasión; otros temen que sea gasolina para la escalada.
Ucrania: paz estancada y defensas
Y esa escalada ya se está moviendo a lugares sensibles. Reportes citados por Al Jazeera indican que cazas estadounidenses atacaron instalaciones militares en una montaña cerca de la zona de libre comercio de Chabahar, en el sureste de Irán, junto a la frontera con Pakistán. El detalle relevante es que Chabahar tiene un peso estratégico para India como puerta comercial hacia Afganistán y Asia Central, al margen de rutas por Pakistán. Que la zona se acerque al radar militar eleva la ansiedad regional por el comercio y la conectividad, además del nerviosismo por el tráfico marítimo.
IA militar: choque con Anthropic
En este tablero también asoma un actor que, por ahora, se contiene: los hutíes de Yemen. Analistas señalan que, pese a ser aliados de Irán, han mantenido cierta distancia del choque principal. Las razones que se mencionan van desde el temor a golpes selectivos, hasta divisiones internas y dudas sobre reabastecimiento de armas si el conflicto complica el apoyo iraní. Aun así, expertos creen que si los hutíes se suman, priorizarían ataques contra barcos en el mar Rojo y el golfo de Adén. Traducido: el impacto económico podría multiplicarse con rapidez, porque esas rutas son críticas para energía y mercancías.
TikTok y Meta bajo denuncia
Del mar a la mesa: África aparece como una de las regiones más expuestas a las ondas de choque. Expertos y UNCTAD advierten que muchos países africanos dependen de fertilizantes que salen del Golfo y pasan por Ormuz. Si se encarecen o se traban, sube el costo de producir alimentos, y eso suele terminar en precios más altos en mercados y tiendas. En hogares donde la comida ya se lleva una gran parte del ingreso, la presión social puede ser enorme. Algunos gobiernos han empezado a mover fichas —reservas de combustible, programación de importaciones, subsidios—, pero los analistas dudan que eso alcance si la disrupción se prolonga.
Análisis de sangre para tumores
Mientras tanto, Ucrania mira este conflicto con preocupación directa. El presidente Volodímir Zelenskyy dice que su país está listo para una nueva ronda de conversaciones de paz con Estados Unidos y Rusia, en formato trilateral, pero que el calendario y el lugar dependen de Washington y Moscú. Según Zelenskyy, Estados Unidos se ofreció como sede, y Rusia, por ahora, no quiere enviar delegación. Además, reconoce que la guerra en Oriente Medio está consumiendo atención diplomática.
DART movió un asteroide
El punto más sensible para Kiev es material: Zelenskyy advierte que el conflicto con Irán puede elevar el riesgo de que se “drenen” existencias de defensas aéreas, cruciales para frenar misiles rusos. Dice que habló con Emmanuel Macron sobre si sistemas europeos podrían cubrir parte del hueco de baterías Patriot estadounidenses, y que Ucrania está dispuesta a probar alternativas con rapidez. También respondió a Trump sobre drones: sostiene que instituciones de EE. UU. han buscado apoyo ucraniano y que un acuerdo de cooperación en defensa sigue sin firmarse.
Vacuna mRNA para un perro
Ahora, tecnología y poder: en Estados Unidos, la administración Trump ordenó terminar los contratos federales con Anthropic, la empresa detrás del modelo Claude. El detonante, según la información disponible, fue la negativa del CEO a retirar restricciones que impiden usar su IA para vigilancia masiva o para armas plenamente autónomas sin supervisión humana. Anthropic demandó al Gobierno, alegando represalia y un golpe que podría cerrarle puertas en toda la cadena de contratistas. Lo interesante aquí no es solo la disputa legal: es que expone un vacío de reglas claras sobre qué límites éticos pueden —o no— imponer las empresas cuando su tecnología termina en manos militares o de inteligencia.
Story 10
El Pentágono, por su parte, sostiene que los contratistas no deberían dictar cómo se usan herramientas en escenarios extremos. Y el caso es especialmente delicado porque, según los reportes, reemplazar ese software no sería sencillo a corto plazo, incluso con una retirada gradual. En resumen: la pregunta de fondo es quién pone las fronteras cuando la IA se vuelve infraestructura estratégica.
Story 11
Seguimos con plataformas digitales. Denunciantes y exinsiders dijeron a la BBC que TikTok y Meta habrían tomado decisiones de producto y de políticas que aumentaron la exposición a contenido dañino en una especie de “carrera armamentística” algorítmica por la atención. En el caso de Meta, un ingeniero aseguró que se toleró más material “en el borde” —misoginia, conspiraciones— por presión de crecimiento; y un exinvestigador afirmó que ciertos formatos se lanzaron rápido, con menos salvaguardas. En TikTok, un exempleado de confianza y seguridad habló de priorizaciones internas que habrían favorecido casos políticos por encima de reportes que afectaban a menores. Ambas compañías niegan las acusaciones, pero el efecto probable es claro: más escrutinio regulatorio y más exigencias de transparencia sobre cómo se amplifica lo que vemos.
Story 12
Cerramos con ciencia, donde sí hay noticias esperanzadoras —con prudencia. En el Reino Unido, un equipo liderado por la Universidad de Manchester reporta avances hacia un análisis de sangre para detectar tumores cerebrales, en particular glioblastoma, y seguir su evolución casi en tiempo real. Dicen haber identificado un par de proteínas en sangre con una precisión superior al 90% en un contexto clínico, y ya hay un ensayo en marcha en varios centros. Si esto madura, podría ayudar a médicos de atención primaria a decidir cuándo síntomas como dolores de cabeza recurrentes ameritan una resonancia urgente, acelerando diagnósticos sin depender tanto de biopsias invasivas.
Story 13
En el espacio, la misión DART de la NASA sigue dando lecciones. Un nuevo estudio concluye que el impacto de 2022 no solo acortó la órbita de Dimorphos alrededor de Didymos: también cambió, de forma medible, la trayectoria del sistema alrededor del Sol. Es la primera vez que se observa directamente algo así. ¿Por qué interesa? Porque la defensa planetaria no va de Hollywood: va de calcular con precisión cuánto “empujón” real se consigue si algún día aparece un asteroide con riesgo de choque. Y aquí, el material expulsado tras el impacto habría aportado impulso extra, mejorando las estimaciones para futuras misiones.
Story 14
Y un último apunte curioso, con asterisco: en Sídney, un emprendedor tecnológico colaboró con investigadores para diseñar una vacuna personalizada de mRNA para su perra, Rosie, tras un cáncer agresivo. Con apoyo de herramientas de IA para analizar datos genéticos del tumor, el equipo creó una vacuna orientada a mutaciones específicas. Reportan que uno de los tumores redujo su tamaño, aunque la enfermedad no desapareció. Algunos científicos piden moderación: un caso aislado no es prueba. Aun así, la historia ilustra hacia dónde se mueve la medicina personalizada, también en veterinaria, y por qué el siguiente paso imprescindible son estudios más amplios y controlados.
Suscríbete a fuentes específicas por edición:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Monday Mar 16, 2026
Monday Mar 16, 2026
Please support this podcast by checking out our sponsors:
- KrispCall: Agentic Cloud Telephony - https://try.krispcall.com/tad
- Invest Like the Pros with StockMVP - https://www.stock-mvp.com/?via=ron
- Prezi: Create AI presentations fast - https://try.prezi.com/automated_daily
Support The Automated Daily directly:
Buy me a coffee: https://buymeacoffee.com/theautomateddaily
Today's topics:
AI ethics showdown in Washington - The Trump administration moved to end U.S. contracts with Anthropic after Claude’s limits on mass surveillance and autonomous weapons, triggering a lawsuit and raising AI governance, Pentagon, and First Amendment questions.
Hormuz crisis squeezes global trade - Britain says it’s working with allies on a collective plan to reopen the Strait of Hormuz after threats, mines, and attacks pushed oil prices up—highlighting maritime security and escalation risks.
Middle East war widens near Chabahar - U.S. strikes reported near Iran’s Chabahar area signal the conflict’s geographic spread, with implications for regional logistics, Gulf security, and India-linked trade routes.
Africa faces fertiliser and food shock - With a major share of seaborne fertiliser moving through Hormuz, UNCTAD warns fertiliser price spikes could drive food inflation across Africa, stressing debt-hit governments and vulnerable households.
Ukraine talks stall, air defences worry - President Zelenskyy says trilateral peace talks depend on Russia and the U.S., while Kyiv fears Middle East fighting could divert Patriot-style air-defence supplies; SAMP/T alternatives are being discussed with Europe.
Brain tumour blood test breakthrough - University of Manchester-led researchers report a promising blood test for glioblastoma, using blood proteins to detect and track tumours with high accuracy—potentially speeding MRI referrals and monitoring treatment response.
AI-designed cancer vaccine for dog - An Australian team used AI-assisted analysis and tumour sequencing to create a personalised mRNA vaccine for a dog with mast cell cancer, an intriguing result that still needs controlled evidence.
DART asteroid impact changed solar path - New data shows NASA’s DART impact not only changed Dimorphos’s orbit around Didymos, but also measurably shifted the system’s path around the sun—crucial for future asteroid-deflection planning.
Whistleblowers allege social media harm - BBC-sourced whistleblowers describe an 'algorithm arms race' where TikTok and Meta allegedly prioritised engagement, amplifying borderline harmful content and raising transparency and child-safety concerns.
Episode Transcript
AI ethics showdown in Washington
We start with that high-stakes clash over artificial intelligence and government power. The Trump administration has ordered the termination of U.S. government contracts with Anthropic, after CEO Dario Amodei refused to remove company limits that restrict uses like mass surveillance and fully autonomous weapons without human oversight. Anthropic is suing, calling the move unlawful retaliation and warning the label being used—“supply chain risk”—could effectively freeze it out of defense-related work. The Pentagon argues contractors shouldn’t dictate how military tools are used, while critics say this is exactly what happens when clear rules for military and surveillance AI don’t exist: policy gets made through pressure and precedent instead of legislation.
Hormuz crisis squeezes global trade
Now to the Middle East, where the economic shock is traveling just as fast as the missiles. UK Prime Minister Sir Keir Starmer says Britain is working with allies on a “viable, collective plan” to reopen the Strait of Hormuz, after tanker traffic was effectively choked off amid the Iran conflict and oil prices jumped. President Donald Trump has urged countries, including the UK, to send warships to protect the route. Starmer says Britain already has minehunters in the region, but he’s cautious about further steps—and insists he won’t let the UK be pulled into a wider war. The plan, if it comes, would likely be an ad hoc coalition rather than a NATO mission, and partners are split: Germany is ruling out military participation, while European officials weigh how to bolster maritime security without lighting a bigger fuse.
Middle East war widens near Chabahar
That Hormuz disruption isn’t just an oil story—it’s also a food story, especially for Africa. Experts warn many African countries are highly exposed because fertiliser shipments from the Gulf often pass through the strait, and households already spend a big share of income on food. With fertiliser prices surging, the risk is higher farming costs, higher food prices, and tougher political choices for governments that are already stretched by debt and limited infrastructure. A few countries are taking short-term steps—like building fuel reserves or trying targeted subsidies—but analysts doubt those measures can fully cushion a prolonged spike. Meanwhile, some oil exporters on the continent could get a revenue lift from higher crude prices, even as importers feel the squeeze.
Africa faces fertiliser and food shock
On the battlefield side of the same conflict, there are fresh signs of geographic spread. Reports cited by Al Jazeera say U.S. fighter jets struck military facilities near Iran’s Chabahar area in the southeast, close to the Pakistan border. Chabahar is strategically sensitive because it’s tied to a key India-backed trade route toward Afghanistan and Central Asia. Even if commercial terminals weren’t hit, the message is clear: escalation around critical logistics nodes can rattle regional commerce quickly, and it adds yet another layer of uncertainty for shipping already shaken by Hormuz.
Ukraine talks stall, air defences worry
And one more angle on maritime risk: Yemen’s Houthi movement—often one of the region’s most disruptive actors at sea—has so far stayed relatively on the sidelines, even as other Iranian allies step up attacks. Analysts say that restraint may come from fear of targeted strikes, internal divisions, and uncertainty about resupply as the conflict strains Iran’s networks. But experts also warn that if the Houthis do jump in, the most likely move is renewed pressure on shipping lanes in the Red Sea and Gulf of Aden—an echo of the earlier disruptions that sent insurance costs up and rerouted cargo around Africa.
Brain tumour blood test breakthrough
Turning to Ukraine, President Volodymyr Zelenskyy says Kyiv is ready for the next round of trilateral peace talks with the United States and Russia—but the timing and venue depend on Washington and Moscow. Zelenskyy says the U.S. offered to host, but Russia hasn’t agreed to send a delegation. He also cautioned that the widening Middle East war could drain air-defense stockpiles Ukraine relies on against Russian missile attacks. Zelenskyy says he has discussed with France whether European SAMP/T systems can help fill gaps if U.S.-made Patriots become harder to source, and he’s pushing for faster testing and decisions. The bottom line: diplomacy is stuck, and Ukraine is watching global priorities shift in ways that could hit its defenses.
AI-designed cancer vaccine for dog
In health news, researchers led by the University of Manchester say they’re closing in on something that could change how brain tumours are spotted and monitored: a blood test. In work focused on glioblastoma, the team identified a pair of blood proteins and reported accuracy above 90 percent while tracking patients through surgery and follow-up treatment. If it holds up in larger trials, it could help GPs judge when recurring symptoms—like persistent headaches—should trigger urgent MRI scans, potentially cutting diagnosis delays for a cancer known for moving fast. A broader clinical trial is now underway across multiple UK and international sites, but it still has hurdles ahead before any NHS rollout.
DART asteroid impact changed solar path
Another medical story is making waves for a very different reason: it involves a rescue dog. In Sydney, a tech entrepreneur worked with researchers to create an experimental personalised mRNA cancer vaccine for his dog, Rosie, after an aggressive mast cell cancer diagnosis. Using tumour DNA sequencing and AI tools to sift through the data, the team designed a vaccine aimed at the cancer’s specific mutations. One tumour reportedly shrank significantly, improving Rosie’s comfort, though the cancer hasn’t vanished—and researchers are now exploring why a larger tumour didn’t respond. Scientists caution this is intriguing, not definitive: single cases can inspire, but they don’t replace controlled evidence.
Whistleblowers allege social media harm
Up in space, a new study has given NASA’s asteroid-deflection test an extra layer of meaning. DART was already considered a success for shortening the orbit of the small asteroid Dimorphos around Didymos. But researchers now report something subtler—and historic: the impact also measurably changed the pair’s trajectory around the sun. Using years of follow-up observations, they detected a tiny slowdown that adds up to hundreds of metres of drift per year. Why it’s interesting is simple: it’s the first direct observation of a human-caused change to an asteroid’s solar orbit, and it improves the math for how much “nudge” you can really get if Earth ever needs one.
Story 10
Finally, a sharp reminder that the online attention economy still has consequences. Whistleblowers and former insiders told the BBC that TikTok and Meta made product and policy decisions that increased exposure to harmful content as they competed for engagement—what one source called an “algorithm arms race.” The claims include pushing more borderline material and rolling out short-form video features quickly without enough safeguards, with internal signals suggesting higher levels of bullying, hate, and inciting comments in some formats. Both companies deny the core allegations, but the testimony adds fuel to ongoing calls for transparency and for regulators to scrutinize how recommender systems can amplify the worst material because it keeps people watching.
Subscribe to edition specific feeds:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Monday Mar 16, 2026
Monday Mar 16, 2026
Merci de soutenir ce podcast en visitant nos sponsors:
- Découvrez l’avenir de l’audio IA avec ElevenLabs - https://try.elevenlabs.io/tad
- Investissez comme les professionnels avec StockMVP - https://www.stock-mvp.com/?via=ron
- Prezi: Créez rapidement des présentations avec l’IA - https://try.prezi.com/automated_daily
Soutenez directement The Automated Daily:
Offre-moi un café: https://buymeacoffee.com/theautomateddaily
Sujets du jour:
DART a dévié un astéroïde - De nouvelles mesures confirment que l’impact DART de la NASA a non seulement modifié l’orbite de Dimorphos autour de Didymos, mais a aussi décalé leur trajectoire autour du Soleil. Mots-clés: NASA, DART, défense planétaire, déviation, débris.
OpenClaw envahit la vie quotidienne - En Chine, l’agent IA open-source OpenClaw devient un phénomène social: installation “à la demande”, automatisation du travail, et usages risqués comme le trading. Mots-clés: agents IA, cybersécurité, fuites de données, automatisation, finance.
Brain-computer interfaces approuvées en Chine - La Chine a validé son premier implant BCI invasif pour des adultes partiellement paralysés, un jalon réglementaire face aux acteurs américains. Mots-clés: interface cerveau-machine, implant, régulation, rééducation, Neuralink.
Anthropic vs gouvernement américain - L’administration Trump ordonne la fin de contrats fédéraux avec Anthropic après un désaccord sur des garde-fous liés à la surveillance et aux armes autonomes; le labo porte l’affaire en justice. Mots-clés: Anthropic, Claude, Pentagone, surveillance, liberté d’expression.
IA et dette de compréhension code - Des voix du secteur alertent sur la “dette de compréhension” créée par l’IA de code, tandis que d’autres promeuvent des workflows plus disciplinés pour garder la maîtrise. Mots-clés: agents de code, revue, tests, productivité, compréhension.
Nvidia mise sur les CPU - Nvidia met en avant ses CPU Arm comme pièce clé des infrastructures d’IA agentique, au moment où le marché des processeurs serveurs parle de tensions d’approvisionnement. Mots-clés: Nvidia, Grace, Vera, CPU, data centers.
Musk: puces Terafab et xAI - Elon Musk annonce un projet de fabrication de puces baptisé “Terafab” et secoue xAI avec réorganisations et coupes, signe de la pression dans la course à l’IA. Mots-clés: xAI, Grok, semi-conducteurs, production, compétition.
Meta: licenciements et contenus toxiques - Meta fait face à des rumeurs de coupes massives et à une pression juridique et médiatique sur la sécurité des plateformes, pendant que TikTok et Meta rejettent des accusations d’“arms race” algorithmique. Mots-clés: Meta, TikTok, recommandations, enfants, procès.
Google Fiber cédé à Stonepeak - Alphabet cède GFiber à Stonepeak et fusionne l’activité avec Astound Broadband, transformant un challenger historique en opérateur soutenu par le private equity. Mots-clés: Google Fiber, GFiber, Stonepeak, consolidation, concurrence.
Vaccin ARNm pour un chien - En Australie, une équipe a conçu un vaccin ARNm personnalisé pour une chienne atteinte d’un cancer agressif, avec l’aide d’outils d’IA—prometteur, mais encore très préliminaire. Mots-clés: ARNm, vaccin personnalisé, oncologie, génomique, IA.
Transcription de l'Episode
DART a dévié un astéroïde
On commence donc dans l’espace, avec un résultat qui donne de la matière aux scénarios “film catastrophe”, mais côté scientifique. Une nouvelle étude indique que la mission DART de la NASA—celle qui a percuté l’astéroïde Dimorphos en 2022—n’a pas seulement raccourci son orbite autour de son compagnon Didymos. Les équipes de suivi ont aussi détecté un effet plus subtil: la trajectoire du duo autour du Soleil a, elle aussi, bougé. C’est la première fois qu’on observe directement ce type de déviation “héliocentrique” après un impact. Et détail important: ce n’est pas juste le choc du vaisseau. Les débris éjectés ont amplifié l’élan transmis, ce qui aide à mieux estimer, à l’avenir, de combien on peut réellement pousser un objet potentiellement dangereux.
OpenClaw envahit la vie quotidienne
Retour sur Terre, direction la Chine, où l’IA prend une forme très… sociale. Un agent open-source baptisé OpenClaw déclenche une vraie ruée: des utilisateurs feraient la queue devant des bureaux de grandes entreprises tech, ou paieraient des inconnus en ligne pour l’installer et le configurer. Sur les réseaux, on parle de “faire grandir le homard”, comme si l’agent devenait une créature qu’on nourrit pour qu’elle travaille à sa place. Ce qui frappe, c’est la vitesse à laquelle les usages dérivent: au-delà de l’automatisation de tâches, certains le poussent vers la surveillance de marchés et même le trading automatisé. Et là, les retours sont déjà contrastés, avec des pertes rapportées à cause d’ordres erronés ou de calculs mal interprétés. D’autres l’emploient comme coach de messages pour des rendez-vous amoureux, ou comme compagnon numérique sur des appareils portables. Problème: les autorités de sécurité ont publié des alertes sur des risques d’attaques et de fuites de données en cas de déploiements mal configurés, et certaines organisations limitent déjà l’outil sur les machines de travail. Un exemple très concret de ce que les agents IA changent: ils se diffusent comme des applications grand public… mais avec des conséquences de niveau entreprise.
Brain-computer interfaces approuvées en Chine
Toujours en Chine, mais sur un tout autre registre: la régulation médicale. Le pays vient d’accorder une autorisation de mise sur le marché à son premier dispositif invasif d’interface cerveau-machine destiné à des adultes partiellement paralysés après des lésions de la moelle épinière. Les essais cliniques évoquent des progrès sur des gestes de la main, via un système combinant implant, assistance robotisée et logiciel. Au-delà du cas d’usage, c’est un jalon stratégique: Pékin veut clairement accélérer sur les “industries du futur”, et cette validation place les acteurs chinois plus visiblement en compétition avec des projets américains très médiatisés. À suivre, surtout sur les règles de remboursement et l’accès réel aux patients, qui font souvent la différence entre prouesse et adoption.
Anthropic vs gouvernement américain
Passons maintenant aux lignes de fracture politiques autour de l’IA. Aux États-Unis, l’administration Trump aurait ordonné la fin de tous les contrats fédéraux avec Anthropic, après un bras de fer sur des restrictions: Claude ne serait pas censé être utilisé pour de la surveillance de masse ni pour des armes entièrement autonomes sans supervision humaine. Anthropic attaque la décision en justice, dénonçant une mesure de rétorsion et un précédent dangereux: si l’État peut “blacklister” un labo sur la base de ses garde-fous éthiques, beaucoup d’entreprises vont réfléchir à deux fois avant de fixer des limites publiques. De l’autre côté, le Pentagone avance l’argument inverse: ce n’est pas à un fournisseur de dicter l’usage de capacités militaires. Le dossier met surtout en lumière un vide: sans cadre légal clair sur l’IA en contexte de défense et de surveillance, ces choix se règlent à coups de contrats, de tribunaux… et de rapports de force.
IA et dette de compréhension code
Dans l’industrie logicielle, la discussion se déplace: moins “est-ce que l’IA code vite ?” et plus “à quel prix pour la compréhension ?”. Plusieurs analyses pointent un risque de “dette de compréhension”: le code s’accumule plus vite que la capacité humaine à l’absorber, et même des tests qui passent peuvent masquer une perte de modèle mental. Une fois que l’équipe doit déboguer ou faire une modification délicate, la facture arrive.
En parallèle, on voit émerger des méthodes pour limiter ce piège. Un développeur décrit un workflow type “Night Shift”: la journée, l’humain rédige des spécifications claires, fait l’architecture et prépare la documentation; la nuit, l’agent IA prend une tâche, écrit des tests, implémente, puis se fait relire par d’autres agents avec des rôles de relecteurs. Au matin, l’humain reprend et valide commit par commit. L’idée est simple: économiser l’attention, réduire le pilotage en continu, et forcer la qualité via tests et validations. Et une autre tendance va dans le même sens: pour porter un code d’un langage à un autre, certains proposent d’abord de “transformer” le projet en spécifications et en descriptions vérifiables, puis de reconstruire à partir de là. On sent une profession qui cherche un nouvel équilibre entre accélération et maîtrise.
Nvidia mise sur les CPU
Côté infrastructure, Nvidia envoie un message intéressant: à mesure que l’IA passe de simples chatbots à des systèmes “agentiques” qui orchestrent beaucoup d’actions et déplacent énormément de données, les CPU redeviennent un goulot d’étranglement potentiel. Nvidia pousse donc ses propres processeurs, présentés comme des chefs d’orchestre qui évitent que les GPU—bien plus coûteux—attendent des données. Un élément marquant: des déploiements à grande échelle chez Meta, et des signaux d’une tension croissante sur l’approvisionnement en CPU serveurs, selon plusieurs acteurs du secteur. En clair: la prochaine course à l’IA ne se joue pas seulement sur les GPU. Elle se joue aussi sur tout ce qui les nourrit, les relie, et évite les embouteillages.
Musk: puces Terafab et xAI
En parlant de course, Elon Musk occupe deux fronts. D’abord, une annonce: un “Terafab Project” censé démarrer très vite, avec la promesse implicite de réduire la dépendance aux fondeurs existants pour des puces dédiées à l’IA. Les détails restent flous, et c’est précisément ce qui intrigue: construire une capacité de fabrication de semi-conducteurs est un marathon, pas un sprint. Mais le simple fait de donner une date est un signal politique et industriel.
Et puis, en parallèle, turbulences chez xAI: réorganisations, possibles départs forcés, et critiques internes sur la performance de produits comme Grok et un outil de codage. Là aussi, le sous-texte est clair: même avec des moyens considérables et l’accès à une plateforme sociale, convertir l’IA en usages payants et stables reste difficile. La compétition ne pardonne ni la confusion produit, ni l’instabilité managériale.
Meta: licenciements et contenus toxiques
Sur les plateformes sociales, la pression monte sur deux axes: l’économie de l’attention et la sécurité. D’un côté, des lanceurs d’alerte racontent à la BBC une “course aux algorithmes” entre TikTok et Meta, où des choix de produit auraient augmenté l’exposition à des contenus nocifs. Les entreprises contestent ces accusations, mais l’histoire rejoint un débat récurrent: quand la recommandation optimise l’engagement, elle peut aussi optimiser la colère, la polarisation, et le contenu borderline.
De l’autre, un procès à Los Angeles met en cause des mécanismes de design accusés d’“accrocher” les enfants—défilement infini, lecture automatique, notifications. La question n’est pas seulement médicale, elle est juridique: est-ce qu’une plateforme peut être tenue responsable de fonctionnalités conçues pour prolonger l’usage, quand l’utilisateur est mineur ? Le verdict est attendu comme un test majeur.
Et il y a un troisième volet, très actuel: la désinformation de guerre. Des images et vidéos générées par IA circulent massivement sur X, y compris des scènes fabriquées, malgré des annonces de durcissement. Des chercheurs notent que la monétisation peut encore récompenser les contenus viraux, et que la vérification à grande échelle reste un défi. Résultat: une confusion qui s’installe vite, surtout quand le vrai et le faux se mélangent au fil des partages.
Google Fiber cédé à Stonepeak
Dans les télécoms, Alphabet continue de se désengager de certains “grands paris” d’autrefois. Google Fiber—désormais GFiber—serait vendu à Stonepeak, avec une fusion prévue avec Astound Broadband, un autre opérateur détenu par Stonepeak. Alphabet garderait une participation minoritaire. L’enjeu: GFiber était un symbole, celui d’un challenger qui devait bousculer le haut débit américain. Avec ce montage, on passe à une logique de consolidation soutenue par du capital externe. Reste la question clé pour les consommateurs: est-ce que le nouvel ensemble investira agressivement pour améliorer les réseaux—et où—ou est-ce que l’histoire va surtout tourner autour d’optimisation financière et de concurrence plus “calculée” ?
Vaccin ARNm pour un chien
On termine avec une histoire à la frontière entre biotech et IA, plus émouvante que spectaculaire—et qu’il faut prendre avec prudence. À Sydney, un entrepreneur a travaillé avec des chercheurs pour concevoir un vaccin ARNm personnalisé pour sa chienne, atteinte d’un cancer agressif. L’équipe a séquencé la tumeur, utilisé des outils d’IA pour traiter de gros volumes de données génétiques, puis conçu une formule ciblant des mutations spécifiques. Un des tumeurs aurait rétréci, améliorant le confort de l’animal, sans disparition complète de la maladie. Certains scientifiques rappellent que, sans essais contrôlés et réplication, on ne peut pas conclure grand-chose. Mais l’intérêt est réel: la personnalisation extrême devient plus accessible, et les animaux de compagnie pourraient servir de terrain d’innovation plus rapide—avec, potentiellement, des retombées pour la médecine humaine.
Abonnez-vous aux flux spécifiques par édition:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Monday Mar 16, 2026
Monday Mar 16, 2026
Por favor, apoya este pódcast visitando a nuestros patrocinadores:
- Descubre el futuro del audio con IA con ElevenLabs - https://try.elevenlabs.io/tad
- Invierte como los profesionales con StockMVP - https://www.stock-mvp.com/?via=ron
- Prezi: Crea presentaciones con IA rápidamente - https://try.prezi.com/automated_daily
Apoya directamente a The Automated Daily:
Cómprame un café: https://buymeacoffee.com/theautomateddaily
Temas de hoy:
EE. UU. contra Anthropic y Claude - La administración Trump ordena cortar contratos federales con Anthropic tras el choque por límites de Claude en vigilancia masiva y armas autónomas; hay demanda y riesgo para el Pentágono, Palantir y compras públicas de IA.
Fiebre OpenClaw en la vida diaria - En China, el agente open-source OpenClaw se vuelve fenómeno social: instalaciones “por encargo”, automatización de trabajo y hasta trading automatizado. Crecen las alertas por fugas de datos, ciberataques y pérdidas financieras.
Meta recortes y carrera por IA - Meta prepara recortes grandes mientras sube el gasto en infraestructura de IA. La tensión entre rentabilidad, talento y velocidad de producto vuelve a marcar el rumbo de las grandes plataformas.
Nvidia impulsa CPUs para agentes - Nvidia usa su GTC para empujar una idea clave: con la IA de agentes, los CPUs vuelven al centro para mover datos y alimentar GPUs. El acuerdo con Meta y la posible escasez de CPUs elevan la apuesta.
Redes sociales: daño y juicios - Ex empleados y denunciantes describen una “carrera armamentística” de algoritmos entre TikTok y Meta que habría incrementado la exposición a contenido dañino. En paralelo, un juicio en Los Ángeles discute si funciones como scroll infinito generan adicción en menores.
X y la desinformación con IA - Imágenes y videos falsos de guerra generados por IA siguen circulando en X pese a nuevas sanciones de monetización. El problema se agrava cuando cuentas verificadas amplifican el contenido y los sistemas de verificación no alcanzan.
China aprueba un BCI invasivo - China aprueba su primer interfaz cerebro-computadora invasivo para personas con parálisis parcial, con mejoras en funciones de la mano. El aval regulatorio acelera la competencia global en neurotecnología frente a rivales como Neuralink.
Vacuna mRNA para perro con IA - En Australia, un equipo diseñó una vacuna mRNA personalizada para un perro con cáncer usando análisis genético y apoyo de IA. Hay señales prometedoras, pero científicos piden cautela por falta de evidencia controlada a gran escala.
DART movió un asteroide al Sol - Un nuevo estudio confirma que el impacto DART no solo cambió la órbita de Dimorphos alrededor de Didymos: también alteró su trayectoria alrededor del Sol. Es la primera observación directa de un cambio heliocéntrico tras un impacto.
Google Fiber se vende y fusiona - Alphabet vende GFiber a Stonepeak y lo fusiona con Astound Broadband, quedándose con una participación minoritaria. El movimiento redefine a un retador histórico de banda ancha ahora respaldado por private equity.
Transcripcion del Episodio
EE. UU. contra Anthropic y Claude
Empezamos con el choque más tenso del día entre política y tecnología. Según se informa, la administración Trump ordenó terminar todos los contratos del gobierno estadounidense con Anthropic después de que su CEO, Dario Amodei, se negara a retirar restricciones que impiden usar Claude para vigilancia masiva o armas totalmente autónomas sin supervisión humana. Anthropic respondió con una demanda, alegando represalia ilegal y advirtiendo que la etiqueta de “riesgo en la cadena de suministro” podría contaminar también a socios. Lo relevante aquí es el precedente: si el Estado puede penalizar límites de seguridad impuestos por un proveedor, otras empresas de IA podrían verse forzadas a elegir entre contratos y principios, en un terreno legal todavía muy poco claro.
Fiebre OpenClaw en la vida diaria
De ahí nos vamos a China, donde la IA no está en debate… está en la calle. OpenClaw, un agente de IA de código abierto, se volvió un fenómeno: gente haciendo fila para instalarlo, o pagando a desconocidos por internet para que se lo dejen funcionando. La promesa es tentadora: automatizar tareas, “montar un negocio paralelo” y reducir trabajo repetitivo. El problema es que la fiebre ya se empujó a usos arriesgados, como monitoreo de mercados y trading automatizado, y hay reportes de pérdidas por órdenes incorrectas y cálculos mal hechos. Y además está el frente de seguridad: la base nacional china de vulnerabilidades alertó sobre posibles ataques y filtraciones por instalaciones mal configuradas, y algunas agencias ya lo están restringiendo en equipos de trabajo. Es un ejemplo perfecto de cómo los agentes de IA pueden masificarse en días… y también multiplicar riesgos financieros y de ciberseguridad.
Meta recortes y carrera por IA
Hablando de presión por la IA: Meta vuelve a estar en el centro por posibles recortes. Reuters cita fuentes que hablan de planes para reducir personal en torno a una quinta parte o más, como forma de compensar el coste creciente de infraestructura y apuestas en modelos. Meta lo discute, pero la tendencia se repite en el sector: gastar fuerte en centros de datos y talento, mientras se pide a los equipos “hacer más con menos” apoyados en herramientas de IA. Si se confirma, sería otra señal de que el negocio se está reordenando alrededor del cómputo, no solo del producto.
Nvidia impulsa CPUs para agentes
Y en esa misma línea aparece Nvidia, que está usando su conferencia GTC para empujar un giro interesante: con aplicaciones de IA basadas en agentes —esos sistemas que coordinan muchas tareas y mueven muchos datos—, los CPUs vuelven a ser críticos. Nvidia está posicionando sus CPUs Arm como el “anfitrión” que mantiene a las GPUs trabajando sin cuellos de botella. Lo llamativo es el respaldo comercial: se habla de un acuerdo multianual con Meta para desplegar CPUs de Nvidia a gran escala y adoptar la próxima generación más adelante. Entre analistas, ya suena una advertencia: podría haber escasez silenciosa de CPUs de servidor si esta ola de agentes despega como esperan.
Redes sociales: daño y juicios
Ahora, el otro lado de la moneda: lo que pasa cuando la optimización de engagement manda. La BBC recoge testimonios de denunciantes y ex empleados que describen una especie de carrera armamentística de algoritmos entre TikTok y Meta, en la que decisiones de producto habrían aumentado exposición a contenido dañino. En paralelo, en Los Ángeles se escucharon alegatos finales de un juicio que acusa a Meta y Google de diseñar funciones que “enganchan” a menores: scroll infinito, reproducción automática y notificaciones que evitan puntos de salida naturales. Las empresas lo niegan, pero el caso importa por dos motivos: primero, porque puede cambiar el estándar legal de responsabilidad por diseño; y segundo, porque pone foco en algo difícil de auditar desde fuera: las prioridades internas entre crecimiento y seguridad.
X y la desinformación con IA
Y si hablamos de plataformas, hoy X sigue lidiando con una avalancha de desinformación visual generada por IA sobre el conflicto en Oriente Medio. Aunque la red anunció que castigaría a creadores que moneticen “metraje de guerra” falso sin etiquetarlo, investigadores dicen que el feed sigue inundado, a menudo amplificado por cuentas con gran alcance. Peor aún: cuando un chatbot como Grok valida por error una imagen falsa, añade una capa extra de confusión. La conclusión práctica es incómoda: desincentivar con dinero ayuda, pero la aplicación es difícil y la verificación comunitaria no escala al ritmo del contenido sintético.
China aprueba un BCI invasivo
En neurotecnología, China dio un paso grande: su agencia reguladora aprobó el primer producto invasivo de interfaz cerebro-computadora del país, con un foco concreto en adultos con parálisis parcial por lesión medular. En ensayos, se reportan mejoras en funciones de la mano usando sensores implantados combinados con asistencia robótica. Más allá del dispositivo, la noticia es geopolítica tecnológica: Pekín está empujando estas tecnologías como industria estratégica, y la competencia con actores de EE. UU. se va a intensificar en regulación, financiación y velocidad de iteración clínica.
Vacuna mRNA para perro con IA
Un tema que mezcla biotecnología e IA: en Australia, un emprendedor trabajó con investigadores para desarrollar una vacuna mRNA personalizada para su perra Rosie, con cáncer agresivo. Secuenciaron el tumor y usaron herramientas de IA para analizar datos genéticos y proponer dianas de vacuna. Dicen que un tumor se redujo notablemente, mejorando su bienestar, aunque la enfermedad no desapareció. Es una historia potente, pero con letra pequeña: científicos recuerdan que un caso individual no prueba eficacia, y que hacen falta estudios controlados. Aun así, señala hacia dónde va la medicina personalizada: más rápida, más dirigida y, potencialmente, antes en veterinaria que en humanos.
DART movió un asteroide al Sol
En el espacio, una actualización científica muy elegante: un estudio afirma que el impacto de DART en 2022 no solo acortó la órbita de Dimorphos alrededor de Didymos; también cambió, mediblemente, la trayectoria del sistema alrededor del Sol. Es la primera vez que se observa de forma directa un cambio heliocéntrico tras un impacto de este tipo. ¿Por qué importa? Porque afina nuestros modelos de defensa planetaria: no solo cuenta el golpe, también el empuje extra del material expulsado, lo que ayuda a estimar cuánto se podría desviar un objeto si algún día hubiera riesgo real para la Tierra.
Google Fiber se vende y fusiona
Cerramos con un movimiento de infraestructura que redefine un viejo sueño de Silicon Valley. Alphabet está vendiendo Google Fiber, ahora GFiber, al fondo Stonepeak y lo fusionará con Astound Broadband para crear un proveedor de internet más grande. Alphabet se quedaría con una participación minoritaria, lo que suena a retirada definitiva de la idea original de transformar el mercado con una expansión nacional propia. La apuesta ahora es otra: capital externo y consolidación para competir en serio contra los gigantes tradicionales. La incógnita es si esta nueva empresa invertirá fuerte en fibra donde hoy predomina el cable, o si priorizará crecimiento más conservador.
Suscríbete a fuentes específicas por edición:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)
