| Edition | English | Español | Français |
| ● Space | Apple · Spotify · RSS | — | — |
| ● Top News | Apple · Spotify · RSS | Apple · Spotify · RSS | Apple · Spotify · RSS |
| ● Tech | Apple · Spotify · RSS | Apple · Spotify · RSS | Apple · Spotify · RSS |
| ● Hacker News | Apple · Spotify · RSS | Apple · Spotify · RSS | Apple · Spotify · RSS |
| ● AI | Apple · Spotify · RSS | Apple · Spotify · RSS | Apple · Spotify · RSS |

98.2K
Downloads
6966
Episodes
Welcome to ’The Automated Daily’, your ultimate source for a streamlined and insightful daily news experience. Powered by cutting-edge Generative AI technology, we bring you the most crucial headlines of the day, carefully selected and delivered directly to your ears. Our intelligent algorithms scour the news landscape to sift through the noise, ensuring that you receive only the most relevant and significant stories. Join us as we condense the day’s news into a concise and captivating format, keeping you informed and empowered.
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
LinkedIn - https://www.linkedin.com/in/the-automated-daily/
X (Twitter) - https://x.com/automated_daily
Welcome to ’The Automated Daily’, your ultimate source for a streamlined and insightful daily news experience. Powered by cutting-edge Generative AI technology, we bring you the most crucial headlines of the day, carefully selected and delivered directly to your ears. Our intelligent algorithms scour the news landscape to sift through the noise, ensuring that you receive only the most relevant and significant stories. Join us as we condense the day’s news into a concise and captivating format, keeping you informed and empowered.
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
LinkedIn - https://www.linkedin.com/in/the-automated-daily/
X (Twitter) - https://x.com/automated_daily
Episodes

Wednesday Mar 18, 2026
Wednesday Mar 18, 2026
Por favor, apoya este pódcast visitando a nuestros patrocinadores:
- Consensus: IA para la investigación. Obtén un mes gratis - https://get.consensus.app/automated_daily
- Prezi: Crea presentaciones con IA rápidamente - https://try.prezi.com/automated_daily
- KrispCall: Telefonía en la nube agéntica - https://try.krispcall.com/tad
Apoya directamente a The Automated Daily:
Cómprame un café: https://buymeacoffee.com/theautomateddaily
Temas de hoy:
Implantes cerebro-computadora para escribir - Un implante cerebro-computadora permitió a dos personas con parálisis escribir en un teclado virtual con señales neuronales, acercando comunicación más fluida para ALS y lesiones medulares.
Nvidia refuerza su dominio IA - Jensen Huang presentó en GTC cómo Nvidia busca sostener su liderazgo en IA con foco en la fase de inferencia, nuevos acuerdos y una visión de demanda masiva de cómputo.
Robotaxis y alianzas con Nvidia - Nvidia amplía acuerdos con fabricantes y plataformas como Uber y Lyft, apostando a convertirse en la base tecnológica de flotas de robotaxis y asistencia avanzada al conductor.
OpenAI lanza modelos mini - OpenAI añadió variantes más pequeñas de GPT-5.4 para tareas de alto volumen, apuntando a menor latencia y a que los agentes automaticen trabajo cotidiano en producción.
Meta y China: compra bajo lupa - China intensifica el escrutinio sobre la adquisición de Manus por Meta, con preocupaciones por exportación de tecnología, transferencias de datos y fuga de talento.
Defensa antimisiles Golden Dome - El programa estadounidense Golden Dome elevó su estimación de coste y acelera su componente espacial, reavivando el debate sobre viabilidad, gasto y militarización del espacio.
Agentes de código y contexto - Surge una nueva ola de herramientas para que agentes de programación sean más fiables: contexto del proyecto, ‘skills’ reutilizables y revisiones automatizadas con controles de seguridad.
¿El fin de las hojas de cálculo? - Una discusión en el mundo tech sugiere que la IA podría convertir flujos basados en hojas de cálculo en microaplicaciones con pruebas y control de versiones, pero con dudas por confianza y auditoría.
Materia oscura: SuperCDMS en marcha - El experimento SuperCDMS alcanzó temperaturas ultracriogénicas en SNOLAB y entra en calibración, preparando una búsqueda de materia oscura de muy baja masa con alta sensibilidad.
Bacterias como fábricas anticáncer - Investigadores modificaron bacterias para producir un fármaco anticáncer dentro de tumores en ratones, una idea de ‘fábricas’ locales que promete pero aún es preclínica.
Transcripcion del Episodio
Implantes cerebro-computadora para escribir
Empezamos por el titular más llamativo: una nueva investigación sobre interfaces cerebro-computadora reporta que dos personas con parálisis pudieron escribir en un teclado virtual decodificando señales neuronales asociadas a “intentos” de mover los dedos. Lo interesante no es solo que funcione, sino la fluidez: uno de los participantes llegó a una velocidad que, según el estudio, roza gran parte del rendimiento de una persona sin parálisis. Si estos resultados se confirman a mayor escala, hablamos de una vía realista para devolver comunicación rápida a pacientes con ALS o lesiones medulares, algo que cambia el día a día.
Nvidia refuerza su dominio IA
Ahora sí, Nvidia. En su gran conferencia de IA en San José, Jensen Huang dibujó el siguiente acto del boom: no solo entrenar modelos, sino ejecutar modelos a escala —lo que la industria llama inferencia— de forma más eficiente y ubicua. Huang incluso habló de una cola de pedidos enorme para chips este año, mientras el mercado se pregunta si el entusiasmo por IA se ha pasado de rosca. El trasfondo es claro: Nvidia quiere convencer a empresas e inversores de que la demanda no se agota, solo se transforma, y que el próximo cuello de botella será llevar la IA a productos y procesos cotidianos.
Robotaxis y alianzas con Nvidia
Y esa ambición se nota en otro frente: movilidad autónoma. Nvidia amplió acuerdos con fabricantes como Hyundai, Nissan e Isuzu, además de BYD y Geely, para su plataforma de desarrollo de conducción avanzada. Es un recordatorio de que el coche autónomo “total” sigue siendo excepcional y, en general, bajo condiciones controladas. Pero el negocio real hoy es estandarizar componentes: asistencia al conductor cada vez más capaz y, a medio plazo, robotaxis en ciudades seleccionadas.
OpenAI lanza modelos mini
En paralelo, Nvidia también anunció alianzas ampliadas con Uber y Lyft, con la idea de que su tecnología sea el cimiento común para futuras flotas de robotaxis. Uber llegó a poner fecha orientativa: espera robotaxis de nivel 4 en su plataforma en Los Ángeles y San Francisco hacia 2027, con expansión global después. ¿Por qué importa? Porque sugiere un mercado menos “todo o nada” y más modular: en vez de una sola empresa haciéndolo todo, varias piezas —chips, software, integración— se reparten entre especialistas. Eso puede acelerar la competencia frente a quienes ya tienen ventaja operativa.
Meta y China: compra bajo lupa
También hubo espacio para videojuegos, pero con mensaje corporativo: Nvidia presentó DLSS 5, una nueva vuelta de tuerca a cómo se mejora la imagen sin disparar el coste de renderizado. Más allá del gaming, Huang lo usó como metáfora de su tesis: combinar datos “estructurados” —lo que un sistema ya conoce con precisión— con modelos generativos para producir resultados más realistas y rápidos. Lo interesante es la insinuación: este enfoque podría saltar de gráficos a entornos empresariales, donde hay montones de datos ordenados en almacenes y plataformas analíticas esperando a que los agentes los exploten con más agilidad.
Defensa antimisiles Golden Dome
En el ecosistema de modelos, OpenAI lanzó variantes más pequeñas de GPT-5.4: una versión “mini” y otra aún más ligera para tareas rápidas. La lectura es menos glamorosa pero muy importante: la IA se está industrializando. Para muchas empresas, lo crítico no es el modelo más brillante, sino el que responde rápido, cuesta menos por operación y se integra bien con automatizaciones. Esto empuja una arquitectura de “capas”: un modelo grande para razonar lo difícil y otros más pequeños para ejecutar tareas repetitivas, como si fueran manos auxiliares de un sistema de agentes.
Agentes de código y contexto
Cambiamos a geopolítica: China está aumentando el escrutinio sobre la compra de la startup de IA Manus por parte de Meta, pese a que el acuerdo ya se habría completado. Según fuentes cercanas, habría preocupación por normas de exportación tecnológica, transferencias de datos y, sobre todo, por la salida de talento. Incluso se menciona la posibilidad de restricciones para que ciertos directivos no abandonen el país. El caso apunta a algo más grande: en IA, el control no solo es sobre chips o modelos, también sobre personas, conocimiento y jurisdicción.
¿El fin de las hojas de cálculo?
En defensa y espacio, Estados Unidos elevó la estimación de coste de Golden Dome, su programa de defensa antimisiles, y reforzó el componente espacial para detectar y seguir amenazas como misiles hipersónicos. Además, ya hay grandes contratistas posicionados como piezas centrales. El debate aquí es doble: por un lado, si la tecnología puede realmente escalar sin volverse inasumible; por otro, el precedente político de mover más capacidades militares a órbita, algo que siempre enciende alarmas por costes, riesgos y escalada.
Materia oscura: SuperCDMS en marcha
Volvamos al software, pero con una pregunta de fondo: ¿por qué los “agentes” de programación aún fallan tanto en empresas? Dos señales interesantes hoy. Primero, herramientas que prometen dar “contexto” a los agentes: historial de decisiones, convenciones internas, dependencias ocultas… todo lo que no está en el código, pero manda en la realidad. Segundo, desde dentro de Anthropic, un ingeniero explicó cómo están usando “skills” en Claude Code: extensiones reutilizables que empaquetan guías, scripts y verificaciones para que el agente no improvise a ciegas. La idea común: el salto no será solo modelos mejores, sino entornos más controlados y repetibles.
Bacterias como fábricas anticáncer
Siguiendo con fiabilidad, Vercel liberó como open source un bot de revisión de código que se engancha a pull requests y puede ejecutar herramientas del repositorio en un entorno aislado. Lo relevante no es el “robot que comenta código” —eso ya abunda— sino el enfoque de seguridad y de revisiones accionables: análisis con contexto, comprobaciones reales y sugerencias integradas en el flujo de trabajo. Si esto cuaja, podríamos ver revisiones más consistentes… y quizá menos agotamiento del equipo.
Story 11
Y, aun así, una advertencia útil: el CEO de Tailscale publicó que cada nueva capa de aprobación o revisión puede hacer el trabajo muchísimo más lento, no por escribir código, sino por esperas y coordinaciones. En otras palabras: aunque la IA acelere la producción, el cuello de botella se desplaza a procesos humanos. La tesis es incómoda, pero familiar: si tu organización “cura” el riesgo añadiendo comités, al final nadie siente propiedad real y la velocidad se derrite.
Story 12
Una discusión relacionada encendió a medio internet: un inversor argumentó que, con generación de código por IA, muchos flujos que viven en hojas de cálculo podrían convertirse en software de verdad, con pruebas, control de versiones y menos fragilidad. Los críticos respondieron con algo muy sensato: las hojas de cálculo sobreviven porque su interfaz es audit-able por humanos, especialmente en finanzas, donde la corrección no es negociable y la gente quiere ver cada paso. Quizá el futuro sea híbrido: la “cuadrícula” como vista editable, pero con lógica respaldada por sistemas más robustos.
Story 13
Cerramos con ciencia dura: SuperCDMS, el experimento de búsqueda de materia oscura en SNOLAB, logró enfriarse hasta su temperatura operativa, a milésimas de grado sobre el cero absoluto. Eso marca el paso de construcción a calibración, esencial para distinguir señales rarísimas del ruido de fondo. La promesa es detectar partículas de materia oscura muy ligeras, en un rango donde otros experimentos pierden sensibilidad. No es un resultado final, pero sí un hito: el tipo de avance silencioso que, si sale bien, cambia el mapa de lo que podemos medir.
Story 14
Y una nota biomédica con potencial, pero todavía lejos de clínica: investigadores reportaron bacterias probióticas modificadas para fabricar y liberar un fármaco anticáncer directamente dentro de tumores, al menos en modelos de ratón. La idea es concentrar el efecto donde hace falta y reducir daño sistémico. Suena prometedor, pero el propio estudio reconoce los grandes pendientes: seguridad, control y cómo “apagar” o eliminar esas bacterias después. En biotecnología, el salto de ratón a humano es el verdadero filtro.
Suscríbete a fuentes específicas por edición:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Wednesday Mar 18, 2026
AI tools design cancer vaccine & Nvidia’s next act in AI - Tech News (Mar 18, 2026)
Wednesday Mar 18, 2026
Wednesday Mar 18, 2026
Please support this podcast by checking out our sponsors:
- Consensus: AI for Research. Get a free month - https://get.consensus.app/automated_daily
- Prezi: Create AI presentations fast - https://try.prezi.com/automated_daily
- KrispCall: Agentic Cloud Telephony - https://try.krispcall.com/tad
Support The Automated Daily directly:
Buy me a coffee: https://buymeacoffee.com/theautomateddaily
Today's topics:
AI tools design cancer vaccine - A dog’s tumors reportedly shrank after an owner used ChatGPT-style tools to help shape a personalized cancer vaccine concept—raising oversight, validation, and safety questions.
Nvidia’s next act in AI - Jensen Huang used GTC to underline Nvidia’s AI roadmap—especially inference demand, supply constraints, and new partnerships—while defending the company’s full-stack strategy.
Robotaxis shift to platforms - Nvidia widened autonomous-vehicle deals with global automakers and deepened ties with Uber and Lyft, signaling a more modular robotaxi ecosystem beyond single-company stacks.
OpenAI releases smaller GPT-5.4 - OpenAI launched GPT-5.4 mini and nano to reduce latency and cost for high-volume agent workflows, reinforcing a tiered model lineup for production automation.
China scrutinizes Meta AI acquisition - Beijing is probing Meta’s completed acquisition of Singapore-based Manus, focusing on tech export controls, talent movement, and potential restrictions like data-transfer limits or exit bans.
Amazon pushes one-hour delivery - Amazon is expanding one-hour and three-hour delivery across thousands of U.S. locations, intensifying the battle for near-instant retail convenience against Walmart and delivery apps.
Spreadsheets vs software with AI - A16z’s Andrew Chen sparked debate over whether AI will convert spreadsheet “business logic” into real software, colliding with spreadsheets’ strengths in auditability and trust.
Coding agents meet real-world governance - New posts and open-source releases highlight how teams are trying to make coding agents reliable—through reusable extensions, sandboxing, and safer review and approval workflows.
Brain implant enables thought typing - A study reports two people with paralysis typed via a brain-computer interface by decoding intended finger movements, pointing to more fluent assistive communication.
Golden Dome missile defense costs rise - The U.S. Golden Dome homeland missile defense program raised its estimate to $185B, leaning harder on space-based tracking—while scrutiny grows over feasibility and orbit militarization.
Solid-state battery fast-charge demo - Donut Lab and Verge showed a fast DC charging session for a motorcycle using a claimed solid-state pack, moving from lab claims toward real-world validation.
Deep-freeze dark matter experiment milestone - SuperCDMS at SNOLAB reached operating temperature near absolute zero, clearing a major hurdle before calibration and a high-sensitivity hunt for low-mass dark matter.
Engineered bacteria deliver cancer drugs - Researchers engineered E. coli Nissle to produce an anti-cancer drug inside tumors in mice, hinting at localized ‘drug factory’ therapies but still far from human trials.
Episode Transcript
AI tools design cancer vaccine
First up, that AI-and-veterinary-medicine story making the rounds. A dog with cancer reportedly improved after the owner used ChatGPT and other AI tools to help design a personalized cancer vaccine approach. The headline is hopeful, but the bigger takeaway is more sober: consumer AI is now good enough to guide real-world experimentation.
That’s both empowering and risky. The episode is a reminder that “AI-assisted” doesn’t automatically mean “clinically validated,” and we’re going to see growing pressure for clearer guardrails—especially when people use general-purpose models to navigate complex biology.
Nvidia’s next act in AI
Staying with AI, Nvidia had a busy stretch at its San Jose conference, and several announcements all point in the same direction: the company wants to stay central as AI shifts from training giant models to running them everywhere.
CEO Jensen Huang said Nvidia is staring at an enormous order pipeline, and he emphasized inference—basically the chips and systems that power AI responses in products people actually use. That matters because investors have been asking whether the AI boom is getting ahead of itself. Nvidia’s argument is: the next wave isn’t just building models, it’s operating them at scale—cheaply, quickly, and with tight power limits.
Robotaxis shift to platforms
Nvidia also leaned hard into the idea of AI “agents” moving from chat to action. Huang praised an open-source agent platform called OpenClaw as the next major step, and Nvidia is positioning an enterprise-flavored version—NemoClaw—as the safer, more controllable path for companies.
This is interesting because it reframes the AI race. It’s less about who answers questions best, and more about who builds the most trusted system for letting software do things on your behalf—inside your files, your apps, and your business workflows.
OpenAI releases smaller GPT-5.4
On the automotive side, Nvidia kept widening its autonomous-vehicle footprint. It added more global carmakers to its development partnerships and also announced expanded work with Uber and Lyft, with talk of Nvidia-based robotaxis arriving later this decade.
The key theme here is modularity. Instead of one company building everything end-to-end, the robotaxi world is starting to look like a supply chain: one group builds the ride-hailing network, another supplies the in-car compute, another trains the driving models. If that structure sticks, it lowers the barrier for more players to enter—while making the platform providers, like Nvidia, even more influential.
China scrutinizes Meta AI acquisition
And yes—Nvidia still cares about gaming, but it’s increasingly using gaming tech as a preview of what it wants in enterprise. The company unveiled a new generation of DLSS, framing it as a way to blend traditional graphics data with generative AI so scenes look more realistic without brute-force rendering.
The broader point Nvidia keeps making is that “structured data plus generative AI” is becoming a general recipe—use reliable, well-defined data as an anchor, and let AI fill in the rest. That framing is aimed squarely at business computing, not just games.
Amazon pushes one-hour delivery
Now to OpenAI. The company released smaller variants in its GPT-5.4 family—mini and nano—positioned for faster, cheaper, high-volume tasks.
This is notable for two reasons. First, it signals that the hottest battleground is operational AI: not just impressive demos, but models tuned for the boring, constant work of classification, extraction, routing, and agent sub-tasks. Second, it reinforces a tiered future where one “big brain” model delegates to smaller, quicker models—so AI systems behave more like teams than single assistants.
Spreadsheets vs software with AI
Next, a geopolitics-meets-tech development: China is reportedly increasing scrutiny of Meta’s acquisition of Manus, an AI startup with ties to Chinese founders and prior links to a Chinese parent.
Even though the deal is completed, the pressure points are familiar: potential technology export rules, outbound investment controls, and the movement of talent. The interesting angle is the message it sends—Beijing appears increasingly wary of companies “relocating” in ways that shift strategic AI capabilities outside its reach. That could chill cross-border AI deals, and it could also push companies to rethink where their data, teams, and IP physically sit.
Coding agents meet real-world governance
Let’s shift to consumer logistics, where expectations keep getting sharper. Amazon is expanding one-hour and three-hour delivery in parts of the U.S., adding more cities and a wider selection of everyday items.
Amazon has tried ultra-fast delivery in different forms before, sometimes pulling back, sometimes relaunching. The important part isn’t the novelty—it’s the direction of travel. Delivery speed is becoming a core competitive metric, and Amazon is clearly treating it like an arms race against Walmart and the on-demand delivery platforms that want to own the “I need it now” moment.
Brain implant enables thought typing
On the workplace side, there’s a lively debate about whether AI will finally dethrone the spreadsheet. Investor Andrew Chen argued that AI code generation makes it easier to turn spreadsheet-driven processes into real applications—things with testing, version control, and more reliability than a fragile grid.
The pushback is equally telling: spreadsheets endure because they’re auditable. In fields like finance, people want to inspect logic at the cell level and build trust through visibility. My take? AI may not kill the grid, but it may move the grid into a new role—as an interface on top of sturdier software foundations.
Golden Dome missile defense costs rise
Related to that, one of the quieter truths about “AI makes coding faster” is that coding often isn’t the bottleneck. Tailscale’s CEO argued that every extra approval layer slows delivery dramatically, mostly due to waiting—not effort.
That matters because it’s a warning for the agent era. If AI accelerates output, organizations will feel even more friction in reviews, handoffs, and coordination. The winners may be teams that redesign their process—smaller ownership boundaries, clearer interfaces, and quality built in—rather than stacking even more approvals on top of faster code.
Solid-state battery fast-charge demo
On tooling, two signals stood out in the ongoing effort to make coding agents less chaotic in real engineering environments.
First, Vercel open-sourced a self-hostable AI code review bot for GitHub pull requests, designed to run checks and leave actionable feedback. Second, LangChain released an open framework for building internal coding agents with sandboxes and workflow hooks. The common thread is governance: companies are looking for ways to let AI help without letting it roam unchecked, and that means isolation, traceability, and predictable integration into existing dev workflows.
Deep-freeze dark matter experiment milestone
Now to a major accessibility milestone: a new study reports that a brain-computer interface implant enabled two people with paralysis to type on a virtual keyboard using their thoughts, by decoding signals associated with attempted finger movements.
What’s compelling here is the reported speed—approaching something that could support relatively fluent communication. It’s still early, and scaling to more people is the real test, but this is the kind of progress that turns BCIs from a futuristic concept into a practical assistive tool.
Engineered bacteria deliver cancer drugs
In defense tech, the U.S. military’s Golden Dome homeland missile-defense program raised its estimated cost to $185 billion, with more emphasis on accelerating space-based detection and tracking.
This is worth watching because it’s not just about budget. It’s about strategy: hypersonic weapons and advanced missiles are pushing countries toward space-enabled sensing and command networks, and that inevitably raises political and technical questions—especially when space-based interceptors enter the conversation.
Story 14
Quick hits from the frontier of energy and physics.
First, Donut Lab and Verge Motorcycles demonstrated a fast DC charging session for a test bike using a battery pack Donut Lab describes as solid-state. The demo pushes the conversation from lab claims to real-world behavior—but skepticism remains until independent validation and broader testing fill in the missing details.
Second, SuperCDMS—an underground dark matter experiment in Canada—successfully cooled to its operating temperature just above absolute zero. That’s a big step from construction into calibration, and it sets up a new search focused on very low-mass dark matter candidates that other detectors struggle to see.
Story 15
Finally, a fascinating piece of biotech: researchers reported engineering a probiotic strain of E. coli to manufacture and release an anti-cancer drug directly inside tumors in mice.
The promise is targeted therapy—high concentration where it’s needed, potentially less systemic harm elsewhere. The caution is just as clear: it’s preclinical, and making living “drug factories” safe and controllable in humans is a tall order. Still, it’s a glimpse of where synthetic biology and medicine could converge next.
Subscribe to edition specific feeds:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Wednesday Mar 18, 2026
Wednesday Mar 18, 2026
Merci de soutenir ce podcast en visitant nos sponsors:
- Découvrez l’avenir de l’audio IA avec ElevenLabs - https://try.elevenlabs.io/tad
- Investissez comme les professionnels avec StockMVP - https://www.stock-mvp.com/?via=ron
- KrispCall: Téléphonie cloud agentique - https://try.krispcall.com/tad
Soutenez directement The Automated Daily:
Offre-moi un café: https://buymeacoffee.com/theautomateddaily
Sujets du jour:
Mémoire d’agents: se souvenir du pourquoi - Un développeur découvre que ses agents “se rappellent” les faits mais pas les raisons, puis améliore le rappel en restructurant la mémoire (context, décisions, rationale). Mots-clés: agents, memory, évaluation, long-terme.
Agents outillés: sandbox et sécurité - OnPrem.LLM montre des agents capables d’utiliser des outils avec des garde-fous concrets, tandis que NVIDIA OpenShell pousse le sandboxing piloté par politiques pour limiter l’exfiltration. Mots-clés: sandbox, tool-use, sécurité, conteneurs, politiques.
Codex: subagents et sécurité applicative - OpenAI généralise les subagents dans Codex et explique pourquoi Codex Security part du contexte du dépôt plutôt que d’un rapport SAST. Mots-clés: Codex, subagents, AppSec, SAST, fuzzing.
Nouveaux modèles ouverts chez Mistral - Mistral publie Small 4 en open source et lance Leanstral, un agent de preuve pour Lean 4, signalant une poussée vers du code plus vérifiable. Mots-clés: Mistral, open-source, multimodal, Lean, formal verification.
Course à l’infrastructure IA d’OpenAI - OpenAI accélère la construction de capacité data centers, avec un nouveau responsable infra et une stratégie multi-fournisseurs de puces. Mots-clés: data centers, énergie, GPU, supply chain, compute.
NVIDIA: inference distribuée et GTC - NVIDIA sort Dynamo 1.0 pour servir des modèles sur plusieurs nœuds GPU et, à GTC, réaffirme sa stratégie “AI factory” au-delà du gaming. Mots-clés: inference, multi-GPU, latence, GTC, plateforme.
Alliance OpenAI et fonds de private equity - OpenAI discute d’une co-entreprise avec des fonds de private equity pour déployer l’IA en entreprise plus vite et plus largement, avec un enjeu de gouvernance. Mots-clés: joint venture, private equity, déploiement, enterprise, contrôle.
Alibaba restructure autour des tokens - Alibaba crée un hub IA unifié orienté monétisation des “tokens”, en regroupant recherche et produits autour de Qwen. Mots-clés: Alibaba, Qwen, réorganisation, monétisation, agents.
Recherche: vers l’apprentissage autonome - Un papier arXiv (Dupoux, LeCun, Malik) critique l’absence d’apprentissage autonome continu et propose une architecture mêlant observation et action. Mots-clés: autonomous learning, exploration, cognition, architecture, adaptation.
Société: contestation et pouvoir de l’IA - Un entretien sur le refus de l’IA et un essai comparant l’IA aux armes nucléaires posent la question centrale: qui décide, et au nom de quelles valeurs. Mots-clés: résistance, légitimité, État, Big Tech, militarisation.
-Metronome Signup Page Blocks Sandbox Creation With Browser Verification Warning
-OnPrem.LLM Demonstrates AgentExecutor for Tool-Using Agents with Sandbox and Custom Tools
-Researchers Propose Cognitive-Inspired Architecture for More Autonomous AI Learning
-Author Thomas Dekeyser ties today’s AI backlash to a long history of refusing harmful machines
-OpenAI in talks with TPG and other buyout firms on enterprise AI joint venture
-Benchmark Claims MCP Server Architecture Drives Large Gaps in AI Task Accuracy
-AI Agents Improved Recall by Restructuring Memory to Capture Decision ‘Why’
-Nvidia Introduces DLSS 5, Combining Generative AI and 3D Data for More Realistic Graphics
-a16z Warns AI Control Is Becoming a National-Security ‘Oppenheimer Moment’
-NVIDIA open-sources OpenShell, a policy-controlled sandbox runtime for AI agents
-Dynatrace report calls for stronger observability in GenAI and agentic AI workloads
-Former Intel AI Chief Sachin Katti Leads OpenAI’s Massive Data-Center Expansion
-Mistral launches open-source Mistral Small 4, unifying reasoning, multimodal, and coding in one model
-Anthropic Employee Shares How Work and Roles Shifted in a Year at an AI Lab
-Alibaba Creates ‘Token Hub’ Unit to Centralize AI and Push Enterprise Monetization
-OpenAI Codex Subagents Reach General Availability, Adding Custom Multi-Agent Workflows
-NVIDIA Releases Dynamo 1.0 for Production Multi-Node AI Inference
-OpenAI Says Codex Security Skips SAST Reports to Focus on Behavior and Validation
-NVIDIA GTC 2026: Vera Rubin, agentic AI platforms, and expanded partnerships across industry, robotics and automotive
-Mistral open-sources Leanstral, a Lean 4 agent for proof-verified code
-Mistral AI Unveils Forge for Training Enterprise AI Models on Proprietary Data
-Open-H-Embodiment Launches as First Open Dataset for Healthcare Robotics, With New Surgical Foundation Models
Transcription de l'Episode
Mémoire d’agents: se souvenir du pourquoi
On commence avec une leçon très concrète sur les agents “à mémoire longue”. Un développeur qui fait tourner une petite armée d’agents en local s’est rendu compte d’un piège: tout semblait marcher… alors que des pans entiers de contexte avaient été oubliés après un incident. Plutôt que d’accuser le modèle, il a fait évaluer la mémoire par le système lui-même, avec des questions de référence. Résultat: bon rappel des faits, mais gros trou noir sur les personnes et, surtout, sur la logique des décisions — le “pourquoi”. En restructurant la mémoire pour enregistrer explicitement les rationales, en résumant mieux les journaux, et en rendant les infos “humaines” retrouvables, le rappel a bondi. Pourquoi c’est important? Parce que beaucoup d’équipes vont déployer des agents en production, et découvrir que la fiabilité dépend autant de l’architecture de mémoire que du modèle.
Agents outillés: sandbox et sécurité
Dans la même veine, OnPrem.LLM publie un nouveau notebook d’exemple sur des agents autonomes capables d’utiliser des outils — fichiers, commandes, web — mais avec des garde-fous. L’idée clé n’est pas “l’agent fait plus”, c’est “l’agent fait mieux, sans dépasser les bornes”. Le projet insiste sur des restrictions simples à comprendre: limiter l’agent à un répertoire de travail, couper l’accès au shell si besoin, ou exécuter dans un conteneur éphémère. Pour les entreprises qui veulent des agents reproductibles, auditables, et déployables on-prem ou dans le cloud, ce genre de pattern devient presque une check-list de bon sens.
Codex: subagents et sécurité applicative
Et justement, NVIDIA pousse aussi sur la sécurité d’exécution avec OpenShell, un runtime open source qui vise à faire tourner des agents dans des environnements isolés, gouvernés par des politiques. L’intérêt ici, c’est la promesse d’un contrôle plus “opérationnel”: ce que l’agent peut lire, écrire, exécuter, et surtout vers quels services il peut parler. Dans un monde où les agents manipulent des identifiants et touchent des données sensibles, le sujet n’est plus théorique: il faut pouvoir prouver qu’un agent ne peut pas exfiltrer n’importe quoi, même par erreur.
Nouveaux modèles ouverts chez Mistral
Côté OpenAI, deux annonces racontent la même histoire: on industrialise les workflows multi-agents, et on durcit la posture sécurité. D’abord, les “subagents” sont désormais disponibles dans Codex: au lieu d’un assistant unique, on orchestre des rôles spécialisés qui se répartissent le travail — ce qui colle bien à la réalité du dev, où diagnostiquer, reproduire, corriger et vérifier sont des tâches différentes. Ensuite, OpenAI explique pourquoi Codex Security ne démarre pas depuis un rapport SAST. Leur argument: les vulnérabilités graves ne sont pas toujours des chaînes de données faciles à repérer; souvent, c’est une question de sens, d’ordre des opérations, de promesse implicite du code. D’où une approche “comportement d’abord”: comprendre le contexte du dépôt, puis chercher à casser les hypothèses avec des tests ciblés et des preuves reproductibles. À retenir: l’IA en sécurité, ce n’est pas juste lire du code, c’est valider des propriétés.
Course à l’infrastructure IA d’OpenAI
On passe aux modèles. Mistral annonce Mistral Small 4 en open source, en mettant en avant un modèle unique capable de combiner conversation, raisonnement, compréhension texte-image et aide au code. Le message derrière la fiche technique est clair: rendre des capacités avancées plus accessibles, et surtout plus faciles à déployer dans des environnements variés, sans dépendre d’un seul fournisseur.
NVIDIA: inference distribuée et GTC
Autre mouvement chez Mistral: Leanstral, un agent orienté Lean 4, donc la preuve formelle. C’est un virage intéressant, parce qu’il s’attaque au point faible du “vibe coding” dans les contextes critiques: la vérification. Quand une machine doit produire du code qui sera utilisé en finance, en industrie, ou dans des bibliothèques centrales, la question n’est plus “est-ce que ça compile?”, mais “est-ce que c’est correct au sens d’une spécification?”. Les assistants qui travaillent avec un vérificateur formel pourraient réduire le coût humain de relecture, là où l’automatisation bloque aujourd’hui.
Alliance OpenAI et fonds de private equity
Place à la course à l’infrastructure, toujours plus stratégique. OpenAI continue d’étendre ses capacités de data centers, avec un pilotage renforcé par un nouveau responsable infrastructure. Le contexte: limites des réseaux électriques, pénuries et arbitrages sur les puces, délais de construction… et opposition locale à certains projets. Ce qui ressort, c’est la diversification: multiplier les sites, éviter de dépendre d’un seul fournisseur, et sécuriser l’accès aux composants critiques. Pourquoi ça compte? Parce que, dans l’IA de pointe, la disponibilité de puissance de calcul devient un avantage compétitif aussi décisif que l’algorithme.
Alibaba restructure autour des tokens
Chez NVIDIA, Dynamo 1.0 arrive comme une brique “production” pour servir des modèles sur plusieurs nœuds GPU, en visant latence faible et gros débit. Dit simplement: faire tourner des modèles lourds à l’échelle, sans que l’expérience utilisateur s’effondre dès qu’il y a du trafic. Et à GTC, NVIDIA martèle aussi son repositionnement: le gaming reste une vitrine, mais l’ambition est d’être l’ossature des “AI factories” — du data center jusqu’aux usages multimodaux et, de plus en plus, aux systèmes qui interagissent avec le monde physique.
Recherche: vers l’apprentissage autonome
Toujours sur les usages “physiques”, une collaboration académique et industrielle publie Open-H-Embodiment, présenté comme un premier grand dataset ouvert pour la robotique en santé, avec des heures de données synchronisées sur des tâches comme la chirurgie robotique ou l’échographie. En parallèle, deux modèles open source associés sont annoncés. L’intérêt ici est double: accélérer la recherche en robotique médicale, et pousser des approches où l’IA ne fait pas que percevoir, mais agit, avec des contraintes de sécurité très fortes. C’est exactement le genre de domaine où l’ouverture des données et des modèles peut faire gagner des années… si la communauté s’en empare.
Société: contestation et pouvoir de l’IA
Sur le terrain business, Reuters rapporte des discussions avancées autour d’une co-entreprise entre OpenAI et de grands fonds de private equity, avec l’idée de déployer plus vite des produits IA “enterprise” dans des portefeuilles d’entreprises. Ce que ça dit du marché: les fonds deviennent des accélérateurs d’adoption, et l’IA se négocie aussi via la gouvernance — sièges, influence, conditions de déploiement. À surveiller: comment ces montages vont arbitrer entre vitesse d’adoption, contrôle du risque, et dépendance à un fournisseur.
Story 11
En Chine, Alibaba regroupe sa recherche et ses produits IA dans une nouvelle entité, orientée “tokens”, directement sous la direction du CEO. Le signal est assez transparent: mieux coordonner l’exécution, et surtout monétiser. Dans un contexte où beaucoup de modèles sont ouverts et où les utilisateurs paient moins volontiers des abonnements, la question devient: comment transformer des capacités IA en revenus récurrents, notamment en entreprise, et comment garder les talents clés au passage.
Story 12
On termine avec deux sujets plus “société et recherche”. D’abord, un papier arXiv signé Emmanuel Dupoux, Yann LeCun et Jitendra Malik explique que l’IA actuelle ne sait pas vraiment apprendre de façon autonome et continue comme le vivant. Leur proposition met l’accent sur l’alternance entre apprentissage par observation et apprentissage par action, avec un mécanisme qui choisit quand explorer et quand consolider. Ce n’est pas une recette prête à l’emploi, mais une direction: sortir d’une IA qui apprend surtout dans des phases figées, pour aller vers une IA capable de s’adapter en environnement changeant.
Story 13
Et côté débat public, un entretien avec le géographe Thomas Dekeyser replace la “résistance à l’IA” dans une histoire longue des refus technologiques. Son point: les critiques ne sont pas forcément anti-progrès; elles expriment souvent des inquiétudes rationnelles — emploi, surveillance, impacts environnementaux — et un rejet d’un modèle de vie réduit à l’efficacité. En parallèle, un essai d’Erik Torenberg compare l’IA de pointe à une inflexion de type “arme nucléaire”, en posant une question inconfortable: si la technologie existe, qui doit la contrôler — des entreprises privées ou des États? Même si l’analogie a ses limites, elle met le doigt sur un enjeu central de 2026: le pouvoir de décision autour des systèmes les plus avancés.
Abonnez-vous aux flux spécifiques par édition:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Wednesday Mar 18, 2026
Wednesday Mar 18, 2026
Por favor, apoya este pódcast visitando a nuestros patrocinadores:
- Descubre el futuro del audio con IA con ElevenLabs - https://try.elevenlabs.io/tad
- Invierte como los profesionales con StockMVP - https://www.stock-mvp.com/?via=ron
- KrispCall: Telefonía en la nube agéntica - https://try.krispcall.com/tad
Apoya directamente a The Automated Daily:
Cómprame un café: https://buymeacoffee.com/theautomateddaily
Temas de hoy:
Agentes que olvidan el porqué - Un desarrollador descubrió que sus agentes recordaban hechos, pero no la lógica de decisiones; al reestructurar la memoria, mejoró el recall y la trazabilidad del “por qué”. Palabras clave: agent memory, decision rationale, evaluación, fiabilidad.
Runtimes y sandboxes para agentes - Nuevas propuestas ponen el foco en ejecutar agentes con herramientas bajo políticas estrictas, limitando archivos, red y credenciales para reducir riesgos. Palabras clave: sandbox, tool use, políticas, exfiltración, runtime.
Subagentes en herramientas de código - Las plataformas de coding avanzan hacia flujos con múltiples subagentes en paralelo para depurar, reproducir fallos y proponer parches con más rapidez. Palabras clave: subagents, Codex, Claude Code, orquestación, productividad.
Infraestructura masiva para IA - OpenAI acelera acuerdos y construcción de capacidad de centros de datos, mientras busca socios para llevar IA empresarial a gran escala. Palabras clave: data centers, gigavatios, enterprise AI, private equity, chips.
Modelos abiertos y verificación formal - Mistral refuerza la línea de modelos abiertos y empuja el coding hacia pruebas formales con Lean, para elevar la confianza en entornos críticos. Palabras clave: open-source LLM, coding agent, Lean 4, proofs, eficiencia.
IA autónoma y aprendizaje continuo - Un nuevo paper propone una arquitectura inspirada en ciencia cognitiva para acercar la IA al aprendizaje autónomo: observar, actuar y decidir cuándo alternar. Palabras clave: autonomous learning, LeCun, exploración activa, meta-control.
Resistencia social y poder en IA - Crece el debate sobre quién controla la IA avanzada: estados, laboratorios privados y ciudadanía, con resistencia social y analogías con armamento estratégico. Palabras clave: governance, seguridad nacional, backlash, valores, control.
Robótica médica y datos abiertos - Un gran consorcio publica un dataset abierto para robótica sanitaria y modelos base asociados, buscando acelerar una “IA física” más segura y generalizable. Palabras clave: healthcare robotics, open dataset, foundation models, sim-to-real.
-Metronome Signup Page Blocks Sandbox Creation With Browser Verification Warning
-OnPrem.LLM Demonstrates AgentExecutor for Tool-Using Agents with Sandbox and Custom Tools
-Researchers Propose Cognitive-Inspired Architecture for More Autonomous AI Learning
-Author Thomas Dekeyser ties today’s AI backlash to a long history of refusing harmful machines
-OpenAI in talks with TPG and other buyout firms on enterprise AI joint venture
-Benchmark Claims MCP Server Architecture Drives Large Gaps in AI Task Accuracy
-AI Agents Improved Recall by Restructuring Memory to Capture Decision ‘Why’
-Nvidia Introduces DLSS 5, Combining Generative AI and 3D Data for More Realistic Graphics
-a16z Warns AI Control Is Becoming a National-Security ‘Oppenheimer Moment’
-NVIDIA open-sources OpenShell, a policy-controlled sandbox runtime for AI agents
-Dynatrace report calls for stronger observability in GenAI and agentic AI workloads
-Former Intel AI Chief Sachin Katti Leads OpenAI’s Massive Data-Center Expansion
-Mistral launches open-source Mistral Small 4, unifying reasoning, multimodal, and coding in one model
-Anthropic Employee Shares How Work and Roles Shifted in a Year at an AI Lab
-Alibaba Creates ‘Token Hub’ Unit to Centralize AI and Push Enterprise Monetization
-OpenAI Codex Subagents Reach General Availability, Adding Custom Multi-Agent Workflows
-NVIDIA Releases Dynamo 1.0 for Production Multi-Node AI Inference
-OpenAI Says Codex Security Skips SAST Reports to Focus on Behavior and Validation
-NVIDIA GTC 2026: Vera Rubin, agentic AI platforms, and expanded partnerships across industry, robotics and automotive
-Mistral open-sources Leanstral, a Lean 4 agent for proof-verified code
-Mistral AI Unveils Forge for Training Enterprise AI Models on Proprietary Data
-Open-H-Embodiment Launches as First Open Dataset for Healthcare Robotics, With New Surgical Foundation Models
Transcripcion del Episodio
Agentes que olvidan el porqué
Empezamos con una historia muy práctica sobre agentes y memoria a largo plazo. Un desarrollador que coordinaba diez agentes con un sistema de memoria en disco se dio cuenta de algo incómodo: después de un incidente que borró sesiones activas, los agentes podían seguir “sonando” competentes mientras, en realidad, habían perdido contexto. Para salir de dudas, pidió al agente orquestador que se evaluara a sí mismo con preguntas de verificación. ¿Resultado? Recordaban bastante bien hechos y tiempos, pero fallaban justo en lo más importante para confiar en un sistema: la justificación de decisiones y el contexto de personas. La solución no fue mágica: reordenar la memoria para guardar explícitamente el “por qué”, resumir registros y crear archivos buscables por temas y por personas. Con eso, la recuperación de información subió de forma drástica y, sobre todo, la parte de “rationale” pasó de ser un agujero negro a algo recuperable. La lección es clara: en agentes, la estructura de memoria puede ser tan determinante como el modelo.
Runtimes y sandboxes para agentes
En la misma línea de hacer agentes más confiables, hoy vemos dos enfoques que convergen: herramientas potentes, sí, pero con límites. Por un lado, el proyecto OnPrem.LLM publicó un notebook de ejemplo para ejecutar agentes que usan herramientas —como operar con archivos, consultar la web o, si se permite, ejecutar comandos— pero destacando controles de seguridad: restringir el directorio de trabajo, desactivar el acceso a la shell, o correr todo dentro de un contenedor efímero. No es solo “hacer que el agente haga cosas”, sino poder repetir tareas y auditar qué pudo tocar.
Y por otro lado, NVIDIA presentó OpenShell, un runtime open source pensado específicamente para meter agentes en un entorno aislado con políticas declarativas: qué pueden leer y escribir, qué procesos pueden lanzar y, muy importante, cómo y hacia dónde pueden salir por red. También introduce una idea interesante alrededor de privacidad en llamadas a modelos: mantener el contexto sensible dentro del sandbox y controlar cómo se enrutan peticiones al LLM. ¿Por qué importa? Porque a medida que los agentes dejan de ser demos y empiezan a operar con datos y credenciales reales, el “freno de mano” por defecto deja de ser opcional.
Subagentes en herramientas de código
Hablando de agentes en el día a día de desarrolladores: OpenAI hizo disponibles de forma general los “subagentes” en Codex. La idea es sencilla de explicar y potente en la práctica: dividir el trabajo en roles que corren en paralelo, por ejemplo uno reproduce un bug, otro rastrea dónde está el fallo y otro propone un parche mínimo. Esto se parece a patrones que ya popularizó Claude Code, y apunta a una tendencia: los asistentes de programación están pasando de ser una sola voz a ser un pequeño equipo coordinado.
Además, OpenAI explicó un enfoque curioso en seguridad: Codex Security prefiere no empezar desde un informe de SAST. No porque SAST sea inútil, sino porque puede sesgar al agente hacia los mismos supuestos y dejar fuera vulnerabilidades que no son simples “flujos de datos”, sino fallos de significado: validaciones que existen, pero en el orden equivocado o con transformaciones posteriores que rompen la garantía de seguridad. Su apuesta es partir del contexto del repositorio y “intentar falsar” las suposiciones con pruebas, fuzzing y evidencia. Traducido: menos marcar líneas en rojo, más demostrar el problema con un caso mínimo y verificable.
Infraestructura masiva para IA
Pasamos a la carrera industrial, donde el gran cuello de botella no es la creatividad, sino la electricidad, los chips y el espacio físico. OpenAI sigue empujando la expansión masiva de capacidad de centros de datos, y ha puesto al frente a un ejecutivo de infraestructura con mandato claro: asegurar suministro, socios y componentes en un mundo con límites de red eléctrica y tiempos de construcción que no encajan con el ritmo de la IA. También se percibe una diversificación: no depender de un solo proveedor de hardware o de una sola ubicación.
En paralelo, Reuters cuenta que OpenAI estaría en conversaciones avanzadas con firmas de private equity para una especie de joint venture que acelere la distribución de sus productos de IA empresarial en empresas de sus carteras. Si esto se concreta, no es solo financiación: es un canal de adopción y, de paso, influencia sobre cómo se despliegan agentes y automatizaciones en procesos críticos. Y ojo, porque también se menciona que Anthropic explora esquemas parecidos. La competencia ya no es solo por el mejor modelo; es por quién consigue penetrar en la empresa tradicional antes que el resto.
Modelos abiertos y verificación formal
Desde Asia llega un movimiento organizativo con lectura estratégica: Alibaba está consolidando investigación, producto y servicios de IA en una nueva unidad centrada en “tokens”, bajo liderazgo directo del CEO. El mensaje es bastante transparente: coordinación interna y monetización. En muchos mercados, el reto no es demostrar capacidad técnica, sino convertirla en ingresos sostenibles, especialmente cuando parte del ecosistema se mueve con modelos abiertos y usuarios menos dispuestos a pagar suscripciones. La apuesta de Alibaba parece ser empaquetar agentes y servicios con más orientación corporativa, y controlar mejor el paso de laboratorio a producto.
IA autónoma y aprendizaje continuo
Vamos ahora a investigación y modelos, con dos señales fuertes del mundo open source. Mistral anunció un nuevo modelo “Small” que busca unificar varias habilidades en un solo sistema: seguir instrucciones, razonar, entender texto e imagen y ayudar a programar. Más allá de cifras, el punto es el énfasis en eficiencia: sacar respuestas útiles con menos rodeo, reduciendo latencia y coste operativo. Esto es clave porque, en producción, el presupuesto manda tanto como el benchmark.
Y Mistral también lanzó Leanstral, un agente de coding orientado al asistente de pruebas Lean 4. Aquí el enfoque es diferente: no solo generar código, sino empujarlo hacia demostraciones formales, donde el verificador actúa como juez mecánico. Si esto escala, puede aliviar uno de los grandes frenos del “vibe coding” en entornos críticos: la revisión humana como cuello de botella para confiar en cambios complejos.
Resistencia social y poder en IA
En el frente más teórico, un nuevo paper con nombres muy conocidos —Emmanuel Dupoux, Yann LeCun y Jitendra Malik— sostiene que los sistemas actuales aún están lejos del “aprendizaje autónomo” de animales y humanos. Su crítica central: a la IA le cuesta combinar aprendizaje por observación con aprendizaje por exploración activa y conducta. Proponen una arquitectura con dos vías complementarias —una para observar y otra para actuar— y un componente de meta-control que decide cuándo alternar o mezclar. Es interesante porque apunta al siguiente salto: menos entrenamiento en fases cerradas y más adaptación continua en el mundo real, donde el entorno no se queda quieto para que el dataset lo alcance.
Robótica médica y datos abiertos
Y ahora, el ángulo social y político: un geógrafo humano, Thomas Dekeyser, plantea que el rechazo actual a herramientas de IA, empresas y centros de datos encaja en una historia larga de resistencia a tecnologías percibidas como dañinas. Su argumento es que no todo es “anti-progreso”: muchas negativas son diagnósticos racionales sobre quién gana y quién paga los costes —empleo, vigilancia, alienación social y daño ambiental— y sobre una sensación de impotencia democrática. Además, conecta resistencias en África y América Latina con patrones extractivos: datos, trabajo barato y recursos para alimentar infraestructura.
En un registro distinto, el inversor Erik Torenberg propone que la IA avanzada se parece cada vez más a un punto de inflexión tipo “armamento estratégico”: el debate no sería si se construye, sino quién la controla y con qué legitimidad, especialmente cuando gobiernos buscan acceso para fines militares. No hace falta comprar toda la analogía para captar el dilema: estamos entrando en una etapa donde el control institucional, los incentivos privados y la rendición de cuentas pública chocan de frente.
Story 9
Cerramos con NVIDIA, que hoy aparece por varios frentes. En gaming, presentó DLSS 5 como otro paso para mezclar renderizado tradicional con técnicas generativas y así obtener imágenes más realistas sin disparar el coste de cómputo. Más allá de juegos, NVIDIA insiste en una idea: combinar datos “estructurados” —los que tienen reglas claras— con modelos generativos para acelerar decisiones y automatizaciones en empresa.
En infraestructura, lanzó Dynamo 1.0, orientado a inferencia distribuida en múltiples nodos GPU, que es justo lo que demanda la nueva ola: modelos grandes, tareas multimodales y sistemas con agentes atendiendo muchas solicitudes a la vez. El mensaje de fondo es operatividad: menos recomputación, mejor aprovechamiento de memoria y despliegues más robustos.
Y la noticia quizá más sorprendente del día: un gran consorcio liderado por Johns Hopkins, TUM y NVIDIA liberó Open-H-Embodiment, un dataset abierto centrado en robótica sanitaria, con horas de datos sincronizados en tareas que van desde cirugía hasta procedimientos con imagen médica. Junto a eso, publicaron modelos base entrenados para políticas de acción y para simulación de vídeo condicionado por movimientos del robot. Si este tipo de datos se vuelve estándar, podríamos ver avances más rápidos en “IA física” para salud, con mejores puentes entre simulación y mundo real. En robótica médica, ese puente no es un lujo: es una condición para probar, validar y, eventualmente, desplegar con seguridad.
Suscríbete a fuentes específicas por edición:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Wednesday Mar 18, 2026
Wednesday Mar 18, 2026
Please support this podcast by checking out our sponsors:
- Discover the Future of AI Audio with ElevenLabs - https://try.elevenlabs.io/tad
- Invest Like the Pros with StockMVP - https://www.stock-mvp.com/?via=ron
- KrispCall: Agentic Cloud Telephony - https://try.krispcall.com/tad
Support The Automated Daily directly:
Buy me a coffee: https://buymeacoffee.com/theautomateddaily
Today's topics:
Open healthcare robotics dataset drop - Researchers released Open-H-Embodiment, a healthcare robotics dataset with 778 hours of synchronized surgical and clinical data, plus open foundation models for vision-language-action learning and simulation. Keywords: healthcare robotics, surgical AI, dataset, GR00T-H, Cosmos-H.
NVIDIA’s push for agentic infrastructure - At GTC, NVIDIA signaled its next phase: scaling agentic AI with new platforms and production inference software like Dynamo, while also reframing gaming tech like DLSS as a template for enterprise AI. Keywords: NVIDIA GTC, Dynamo, inference, DLSS, agentic AI.
Safer autonomous agents via sandboxing - NVIDIA OpenShell and OnPrem.LLM examples both emphasize a practical rule for agents: powerful tools need strict containment, policy control, and auditability to reduce exfiltration and runaway actions. Keywords: sandbox, agent runtime, tool access, policies, security.
OpenAI enterprise deals and compute - OpenAI is reportedly courting private equity for a joint venture to accelerate enterprise rollouts, while also expanding data-center capacity and diversifying chips to secure power and scale. Keywords: OpenAI, private equity, enterprise AI, data centers, chips.
Open-source models and formal proof coding - Mistral’s releases highlight two directions at once: a stronger open general model for multimodal and coding work, and Leanstral for verifiable coding with Lean proofs to reduce human review. Keywords: Mistral Small 4, open-source, Leanstral, formal methods, coding agent.
Subagents and security-first coding - Codex added generally available subagents for parallel coding workflows, and OpenAI also outlined why its security tooling avoids anchoring on SAST reports—favoring behavior- and evidence-driven validation. Keywords: Codex, subagents, AppSec, fuzzing, invariants.
A blueprint for autonomous learning - A new paper by LeCun, Malik, and Dupoux argues today’s AI lacks true autonomous learning, proposing a split between learning by observation and learning by action with meta-control to switch modes. Keywords: autonomous learning, System A, System B, exploration, cognitive architecture.
Backlash and power politics in AI - From AI refusal movements to nuclear-style analogies about control, multiple voices are debating who should steer frontier AI—private labs, governments, or democratic oversight—amid rising social costs and geopolitics. Keywords: AI backlash, governance, military, private labs, legitimacy.
-Metronome Signup Page Blocks Sandbox Creation With Browser Verification Warning
-OnPrem.LLM Demonstrates AgentExecutor for Tool-Using Agents with Sandbox and Custom Tools
-Researchers Propose Cognitive-Inspired Architecture for More Autonomous AI Learning
-Author Thomas Dekeyser ties today’s AI backlash to a long history of refusing harmful machines
-OpenAI in talks with TPG and other buyout firms on enterprise AI joint venture
-Benchmark Claims MCP Server Architecture Drives Large Gaps in AI Task Accuracy
-AI Agents Improved Recall by Restructuring Memory to Capture Decision ‘Why’
-Nvidia Introduces DLSS 5, Combining Generative AI and 3D Data for More Realistic Graphics
-a16z Warns AI Control Is Becoming a National-Security ‘Oppenheimer Moment’
-NVIDIA open-sources OpenShell, a policy-controlled sandbox runtime for AI agents
-Dynatrace report calls for stronger observability in GenAI and agentic AI workloads
-Former Intel AI Chief Sachin Katti Leads OpenAI’s Massive Data-Center Expansion
-Mistral launches open-source Mistral Small 4, unifying reasoning, multimodal, and coding in one model
-Anthropic Employee Shares How Work and Roles Shifted in a Year at an AI Lab
-Alibaba Creates ‘Token Hub’ Unit to Centralize AI and Push Enterprise Monetization
-OpenAI Codex Subagents Reach General Availability, Adding Custom Multi-Agent Workflows
-NVIDIA Releases Dynamo 1.0 for Production Multi-Node AI Inference
-OpenAI Says Codex Security Skips SAST Reports to Focus on Behavior and Validation
-NVIDIA GTC 2026: Vera Rubin, agentic AI platforms, and expanded partnerships across industry, robotics and automotive
-Mistral open-sources Leanstral, a Lean 4 agent for proof-verified code
-Mistral AI Unveils Forge for Training Enterprise AI Models on Proprietary Data
-Open-H-Embodiment Launches as First Open Dataset for Healthcare Robotics, With New Surgical Foundation Models
Episode Transcript
Open healthcare robotics dataset drop
Let’s start with that healthcare robotics release. A large research collaboration led by Johns Hopkins, TUM, and NVIDIA published Open-H-Embodiment, described as the first open dataset built specifically for healthcare robotics. The headline is scale and realism: hundreds of hours spanning surgical robotics, ultrasound, and colonoscopy autonomy, pulled from simulation, benchtop tasks, and real clinical procedures. They also released two open models trained on it—one aimed at vision-language-action surgical behavior, and another that can generate plausible surgical video conditioned on robot motion. Why this matters: healthcare robotics has been bottlenecked by closed data and narrow demonstrations. Open, cross-platform training data is how you get from one-off demos to systems that generalize—and can be tested and audited by more than a single vendor.
NVIDIA’s push for agentic infrastructure
Staying in the NVIDIA orbit, GTC this year reinforced a clear theme: the company wants to be the operating layer for “agentic AI” at scale. Beyond the big platform talk, one practical piece stands out—NVIDIA Dynamo 1.0, positioned as production-ready distributed inference for running large models across multiple GPU nodes without turning latency into a disaster. The message is that multi-node inference, multimodal workloads, and agent-style traffic patterns are no longer edge cases. If you’re building real products, the hard part is serving, caching, routing, and recovering gracefully when something breaks—so tooling here can be as strategic as the models themselves.
Safer autonomous agents via sandboxing
And while NVIDIA is happy to talk data centers, it also used gaming as a preview of the broader shift. DLSS 5 was pitched as blending the predictable structure of traditional graphics with generative AI that fills in detail—so you get realism without rendering everything the old-fashioned way. The interesting angle isn’t just prettier games. It’s the pattern: combine structured, trustworthy signals with generative systems to reduce compute while keeping control. In enterprise settings, that looks like agents that ground their work in databases and logs, not just vibes—then use an LLM to stitch together insight and action.
OpenAI enterprise deals and compute
Now to the question everyone asks the moment you say “agents”: how do you keep them from doing something reckless? Two separate updates this week point to the same answer—containment by default.
First, NVIDIA published OpenShell, an open-source runtime for running autonomous agents inside locked-down sandboxes with explicit policies over files, processes, credentials, and outbound network access. The key idea is governance you can actually enforce: what the agent can touch, where it can send data, and how secrets get injected without being sprayed into a filesystem.
Second, the OnPrem.LLM project shared a fresh example notebook for tool-using agents that leans hard on safety controls: restrict agents to a working directory, optionally disable shell access, or run inside an ephemeral container. The takeaway across both: agent capability is easy to add; safe agent capability is a systems problem—policies, isolation, and repeatability.
Open-source models and formal proof coding
From agent runtimes to agent workflows: OpenAI made “subagents” generally available in Codex. If you’ve used modern coding assistants, you’ve felt the shift—one assistant isn’t one worker anymore. You spin up a small team: one agent reproduces a bug, another traces code paths, a third drafts the fix. Why it matters is less about novelty and more about expectation: developers are starting to design work in parallelizable chunks, and tooling is rapidly standardizing around orchestrating multiple LLM roles instead of one monolithic chat.
Subagents and security-first coding
OpenAI also shared a security perspective that’s worth highlighting: Codex Security reportedly doesn’t start from a SAST report, even if SAST remains useful. The argument is that many serious bugs aren’t obvious “tainted data goes to dangerous sink” stories—they’re broken assumptions about behavior, order of operations, or invariants that look fine until you try to falsify them. So the approach is closer to: understand intent, probe the boundaries, generate evidence, and validate in a sandbox. That’s a meaningful shift in tone for AI-assisted AppSec—less checkbox scanning, more adversarial verification.
A blueprint for autonomous learning
On the model front, Mistral announced Mistral Small 4 as open-source under Apache 2.0, aiming to unify instruction-following, deeper reasoning, multimodal understanding, and agentic coding in one system. The broader significance: the “default” open model is getting more capable across tasks people actually deploy—docs, code, images, long context—so open ecosystems can compete on product quality, not just ideology.
Mistral also released Leanstral, a coding agent tailored to the Lean proof assistant. This is part of a bigger movement: using formal verification as the backstop when code correctness really matters. Instead of debating whether an LLM is trustworthy, you push it into a setting where proofs can be checked mechanically. That doesn’t solve every problem, but it’s one of the cleanest answers we have to the reliability question in high-stakes software.
Backlash and power politics in AI
A very different kind of blueprint came from academia. An arXiv paper by Emmanuel Dupoux, Yann LeCun, and Jitendra Malik argues that current AI still falls short of “autonomous learning”—the ability to keep learning flexibly from the world, not just from a training run. Their proposed framing separates learning from observation and learning through action, with a meta-controller that decides which mode to emphasize based on context and goals. Why it’s interesting: it’s a reminder that today’s LLM progress is enormous, but it’s not the end of the story. If AI is going to thrive in dynamic, messy environments, we’ll need systems that update themselves safely over time—without constant human retraining cycles.
Story 9
Now, the business and power layer—because technology doesn’t deploy itself. Reuters reports OpenAI is in advanced talks with private equity firms about a joint venture to distribute enterprise AI across portfolio companies, potentially at a multibillion-dollar valuation. The angle here is distribution and governance. Private equity controls a lot of operational reality across industries, so a JV could fast-track adoption—and also shape how aggressively AI gets inserted into workflows.
In parallel, OpenAI is also pushing to secure massive data-center capacity, led in part by infrastructure executive Sachin Katti. The story there is constraint: power availability, chip supply, local opposition, and build timelines are becoming the rate limit for frontier AI. If models are the “software,” compute is the new industrial base—and the winners may simply be the ones who can reliably buy, site, and power the machines.
Story 10
Finally, two pieces that capture the mood around AI: one sociological, one political.
In an interview, human geographer Thomas Dekeyser frames AI backlash as part of a long tradition of technology refusal—often rooted in rational concerns, not knee-jerk anti-progress. He connects resistance to issues people feel directly: job loss, surveillance, environmental costs, and the sense that benefits accrue to a narrow elite. Whether you agree or not, it’s a useful lens: social legitimacy is becoming a core dependency for AI infrastructure.
And from the venture world, Andreessen Horowitz partner Erik Torenberg argued that advanced AI is approaching a nuclear-weapon-like inflection point—less about whether it will exist, more about who controls it, especially as governments seek military access. You don’t have to buy the analogy to see why it resonates: the governance question is moving from abstract ethics to concrete power, contracts, and state capability.
Subscribe to edition specific feeds:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Wednesday Mar 18, 2026
Wednesday Mar 18, 2026
Merci de soutenir ce podcast en visitant nos sponsors:
- Prezi: Créez rapidement des présentations avec l’IA - https://try.prezi.com/automated_daily
- Conception assistée par l’IA sans effort pour des présentations, des sites web et bien plus avec Gamma - https://try.gamma.app/tad
- Investissez comme les professionnels avec StockMVP - https://www.stock-mvp.com/?via=ron
Soutenez directement The Automated Daily:
Offre-moi un café: https://buymeacoffee.com/theautomateddaily
Sujets du jour:
Hack Xbox One dit inpatchable - Une attaque matérielle par voltage glitch permet d’exécuter du code non signé sur Xbox One, via le boot ROM. Mots-clés: sécurité console, fault injection, boot chain, modchip, préservation.
Mesurer l’AGI selon DeepMind - DeepMind propose un cadre inspiré des sciences cognitives pour évaluer des capacités « générales » et comparer aux humains. Mots-clés: AGI, benchmarks, cognition, métacognition, protocole d’évaluation.
Règles de Rob Pike - Rob Pike rappelle cinq règles anti-optimisation prématurée: mesurer avant de bricoler, privilégier la simplicité, et laisser les données guider les choix. Mots-clés: performance, profiling, KISS, structures de données, constants.
JPEG: compression et perception visuelle - Un rappel clair de pourquoi JPEG compresse si bien: séparation luminance/chrominance, perte contrôlée, et codage efficace. Mots-clés: DCT, quantification, perception, compression d’images, entropie.
CPU 8-bit: du simulateur au réel - Un projet de CPU 8-bit révèle l’écart entre simulation et électronique réelle: bruit d’horloge, glitches, soudures et timing. Mots-clés: TTL, signal integrity, métastabilité, débogage hardware, 1 MHz.
Slug: rendu vectoriel sur GPU - L’algorithme Slug fête 10 ans et son brevet est dédié au domaine public, facilitant l’adoption du rendu texte/vectoriel depuis des courbes de Bézier. Mots-clés: GPU, Bézier, shaders, dynamique, open access.
Hommage à Tony Hoare - Bertrand Meyer revient sur l’héritage de Tony Hoare: Quicksort, logique de Hoare, CSP et la culture de la correction logicielle. Mots-clés: vérification, concurrence, langages, null, fondations.
-Rob Pike’s Five Rules Emphasize Measurement, Simplicity, and Data Structures
-How JPEG Compresses Images Using Color Separation, DCT, and Quantization
-Nightingale brings AI-powered karaoke and pitch scoring to your own music library
-DeepMind proposes cognitive taxonomy to benchmark progress toward AGI
-MachineLearningPlus Releases Interactive ‘101 Pandas Exercises’ Workbook
-Homebrew 8-Bit CPU Hits Real-World Timing Glitches, Then Reaches Stable 1 MHz Operation
-Mistral AI Unveils Forge for Training Enterprise AI Models on Proprietary Data
-Eric Lengyel Public-Domains Slug Font Rendering Patent and Details a Decade of Improvements
-Bertrand Meyer Remembers Tony Hoare and His Lasting Impact on Computing
-Researchers Crack Xbox One Security With ‘Bliss’ Voltage Glitch Hack
Transcription de l'Episode
Hack Xbox One dit inpatchable
On commence par la sécurité, avec ce qui fait clairement lever un sourcil: un chercheur connu sous le nom de Markus « Doom » Gaasedelen a présenté “Bliss”, une méthode de compromission de la Xbox One. L’idée n’est pas de trouver un bug dans l’OS, mais de perturber l’électronique au bon moment, en provoquant une micro-chute de tension sur le CPU pendant le boot. Résultat annoncé: contourner des protections très en amont, jusqu’à charger du code non signé, y compris au niveau hyperviseur. Pourquoi c’est important? Parce que quand l’attaque vise du code gravé dans le silicium, on parle d’un scénario que les mises à jour ne savent pas vraiment “réparer”. Et au-delà du piratage, ça ouvre des discussions sur la préservation, l’analyse firmware, et la recherche en sécurité des systèmes embarqués.
Mesurer l’AGI selon DeepMind
Dans un registre voisin — le matériel qui surprend — un billet sur un CPU 8-bit “fait maison” raconte le passage douloureux de la simulation à la vraie vie. Dans Logisim, tout marche; sur une table, les signaux font du bruit, les fronts d’horloge deviennent capricieux, et des détails comme une broche flottante ou une soudure limite se transforment en heures de doute. L’auteur décrit des glitches de mémoire, des écritures déclenchées au mauvais moment, et des corrections très terre-à-terre: mieux conditionner l’horloge, synchroniser certains signaux, et vérifier les bases — continuité, découplage, câblage. Intérêt: c’est une leçon générale sur l’écart entre modèles “propres” et réalité physique, et un rappel que la fiabilité, ça se construit autant au multimètre qu’au tableau blanc.
Règles de Rob Pike
On pivote vers l’IA, mais avec un angle moins “nouveau modèle” et plus “comment on mesure le progrès”. Google DeepMind publie un papier qui propose un cadre inspiré des sciences cognitives pour évaluer ce qu’on appelle, souvent trop vite, l’AGI. Leur constat: on sait faire des benchmarks, mais on manque d’outils empiriques solides pour dire si un système est vraiment “général” ou juste très bon à des examens entraînés. Ils découpent l’intelligence en familles de capacités — perception, mémoire, métacognition, fonctions exécutives, cognition sociale — puis proposent de comparer des modèles à des distributions de performances humaines, pas juste à un score isolé. Pourquoi ça compte? Parce que ça vise à réduire le “benchmark gaming”, les fuites de données, et les effets d’optique: on veut un thermomètre crédible, pas un concours d’astuces.
JPEG: compression et perception visuelle
Côté pratiques de dev, on a un rappel bienvenu des cinq règles de Rob Pike sur la performance. Le message central est presque intemporel: les goulots d’étranglement sont souvent là où on ne les attend pas, donc on mesure d’abord, et on ne “bricole” la vitesse qu’après. Il insiste aussi sur un piège classique: un algorithme plus sophistiqué peut perdre sur des petits volumes, simplement parce que ses constantes sont lourdes, ou parce qu’il multiplie les cas particuliers. Et surtout, il martèle une idée qui traverse l’ingénierie depuis des décennies: les structures de données et l’organisation des données comptent plus que l’astuce algorithmique du moment. Pourquoi c’est intéressant aujourd’hui? Parce qu’avec l’obsession des micro-optimisations, des prompts magiques, ou des “quick fixes”, on a besoin de se rappeler que la simplicité, la mesure, et de bons choix de données restent la voie la plus robuste.
CPU 8-bit: du simulateur au réel
Dans la même veine “comprendre avant de complexifier”, un article revient sur JPEG, et pourquoi ce format compresse si efficacement. La thèse est simple: JPEG exploite nos limites de perception. Il sépare ce qui relève de la luminosité — à laquelle l’œil est très sensible — de la couleur fine, qu’on peut dégrader plus discrètement. Puis il transforme l’image pour concentrer l’essentiel dans des composantes “douces” et jette une partie des détails à haute fréquence, ceux qu’on remarque moins. Enfin, il encode intelligemment ce qui reste. Pourquoi ça importe encore en 2026? Parce que même à l’ère des nouveaux codecs, JPEG reste omniprésent, et comprendre sa logique aide à raisonner sur la qualité, les artefacts, et les compromis entre poids de fichier et fidélité — y compris dans des pipelines IA qui ingèrent des images déjà compressées.
Slug: rendu vectoriel sur GPU
Passons au graphisme temps réel: Eric Lengyel célèbre les dix ans de l’algorithme Slug, une méthode GPU pour rendre texte et graphismes vectoriels directement depuis des courbes de Bézier, sans dépendre d’atlas de textures préfabriqués. Le fait marquant n’est pas seulement l’anniversaire: il annonce avoir dédié le brevet de 2019 au domaine public à partir du 17 mars 2026. Autrement dit, plus de brouillard juridique pour implémenter l’approche. Pourquoi ça compte? Parce que le rendu de texte net, stable en perspective, sans scintillement ni contours baveux, reste un sujet sensible dans les moteurs et les outils UI. Quand une technique robuste devient plus libre à adopter, ça accélère la diffusion — et ça évite que chacun réinvente sa solution “presque correcte” dans son coin.
Hommage à Tony Hoare
On termine avec une page d’histoire, mais une histoire très actuelle: Bertrand Meyer rend hommage à Tony Hoare, décédé la semaine dernière à 92 ans. On y recroise Quicksort, évidemment, mais aussi l’impact profond de la logique de Hoare sur la vérification des programmes: l’idée qu’on peut raisonner sur le code de façon structurée, et pas seulement “tester et espérer”. Et puis il y a la concurrence, avec CSP, qui a influencé notre manière de penser les systèmes qui communiquent. Ce qui ressort surtout, c’est la cohérence de l’héritage: des algorithmes élégants, des bases théoriques solides, et une obsession saine pour la correction. À l’heure où l’on confie de plus en plus d’actions à des systèmes automatisés et à des agents, ces fondations ne sont pas du musée: elles redeviennent un guide de prudence.
Abonnez-vous aux flux spécifiques par édition:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Wednesday Mar 18, 2026
Wednesday Mar 18, 2026
Por favor, apoya este pódcast visitando a nuestros patrocinadores:
- Prezi: Crea presentaciones con IA rápidamente - https://try.prezi.com/automated_daily
- Diseño con IA sin esfuerzo para presentaciones, sitios web y más con Gamma - https://try.gamma.app/tad
- Invierte como los profesionales con StockMVP - https://www.stock-mvp.com/?via=ron
Apoya directamente a The Automated Daily:
Cómprame un café: https://buymeacoffee.com/theautomateddaily
Temas de hoy:
Xbox One por fin hackeada - Un investigador presentó “Bliss”, un ataque de voltage glitch que rompe el arranque de Xbox One y permite ejecutar código sin firmar. Palabras clave: hardware hacking, boot ROM, modchips, preservación, seguridad.
Medir antes de optimizar código - Vuelven las reglas de Rob Pike: los cuellos de botella sorprenden, hay que medir antes de tocar, y lo simple suele ganar por constantes y menos errores. Palabras clave: optimización prematura, rendimiento, KISS, estructuras de datos.
Marco de evaluación para AGI - DeepMind propone un marco inspirado en ciencias cognitivas para medir progreso hacia AGI con una taxonomía de habilidades y comparativas contra distribución humana. Palabras clave: evaluación de IA, benchmarks, metacognición, generalidad, Kaggle.
Del simulador a CPU real - Un creador relata cómo su CPU de 8 bits pasó de Logisim a placas reales y apareció el mundo de glitches, temporización y soldaduras traicioneras. Palabras clave: electrónica digital, señal, sincronía, depuración, TTL.
Texto vectorial en GPU libre - El algoritmo Slug cumple 10 años y su patente se dedica al dominio público, facilitando renderizado de texto/vector desde Bézier en GPU sin atlas. Palabras clave: gráficos, shaders, Bézier, MIT, dominio público.
Por qué JPEG comprime tanto - Un repaso claro de JPEG: separa luminancia y color, transforma a frecuencias y cuantiza para tirar detalle poco perceptible, logrando gran compresión. Palabras clave: compresión con pérdida, DCT, cuantización, visión humana.
-Rob Pike’s Five Rules Emphasize Measurement, Simplicity, and Data Structures
-How JPEG Compresses Images Using Color Separation, DCT, and Quantization
-Nightingale brings AI-powered karaoke and pitch scoring to your own music library
-DeepMind proposes cognitive taxonomy to benchmark progress toward AGI
-MachineLearningPlus Releases Interactive ‘101 Pandas Exercises’ Workbook
-Homebrew 8-Bit CPU Hits Real-World Timing Glitches, Then Reaches Stable 1 MHz Operation
-Mistral AI Unveils Forge for Training Enterprise AI Models on Proprietary Data
-Eric Lengyel Public-Domains Slug Font Rendering Patent and Details a Decade of Improvements
-Bertrand Meyer Remembers Tony Hoare and His Lasting Impact on Computing
-Researchers Crack Xbox One Security With ‘Bliss’ Voltage Glitch Hack
Transcripcion del Episodio
Xbox One por fin hackeada
Empezamos por seguridad y hardware, porque hoy viene fuerte. En la conferencia RE//verse 2026, el investigador Markus “Doom” Gaasedelen mostró “Bliss”, una técnica para comprometer la Xbox One usando fallos inducidos por voltaje. La idea, contada a nivel alto, es provocar caídas de tensión milimétricamente sincronizadas durante el arranque para descolocar al sistema lo suficiente como para saltarse protecciones tempranas y redirigir la ejecución.
Lo relevante no es solo “se puede ejecutar código sin firmar”. Es que, al apuntar a una parte grabada en silicio —el boot ROM—, el método se describe como esencialmente imposible de parchear con una actualización. Para investigación y preservación es un antes y un después: facilita analizar firmware, entender mejor la plataforma, e incluso impulsar esfuerzos de emulación. La otra cara es obvia: si esto se empaqueta en un modchip, el umbral de entrada baja y el impacto se vuelve masivo.
Medir antes de optimizar código
En esa misma línea de “la realidad física siempre tiene la última palabra”, un creador documentó el salto de su CPU casera de 8 bits, la WCPU-1, desde una simulación en Logisim a placas de verdad. Y el resultado fue el clásico baño de humildad: en la simulación todo encaja; en la mesa aparecen ruido, tiempos raros y fallos tontos de montaje que arruinan días.
La historia importa porque muestra algo que muchos ingenieros aprenden tarde: los errores no siempre están en la lógica, sino en la temporización, en señales que cambian cuando no deben, en líneas flotantes por una soldadura dudosa, o en un reloj con bordes “sucios”. Con ajustes de diseño para hacer el sistema más síncrono y un diagnóstico disciplinado —incluyendo pruebas de continuidad—, la CPU termina ejecutando programas de prueba de forma estable. Es una gran lección sobre por qué “funciona en el simulador” no es el final de nada.
Marco de evaluación para AGI
Cambiamos a IA. Google DeepMind publicó un marco para medir progreso hacia lo que solemos llamar AGI, pero con un enfoque más cercano a ciencias cognitivas que a “qué bien completa textos”. Su tesis es sencilla: hoy nos faltan herramientas empíricas claras para decir qué tan “general” es un sistema, y los benchmarks actuales se contaminan, se memorizan o se optimizan a golpe de truco.
La propuesta divide la inteligencia general en un conjunto de habilidades —como percepción, memoria, atención, metacognición, funciones ejecutivas y cognición social— y sugiere evaluarlas de forma amplia, con datos reservados, comparando después contra una distribución de rendimiento humano obtenida con muestras demográficamente representativas. También lanzaron un hackathon con Kaggle para empujar evaluaciones nuevas donde ahora hay más humo que señal. Aunque no resuelve el problema de golpe, sí apunta a algo crucial: sin buena medición, el progreso en IA se vuelve una discusión de marketing y no de evidencia.
Del simulador a CPU real
Ahora, un bloque de ingeniería de software con dos piezas que se hablan entre sí. Por un lado, reaparecieron las “cinco reglas” de Rob Pike sobre programación, con un mensaje que nunca pasa de moda: los cuellos de botella suelen estar donde no los esperas, así que no hagas “hacks de velocidad” hasta tener datos. Primero se mide; luego se optimiza solo si una parte del código domina claramente el tiempo de ejecución.
También recuerda dos verdades incómodas: algoritmos muy sofisticados pueden rendir peor en entradas pequeñas por constantes grandes, y la complejidad suele traer más bugs y más coste de implementación. Y remata con un enfoque que muchos equipos redescubren a golpes: las estructuras de datos y la organización de la información pesan más que la “astucia” algorítmica. Si tus datos están bien elegidos, el algoritmo correcto casi se vuelve obvio.
Texto vectorial en GPU libre
Y por el otro lado, Bertrand Meyer escribió sobre la muerte de Sir Tony Hoare, fallecido la semana pasada a los 92 años. Hoare es de esos nombres que aparecen tanto en un curso de algoritmos como en uno de verificación formal. De Quicksort a la lógica de Hoare, su huella está en cómo razonamos sobre programas: no solo que “funcionen”, sino por qué funcionan.
El texto también recorre su influencia en lenguajes, en concurrencia con CSP, y en una idea que hoy vuelve con fuerza: tomarnos la corrección en serio. En un mundo de sistemas que controlan dinero, infraestructura y decisiones automatizadas, esa mezcla de teoría rigurosa y pragmatismo es más actual que nunca. Y conecta bien con el espíritu de Pike: menos superstición, más claridad y pruebas.
Por qué JPEG comprime tanto
Pasamos a gráficos. Eric Lengyel celebró los 10 años del algoritmo Slug, una técnica en GPU para renderizar texto y gráficos vectoriales directamente desde curvas Bézier, sin depender de atlas de texturas precocinados. Dicho simple: letras y trazos más nítidos y robustos en situaciones difíciles —escalado, perspectiva, tamaños pequeños— sin los artefactos típicos.
La noticia clave no es solo la evolución técnica. Es que Lengyel dedicó de forma permanente la patente de 2019 al dominio público a partir del 17 de marzo de 2026, y además publicó shaders de referencia en un repositorio con licencia MIT. En la práctica, esto reduce fricción legal y acelera adopción en motores, herramientas y pipelines de render. Cuando una técnica útil se libera así, toda la industria gana velocidad.
Story 7
Cerramos con una pieza de compresión que explica por qué JPEG, pese a su edad, sigue siendo un pilar. El artículo repasa cómo logra tamaños pequeños aprovechando dos cosas: cómo vemos los humanos y cómo suelen ser las imágenes naturales. JPEG separa brillo de color porque percibimos mucho más detalle en la luminancia que en variaciones finas de crominancia. Luego transforma bloques de la imagen a un dominio de “frecuencias”, donde la información más importante suele concentrarse en componentes suaves.
La magia —y la pérdida— llega con la cuantización: se descarta detalle de alta frecuencia que normalmente notamos menos, y después se comprime mejor porque aparecen muchos ceros y patrones repetidos. Lo interesante aquí no es memorizar pasos, sino la idea: la compresión más efectiva no solo es matemática; también es psicovisual. Y esa filosofía se repite hoy en muchos códecs modernos.
Suscríbete a fuentes específicas por edición:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Wednesday Mar 18, 2026
Xbox One boot ROM glitch & Rob Pike rules and Hoare legacy - Hacker News (Mar 18, 2026)
Wednesday Mar 18, 2026
Wednesday Mar 18, 2026
Please support this podcast by checking out our sponsors:
- Prezi: Create AI presentations fast - https://try.prezi.com/automated_daily
- Effortless AI design for presentations, websites, and more with Gamma - https://try.gamma.app/tad
- Invest Like the Pros with StockMVP - https://www.stock-mvp.com/?via=ron
Support The Automated Daily directly:
Buy me a coffee: https://buymeacoffee.com/theautomateddaily
Today's topics:
Xbox One boot ROM glitch - A new voltage-glitch technique called “Bliss” reportedly breaks Xbox One security at the boot ROM level, enabling unsigned code execution and impacting preservation, reverse engineering, and modchip risk.
Rob Pike rules and Hoare legacy - Rob Pike’s optimization rules—measure first, prefer simplicity, and let data structures lead—pair naturally with a retrospective on Tony Hoare’s influence, from Quicksort to Hoare logic and CSP.
JPEG compression explained simply - A clear walkthrough of JPEG shows why it compresses so well: it leans on human vision, separates brightness from color, and discards less-noticeable detail before entropy coding.
Slug GPU vector text rendering - The Slug Algorithm hits its 10-year mark with updated shaders and a patent dedication to the public domain, keeping GPU text/vector rendering crisp without texture atlases.
DeepMind AGI measurement framework - Google DeepMind proposes a cognitive-science taxonomy and human-baseline protocol to evaluate “general” AI abilities, aiming to reduce benchmark gaming and improve comparability across models.
Homebrew 8-bit CPU reality check - A builder moving an 8-bit CPU from simulation to real TTL hardware runs into timing glitches, noisy clocks, and solder faults—showing why physical verification and signal discipline matter.
Open-source ML-powered karaoke app - Nightingale is a cross-platform karaoke app that uses stem separation and AI transcription for synced lyrics and scoring, reflecting how local ML tooling is reshaping consumer creativity.
-Rob Pike’s Five Rules Emphasize Measurement, Simplicity, and Data Structures
-How JPEG Compresses Images Using Color Separation, DCT, and Quantization
-Nightingale brings AI-powered karaoke and pitch scoring to your own music library
-DeepMind proposes cognitive taxonomy to benchmark progress toward AGI
-MachineLearningPlus Releases Interactive ‘101 Pandas Exercises’ Workbook
-Homebrew 8-Bit CPU Hits Real-World Timing Glitches, Then Reaches Stable 1 MHz Operation
-Mistral AI Unveils Forge for Training Enterprise AI Models on Proprietary Data
-Eric Lengyel Public-Domains Slug Font Rendering Patent and Details a Decade of Improvements
-Bertrand Meyer Remembers Tony Hoare and His Lasting Impact on Computing
-Researchers Crack Xbox One Security With ‘Bliss’ Voltage Glitch Hack
Episode Transcript
Xbox One boot ROM glitch
First up: a striking console-security breakthrough. Security researcher Markus “Doom” Gaasedelen presented a hack nicknamed “Bliss” that compromises the Xbox One using voltage glitching—briefly destabilizing the CPU’s power at exactly the wrong moment for the system’s defenses. The headline claim is that it targets the boot ROM in silicon, meaning it’s effectively unpatchable in software.
Why it matters: this isn’t just about running unsigned code. If the entry point is as early as described, it opens the door to deeper firmware and OS analysis, stronger preservation workflows, and potentially better emulation research. The flip side is obvious: once a technique becomes repeatable, the path from research demo to modchip ecosystem can be uncomfortably short—especially when the security model can’t be fixed with an update.
Rob Pike rules and Hoare legacy
Staying with hardware—this time on the maker side—there’s a great case study from Will Warren, who moved an 8-bit CPU project from simulation into real, messy electronics. In software-like tools, the machine looked fine. On the bench, it fell apart in all the classic ways: noisy clocks, timing hazards, glitchy memory behavior, and even some painfully human assembly mistakes.
The interesting part isn’t the specifics of any one fix—it’s the lesson that “digital” designs become very analog the moment you add wires, solder, and real components. Simulations often won’t warn you about edge noise, metastability, or how a tiny solder fault can masquerade as a deep logic bug. It’s a reminder that verification isn’t just code review and tests; in hardware, it’s also continuity checks, clean timing, and designing so the system fails predictably instead of mysteriously.
JPEG compression explained simply
Now to software engineering craft—two items that rhyme. One revisits Rob Pike’s five programming rules, and the other reflects on the life and work of Sir Tony Hoare, who passed away last week at 92.
Pike’s message is the one many of us learn, forget, and then relearn the hard way: performance bottlenecks are usually not where you assume they’ll be, so measure first. Don’t sprinkle “speed hacks” around on vibes. Optimize only when you can prove one part of the runtime truly dominates.
He also makes a point that deserves more airtime in the age of cleverness-as-a-personality: sophisticated algorithms can lose on small inputs because constant factors and overheads are real. And complexity has a cost—more edge cases, more bugs, and more time spent implementing something fragile.
That dovetails with Tony Hoare’s legacy in a practical way. Hoare gave us Quicksort, but also the intellectual tools to talk about correctness with rigor—Hoare logic—and ways to structure concurrency thinking, like CSP. The common thread in both pieces is discipline: keep it simple where you can, be formal where you must, and don’t confuse novelty with progress.
Slug GPU vector text rendering
Let’s switch gears to media and graphics—starting with a clear explainer on why JPEG compresses images so well. JPEG’s magic is less about one trick and more about aligning the format with human perception and the statistics of natural photos.
The big idea: we’re more sensitive to brightness detail than tiny color variations, so JPEG separates luminance from chroma and can throw away some color resolution with minimal visual pain. Then it translates blocks of the image into “frequency-like” components, where smooth areas concentrate into a few values—and finally it aggressively rounds away fine detail that most people won’t notice, leaving lots of zeros that compress efficiently.
Why it matters today: even with newer formats around, JPEG remains everywhere. Understanding the basic trade-offs helps you reason about artifacts, choose the right export settings, and appreciate that “small file” usually means “some information was intentionally discarded.”
DeepMind AGI measurement framework
Related, but on the rendering side: Eric Lengyel marked the 10-year anniversary of the Slug Algorithm, a GPU approach for rendering text and vector graphics directly from Bézier curves—without leaning on precomputed texture atlases.
What’s newsworthy here is less nostalgia and more accessibility. Lengyel says the 2019 patent has now been dedicated to the public domain as of March 17th, 2026, and there’s an updated MIT-licensed repository with modern reference shaders, including a technique called “dynamic dilation” to keep small text looking clean without wasting work on oversized padding.
Why it matters: crisp, scalable text in 3D engines is surprisingly hard, and when a robust approach becomes easier to adopt—both legally and practically—you tend to see it spread across games, visualization tools, and any UI that needs to stay sharp at odd angles and resolutions.
Homebrew 8-bit CPU reality check
On the AI front, Google DeepMind released a paper arguing that we still don’t have strong, empirical tools for measuring progress toward AGI—or even agreeing on what “general” capability should mean.
Their proposal borrows from cognitive science: break intelligence into a taxonomy of abilities—things like memory, learning, attention, planning, and social reasoning—then evaluate models on broad task suites with held-out data, while also collecting human baselines that reflect real demographic diversity. The goal is to compare models not to a single score, but to the distribution of human performance for each ability.
Why it matters: benchmarks are getting gamed, contaminated, and optimized to death. A framework that forces clearer separation of skills—and insists on honest human comparisons—could make AI progress harder to fake and easier to interpret. DeepMind and Kaggle also launched a hackathon to create evaluations where today’s benchmarks are weakest, which is a practical move: if you want better measurement, you need better tests.
Open-source ML-powered karaoke app
Finally, a lighter—but still technically telling—open-source project: Nightingale, a cross-platform karaoke app that turns songs from your own library into karaoke tracks. It uses ML stem separation to pull vocals away from instrumentals, and it can fetch synced lyrics or generate them via transcription when they don’t exist.
Why it matters: this is a snapshot of where consumer ML is heading—local or semi-local tools that remix your own data, with optional GPU acceleration, and without depending on a locked catalog. It’s also a reminder that as ML capabilities become “feature primitives,” entire categories of creative software get rebuilt around them—sometimes by hobbyists, not just big studios.
Subscribe to edition specific feeds:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Tuesday Mar 17, 2026
Tuesday Mar 17, 2026
Merci de soutenir ce podcast en visitant nos sponsors:
- Investissez comme les professionnels avec StockMVP - https://www.stock-mvp.com/?via=ron
- Consensus: IA pour la recherche. Obtenez un mois gratuit - https://get.consensus.app/automated_daily
- Conception assistée par l’IA sans effort pour des présentations, des sites web et bien plus avec Gamma - https://try.gamma.app/tad
Soutenez directement The Automated Daily:
Offre-moi un café: https://buymeacoffee.com/theautomateddaily
Sujets du jour:
Détroit d’Ormuz, tension mondiale - Le détroit d’Ormuz est quasiment fermé aux pétroliers, faisant bondir le pétrole au-dessus de 100 dollars. Les États-Unis déploient des Marines et Londres cherche une coalition maritime, sur fond de risques d’escalade avec l’Iran.
Israël, Liban et Iran: escalade - Israël intensifie ses frappes au Liban et évoque des cibles liées au Hezbollah à Beyrouth, tandis que les tirs de roquettes se poursuivent. En parallèle, des frappes et attaques s’étendent jusqu’au Golfe, alimentant l’instabilité régionale et les tensions énergétiques.
Immigration USA: TPS devant la Cour - La Cour suprême américaine examinera en avril la volonté de l’administration Trump de mettre fin au Temporary Protected Status pour des migrants, notamment haïtiens et syriens. L’enjeu porte sur le pouvoir de l’exécutif, le rôle des tribunaux et le sort de centaines de milliers de personnes.
Nvidia et la nouvelle phase IA - Jensen Huang affirme que Nvidia vise un carnet de commandes proche d’un trillion de dollars et se prépare à la prochaine vague: l’«inférence», c’est-à-dire faire tourner les modèles d’IA efficacement. Nvidia fait aussi face à la concurrence des puces maison de géants comme Google et Meta, et aux restrictions d’exportation vers la Chine.
Santé: cerveau, cancer, immunothérapie - Deux avancées médicales attirent l’attention: un implant cerveau-machine permet à des personnes paralysées d’écrire par la pensée, et un test sanguin promet de mieux détecter et suivre certains cancers du cerveau. S’ajoute une immunothérapie «prête à l’emploi» contre des tumeurs de l’endomètre, avec des résultats précliniques encourageants.
Exoplanète L 98-59 d mystérieuse - Des chercheurs modélisent l’évolution de la super-Terre L 98-59 d et proposent une histoire atypique, avec une atmosphère riche en hydrogène et une possible «océan de magma» durable. Ces indices pourraient aider à comprendre la diversité des petites exoplanètes observées par le JWST.
Transcription de l'Episode
Détroit d’Ormuz, tension mondiale
On commence par le Moyen-Orient, avec un point qui touche directement l’économie mondiale: le détroit d’Ormuz. Le Royaume-Uni, par la voix du Premier ministre Keir Starmer, dit travailler avec des alliés sur un «plan collectif viable» pour rouvrir ce couloir stratégique, alors que la zone est devenue trop dangereuse pour de nombreux pétroliers. Le nerf de la guerre, c’est simple: quand ce passage se grippe, c’est toute la planète qui le ressent à la pompe et sur les factures d’énergie.
Israël, Liban et Iran: escalade
Côté américain, le ton monte aussi. Les États-Unis déploient environ 2 500 Marines dans le Golfe persique, une première présence de troupes au sol depuis le début de la phase actuelle de frappes contre l’Iran fin février. L’idée, selon plusieurs analystes, est qu’une campagne aérienne ne suffit pas à sécuriser la navigation commerciale face aux drones, missiles et mines: il faut pouvoir protéger, escorter, et éventuellement tenir certains points clés. Problème: même si l’objectif affiché est de sécuriser le trafic, chaque mouvement militaire augmente le risque d’incident et d’engrenage.
Immigration USA: TPS devant la Cour
Londres, de son côté, insiste sur une ligne prudente: ne pas se laisser entraîner dans une guerre plus large. Starmer rappelle que le Royaume-Uni a déjà des moyens de déminage dans la région, sans promettre davantage. Et politiquement, la manœuvre est délicate: la relation avec Washington a été tendue par le passé récent, notamment sur l’usage de bases britanniques, et plusieurs pays européens hésitent à s’impliquer. L’Allemagne a déjà écarté une participation militaire, et au sein de l’Union européenne, on discute surtout d’options pour renforcer la sécurité maritime sans basculer dans une logique d’intervention lourde.
Nvidia et la nouvelle phase IA
Et si le détroit d’Ormuz est au centre de toutes les conversations, c’est parce que la crise s’élargit. Israël a intensifié ses frappes au Liban, y compris à Beyrouth, en disant viser des cibles liées au Hezbollah, tandis que les tirs de roquettes vers le nord d’Israël continuent. Les évacuations et les déplacements massifs de civils au Liban s’accélèrent, avec des bilans humains lourds selon plusieurs sources. En parallèle, des frappes sont aussi rapportées sur Téhéran, mais l’information reste difficile à vérifier de façon indépendante en raison des restrictions sur place.
Santé: cerveau, cancer, immunothérapie
Dans le Golfe, la tension dépasse désormais le cadre strictement israélo-iranien: une attaque de drone a provoqué un incendie près de l’aéroport international de Dubaï, avec une interruption temporaire des vols, et d’autres frappes ont visé des sites énergétiques. Ce type d’événements illustre pourquoi les marchés paniquent: quand l’insécurité gagne les infrastructures et les routes maritimes, le prix du baril grimpe très vite. Aujourd’hui, on parle d’un pétrole repassé au-dessus des 100 dollars, et la question devient autant géopolitique qu’économique.
Exoplanète L 98-59 d mystérieuse
Direction maintenant les États-Unis, avec un dossier qui pourrait peser durablement sur la politique migratoire: la Cour suprême va entendre en avril les arguments sur la volonté de l’administration Trump de mettre fin au statut de protection temporaire, le TPS, pour certains pays, dont Haïti et la Syrie. À ce stade, la Cour accepte d’examiner l’affaire en procédure accélérée, mais ne suspend pas immédiatement les décisions de justice inférieures qui maintiennent les protections. Concrètement, des centaines de milliers de personnes peuvent continuer à vivre et travailler légalement, pour l’instant.
Story 7
Le fond du débat est explosif: l’exécutif affirme avoir une large marge de manœuvre pour arrêter le TPS, et souhaite limiter la capacité des tribunaux à bloquer ce type de décision. Les associations, elles, insistent sur la réalité des risques dans les pays concernés, notamment l’instabilité aiguë en Haïti et des inquiétudes persistantes pour la Syrie. Au-delà des cas haïtien et syrien, l’enjeu est plus vaste: le TPS concerne environ 1,3 million de personnes, et la décision à venir pourrait redessiner l’équilibre des pouvoirs entre la Maison-Blanche et les juges fédéraux.
Story 8
On passe à la tech, où Nvidia tente de garder la main sur la prochaine étape de l’IA. À San Jose, lors d’une grande conférence, Jensen Huang a martelé l’idée que l’informatique vit un nouveau changement de plateforme, et que le boom de l’IA n’en est qu’au début. Il avance même une estimation frappante: Nvidia viserait, d’ici la fin de l’année, un carnet de commandes pouvant atteindre un trillion de dollars, soit environ le double de ce qu’il évoquait un an plus tôt. Ce chiffre, s’il se confirme, dit quelque chose de l’appétit des entreprises pour les puces et les infrastructures d’IA.
Story 9
Mais le message de Nvidia ne se limite plus à «entraîner des modèles». Le groupe met de plus en plus l’accent sur ce qu’on appelle l’inférence: faire tourner des modèles déjà entraînés pour produire des réponses, du texte, des images, ou automatiser des tâches. C’est là que se jouera une grande partie de la demande dans la durée, parce que l’IA utile au quotidien, c’est surtout de l’exécution à grande échelle. Nvidia sent aussi le vent tourner: son cours de Bourse a connu une envolée spectaculaire, mais l’enthousiasme des investisseurs s’est refroidi, avec une question simple en arrière-plan: est-ce que tout cela n’est pas allé trop vite?
Story 10
La concurrence, elle, est bien réelle. Google, Meta et d’autres développent leurs propres processeurs pour réduire leur dépendance. Et Nvidia reste contrainte par des restrictions américaines qui limitent la vente de ses puces les plus avancées en Chine, un marché majeur. Pour verrouiller l’étape suivante, l’entreprise a signé un accord de licence de plusieurs milliards avec la start-up Groq et a recruté des ingénieurs clés. Message implicite: Nvidia veut rester incontournable, même si le centre de gravité passe de l’entraînement des modèles à leur utilisation massive.
Story 11
Autre annonce côté Nvidia, plus grand public mais révélatrice: DLSS 5, une technologie graphique pour le jeu vidéo qui promet des images plus réalistes sans exiger autant de puissance brute. L’intérêt, au-delà du gaming, c’est l’idée mise en avant par Huang: mélanger des données «structurées» et contrôlables avec des méthodes d’IA générative. Et Nvidia suggère que cette logique pourrait gagner les entreprises, en s’appuyant sur les données bien rangées de leurs plateformes et outils internes, pour produire des analyses plus rapides et plus actionnables. En clair: Nvidia veut être l’infrastructure derrière l’IA, pas seulement un fournisseur de cartes graphiques.
Story 12
On termine avec des avancées scientifiques et médicales qui, elles, parlent directement de qualité de vie et de diagnostic. D’abord, une étude sur une interface cerveau-machine implantée: deux personnes paralysées ont pu écrire sur un clavier virtuel en utilisant uniquement leurs pensées. Les chercheurs décodent les signaux neuronaux associés à l’intention de bouger les doigts, puis les traduisent en frappes. Un participant a atteint une vitesse qui approche celle d’une personne valide, ce qui est loin d’être anecdotique: cela laisse entrevoir une communication plus fluide, et pas seulement quelques mots laborieux.
Story 13
Le point important, c’est la trajectoire: ces systèmes, longtemps cantonnés à des démonstrations, deviennent plus fiables et plus proches d’un usage réel pour des personnes atteintes de lésions de la moelle épinière ou de maladies comme la SLA. Il reste évidemment des étapes: validation sur un plus grand nombre de patients, sécurité sur le long terme, et accessibilité. Mais l’idée de «retrouver une voix» sans bouger les mains n’est plus de la science-fiction.
Story 14
Deuxième sujet santé: au Royaume-Uni, une équipe pilotée par l’Université de Manchester progresse vers un test sanguin capable de détecter des tumeurs cérébrales et de les suivre en temps réel. Le travail porte notamment sur le glioblastome, un cancer agressif, et le test repère une combinaison de protéines sanguines avec une précision annoncée supérieure à 90% dans un contexte de suivi autour de la chirurgie puis des traitements. Si cela tient dans des essais plus larges, l’intérêt est énorme: orienter plus vite les patients vers une IRM quand des symptômes comme des maux de tête récurrents deviennent inquiétants, et ajuster le suivi sans dépendre uniquement d’examens lourds ou de biopsies.
Story 15
Troisième avancée, cette fois aux États-Unis: des chercheurs de l’UCLA décrivent une immunothérapie «prête à l’emploi» qui a éliminé des tumeurs de l’endomètre chez la souris, avec de meilleurs résultats précliniques que certaines approches CAR-T classiques dans ce modèle. L’originalité, c’est l’utilisation de cellules immunitaires modifiées d’un type particulier, capables d’attaquer la tumeur par plusieurs voies, ce qui pourrait rendre l’évasion tumorale plus difficile. Autre élément notable: dans ces expériences précliniques, pas de signal de la complication redoutée liée aux greffes de cellules provenant d’un donneur. La prochaine étape, ce sont les démarches pour lancer des essais chez l’humain, et là, la prudence est de mise: entre une souris et un patient, il y a un monde, mais la piste est suivie de près.
Story 16
Un mot enfin d’astronomie, pour la curiosité: des chercheurs ont modélisé l’histoire de L 98-59 d, une «super-Terre» peu dense observée indirectement, avec des contraintes venant notamment du télescope James Webb. Leur scénario suggère une planète initialement très riche en éléments volatils, avec une atmosphère marquée par l’hydrogène, et même la possibilité d’un océan de magma partiellement durable, entretenu par l’effet de serre et des forces de marée. Ce genre de modèle compte parce qu’il propose une explication alternative à des catégories simplistes comme «mini-Neptune» ou «monde océan». En somme, la diversité des exoplanètes pourrait être encore plus étonnante qu’on ne l’imaginait, et ce sont précisément ces détails d’atmosphère qui peuvent trancher.
Abonnez-vous aux flux spécifiques par édition:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Tuesday Mar 17, 2026
Tuesday Mar 17, 2026
Por favor, apoya este pódcast visitando a nuestros patrocinadores:
- Invierte como los profesionales con StockMVP - https://www.stock-mvp.com/?via=ron
- Consensus: IA para la investigación. Obtén un mes gratis - https://get.consensus.app/automated_daily
- Diseño con IA sin esfuerzo para presentaciones, sitios web y más con Gamma - https://try.gamma.app/tad
Apoya directamente a The Automated Daily:
Cómprame un café: https://buymeacoffee.com/theautomateddaily
Temas de hoy:
Implantes cerebrales que permiten escribir - Un implante de interfaz cerebro-computadora permitió a dos personas con parálisis escribir en un teclado virtual solo con el pensamiento, con resultados cercanos a la comunicación fluida. Palabras clave: BCI, parálisis, escritura mental, rehabilitación, neurotecnología.
Nvidia y la próxima ola de IA - Jensen Huang presentó la estrategia de Nvidia para sostener su dominio en IA, con foco en chips para "inferencia" y señales de una demanda gigantesca pese a la competencia de Google y Meta. Palabras clave: Nvidia, IA, inferencia, GTC, chips, competencia.
Hormuz cerrado y petróleo al alza - Reino Unido y Estados Unidos buscan un plan conjunto para reabrir el Estrecho de Ormuz tras ataques y minas, mientras el crudo supera los 100 dólares y crece la presión por escoltar petroleros. Palabras clave: Ormuz, petróleo, seguridad marítima, Trump, Starmer, marines.
Escalada Israel-Irán y Líbano - Israel intensificó ataques en Líbano y reportó nuevos golpes sobre Teherán, mientras Irán lanzó drones y misiles en el Golfo, afectando vuelos y energía. Palabras clave: Israel, Hezbollah, Irán, Beirut, drones, escalada regional.
TPS en la Corte Suprema - La Corte Suprema de EE. UU. escuchará en abril el caso del fin del TPS para Haití y Siria, manteniendo por ahora las protecciones para cientos de miles de personas. Palabras clave: TPS, Corte Suprema, Trump, Haití, Siria, inmigración.
Nuevas pruebas y terapias oncológicas - Científicos avanzan en un análisis de sangre para detectar tumores cerebrales y, por otro lado, una inmunoterapia "lista para usar" mostró resultados prometedores contra cáncer de endometrio en estudios preclínicos. Palabras clave: glioblastoma, análisis de sangre, inmunoterapia, CAR-NKT, ensayos clínicos.
Una supertierra con océano de magma - Un estudio sobre la supertierra L 98-59 d sugiere una evolución poco común: atmósfera rica en hidrógeno, química compleja y la posibilidad de un océano de magma persistente. Palabras clave: JWST, supertierra, atmósfera, fotquímica, océano de magma.
Transcripcion del Episodio
Implantes cerebrales que permiten escribir
Empezamos con neurotecnología: un nuevo estudio informa que un implante de interfaz cerebro-computadora permitió a dos personas con parálisis teclear en un teclado virtual “pensando” los movimientos de sus dedos. La clave no es que lean la mente en general, sino que el sistema interpreta señales cerebrales asociadas al intento de mover la mano y las convierte en pulsaciones.
Lo llamativo es el nivel de desempeño: uno de los participantes alcanzó una velocidad equivalente a cerca del 80% de lo que haría una persona sin discapacidad en condiciones comparables. Si este tipo de resultados se sostiene en estudios más grandes, podría convertirse en una vía realista para que personas con lesiones medulares o enfermedades como ELA recuperen una comunicación más rápida y menos agotadora.
Nvidia y la próxima ola de IA
Pasamos a tecnología y negocios: Jensen Huang, el CEO de Nvidia, aprovechó una gran conferencia de IA en San José para explicar cómo la empresa pretende mantener su ventaja cuando el boom de la inteligencia artificial empiece a madurar y haya más competencia.
Huang insistió en que la computación está viviendo otro cambio de plataforma, de esos que reordenan industrias enteras. Y lanzó una cifra que llamó la atención: Nvidia espera cerrar el año con un “backlog” de pedidos de chips cercano al billón de dólares, el doble de lo que estimaba hace un año. Es una manera de decirle al mercado: la demanda no se terminó, solo está cambiando de forma.
¿Hacia dónde? Además de los chips para entrenar modelos grandes, Nvidia ve una oportunidad enorme en lo que llaman “inferencia”: ejecutar modelos ya entrenados para generar respuestas, texto o imágenes, pero de forma más eficiente. Esto importa porque, si la IA se integra en productos cotidianos, el volumen de consultas podría dispararse, y ahí el costo por cada respuesta se vuelve decisivo.
Todo esto ocurre con dos sombras encima: por un lado, gigantes como Google y Meta empujan sus propios procesadores; por otro, las restricciones comerciales y de seguridad de Estados Unidos siguen limitando la venta de los chips más avanzados a China. Para reforzar su posición en la siguiente etapa, Nvidia también está moviéndose con acuerdos de licencias y contratando ingenieros clave, en una señal clara de que no piensa ceder terreno.
Y un detalle adicional que conecta con esa idea de “nueva etapa”: Nvidia presentó una nueva versión de su tecnología gráfica para videojuegos, orientada a mejorar realismo con menos carga de cálculo. Más allá de los juegos, el mensaje de fondo es que mezclar datos estructurados con modelos generativos puede convertirse en una receta que salte a empresas y servicios, no solo a entretenimiento.
Hormuz cerrado y petróleo al alza
Ahora, geopolítica y energía, con el foco en el Estrecho de Ormuz. El primer ministro británico, Keir Starmer, dijo que el Reino Unido trabaja con aliados en un plan “viable y colectivo” para reabrir la ruta, después de que el paso se haya vuelto prácticamente inaccesible para petroleros por el conflicto con Irán. El resultado ya se siente: el petróleo se encareció y el nerviosismo se instaló en los mercados.
Starmer confirmó que el Reino Unido ya tiene barcos cazaminas en la zona, pero evitó prometer una escalada automática. Su línea, al menos por ahora, es clara: no dejar que su país quede atrapado en una guerra más amplia. También dejó caer un matiz político importante: si hay operación, prefiere una coalición puntual de países, no una misión formal de la OTAN. Alemania, de hecho, ya descartó participar militarmente, y en la Unión Europea siguen valorando opciones para reforzar la seguridad marítima sin echar más leña al fuego.
Escalada Israel-Irán y Líbano
En paralelo, Estados Unidos anunció el despliegue de unos 2.500 marines al Golfo Pérsico, el primer envío de tropas terrestres desde que comenzaron los ataques de Estados Unidos e Israel contra Irán a finales de febrero. Analistas interpretan que Washington ya no confía en que los ataques aéreos, por sí solos, alcancen para proteger el tráfico comercial frente a drones y misiles.
Según estas lecturas, los marines podrían apoyar una reapertura del estrecho asegurando puntos estratégicos cercanos a las rutas de navegación e instalando defensas para proteger convoyes escoltados. El problema es que Ormuz es estrecho y complicado: los buques pasan cerca de costa e islas desde donde se puede hostigar con drones, minas, lanchas rápidas y misiles. Y el mercado lo está descontando: con una quinta parte del petróleo y gas natural licuado del mundo pasando por ahí, la interrupción empuja los precios por encima de los 100 dólares.
Aun así, varios expertos dudan de que 2.500 efectivos sean suficientes y vuelven a la misma conclusión: sin una participación internacional más amplia, el riesgo de una disrupción prolongada —y cara— sigue siendo alto.
TPS en la Corte Suprema
Seguimos en la región porque la escalada no se limita al mar. Israel intensificó los bombardeos en Líbano, incluyendo ataques en Beirut que, según su versión, estaban vinculados a Hezbollah. Hezbollah, por su parte, continuó lanzando cohetes hacia el norte de Israel. El efecto humanitario es inmediato: órdenes de evacuación, desplazamientos masivos y reportes de cientos de muertos, con el temor persistente a una incursión terrestre mayor.
Al mismo tiempo, Israel reportó nuevos ataques sobre Teherán, mientras que Irán —con comunicaciones limitadas y fuertes restricciones a periodistas— dificulta la verificación independiente. La Media Luna Roja iraní habló de más de 1.300 fallecidos en el país.
Y el conflicto ya saltó a otros puntos del Golfo: se reportó un impacto de dron que provocó un incendio cerca del aeropuerto internacional de Dubái y obligó a interrumpir vuelos temporalmente. Emiratos Árabes Unidos también informó de un ataque con misil con víctimas, y hubo más impactos sobre instalaciones energéticas. Es el tipo de cadena que convierte un conflicto regional en un dolor de cabeza global: energía más cara, rutas marítimas bajo amenaza y más presión política sobre aliados que no quieren ampliar su papel militar.
Nuevas pruebas y terapias oncológicas
En Estados Unidos, tema migratorio con impacto directo en cientos de miles de vidas. La Corte Suprema escuchará en abril los argumentos sobre el intento del gobierno de Donald Trump de terminar con el Estatus de Protección Temporal, el TPS, para migrantes de países como Haití y Siria.
Lo relevante hoy es que, aunque el tribunal aceptó acelerar el caso, no levantó de inmediato las órdenes de tribunales inferiores que mantienen las protecciones por ahora. Eso significa que unas 350.000 personas haitianas y unas 6.000 sirias pueden seguir viviendo y trabajando legalmente, al menos de momento.
El gobierno sostiene que el Departamento de Seguridad Nacional tiene amplia autoridad para dar por terminado el TPS y busca que la Corte limite la capacidad de los jueces para bloquear esas decisiones. Organizaciones de inmigración responden que las condiciones siguen siendo peligrosas, especialmente por la inestabilidad extrema en Haití, y señalan que un juez vio indicios de posible sesgo en la decisión sobre Haití. Lo que decida la Corte puede redefinir no solo el futuro del TPS para estos grupos, sino el margen de maniobra de cualquier presidente para retirar protecciones humanitarias con rapidez y con menos supervisión judicial.
Una supertierra con océano de magma
Cerramos con ciencia y salud, en dos frentes.
Primero, Reino Unido: científicos liderados por la Universidad de Manchester reportaron avances hacia un análisis de sangre capaz de detectar tumores cerebrales y seguir su evolución casi en tiempo real. El trabajo se centró en glioblastoma, uno de los cánceres más agresivos, y durante evaluaciones alrededor de cirugía y tratamientos posteriores, el método superó el 90% de precisión al identificar un par de proteínas en sangre. Si esto se confirma en ensayos más amplios, podría ayudar a médicos de atención primaria a decidir cuándo síntomas como dolores de cabeza recurrentes justifican una resonancia urgente, acelerando diagnósticos que hoy suelen llegar tarde.
Segundo, desde UCLA: investigadores presentaron una inmunoterapia “lista para usar” en estudios con ratones que eliminó tumores de endometrio y rindió mejor que enfoques tradicionales que a veces solo controlan parcialmente la enfermedad. La idea, en sencillo, es usar células inmunes diseñadas para reconocer una señal frecuente en esos tumores y atacar por más de una vía, haciendo más difícil que el cáncer se esconda. Aún estamos en fase preclínica, pero el equipo se prepara para pedir autorización e iniciar ensayos en humanos. En un cáncer donde la recaída sigue siendo un gran problema, cualquier avance que simplifique el acceso a terapias potentes puede ser un cambio de reglas.
Y como última nota científica, mirando al espacio: un estudio sobre la supertierra L 98-59 d sugiere que podría haber seguido una trayectoria evolutiva distinta a la típica, con una atmósfera rica en compuestos volátiles y señales compatibles con procesos químicos impulsados por la radiación de su estrella. Incluso se plantea la posibilidad de un océano de magma persistente bajo la superficie, algo que, de confirmarse, ayudaría a explicar por qué planetas parecidos pueden terminar siendo tan diferentes.
Suscríbete a fuentes específicas por edición:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Tuesday Mar 17, 2026
Tuesday Mar 17, 2026
Please support this podcast by checking out our sponsors:
- Invest Like the Pros with StockMVP - https://www.stock-mvp.com/?via=ron
- Consensus: AI for Research. Get a free month - https://get.consensus.app/automated_daily
- Effortless AI design for presentations, websites, and more with Gamma - https://try.gamma.app/tad
Support The Automated Daily directly:
Buy me a coffee: https://buymeacoffee.com/theautomateddaily
Today's topics:
Mind-controlled typing breakthrough - A brain-computer interface implant let two people with paralysis type on a virtual keyboard using thought-driven neural signals, raising hopes for ALS and spinal cord injury communication.
Hormuz crisis and oil shock - The Strait of Hormuz disruption is tightening global energy supply, pushing oil above $100 as the U.S., U.K., EU and others debate naval protection while Iran-linked attacks expand across the region.
Supreme Court weighs TPS rollback - The U.S. Supreme Court will fast-track an April hearing on ending Temporary Protected Status for Haitians and Syrians, a case that could reshape DHS authority, court oversight, and deportation risk.
Nvidia’s next phase of AI - Jensen Huang says Nvidia sees a $1 trillion chip-order backlog and is pivoting harder into AI inference, even as big tech builds in-house chips and China export limits bite.
New tests and cancer therapies - Two major cancer advances stand out: a UK-led blood test showing strong accuracy for tracking glioblastoma, and UCLA’s off-the-shelf CAR-NKT immunotherapy that cleared endometrial tumors in preclinical work.
Super-Earth with hidden magma ocean - A new model of exoplanet L 98-59 d suggests an unusual evolution with a long-lived magma ocean and a volatile-rich atmosphere, offering fresh clues for JWST-era planet studies.
Episode Transcript
Mind-controlled typing breakthrough
We begin with a medical milestone that could change everyday life for people with severe paralysis. A new study reports that a brain-computer interface implant allowed two participants to type on a virtual keyboard using only their thoughts. Researchers decoded neural activity tied to attempted finger movements and translated it into keystrokes. One person reached typing performance approaching roughly four-fifths of what an able-bodied typist might manage—an eye-catching benchmark because it suggests this isn’t just “yes or no” communication. It points toward real, fluent conversation. The bigger story here is momentum: brain-computer interfaces are steadily moving from proof-of-concept to tools that could restore communication and device control for conditions like ALS or spinal cord injuries—if larger trials confirm the reliability and safety.
Hormuz crisis and oil shock
Now to the escalating geopolitical story squeezing global energy markets: the Strait of Hormuz. The U.K.’s Prime Minister, Sir Keir Starmer, says Britain is working with allies on what he called a “viable, collective plan” to reopen the strait after it was effectively closed to tankers amid the conflict with Iran. That chokepoint is one of the world’s most critical shipping routes for oil and liquefied natural gas—and markets are reacting accordingly, with crude prices now above $100 a barrel.
The U.S. is also raising the stakes. President Donald Trump is pressing allies to contribute warships, and Washington is deploying about 2,500 Marines to the Persian Gulf—described as the first U.S. ground-troop deployment since the U.S. and Israel began attacking Iran on February 28th. Analysts say the thinking is that airstrikes alone can’t fully protect commercial shipping from drones, missiles, and mines. The Marines could be used to help secure key points near shipping lanes and reinforce air defenses for escorted convoys, alongside naval and air operations.
But building a coalition is proving difficult. Starmer stressed he doesn’t want Britain pulled into a wider war, and he’s signaling any operation would be a partner-heavy, ad hoc effort—not a NATO mission. Germany has ruled out taking part militarily, and EU foreign ministers are still weighing options to bolster maritime security.
Meanwhile, the conflict itself is widening. Israel has intensified airstrikes in Lebanon, including in Beirut, saying targets were linked to Hezbollah as rockets continue toward northern Israel. Reports describe mounting displacement in Lebanon and rising fears of a broader ground operation. Iran, for its part, has reported significant casualties, while independent verification remains difficult due to tight information controls. Across the Gulf, strikes have rippled outward, including a drone incident that sparked a fire near Dubai International Airport and briefly disrupted flights, along with reported attacks on energy sites. The takeaway is simple: as long as the Hormuz corridor remains contested, the risk of prolonged supply disruption—and broader economic fallout—stays uncomfortably high.
Supreme Court weighs TPS rollback
In U.S. legal news, the Supreme Court is stepping into a major immigration fight. The justices will hear arguments in April over the Trump administration’s effort to end Temporary Protected Status, or TPS, for migrants from countries including Haiti and Syria. For now, the Court declined to immediately lift lower-court orders that keep protections in place—meaning roughly 350,000 Haitians and about 6,000 Syrians can continue living and working legally in the U.S. while the case moves forward.
Why this matters: TPS is a humanitarian program, and the ruling could influence how quickly a president can withdraw protections—and how much power federal courts have to block those decisions. Advocates argue conditions in Haiti and Syria remain dangerous, while the administration says the Department of Homeland Security should have broad authority here. It’s also notable that the Court has recently allowed the administration to end TPS for many Venezuelans while litigation continues, which has raised the stakes for other groups covered under the program.
Nvidia’s next phase of AI
Switching to technology and business: Nvidia is making its case that it still owns the center of gravity in the AI boom—even as competition gets louder. At a major AI conference in San Jose, CEO Jensen Huang argued computing is in the early innings of another platform shift. He also said Nvidia expects a one-trillion-dollar backlog of chip orders by the end of this year—double his estimate from a year ago.
The interesting strategic pivot is where Nvidia sees the next surge of demand. Training giant AI models has been a marquee business for the company, but Huang spotlighted a growing opportunity in “inference”—the chips and systems used to run trained models efficiently to generate answers, text, or images for real users. That matters because inference is where AI meets the everyday world: customer service, coding tools, search, enterprise analytics, and more.
Nvidia also used the moment to remind everyone it’s more than gaming now, even as it unveiled DLSS 5—graphics tech pitched as a way to deliver more photorealistic games without needing to brute-force every frame. The broader message was that AI techniques that blend reliable, structured information with generative models could spread well beyond games into business computing.
Still, there are headwinds. Nvidia’s stock has cooled as investors debate whether AI enthusiasm has gotten ahead of reality. Big tech firms like Google and Meta are building their own processors, and U.S. security restrictions limit sales of Nvidia’s most advanced chips in China. In a sign Nvidia expects a fight, the company has struck a multibillion-dollar licensing deal with startup Groq and hired key engineers—moves that signal it’s preparing to defend its turf in the next phase of AI demand.
New tests and cancer therapies
Back to health and science, with two cancer developments that stand out for different reasons: earlier detection and potentially faster-to-deploy treatment.
First, scientists led by the University of Manchester say they’re making progress toward a blood test that could detect brain tumors and track them in real time. Focusing on glioblastoma, the research identified a pair of blood proteins and reported accuracy above 90 percent when assessed around surgery and during follow-up treatments like radiotherapy and chemotherapy. If that performance holds up, the real-world impact could be huge: GPs might have a clearer signal for when recurring headaches or neurological symptoms should trigger urgent MRI scans. A multi-site clinical trial is already underway in the U.K. and internationally, but it’s worth underlining this is still on the road to validation and regulatory approval.
Second, UCLA researchers report a new “off-the-shelf” immunotherapy that eliminated endometrial tumors in mouse models and outperformed conventional CAR-T approaches in those tests. Instead of relying solely on the classic CAR-T playbook, the team engineered a different kind of immune cell—NKT cells—with a cancer-targeting receptor aimed at mesothelin, a protein often seen on endometrial cancer cells. The promise here is practicality as much as potency: the platform is designed to be made from donated cells, stored, and deployed more rapidly than bespoke, patient-by-patient manufacturing. The researchers report encouraging safety signals in preclinical work and say they’re preparing FDA submissions to begin human trials. For a common cancer where recurrence is a stubborn problem, that’s a development worth watching closely—while remembering that mice are not people, and clinical outcomes will decide the story.
Super-Earth with hidden magma ocean
Finally, a quick look off-world. Researchers modeled how a low-density super-Earth called L 98-59 d may have evolved—and the results don’t fit neatly into the usual boxes of “rocky planet with a bit of gas” or “water world.” The study suggests the planet may have formed extremely rich in volatile materials and could still host a long-lived, partially molten magma ocean beneath its surface. The atmosphere signals we can observe—helped by data from the James Webb Space Telescope—may also be shaped heavily by chemistry driven by stellar radiation.
Why this is interesting: it hints that some small planets could stay geologically active for billions of years in ways we didn’t fully appreciate, and that what we detect in an atmosphere might be the product of a long, evolving interaction between the planet’s interior and its star. In the JWST era, these kinds of models are becoming essential for turning “we see this molecule” into “here’s the likely story of this world.”
Subscribe to edition specific feeds:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)

Tuesday Mar 17, 2026
Tuesday Mar 17, 2026
Merci de soutenir ce podcast en visitant nos sponsors:
- Créez n’importe quel formulaire, sans code, avec Fillout. 50 % de crédits supplémentaires à l’inscription - https://try.fillout.com/the_automated_daily
- Conception assistée par l’IA sans effort pour des présentations, des sites web et bien plus avec Gamma - https://try.gamma.app/tad
- Découvrez l’avenir de l’audio IA avec ElevenLabs - https://try.elevenlabs.io/tad
Soutenez directement The Automated Daily:
Offre-moi un café: https://buymeacoffee.com/theautomateddaily
Sujets du jour:
Vaccin anticancer mRNA pour chien - Un cas inédit de vaccin anticancer personnalisé à ARN messager chez un chien illustre l’accélération des pipelines grâce à l’IA, au séquençage et aux néoantigènes.
Test sanguin contre tumeurs cérébrales - Des chercheurs britanniques avancent sur une prise de sang pour détecter et suivre des tumeurs cérébrales, avec un potentiel d’orientation plus rapide vers l’IRM et un essai clinique en cours.
Interfaces cerveau-machine pour écrire - Une étude montre qu’un implant d’interface cerveau-machine permet à des personnes paralysées de saisir du texte par la pensée, ouvrant des perspectives de communication assistée plus fluide.
Organes congelés pour greffes - Une méthode expérimentale de cryoconservation pourrait allonger la durée de viabilité d’organes destinés à la transplantation, réduisant le gaspillage et facilitant la logistique médicale.
OpenAI se recentre sur l’entreprise - OpenAI prépare un virage stratégique: moins de projets dispersés, plus d’outils de programmation et de productivité pour entreprises, sous pression concurrentielle et avec des enjeux de revenus.
Nvidia et l’ère de l’inférence - Nvidia veut dominer la prochaine phase de l’IA en misant sur l’« inférence » et l’industrialisation des agents, tout en élargissant son influence au-delà des puces vers les couches logicielles.
Meta sécurise du cloud IA européen - Meta signe un accord massif avec le cloud néerlandais Nebius pour sécuriser de la capacité de calcul IA, signal fort de la rareté et de l’importance stratégique des centres de données.
Android durcit l’installation d’apps - Google prépare une vérification d’identité des développeurs pour les apps hors Play Store, visant la lutte anti-malware mais critiquée pour ses impacts sur la liberté, la concurrence et la confidentialité.
Chine: nouvelle étape en semi-conducteurs - La Chine progresse vers une production de puces plus avancée malgré les restrictions commerciales, un pas clé vers l’autonomie technologique et la résilience de la chaîne d’approvisionnement.
Atlassian licencie et mise sur l’IA - Atlassian annonce une réduction d’effectifs pour financer l’IA et la vente aux entreprises, reflet d’un secteur logiciel qui coupe dans les coûts tout en augmentant les budgets IA.
Réseaux sociaux et économie de la colère - Un documentaire de la BBC, nourri par des lanceurs d’alerte, décrit comment les plateformes optimisent l’engagement en amplifiant la colère et la désinformation, et relance le débat sur la régulation.
Biosécurité: l’IA change les risques - Une analyse sur la bioécurité estime que l’IA ne transforme pas encore des novices en biologistes opérationnels, mais souligne des failles dans le contrôle de la synthèse ADN et des risques agricoles.
Transcription de l'Episode
Vaccin anticancer mRNA pour chien
On commence par la santé, avec une histoire qui fait lever un sourcil. En Australie, une chienne nommée Rosie, atteinte d’une tumeur particulièrement agressive, a reçu un vaccin anticancer expérimental à ARN messager, conçu spécifiquement à partir des mutations de sa propre tumeur. Après l’échec des traitements classiques, les premiers retours parlent d’une réduction notable de la masse tumorale et d’un regain d’énergie. Ce qui frappe, au-delà du cas lui-même, c’est le délai: l’idée qu’un vaccin personnalisé puisse être conçu et produit rapidement, en s’appuyant sur le séquençage, des outils d’IA et des partenaires académiques. Évidemment, on est encore au stade des preuves à consolider, mais cela illustre une tendance: la « personnalisation » sort doucement du discours marketing pour entrer dans des workflows concrets — à condition de passer l’épreuve des études rigoureuses.
Test sanguin contre tumeurs cérébrales
Toujours côté médecine, des chercheurs pilotés par l’Université de Manchester annoncent des progrès vers une prise de sang capable de repérer des tumeurs cérébrales et de les suivre dans le temps. Leur travail, centré sur le glioblastome, s’appuie sur l’identification de protéines circulant dans le sang, avec une précision annoncée très élevée pendant le parcours de soin — y compris autour de la chirurgie et des traitements. L’enjeu est énorme: aujourd’hui, on dépend surtout de l’IRM et, souvent, de gestes invasifs pour confirmer. Si un test sanguin devient fiable et accessible, cela pourrait aider les médecins généralistes à trier plus vite les symptômes ambigus — comme des maux de tête récurrents — et accélérer l’accès aux examens lourds. Un essai clinique est déjà en cours sur plusieurs sites, et l’approche serait étendue à d’autres types de tumeurs.
Interfaces cerveau-machine pour écrire
Autre avancée marquante: une interface cerveau-machine implantée a permis à deux personnes paralysées d’écrire sur un clavier virtuel en utilisant uniquement leurs pensées. Dans cette étude, l’idée est de traduire des signaux cérébraux liés à l’intention de bouger les doigts en frappes de clavier. Ce qui rend la nouvelle intéressante, ce n’est pas seulement le « ça marche », mais le niveau de fluidité évoqué, qui se rapproche de l’usage quotidien. Si ces résultats se confirment à plus grande échelle, on tient un pas important pour la communication assistée — notamment pour des personnes avec des atteintes sévères, comme certaines formes de maladie neurodégénérative ou des lésions de la moelle épinière.
Organes congelés pour greffes
Et puisqu’on parle de technologies médicales qui pourraient changer des parcours entiers: des chercheurs en Chine décrivent une méthode expérimentale pour congeler puis « réveiller » des organes destinés à la transplantation. Pour l’instant, c’est démontré chez l’animal, donc prudence maximale. Mais la promesse est simple à comprendre: gagner du temps. Aujourd’hui, certains organes doivent être transplantés en quelques heures, ce qui impose une logistique extrême et entraîne aussi beaucoup de rejets d’organes pourtant utilisables. Si on passait ne serait-ce qu’à une conservation bien plus longue, cela élargirait les distances possibles, réduirait la pression sur les équipes, et pourrait mécaniquement augmenter le nombre de greffes réussies.
OpenAI se recentre sur l’entreprise
Un mot sur un autre domaine où la logistique et la chimie font la loi: les traitements de type GLP-1, devenus incontournables dans l’industrie pharmaceutique. Une analyse récente souligne que le prochain grand défi, ce n’est pas d’améliorer l’injectable, mais de rendre ces molécules vraiment efficaces par voie orale, à grande échelle. La difficulté est très concrète: ces peptides survivent mal au système digestif et passent difficilement dans le sang, ce qui impose des stratégies coûteuses et parfois peu efficaces. Parmi les pistes évoquées, une idée sort du lot: produire et « emballer » ces molécules dans des micro-organismes comestibles, comme certaines algues, afin de les protéger et d’éviter une partie des étapes industrielles. C’est prometteur sur le papier, mais cela ouvre d’énormes questions de sécurité, d’acceptabilité et de réglementation. En clair: la science avance, mais le chemin vers le médicament grand public reste long.
Nvidia et l’ère de l’inférence
Passons à l’IA côté industrie. OpenAI prépare un changement de cap important: réduire les projets périphériques pour concentrer les ressources sur les outils de programmation et la productivité en entreprise. En interne, le constat serait que l’entreprise s’est trop dispersée, avec de nombreux paris lancés en parallèle, au risque de brouiller les priorités et de tendre les capacités de calcul. Le contexte est aussi compétitif: Anthropic progresse auprès des clients professionnels avec une offre plus focalisée, notamment sur le code. Pour OpenAI, l’intérêt est double: clarifier une stratégie, et démontrer une trajectoire de revenus plus lisible — un sujet qui compte d’autant plus si le secteur se rapproche de scénarios de cotation ou, au minimum, d’un examen plus dur des marchés et des investisseurs.
Meta sécurise du cloud IA européen
Dans la même veine « IA à l’échelle industrielle », Nvidia a profité de sa grande conférence pour marteler son message: après l’entraînement des modèles, la prochaine bataille se joue sur l’inférence — c’est-à-dire l’exécution des modèles, partout, tout le temps, au moindre coût énergétique possible. Nvidia veut rester incontournable, malgré la montée des puces internes chez certains géants du numérique et des contraintes géopolitiques sur certains marchés. Le signal le plus parlant, c’est le positionnement: Nvidia ne veut plus être seulement le fournisseur de matériel, mais aussi l’acteur qui fournit les briques logicielles et les garde-fous nécessaires pour que des agents IA puissent être déployés dans les entreprises sans provoquer de dégâts. Autrement dit, la promesse se déplace: moins de démonstrations spectaculaires, plus d’industrialisation et de contrôle des risques.
Android durcit l’installation d’apps
Cette course à l’infrastructure se voit aussi dans les contrats. Meta a signé un accord de long terme avec Nebius, un fournisseur cloud européen, pour sécuriser d’énormes capacités de calcul dédiées à l’IA. Le marché comprend le message: la capacité de centres de données devient un actif stratégique, presque au même titre que la propriété intellectuelle. Pour Meta, cela s’inscrit dans une logique de dépenses massives afin d’entraîner et d’exploiter des modèles à grande échelle. Et pour Nebius, c’est une validation forte de son statut d’acteur majeur en Europe, dans un contexte où beaucoup d’entreprises cherchent à diversifier leurs dépendances et à garantir des volumes sur plusieurs années.
Chine: nouvelle étape en semi-conducteurs
Côté plateformes, Google s’apprête à déployer une vérification des développeurs Android pour les applications distribuées en dehors du Play Store. L’objectif affiché est de freiner les escroqueries et les malwares qui exploitent l’installation manuelle d’applications. Mais les critiques sont vives: plusieurs organisations craignent une dérive vers un écosystème plus fermé, où Google pourrait décider, de fait, ce qui est « acceptable » au-delà du seul cadre de sécurité. Autre point sensible: l’obligation d’identité réelle, qui peut exposer des développeurs travaillant sous pseudonyme — par exemple sur des outils de confidentialité ou des projets liés aux droits humains. Bref, l’éternel dilemme revient: protéger les utilisateurs, sans étouffer l’ouverture qui a longtemps différencié Android.
Atlassian licencie et mise sur l’IA
Sur les semi-conducteurs, un article rapporte que le chinois Hua Hong, via sa branche de fonderie, préparerait une étape de production plus avancée pour des puces orientées IA. L’intérêt, ici, n’est pas une histoire de performance pure, mais de souveraineté industrielle: dans un monde de restrictions d’exportation et de dépendances croisées, toute capacité locale sur des procédés récents renforce la résilience. Reste que passer de démonstrations et de volumes limités à une production stable et rentable est une autre affaire: rendements, équipement, chaînes d’approvisionnement… ce sont souvent ces détails qui font la différence entre annonce et bascule industrielle.
Réseaux sociaux et économie de la colère
Un mot sur l’emploi tech: Atlassian annonce une réduction d’effectifs d’environ un dixième de ses équipes. Le discours est désormais classique: dégager de la marge pour investir davantage dans l’IA et accélérer le développement commercial auprès des grandes entreprises. Ce qui est notable, c’est la simultanéité dans le secteur: beaucoup d’éditeurs coupent dans la masse salariale tout en augmentant les budgets IA. Cela ne veut pas forcément dire que l’IA « remplace » directement, mais plutôt que la répartition des rôles change, et que les entreprises veulent financer cette transition — vite — tout en rassurant sur leur trajectoire financière.
Biosécurité: l’IA change les risques
Enfin, un détour par nos fils d’actualité et ce qu’ils font à nos têtes. Une enquête mise en avant par la presse britannique, autour d’un documentaire de la BBC, décrit comment certaines grandes plateformes auraient historiquement optimisé l’engagement en favorisant les contenus qui déclenchent colère et polarisation — parce que c’est efficace pour capter l’attention. Le film s’appuie notamment sur des témoignages d’anciens employés et de lanceurs d’alerte, et relance un débat déjà ancien: quand le modèle économique dépend du temps passé et de la réaction émotionnelle, la sécurité et la qualité de l’information deviennent des coûts, pas des produits. Et quand la concurrence s’intensifie, les garde-fous ont tendance à reculer.
Story 13
Je termine avec un angle plus prospectif: la bioécurité à l’ère des outils d’IA. Une analyse rappelle que, pour l’instant, les modèles de langage ne transforment pas magiquement un novice en expert capable de manipuler un laboratoire. Les barrières restent très matérielles: équipements, savoir-faire, accès à des ressources, et surtout capacité à exécuter sans erreurs. Mais le texte pointe des failles plus institutionnelles: contrôles imparfaits sur certains circuits de synthèse d’ADN, difficulté à financer des dispositifs de surveillance dans la durée, et vulnérabilité potentielle du monde agricole, souvent plus simple à perturber que la santé humaine. Le message est nuancé: le scénario est peu probable, mais l’impact peut être immense — ce qui justifie de préparer des réponses rapides et mieux coordonnées.
Abonnez-vous aux flux spécifiques par édition:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to feedback@theautomateddaily.com
Youtube
X (Twitter)
