Navegación autónoma de computadoras, renuncia por principios en OpenAI, récords financieros de NVIDIA, agentes de IA autocorrectivos, impacto real en el mercado laboral, Ghost GDP, crisis de contratación juvenil, soberanía energética de los data centers, el Ratepayer Protection Pledge, OpenAI compitiendo con GitHub, ética de la IA en defensa, autonomía letal, transparencia en el razonamiento de los modelos, el índice de fluidez en IA, fallos de privacidad en las gafas de Meta, el fin del coding tradicional, GPT-5.4, Gemini 3.1 Flash-Lite, Nano Banana 2, la brecha de género en la adopción tecnológica, habilidades humanas irreemplazables, el futuro de la educación y políticas públicas para la competitividad nacional. Esta semana, el panorama de la inteligencia artificial se define por una tensión palpable entre el crecimiento financiero explosivo y una creciente ansiedad social. Mientras NVIDIA reporta ingresos históricos de 68 mil millones de dólares y los "hyperscalers" se preparan para invertir 700 mil millones en infraestructura, los datos laborales muestran una realidad dual: no hay un colapso sistémico del empleo, pero sí una alarmante caída del 14% en la contratación de jóvenes en sectores expuestos a la IA. La narrativa de una crisis inminente corre más rápido que los hechos, alimentada por experimentos como los de Andrej Karpathy, donde agentes de IA ya mejoran su propio código de forma autónoma, sugiriendo un horizonte "post-AGI" donde el humano deja de supervisar para simplemente gestionar resultados. El episodio también profundiza en las fracturas éticas y de privacidad que están surgiendo en los laboratorios más grandes del mundo. La renuncia de la directora de robótica de OpenAI tras un contrato con el Pentágono marca un hito en la resistencia interna contra el uso de IA en contextos militares de "autonomía letal". Paralelamente, el reporte sobre las gafas inteligentes de Meta revela una falla crítica de privacidad, con trabajadores en Kenia procesando imágenes íntimas de usuarios sin su consentimiento. Estas señales subrayan que, mientras los modelos se vuelven más transparentes en su razonamiento interno (como el nuevo GPT-5.4), la vigilancia humana sobre su uso y sus implicaciones éticas parece estar disminuyendo peligrosamente. El tema central aborda la brecha de adopción, advirtiendo que el escepticismo tecnológico no está distribuido de forma equitativa. Con una marcada diferencia de género y edad en el uso de herramientas de IA, corremos el riesgo de cimentar una nueva desigualdad salarial y operativa. En un mundo donde el "coding" se considera prácticamente resuelto, la ventaja competitiva se desplaza hacia el juicio contextual, la coordinación política y la capacidad de reunir el contexto que las máquinas no pueden ver. El episodio concluye con un llamado a la acción para países y empresas: la transición no es opcional, y quedarse atrás en la curva de adopción es hoy el riesgo económico más real de todos.