BIMPRAXIS

Julio Pablo Vazquez

Podcast oficial de BIMPRAXIS. Hablamos de Inteligencia Artificial, Building Information Modeling, por separado o en virtuosa intersección (IA + BIM).

  1. E033_La Unificación de la Inteligencia Visual y Científica 2025-2026 (Fin de la serie)

    1D AGO

    E033_La Unificación de la Inteligencia Visual y Científica 2025-2026 (Fin de la serie)

    ¿Te imaginas una IA que no solo escribe código, sino que evoluciona sus propios algoritmos para descubrir matemáticas nuevas? 🧬 En este episodio exploramos a fondo AlphaEvolve, el revolucionario agente de codificación de Google DeepMind que está redefiniendo los límites de la ciencia y la computación. A diferencia de los modelos de lenguaje tradicionales que pueden alucinar, este sistema utiliza un enfoque evolutivo para iterar, corregir y superoptimizar soluciones mediante la ejecución real de código. Desde mejorar la eficiencia de los centros de datos de Google ☁️ hasta rediseñar circuitos de hardware, analizamos cómo esta tecnología está cerrando la brecha entre la generación de ideas y el descubrimiento científico verificable. 🚀 Descubre cómo AlphaEvolve logró romper un estancamiento de 56 años al encontrar un algoritmo más rápido para la multiplicación de matrices complejas 4x4 y cómo ha resuelto problemas abiertos en combinatoria y geometría que desafiaban a los expertos. 🤯 Debatiremos sobre su capacidad para actuar como un colaborador de investigación, generando matemáticas constructivas a escala y encontrando soluciones que escapan a la intuición humana. Si te apasiona la intersección entre la Inteligencia Artificial, la ingeniería de software extrema y los grandes enigmas teóricos, este episodio es imprescindible. ¡Dale al play y acompáñanos a vislumbrar el futuro de la optimización algorítmica! 🎧⚡ Enlaces relevantes: • Paper original: AlphaEvolve: A coding agent for scientific and algorithmic discovery • Artículo en el blog de Google DeepMind sobre AlphaEvolve • Paper complementario: Mathematical exploration and discovery at scale

    17 min
  2. E032_La destilación del conocimiento en los modelos de lenguaje grandes (LLM)

    3D AGO

    E032_La destilación del conocimiento en los modelos de lenguaje grandes (LLM)

    ¿Alguna vez te has preguntado cómo logramos que los gigantescos Modelos de Lenguaje Grande (LLMs) quepan en dispositivos más pequeños sin perder su “inteligencia”? 🧠✨ En este episodio desglosamos el fascinante mundo de la Knowledge Distillation (Destilación de Conocimiento), la técnica maestra que transfiere la sabiduría de un modelo “profesor” masivo a un “alumno” ágil y eficiente. 📱 Pero hay una trampa en los métodos actuales: descubriremos por qué los atajos populares, como guardar solo las probabilidades más altas (Top-K), están creando modelos sesgados y peligrosamente sobreconfiados en sus errores. 🚫🔍 Nos sumergimos en la última investigación de 2025, “Sparse Logit Sampling”, que propone una solución elegante y poderosa: la Random Sampling Knowledge Distillation. 📉💡 Analizamos cómo este nuevo enfoque utiliza el muestreo por importancia para lograr estimaciones imparciales almacenando apenas 12 tokens (frente a los miles habituales), reduciendo drásticamente el almacenamiento sin sacrificar la calidad del aprendizaje. 🚀 Dale al play para entender cómo esta técnica preserva la información crítica de la “cola” de probabilidades y está redefiniendo la eficiencia en la IA con un coste computacional mínimo. 🎧🔥 Enlaces relevantes: • Paper original: Sparse Logit Sampling: Accelerating Knowledge Distillation in LLMs (ArXiv) • Conceptos básicos: Destilación de Conocimiento (Wikipedia)

    15 min

About

Podcast oficial de BIMPRAXIS. Hablamos de Inteligencia Artificial, Building Information Modeling, por separado o en virtuosa intersección (IA + BIM).