BIMPRAXIS

Julio Pablo Vazquez

Podcast oficial de BIMPRAXIS. Intersección entre Inteligencia Artificial y BIM (Building Information Modeling)

Episodes

  1. Cómo ChatGPT elige la siguiente palabra

    2D AGO

    Cómo ChatGPT elige la siguiente palabra

    En este episodio, desmitificamos la aparente “magia” detrás de los Grandes Modelos de Lenguaje (LLM) para entender qué sucede realmente en el milisegundo que transcurre desde que enviamos un prompt hasta que aparece el texto. Contrario a la intuición, descubrimos que el modelo no tiene una respuesta predefinida ni un plan oculto; genera el contenido una pieza a la vez, construyendo la respuesta sobre la marcha mediante un proceso puramente probabilístico y no a través de un entendimiento consciente. Analizamos cómo el sistema evalúa constantemente más de 100.000 opciones posibles para elegir el siguiente fragmento de información. Nos adentramos en la arquitectura técnica desglosando las cinco etapas críticas del proceso: desde la tokenización, que convierte palabras en secuencias numéricas, hasta los embeddings, que transforman esos números en vectores de significado capaces de entender relaciones semánticas (como la cercanía entre “Python” y “JavaScript”). Exploramos el funcionamiento del Transformer y su mecanismo de “atención”, que permite al modelo entender el contexto de una frase, y detallamos cómo parámetros como la temperatura y el sampling controlan la delgada línea entre una respuesta precisa y una incoherente. Finalmente, discutimos las implicaciones prácticas de esta mecánica para el uso profesional de la IA. Explicamos por qué ocurren las “alucinaciones” —el modelo prioriza patrones de plausibilidad sobre la verdad fáctica— y por qué los límites de contexto son una restricción computacional cuadrática inevitable y no una decisión arbitraria del software. Concluimos que comprender que la IA es un mecanismo de predicción y no una fuente de verdad es esencial para controlar mejor sus resultados en tareas técnicas y de programación.

    18 min
  2. Karen Hao: OpenIA funciona como un nuevo imperio colonial

    3D AGO

    Karen Hao: OpenIA funciona como un nuevo imperio colonial

    Gustavo Entrala entrevista a la investigadora Karen Hao, quien expone una visión crítica sobre el ascenso de OpenAI y la industria de la inteligencia artificial. Hao sostiene la tesis de que estas compañías operan como nuevos imperios coloniales que monopolizan el conocimiento, explotan mano de obra barata en países en desarrollo y consumen recursos naturales de forma alarmante. La autora revela que dentro de estas empresas existe un fervor cuasi religioso respecto a la creación de una inteligencia superior, lo cual justifica decisiones éticas cuestionables. Además, el contenido detalla la compleja relación entre Sam Altman y Elon Musk, así como la transición de la organización hacia un modelo lucrativo. Finalmente, el texto advierte sobre los costes humanos y ambientales ocultos detrás del desarrollo tecnológico actual. Por último, Hao subraya la importancia de mantener un pensamiento crítico y la acción colectiva para evitar que estas corporaciones controlen el futuro global. Karen Hao es una reconocida periodista, ingeniera mecánica por el MIT y experta en inteligencia artificial (IA) que escribe para medios como The Atlantic, dirige la serie AI Spotlight del Pulitzer Center y ha trabajado para The Wall Street Journal y MIT Technology Review, enfocándose en el impacto social de la IA y desmitificando la tecnología para el público general, siendo considerada una de las personas más influyentes en el campo de la IA.

    16 min

About

Podcast oficial de BIMPRAXIS. Intersección entre Inteligencia Artificial y BIM (Building Information Modeling)