15 afleveringen

La Hora Maker te ofrece las últimas novedades relacionadas con el mundo maker: tecnologías para la fabricación personal, herramientas para la fabricación digital, técnicas e ideas para la construcción en formato hazlo tu mismo.

En este programa también queremos dar a conocer el movimiento maker al público general, así como destacar los principales eventos en España y el resto del mundo.

En La Hora Maker hablaremos también de los grandes cambios que se están produciendo de forma simultánea como el diseño abierto, la personalización radical, las máquinas que fabrican máquinas, el software libre, etc. Súmate a este viaje. ¡Será divertido!

La Hora Maker César García Sáez

    • Nieuws

La Hora Maker te ofrece las últimas novedades relacionadas con el mundo maker: tecnologías para la fabricación personal, herramientas para la fabricación digital, técnicas e ideas para la construcción en formato hazlo tu mismo.

En este programa también queremos dar a conocer el movimiento maker al público general, así como destacar los principales eventos en España y el resto del mundo.

En La Hora Maker hablaremos también de los grandes cambios que se están produciendo de forma simultánea como el diseño abierto, la personalización radical, las máquinas que fabrican máquinas, el software libre, etc. Súmate a este viaje. ¡Será divertido!

    Cómo mejorar el rendimiento de tus LLM usando ejemplos

    Cómo mejorar el rendimiento de tus LLM usando ejemplos

    Hoy explicaremos cómo mejorar el rendimiento de tu LLM a través de ejemplos. Para ellos seguiremos el paper "Language models are few-shot learners" publicado por OpenAI junto a GPT-3. Esta técnica nos va a permitir conseguir obtener resultados más precisos tanto con modelos pequeños como con modelos más grandes, modificando simplemente la forma en la que describimos la tarea en cuestión.

    • 14 min.
    Cómo emplear tu LLM local - como sacar el máximo partido con los modelos de chat tipo ChatGPT

    Cómo emplear tu LLM local - como sacar el máximo partido con los modelos de chat tipo ChatGPT

    En este episodio vamos a explorar distintas formas de sacar el máximo partido a tu modelo grande de lenguaje (LLM). Revisaremos algunas instrucciones (prompts) y exploraremos el espacio latente de posibilidades de los modelos. ¿Te has encontrado con algún reto a la hora de conseguir los resultados esperados con tu LLM local?
    Referencias mencionadas durante el episodio:
    The ChatGPT Prompt Book: https://docs.google.com/presentation/d/17b_ocq-GL5lhV_bYSShzUgxL02mtWDoiw9xEroJ5m3Q/ Buscador Phind: https://www.phind.com GPT Masterclass : 4 years of Prompt Engineering in 16 Minutes: https://www.youtube.com/watch?v=aq7fnqzeaPc

    • 16 min.
    ¡Manos a la obra! - Configuremos nuestros LLMs locales

    ¡Manos a la obra! - Configuremos nuestros LLMs locales

    En este episodio voy a explicar las diferencias entre distintos programas para consultar diversos modelos grandes de lenguage (LLM) con licencias abiertas. Podrás aprender sobre tres de los clientes más populares: Ollama, Text-generation-webui y LM Studio. Cada una tiene sus pros y sus contras y al final del episodio podrás elegir entre distintos entornos, similares a ChatGPT, corriendo en tu ordenador, sin tener que conectar con ningún servidor externo.
    Existen multitud de modelos a elegir y la calidad de los mismos va mejorando cada día. Además se están encontrando multitud de utilidades a estos sistemas de inteligencia artificial generativa. ¿Te gustaría poder probarlos y aprender de primera mano? ¡Es el momento ideal para empezar a seguir el podcast de La Hora Maker!
    Si quieres saber más sobre Ollama y otras aplicaciones para correr grandes modelos de lenguaje local, no te pierdas el video resumen con las funcionalidades de cada una: https://youtu.be/3kUl_YcFz0U

    • 9 min.
    Qué equipo necesito para generar textos rápidamente en local con Llama-2, Mistral, etc.

    Qué equipo necesito para generar textos rápidamente en local con Llama-2, Mistral, etc.

    En este episodio vamos a descubrir cuál es el principal factor para determinar la velocidad de creación de texto en distintas plataformas. Compararemos el potencial de las tarjetas RTX, las CPU Intel o Ryzen y ordenadores más modestos como las Raspberry Pi.

    • 19 min.
    Criterios para elegir tu modelo de Large Language Model

    Criterios para elegir tu modelo de Large Language Model

    En este episodio vamos a explorar algunos de los parámetros más importantes para elegir tu modelo de Large Language Model. Revisaremos cuáles son los términos más habituales, aquellos modelos más comunes y empezaremos a descubrir plataformas en los que probarlos tanto online como localmente.

    • 18 min.
    Parámetros más importantes para la calidad de un modelo de IA LLM

    Parámetros más importantes para la calidad de un modelo de IA LLM

    En este video vamos a explicar la relación entre el tamaño de los modelos de inteligencia artificial generativas y la calidad de los mismos. Hablaremos sobre cómo se entrenan estos modelos, cuáles son algunas de sus fuentes y como han evolucionado a lo largo del tiempo.
     


    En este episodio hemos empleado las visualizaciones disponibles en la página https://lifearchitect.ai/models

    • 18 min.

Top-podcasts in Nieuws

Maarten van Rossem - De Podcast
Tom Jessen en Maarten van Rossem / Streamy Media
Boekestijn en De Wijk | BNR
BNR Nieuwsradio
De Ketting van Santanera
RTL Nieuws
Weiteveen
AD
Weer een dag
Marcel van Roosmalen & Gijs Groenteman
de Volkskrant Elke Dag
de Volkskrant

Suggesties voor jou