En este episodio de “Se nos va de las manos”, exploramos cómo crear una alternativa local y gratuita a ChatGPT utilizando herramientas accesibles como Docker y servicios gratuitos en la nube. Hablamos de modelos de inteligencia artificial compatibles con APIs de OpenAI, pero sin coste alguno, gracias a opciones como LiteLLM, un proxy que facilita la integración con modelos abiertos como GPT-4o de GitHub, Llama, Mistral y otros.
Explicamos paso a paso cómo instalar y configurar Open WebUI para interactuar con estos modelos, cómo gestionar las claves API necesarias y cómo sacar partido a modelos de texto y visión, incluyendo ejemplos divertidos como analizar imágenes de Regreso al futuro. También discutimos las limitaciones y ventajas de los modelos abiertos frente a las alternativas comerciales.
¿Quieres convertir tu PC en un laboratorio de IA sin gastar un euro?
- https://github.com/gmag11/ollama-litellm-dockercompose - Repositorio con los archivos
- https://github.com/marketplace/models - Marketplace de Github de modelos de inteligencia artificial.
- https://openrouter.ai/ - Proxy en la nube para modelos de IA.
- https://mistral.ai/ - Página de Mistral
- https://docs.litellm.ai/docs/providers - Lista de proveedores y modelos de LiteLLM
- https://openwebui.com/ - Open WebUI
Information
- Show
- FrequencyUpdated Monthly
- PublishedNovember 20, 2024 at 6:00 AM UTC
- Length30 min
- Season2
- Episode2
- RatingClean
