Episodio 11. Veo, veo... ¿Qué ves? Visión en tiempo real para asistirnos en el día a día.

En este episodio, nos adentramos en el fascinante mundo de la visión artificial y las IA multimodales, junto a Danais y Roberto. Analizamos cómo estas tecnologías están transformando nuestra vida diaria y, en particular, su impacto en la accesibilidad y autonomía de las personas ciegas o con baja visión.
Temas que abordamos en este episodio:
-La evolución de la visión artificial y su aplicación en la vida cotidiana.
-Los chatbots de IA con visión: cómo funcionan y qué pueden aportar a la autonomía de las personas sin visión.
-IA multimodal y visión en tiempo real: una revolución en el acceso a la información y la descripción del entorno.
-Aplicaciones específicas para personas ciegas: exploramos herramientas como ChatGPT con Visión, Gemini 2.0 Flash y Ally de Envision, enfrentándolas a la misma tarea y analizando sus capacidades para localizar objetos en una escena.
Charlamos sobre el impacto real de esta tecnología en el reconocimiento y descripción del mundo que nos rodea, evaluando sus ventajas, inconvenientes y limitaciones en términos de autonomía y accesibilidad.
No te lo pierdas: descubre cómo la visión artificial está cambiando las reglas del juego.
Intervienen:
Danays Bautista.
Roberto Pérez De paz.
Arturo Fernández.
Ricardo Abad.
Enlaces a Sitios referenciados en el episodio:
La evolución de la visión artificial – Emergent Vision Technologies.r
IAS multimodales y sistemas de visión artificial por IA en tiempo real.
OpenAI lanza el modo Visión en Tiempo Real y Compartir Pantalla en Europa – GPT Zone.
Página oficial de ChatGPT de OpenAI.
Página oficial de Gemini de Google.
Descarga el documento para configurar Gemini 2.0 Flash en tu iPhone
Incluye el prompt personalizado de Roberto
y el atajo de Manuel – Formato Word.
Página
oficial de Lea, personaje de Ally (asistente Beta de Envision) – Traducida al
español.
Meta presenta Llama 3.2: es multimodal y tiene voz propia – WIRED.
Prueba el chat de Meta AI desde su sitio web.
Aplicaciones específicas de visión por IA para personas ciegas o con baja visión
Artículo sobre Be my eyes en SucDePoma.
Be My Eyes, servicio de voluntarios e IA descritptiva (Página oficial en español).
Seeing AI – Aplicación multifunción con OCR y reconocimiento de imágenes (Microsoft).
Aira – Asistencia visual remota con agentes profesionales (Inglés).
Oko – Reconocimiento de
semáforos - Detectando el
semáforo (en verde o en rojo) con la app OKO, A Ciegas – AliBlueBox (YouTube).
Lookout
– app para la Visión asistida - Aplicaciones en Google Play.
Créditos:
suno.ai.
Ficha técnica
- Programa
- Publicación11 de febrero de 2025, 23:00 UTC
- Duración1 h 20 min
- ClasificaciónApto