PREMIUM @LOCUTORCO

Episodios exclusivos y sin anuncios

$ 29.900/mes o $ 99.900/año después de la prueba

FLASH DIARIO de El Siglo 21 es Hoy

Noticias de ciencia y tecnología en Flash Diario, de El Siglo 21 es Hoy. Este es el pódcast informativo que te mantiene al día con las noticias más relevantes del mundo tecnológico y científico. ¡En 5 minutos! Noticias de tecnología, noticias de ciencia, noticias de entretenimiento digital. Y también noticias de economía digital. Es un producto informativo de ElSiglo21esHoy.com Cada episodio de Flash Diario te ofrece una dosis diaria de noticias de actualidad en formato breve y conciso, presentando las noticias más importantes en diferentes ámbitos como la tecnología, la ciencia, la cultura y la sociedad. Con Flash Diario no tienes que preocuparte por perderte ninguna novedad o avance importante en tu día a día. En 5 minutos (promedio) te ofrecemos la información más relevante de manera clara y precisa, para que puedas estar al tanto de lo que sucede en el mundo sin perder tiempo ni detalles. Flash Diario es el compañero perfecto para las personas que quieren estar al tanto de las últimas noticias pero no tienen tiempo para seguir programas más largos y detallados. Con Flash Diario estarás siempre actualizado, informado y preparado para cualquier conversación o situación que se presente. ¡Suscríbete ahora y no te pierdas ni un solo flash informativo! Suscríbete gratis en: ➜ YouTube: https://bit.ly/FlashDiario ➜ Spotify: https://spoti.fi/3MRBhwH ➜ Apple Podcasts: https://apple.co/3BR7AWe Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  1. El mayor rediseño de Google Maps

    HACE 1 DÍA

    El mayor rediseño de Google Maps

    Google Maps ahora responde preguntas: la IA Gemini cambia el mapa que usas todos los días Por Félix Riaño @LocutorCo Google Maps acaba de recibir la actualización más grande de su sistema de navegación en más de diez años. Y el cambio va mucho más allá de un nuevo diseño. A partir de ahora, el mapa puede responder preguntas, sugerir lugares y mostrar la ciudad en tres dimensiones mientras conduces. Todo gracias a la integración de la inteligencia artificial Gemini. Curiosamente, esta transformación ya se había anticipado hace algunos años en el pódcast El Siglo 21 es Hoy. En el episodio “Mapas para descubrir el mundo”, publicado en 2022, se explicaba cómo los mapas digitales estaban dejando de ser simples representaciones del territorio para convertirse en sistemas vivos llenos de datos. Puedes escucharlo aquí: Mapas para descubrir el mundo https://www.spreaker.com/episode/mapas-para-descubrir-el-mundo--51073058 En ese episodio se planteaba una idea que hoy parece casi profética: Antes nosotros mirábamos el mapa. Ahora el mapa gira alrededor de nosotros gracias al GPS del teléfono. La actualización que Google acaba de lanzar parece llevar ese concepto todavía más lejos. El nuevo botón de Google Maps que responde preguntas La función más llamativa se llama Ask Maps. Es un nuevo botón dentro de Google Maps que permite hacer preguntas al mapa como si fuera un chatbot. En lugar de buscar palabras sueltas, ahora puedes escribir algo como: “¿Dónde puedo cargar mi teléfono sin tener que hacer fila para comprar café?” O incluso algo más complejo: “Mis amigos vienen después del trabajo. ¿Qué restaurante tranquilo hay a mitad de camino entre nosotros cuatro?” Google Maps usa su enorme base de datos para responder. Según explicó Google en su anuncio oficial, el sistema analiza información de más de 300 millones de lugares y reseñas aportadas por más de 500 millones de personas. El objetivo es encontrar recomendaciones útiles sin tener que revisar decenas de comentarios. Puedes leer el anuncio completo aquí: Google Blog Google Maps ahora muestra el mundo en 3D La segunda gran novedad se llama Immersive Navigation. Hasta ahora Google Maps mostraba el mundo en una vista bastante plana. Con esta actualización la aplicación presenta una vista tridimensional mucho más realista. En el mapa aparecen elementos como: edificiospuentes elevadoscarrilessemáforospasos peatonalesseñales de tráficoTodo se resalta automáticamente cuando se acerca una maniobra importante. Google también cambió la forma en que da instrucciones de voz. En lugar de frases rígidas como “gire en 200 metros”, ahora puede decir algo como: “Pasa esta salida y toma la siguiente”. La idea es que la navegación se parezca más a las indicaciones de un copiloto humano. Medios especializados como Ars Technica explican que este rediseño es el mayor cambio en navegación desde hace más de una década. Ars Technica Google Maps tiene más de 2.000 millones de usuarios Google Maps es hoy el servicio de navegación más usado del planeta. La aplicación tiene más de 2.000 millones de usuarios mensuales. Eso significa que cualquier cambio en su funcionamiento puede influir directamente en millones de decisiones diarias. Con funciones como Ask Maps, el mapa deja de ser solo una herramienta para llegar a un sitio. Empieza a influir en dónde decides ir. Eso tiene consecuencias importantes para restaurantes, tiendas y negocios locales. Según CNBC, Google dice que por ahora Ask Maps no incluirá anuncios pagados dentro de las recomendaciones. Pero tampoco descarta que esa posibilidad aparezca en el futuro. CNBC Si eso ocurre, el mapa podría convertirse en una enorme guía comercial personalizada.  El problema incómodo de la inteligencia artificial Las inteligencias artificiales generativas tienen un defecto conocido. A veces inventan información. En la industria tecnológica a ese fenómeno se le llama alucinación. Google dice que ha creado sistemas de control para evitar que Gemini invente lugares que no existen. Pero la prueba real llegará cuando millones de personas empiecen a usar el sistema todos los días. Cuándo llegará esta actualización Google empezó a lanzar estas funciones el 12 de marzo de 2026. El despliegue será gradual. Primero llegará a: Estados UnidosIndiaDespués se expandirá a otros países y dispositivos: AndroidiPhoneAndroid AutoApple CarPlaycoches con Google integrado La gran pregunta Si el mapa puede responder preguntas, sugerir planes y mostrar el mundo en 3D… ¿hasta qué punto seguirá siendo solo un mapa? Escucha más historias sobre tecnología Flash Diario Tecnología, ciencia y cultura digital explicadas cada día. Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

    21 min
  2. La próxima Xbox ya tiene nombre

    HACE 2 DÍAS

    La próxima Xbox ya tiene nombre

    Microsoft revela Project Helix, su próxima consola Xbox, que unirá juegos de PC y consola con gráficos avanzados Por Félix Riaño @LocutorCo Microsoft comenzó a contar cómo será su próxima consola Xbox, llamada Project Helix, diseñada para unir videojuegos de PC y consola. Microsoft ya está preparando la próxima generación de Xbox. Su nombre interno es Project Helix, y aunque todavía faltan varios años para verla en las tiendas, ya conocemos algunos detalles técnicos que ayudan a entender hacia dónde va el futuro de los videojuegos.El anuncio ocurrió durante la Game Developers Conference 2026, un gran encuentro mundial donde desarrolladores de videojuegos y empresas tecnológicas comparten sus avances. Allí, Jason Ronald, vicepresidente de próxima generación en Xbox, explicó que Microsoft comenzará a enviar versiones tempranas de la consola a estudios de videojuegos en 2027 para que puedan empezar a crear juegos compatibles.Estas versiones tempranas se llaman devkits, abreviatura de “development kits”. Son consolas de prueba que permiten a los estudios preparar sus juegos antes de que el producto final llegue al público.Pero lo más interesante es el objetivo del proyecto. Unir el mundo de las consolas Xbox con el de los computadores personales. La pregunta es inevitable. ¿Estamos ante una consola tradicional o ante algo más parecido a un PC diseñado para jugar? Pero la nueva Xbox quiere romper la frontera entre consola y PC. Project Helix es el nombre clave de la próxima consola Xbox, sucesora de la actual generación formada por Xbox Series X y Xbox Series S, lanzadas en el año 2020.La gran diferencia es que Microsoft quiere cambiar la forma en que pensamos las consolas. Durante décadas, las consolas y los computadores han sido dos mundos separados. En una consola compras el hardware específico y juegas títulos diseñados para esa máquina. En un computador puedes instalar juegos desde muchas tiendas y ajustar el hardware.Microsoft quiere acercar esos dos universos.Según explicó Jason Ronald en la conferencia para desarrolladores, Project Helix será capaz de ejecutar juegos de consola Xbox y juegos de PC. Esto significa que la misma máquina podría acceder a experiencias que hoy están separadas.Para lograrlo, Microsoft está trabajando con la empresa AMD, fabricante de procesadores y tarjetas gráficas. Juntas están diseñando un chip personalizado, llamado SoC o “system on a chip”. Este tipo de chip integra varios componentes en una sola pieza, como el procesador central, el procesador gráfico y sistemas de inteligencia artificial.Ese chip permitirá aplicar nuevas técnicas gráficas que buscan que los videojuegos se vean más realistas que nunca. El gran reto de la industria del videojuego es que los gráficos cada vez son más complejos.Los desarrolladores quieren crear mundos más detallados, con iluminación realista, reflejos naturales y animaciones más fluidas. Pero todo eso requiere una enorme cantidad de cálculos por segundo.Una de las tecnologías más exigentes se llama ray tracing, o trazado de rayos. Es un método que simula el comportamiento real de la luz. Permite que los reflejos en un espejo, el brillo del agua o la iluminación de una habitación se vean como en la vida real.El problema es que calcular esos efectos exige mucha potencia. Incluso las consolas actuales tienen límites cuando usan estas técnicas.Microsoft dice que Project Helix ofrecerá un salto enorme en rendimiento de ray tracing. Esto permitiría escenarios más realistas y dinámicos.Además, la consola usará técnicas de aprendizaje automático, es decir, inteligencia artificial entrenada para mejorar gráficos.Por ejemplo, una técnica llamada upscaling con aprendizaje automático permite generar imágenes de mayor resolución a partir de imágenes más pequeñas. Otra llamada generación de cuadros adicionales crea nuevos fotogramas intermedios para que el movimiento se vea más fluido.Todo esto apunta a un objetivo. Que los videojuegos tengan mundos más complejos sin sacrificar rendimiento. Aunque los detalles técnicos son prometedores, todavía falta camino.Microsoft comenzará a enviar las primeras versiones de prueba de Project Helix a desarrolladores en 2027. Eso significa que los estudios podrán empezar a crear juegos para esta nueva generación de hardware varios años antes de que llegue al público.Este proceso es normal en la industria. Cuando un estudio recibe un devkit puede probar nuevas herramientas, optimizar gráficos y asegurarse de que sus juegos funcionen bien cuando la consola se lance oficialmente.También sabemos que Microsoft quiere mantener una de las características que ha hecho popular a Xbox en los últimos años. La compatibilidad con juegos antiguos.La empresa afirma que los juegos de cuatro generaciones de Xbox seguirán funcionando.Esto incluye el programa Xbox Play Anywhere, que ya cuenta con más de 1.500 juegos que pueden jugarse tanto en consola como en PC con una sola compra.Al mismo tiempo, Microsoft está integrando más funciones de Xbox directamente en Windows. En algunos computadores comenzará a aparecer un modo Xbox en Windows 11, que permite usar el sistema con una interfaz optimizada para jugar con control.En otras palabras, la empresa está construyendo un ecosistema donde los juegos se mueven entre dispositivos. Consola, computador y nube. El anuncio de Project Helix también llega en un momento importante para Xbox.La marca cumple 25 años, y Microsoft quiere marcar el inicio de una nueva etapa. Durante los últimos años, las ventas de hardware Xbox han sido menores que las de sus competidores principales, Nintendo y Sony.Además, la división de videojuegos de Microsoft representa alrededor del 7 % de los ingresos totales de la empresa, según reportes financieros recientes.Por esa razón, la estrategia actual parece centrarse en ampliar el alcance del ecosistema Xbox más allá de una sola consola. Servicios como Xbox Game Pass, el juego en la nube y la compatibilidad con PC forman parte de esa estrategia.En ese contexto, Project Helix podría representar algo más que una consola nueva. Podría ser un intento de redefinir qué es una consola en el siglo XXI.Algunos analistas incluso sugieren que el precio de esta máquina podría ser elevado. Hay estimaciones que hablan de 900 dólares o más, aunque Microsoft todavía no ha confirmado ningún precio.Por ahora, lo que sabemos es que la empresa quiere crear una plataforma capaz de acompañar los próximos años del videojuego. Con gráficos más complejos, inteligencia artificial integrada y una conexión mucho más estrecha entre consola y computador. Project Helix es el proyecto de la próxima Xbox y busca unir los mundos de la consola y el PC. Todavía faltan años para verla en tiendas, pero el plan apunta a gráficos más realistas, inteligencia artificial integrada y juegos que funcionen en muchos dispositivos.Si te gusta entender cómo evoluciona la tecnología del entretenimiento, sigue el pódcast Flash Diario en Spotify. Bibliografía 📚 EngadgetXbox NewsThe VergeCNBCGameSpot Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

    13 min
  3. 10.000 escritores publican un libro sin texto

    HACE 3 DÍAS

    10.000 escritores publican un libro sin texto

    Miles de autores publican libro vacío para protestar por uso de obras en inteligencia artificial Por Félix Riaño @LocutorCo En la Feria del Libro de Londres apareció un libro extraño. Tiene portada, tiene título, tiene autores muy famosos… pero casi no tiene texto.El libro se llama “Don’t Steal This Book”, que en español se puede entender como “No robes este libro”. Y detrás de ese título hay una protesta bastante seria.Cerca de 10.000 escritores firmaron el libro. Entre ellos aparece Kazuo Ishiguro, ganador del Premio Nobel de Literatura en 2017 y autor de novelas como Los restos del día. También están Alan Moore, creador de cómics muy influyentes como Watchmen y V for Vendetta, y Philippa Gregory, famosa por novelas históricas como The Other Boleyn Girl.A ellos se suman escritores populares como Richard Osman, conocido por la serie de novelas policiacas The Thursday Murder Club.Con tantos autores famosos uno esperaría una gran historia dentro del libro.Pero cuando lo abres… las páginas están casi vacías.Solo aparece una lista con los nombres de los autores que participan en la protesta.La pregunta que quieren provocar es simple: si la inteligencia artificial aprende leyendo libros sin permiso, ¿qué pasará con las personas que los escriben? Pero este libro vacío es en realidad un mensaje político. La idea del libro nació de Ed Newton-Rex, un compositor británico que también trabaja como activista por los derechos de autor en la era de la inteligencia artificial.Newton-Rex lleva varios años alertando sobre cómo las empresas tecnológicas entrenan sistemas de inteligencia artificial usando enormes cantidades de datos. Entre esos datos hay libros, artículos, música y obras artísticas.Muchas veces esos materiales se obtienen desde internet sin pedir permiso a quienes los crearon.Para llamar la atención sobre ese problema, Newton-Rex propuso algo muy simbólico: publicar un libro que representara el futuro que temen muchos escritores. Un libro vacío. El resultado fue “Don’t Steal This Book”, una obra que contiene una sola cosa: una lista con los nombres de los casi 10.000 autores que apoyan la protesta. Nada más. Ni cuentos. Ni capítulos. Ni ensayos. Las páginas están en blanco.Durante la Feria del Libro de Londres, que se celebra del 10 al 12 de marzo, los organizadores distribuyeron alrededor de 1.000 ejemplares gratuitos del libro a los asistentes.La idea es que la gente abra el libro y se haga una pregunta incómoda: ¿qué pasaría con la literatura si los escritores no pudieran vivir de su trabajo? El origen de esta protesta está en un debate legal que ocurre ahora mismo en el Reino Unido.El gobierno británico estudia cambios en la ley de derechos de autor relacionados con el desarrollo de la inteligencia artificial.Las empresas que desarrollan estos sistemas necesitan enormes cantidades de información para entrenar sus modelos. Los chatbots, los generadores de imágenes o los asistentes digitales aprenden analizando millones de textos, fotografías y sonidos.Entre esos materiales hay libros protegidos por copyright.Una de las ideas discutidas en el Reino Unido consiste en permitir que las empresas de inteligencia artificial utilicen esos libros para entrenar modelos, incluso sin pedir permiso a los autores.En algunos casos se propone un sistema llamado “opt-out”.Eso significa que el material podría usarse automáticamente, a menos que el autor declare explícitamente que no quiere participar.Muchos escritores creen que ese sistema cambia completamente la lógica tradicional del copyright.Normalmente, una obra está protegida desde el momento en que se crea. Nadie puede copiarla o utilizarla sin autorización.Con el sistema de exclusión voluntaria, cada autor tendría que vigilar si su trabajo está siendo usado para entrenar modelos de inteligencia artificial.Además existe otro temor.Si una inteligencia artificial aprende leyendo miles de novelas, luego podría generar textos similares y competir en el mismo mercado editorial.Para algunos autores, eso significa enfrentarse a una máquina entrenada con su propio trabajo. La publicación de “Don’t Steal This Book” llega en un momento muy concreto del debate político.El gobierno del Reino Unido debe presentar un informe sobre el impacto económico de los cambios en la ley de copyright antes del 18 de marzo.Ese informe evaluará cómo equilibrar dos intereses muy grandes.Por un lado está la industria tecnológica, que quiere acceso a grandes cantidades de datos para desarrollar inteligencia artificial más potente.Por el otro está el sector creativo: escritores, músicos, artistas visuales y periodistas que dependen de los derechos de autor para poder vivir de su trabajo.Muchos autores no rechazan la inteligencia artificial. Lo que piden es algo bastante sencillo: que las empresas paguen por utilizar sus obras.De hecho, el mundo editorial ya está explorando modelos de licencias. Algunas organizaciones trabajan en sistemas que permitirían a las empresas de inteligencia artificial entrenar modelos con libros… pero pagando por ese acceso.En otras palabras, el debate no es si la inteligencia artificial debe existir.El debate es cómo se obtiene el conocimiento que permite que funcione.El libro vacío es una forma visual de advertir lo que podría pasar si los creadores dejan de recibir compensación por su trabajo. Esta protesta forma parte de una serie de acciones que el sector creativo ha organizado en los últimos años.En 2025, por ejemplo, más de 1.000 músicos publicaron un álbum con grabaciones de estudios de grabación vacíos. El proyecto se tituló “Is This What We Want?”.Entre quienes apoyaron esa iniciativa aparecieron nombres enormes de la música británica, como Paul McCartney, uno de los compositores más influyentes de la historia del pop, y Kate Bush, famosa por canciones como Running Up That Hill.La idea del álbum era parecida a la del libro vacío.Si las empresas de inteligencia artificial usan obras creativas sin compensar a quienes las producen, el resultado podría ser una industria cultural silenciosa.Mientras tanto, el conflicto también ha llegado a los tribunales.En uno de los casos más comentados, la empresa de inteligencia artificial Anthropic, creadora del chatbot Claude, aceptó pagar alrededor de 1.500 millones de dólares para resolver una demanda colectiva presentada por autores que acusaban a la empresa de usar copias pirateadas de sus libros para entrenar modelos.Al mismo tiempo, está surgiendo un nuevo mercado: el de las licencias de contenido para inteligencia artificial.Algunas editoriales ya negocian acuerdos para vender acceso legal a catálogos completos de libros. Eso permitiría entrenar modelos respetando los derechos de autor.En ese contexto, el libro “Don’t Steal This Book” funciona como una advertencia y como una invitación al debate.Las páginas están vacías. Pero el mensaje está bastante lleno. Un libro vacío firmado por miles de autores está provocando un debate global sobre inteligencia artificial y derechos de autor. Los escritores piden algo sencillo: que su trabajo no se utilice gratis para entrenar algoritmos.¿Qué opinas tú sobre este tema? Cuéntamelo y sigue el pódcast Flash Diario en Spotify. Miles de escritores publicaron un libro vacío para protestar contra inteligencia artificial entrenada con libros sin permiso ni pago. BibliografíaNDTVLiterary HubDownTheTubesEuronewsTürkiye TodayThe GuardianITV NewsGamereactor Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

    22 min
  4. X promete 'proteger' tus fotos

    HACE 4 DÍAS

    X promete 'proteger' tus fotos

    Grok no te protegeX estrenó un bloqueo para Grok, pero la función deja abiertas varias rutas para editar fotos ajenas Por Félix Riaño @LocutorCo X activó en iPhone una opción para bloquear ediciones de Grok sobre fotos subidas a la red. El problema es que ese bloqueo apenas tapa una puerta. Según pruebas publicadas por The Verge, la función impide que otras personas llamen a @Grok dentro de una respuesta para editar una imagen, pero no evita que esa misma foto se abra en Grok por otras vías dentro de la app o después de guardarla y volverla a subir. La herramienta apareció sin anuncio oficial y, por ahora, su alcance real sigue siendo limitado. X quiere dar la impresión de que escuchó las quejas. La red social agregó una opción que suena tranquilizadora: “bloquear modificaciones por Grok”. Dicho así, parece una barrera seria para cuidar las fotos que compartes. Pero cuando uno mira la letra pequeña, la historia cambia. La función apenas evita una forma concreta de pedirle a Grok que altere una imagen: etiquetar a @Grok en una respuesta dentro de X. Y ya. Nada más. Si alguien mantiene pulsada la foto desde la app de X en iPhone, todavía puede abrir la opción para editarla con Grok. También puede guardar la imagen, volverla a publicar y pedir cambios desde esa nueva copia. Entonces la pregunta ya no es si existe un bloqueo. La pregunta de verdad es otra: ¿X está protegiendo a las personas o está maquillando un problema que sigue vivo Parece protección, pero deja demasiadas puertas abiertas La novedad apareció dentro del flujo para subir imágenes o video en la app de X para iPhone. Hay que tocar el icono del pincel y luego entrar a una opción más escondida para activar el bloqueo. Ese detalle ya dice bastante. No estamos ante un gran botón visible para que cualquier persona entienda cómo proteger su contenido. Está metido dentro de un submenú. The Verge verificó que la función existe y probó su comportamiento. El resultado fue incómodo: sí frena a suscriptores Premium cuando intentan editar una imagen protegida etiquetando a @Grok en una respuesta, pero no impide otras formas de modificación disponibles en la misma experiencia móvil. Además, esa opción no apareció en la web durante sus pruebas y tampoco se mostró en imágenes antiguas ya publicadas. O sea, el control llega tarde, llega escondido y llega incompleto. El contexto de este cambio importa mucho. A comienzos de enero, Grok quedó en el centro de una tormenta por ayudar a crear imágenes sexualizadas y de desnudez falsa de personas reales. Varios medios reportaron que la práctica se expandió rápido y que reguladores de varias regiones empezaron a investigar el caso. Social Media Today recogió el dato de Bloomberg según el cual, en un momento de esa ola, Grok llegó a generar unas 6.700 imágenes por hora de tipo sexualizado o de desnudez simulada. Después, el 14 de enero, X limitó funciones y dejó la edición de imágenes detrás del pago para usuarios de X o Grok de nivel superior. Pero la situación no desapareció. Días después todavía se reportaban formas de producir desnudos falsos con ciertos comandos. Por eso este nuevo interruptor suena menos a solución de fondo y más a parche apresurado. Y hay un detalle todavía más incómodo: si una herramienta permite daño por varios caminos, cerrar apenas el más visible no cambia el problema de base. Lo vuelve un poco menos escandaloso a simple vista. Lo que vamos viendo aquí es un patrón bastante conocido en cultura digital. Primero aparece una función potente. Después llegan usos abusivos muy previsibles. Luego viene la protesta pública, entran reguladores, y finalmente llega una medida parcial que permite decir: “ya hicimos algo”. X aún no ha anunciado oficialmente esta novedad, así que ni su disponibilidad completa ni su estado de desarrollo están del todo definidos. The Verge pidió comentarios y, al momento de su publicación, no había respuesta. Mientras tanto, la realidad práctica es esta: el bloqueo sirve para frenar el atajo más obvio dentro de una conversación en X, pero no protege realmente una foto una vez que esa foto está circulando en internet. Ese punto es importante para toda persona que sube imágenes a redes sociales, y más si aparecen niñas, niños o adolescentes, porque una copia, una captura o una re-publicación pueden saltarse la intención original del autor. El caso también deja una lección para la industria: cuando una plataforma vende una opción con nombre tranquilizador, hay que mirar qué bloquea de verdad y qué no. En privacidad digital, los nombres bonitos no bastan. Lo que cuenta es el comportamiento real del sistema.  Esta historia va más allá de X y de Grok. Habla de cómo estamos entrando en una etapa en la que publicar una foto ya no significa solamente compartir una imagen. También significa entregar material que puede ser reinterpretado por sistemas generativos. Y eso cambia la relación entre la persona, la plataforma y el público. Antes, el riesgo principal era que alguien copiara tu foto, la recortara o le pusiera texto encima. Ahora, además, puede pedirle a una inteligencia artificial que altere el gesto, la ropa, el fondo o el contexto entero. En teoría, algunas barreras deberían impedir esos abusos. En la práctica, muchas llegan tarde o quedan llenas de huecos.También hay una dimensión cultural. Las redes llevan años empujando a la gente a publicar más, más rápido y con menos fricción. Pero ese modelo choca con otra realidad: cada archivo que subes puede terminar en sistemas de edición automática, remezcla o generación de versiones nuevas. Por eso esta noticia no es solo de tecnología. También es de cultura digital y de convivencia. Nos obliga a preguntar quién controla una imagen después de publicarla, qué responsabilidad tiene la plataforma cuando su propia IA facilita usos abusivos y qué tan honesta es una interfaz que promete “bloqueo” cuando apenas cierra un camino muy concreto. En pocas palabras, el debate ya no es si la IA puede transformar tus fotos. El debate es quién pone los límites, cómo los pone y si esos límites sirven de verdad.  X añadió un interruptor para frenar ciertas ediciones de Grok sobre tus fotos, pero ese control se queda corto. La enseñanza es simple: subir una imagen sigue implicando riesgos, aunque la plataforma prometa protección. Cuéntame qué opinas y sigue Flash Diario en Spotify para escuchar más historias de tecnología, ciencia y cultura digital.  BibliografíaThe VergeSocial Media TodayEngadgetGizmodoDigital TrendsYahoo TechYahoo News Singapore Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

    21 min
  5. El día que empujamos un asteroide

    HACE 5 DÍAS

    El día que empujamos un asteroide

    La misión DART de NASA cambió la órbita de un asteroide alrededor del Sol por primera vez. Por Félix Riaño @LocutorCo Hay noticias científicas que pasan casi desapercibidas. Esta es una de ellas. Y lo que revela es impresionante: por primera vez en la historia, los seres humanos cambiamos la órbita de un objeto celeste alrededor del Sol.Sí. La humanidad movió un asteroide.Todo ocurrió gracias a la misión DART de NASA. En 2022, una nave espacial fue dirigida de forma deliberada para estrellarse contra un pequeño asteroide llamado Dimorphos. El objetivo era probar un método de defensa planetaria: comprobar si podríamos desviar un asteroide peligroso si algún día uno viniera hacia la Tierra. Los científicos ya sabían que el choque cambió la órbita de Dimorphos alrededor de otro asteroide llamado Didymos. Pero ahora han confirmado algo más sorprendente. El impacto también modificó ligeramente la trayectoria que los dos asteroides juntos siguen alrededor del Sol. El cambio es diminuto. Apenas 0,15 segundos en una órbita que dura 769 días.Puede parecer insignificante. Pero demuestra algo enorme. Los seres humanos ya somos capaces de cambiar el movimiento de un cuerpo celeste.¿Podría ese pequeño empujón salvar a la Tierra algún día?Pequeño empujón hoy puede salvar ciudades mañana La misión se llama DART, siglas en inglés de Double Asteroid Redirection Test. Fue lanzada en noviembre de 2021 con un objetivo directo: probar si una nave espacial podía empujar un asteroide. El objetivo elegido fue Dimorphos, una pequeña “luna” que gira alrededor de un asteroide mayor llamado Didymos. Ambos forman un sistema de dos asteroides que viajan juntos alrededor del Sol. Dimorphos tiene unos 160 metros de diámetro. Didymos mide cerca de 780 metros. Ninguno representa peligro para la Tierra. Esa fue precisamente la razón para escogerlos como laboratorio espacial.El 26 de septiembre de 2022, la nave DART se estrelló contra Dimorphos a una velocidad cercana a 22.500 kilómetros por hora.Los telescopios de todo el mundo comenzaron a observar el sistema de asteroides durante meses y años. Los científicos buscaban una señal muy concreta: saber si el impacto había cambiado su movimiento. El primer resultado llegó pronto. La órbita de Dimorphos alrededor de Didymos se redujo en unos 32 minutos.Era una prueba clara de que el método funcionaba. Pero las observaciones continuaron. Y ahora los científicos confirmaron algo que nadie había medido antes. El impacto también cambió ligeramente la órbita del sistema Didymos-Dimorphos alrededor del Sol.Es la primera vez que un objeto fabricado por humanos modifica de forma medible la trayectoria de un cuerpo celeste en el sistema solar. Detrás de este experimento hay una preocupación muy real.Nuestro planeta comparte su vecindario con miles de asteroides que cruzan o se acercan a la órbita de la Tierra. Muchos están identificados. Pero no todos.Los científicos estiman que existen unos 25.000 asteroides capaces de destruir una ciudad. Hasta ahora solo se ha catalogado cerca del 40 %. Eso significa que más de 15.000 asteroides potencialmente peligrosos aún no han sido detectados.El problema no suele ser los gigantes. Los más grandes se detectan con relativa facilidad. El riesgo principal está en los llamados asteroides capaces de arrasar ciudades, objetos de entre 150 y 500 metros de diámetro. Son suficientemente grandes para causar destrucción regional, pero suficientemente pequeños para ser difíciles de detectar.La historia ya ofrece un ejemplo. En 1908, un objeto de unos 40 metros explotó sobre Siberia, en el evento conocido como Tunguska. La onda expansiva derribó árboles en más de 2.000 kilómetros cuadrados de bosque.Si un evento similar ocurriera sobre una gran ciudad moderna, el daño sería enorme. Por eso la defensa planetaria tiene una regla simple. El arma más importante contra un asteroide es el tiempo.Cuantos más años tengamos antes de un posible impacto, más fácil será desviar su trayectoria. La misión DART demostró algo esencial para esa estrategia.No hace falta empujar un asteroide con una fuerza gigantesca.Basta con darle un pequeño empujón… muchos años antes.El impacto redujo la velocidad orbital del sistema de asteroides en apenas unos 10 micrómetros por segundo. Es una velocidad minúscula. Pero en el espacio, donde los movimientos duran décadas o siglos, incluso una diferencia tan pequeña se acumula con el tiempo.Después de muchos años, ese pequeño cambio puede transformar una colisión directa en un simple paso cercano. Además ocurrió algo inesperado.El choque expulsó aproximadamente 16 millones de kilogramos de roca y polvo del asteroide. Ese material salió disparado al espacio y generó un empujón adicional.En otras palabras, el propio asteroide amplificó el impacto. Ahora los científicos esperan aprender mucho más cuando la nave Hera, de la Agencia Espacial Europea, llegue al sistema Didymos-Dimorphos en 2026.Hera no chocará contra el asteroide. Su misión será estudiar el cráter, la estructura interna del asteroide y los efectos reales del impacto.Con esos datos, los ingenieros podrán diseñar misiones futuras de defensa planetaria con mucha más precisión. Las imágenes captadas por la nave DART antes del impacto revelaron algo inesperado sobre estos asteroides. Durante años se pensó que los sistemas formados por dos asteroides eran relativamente tranquilos. Pero nuevos análisis muestran que son mucho más dinámicos.Los investigadores descubrieron marcas en forma de abanico en la superficie de Dimorphos. Estas marcas sugieren que material del asteroide grande, Didymos, puede viajar lentamente hacia su pequeño compañero.Los científicos describen este fenómeno como “bolas de nieve cósmicas”. Pequeños fragmentos de roca pueden desprenderse del asteroide mayor y desplazarse hacia el otro a velocidades extremadamente bajas.En algunos casos viajan a 30 centímetros por segundo, más lento que una persona caminando. Cuando esos fragmentos aterrizan en Dimorphos dejan patrones de material que forman abanicos de polvo y rocas.Para comprobar esta idea, los científicos realizaron experimentos en laboratorio. Lanzaron pequeñas canicas sobre arena con piedras distribuidas de forma parecida a la superficie del asteroide. Las marcas resultantes coincidieron con los patrones observados en las imágenes espaciales. Estos estudios también confirman la presencia del efecto YORP, un fenómeno en el que la luz del Sol puede acelerar lentamente la rotación de un asteroide hasta que comienza a expulsar material. Comprender estos procesos ayuda a los científicos a entender mejor cómo evolucionan los asteroides cercanos a la Tierra. Y ese conocimiento será esencial si algún día necesitamos mover uno para proteger nuestro planeta. La misión DART demostró que la humanidad puede alterar la trayectoria de un asteroide. El cambio es pequeño, pero prueba que desviar rocas espaciales es posible si actuamos con tiempo. Historias como esta muestran cómo la ciencia puede proteger nuestro planeta. Si te interesa la ciencia explicada con calma, sigue Flash Diario en Spotify.Flash Diario en Spotify BibliografíaThe IndependentScienceDailyNASA Jet Propulsion LaboratoryFrance 24EngadgetEarth.comNew York Post Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

    15 min
  6. GPT-5.4 entra a Excel

    6 MAR

    GPT-5.4 entra a Excel

    GPT-5.4 llega a ChatGPT con herramientas para Excel, agentes autónomos y mayor precisión en tareas profesionales Por Félix Riaño @LocutorCo OpenAI anunció una nueva versión del modelo que impulsa ChatGPT. Se llama GPT-5.4 y está diseñado para trabajar dentro de programas que muchas personas usan todos los días en la oficina. Por ejemplo, hojas de cálculo, documentos o presentaciones.Una de las novedades más llamativas es que ChatGPT ahora puede trabajar directamente dentro de Excel o Google Sheets. Eso significa que puede analizar datos, proponer fórmulas o ayudar a construir modelos financieros sin salir de la hoja de cálculo. OpenAI afirma que esta versión comete menos errores y entiende mejor preguntas complejas. También puede buscar información en varias fuentes y combinarla para responder de manera más organizada. La pregunta que aparece en muchas conversaciones es inevitable. ¿Estamos frente a una herramienta que ayuda a trabajar mejor… o frente a una inteligencia artificial que empieza a competir con algunos trabajos de oficina? Pero esta inteligencia artificial ahora puede actuar dentro del computador Hasta ahora, muchas personas usaban ChatGPT como si fuera una enciclopedia conversacional. Se le preguntaba algo, respondía, y el usuario copiaba la información para usarla en otro programa. Con GPT-5.4 ese modelo empieza a cambiar. La inteligencia artificial ya no se limita a responder preguntas. También puede ejecutar tareas dentro de las herramientas que usamos para trabajar.Por ejemplo, una persona puede pedirle que revise una hoja de cálculo con datos financieros. El sistema puede interpretar las tablas, detectar patrones y proponer fórmulas o gráficos para analizar la información.Después puede escribir un informe explicando los resultados. Y luego preparar una presentación para exponer ese análisis. Todo eso dentro del mismo flujo de trabajo.La idea de OpenAI es que ChatGPT deje de ser un simple asistente de conversación y pase a convertirse en una especie de compañero digital que ayuda a completar proyectos completos. Ese cambio tiene un efecto inmediato: aumenta la preocupación sobre el impacto de la inteligencia artificial en el trabajo profesional. Durante muchos años se pensó que la automatización iba a reemplazar tareas físicas repetitivas. Robots en fábricas, máquinas en líneas de producción.Ahora la automatización empieza a entrar en los trabajos que dependen del análisis, la escritura o el manejo de información. En pruebas internas realizadas por OpenAI, el nuevo modelo logró resolver tareas que normalmente realizan profesionales en áreas como finanzas, programación, investigación o redacción.La discusión entonces cambia de tono. Algunas personas ven estas herramientas como una especie de “supercalculadora intelectual” que permite a los profesionales trabajar más rápido. Otras personas temen que estas capacidades terminen reduciendo la necesidad de ciertos puestos de trabajo, sobre todo en tareas que siguen reglas claras o procesos repetibles. La realidad probablemente estará en un punto intermedio.Como ocurrió con muchas tecnologías anteriores, es posible que estas herramientas transformen los trabajos antes de reemplazarlos completamente. GPT-5.4 también introduce una función que cambia bastante la relación entre humanos y software.Este modelo puede interactuar con un computador de manera directa. Puede interpretar capturas de pantalla, mover el cursor, escribir comandos y navegar entre aplicaciones. Es decir, puede operar programas de una forma parecida a como lo haría una persona frente al teclado. Ese tipo de funciones abre la puerta a lo que muchos investigadores llaman “agentes de inteligencia artificial”. Sistemas que pueden completar procesos completos paso a paso. Por ejemplo, buscar información, organizarla en una hoja de cálculo, escribir un informe y preparar una presentación. Todo dentro de un mismo proceso automatizado.OpenAI también está cambiando la forma en que organiza sus modelos. Algunas versiones están diseñadas para responder rápido en conversaciones cotidianas. Otras versiones están pensadas para analizar problemas complejos con más calma y profundidad. Así, ChatGPT empieza a funcionar como una herramienta con distintos modos de trabajo, dependiendo de lo que necesite el usuario. Otra mejora importante tiene que ver con la memoria del sistema durante una conversación larga.Los modelos anteriores podían perder el hilo cuando el diálogo se volvía muy extenso o cuando la tarea tenía muchos pasos.GPT-5.4 mantiene mejor el contexto de la conversación. Eso permite trabajar con instrucciones largas o proyectos que requieren varias etapas de análisis. También mejora la forma en que el sistema usa herramientas externas. En lugar de intentar hacerlo todo dentro del mismo texto, puede consultar programas o servicios especializados cuando los necesita.En términos simples, la inteligencia artificial empieza a parecerse menos a un generador de texto y más a un coordinador de herramientas digitales. OpenAI también está apostando por un mercado muy específico: el trabajo profesional.Muchas de las nuevas funciones están diseñadas para analistas financieros, programadores, investigadores o equipos que trabajan con grandes cantidades de datos.Esto refleja un cambio estratégico en toda la industria de la inteligencia artificial. Las empresas ya no compiten solamente por crear el chatbot más entretenido. Ahora compiten por construir el asistente de trabajo más útil. )GPT-5.4 muestra hacia dónde se dirige la inteligencia artificial: herramientas que colaboran directamente en el trabajo diario. ChatGPT ahora puede operar programas, analizar datos y preparar documentos dentro del mismo flujo laboral. El debate apenas comienza. ¿Será un aliado del trabajo humano o su sustituto en algunas tareas?Cuéntamelo y sigue el pódcast Flash Diario. ChatGPT ahora puede trabajar dentro de Excel y programas de oficina. GPT-5.4 acerca la inteligencia artificial al trabajo diario.— Bibliografía AxiosThe VergeZDNetEngadget VentureBeat TechRadar Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

    19 min
  7. MacBook Neo barato

    5 MAR

    MacBook Neo barato

    MacBook Neo cuesta 599 dólares y usa chip A18 Pro en apuesta educativa masiva Por Félix Riaño @LocutorCo Apple presentó el MacBook Neo como su portátil más económico. Parte desde 599 dólares y 499 dólares para estudiantes. Usa el chip A18 Pro del iPhone y promete hasta 16 horas de batería. Llega con 8 GB de memoria y 256 GB de almacenamiento. La pregunta es: ¿es una ganga real o un anzuelo para entrar al ecosistema? Apple decidió entrar de frente al terreno de los portátiles de 599 dólares. Lo hizo con el nuevo MacBook Neo. Es un equipo de 13 pulgadas, con pantalla Liquid Retina de 2.408 por 1.506 píxeles y brillo de 500 nits. Pesa 1,2 kilogramos y mide 1,27 centímetros de grosor. Tiene dos puertos USB-C, con una diferencia incómoda: uno es USB 3 de hasta 10 gigabits por segundo y el otro es USB 2 de 480 megabits por segundo. El procesador es el A18 Pro, el mismo que usa el iPhone 16 Pro. Viene con 8 GB de memoria unificada y 256 GB de almacenamiento en su versión base. La batería promete hasta 16 horas de reproducción de video y 11 horas de navegación web. El precio oficial es 599 dólares, y con descuento educativo baja a 499 dólares.Apple afirma que es hasta 50 por ciento más rápido en tareas cotidianas que el portátil más vendido con Intel Core Ultra 5, según pruebas con el benchmark Speedometer. Pero aquí viene la pregunta: ¿estamos ante un nuevo estándar de valor o ante un Mac recortado con buen marketing? Un Mac accesible… con recortes Apple no solía competir en esta franja. El MacBook Air más reciente con chip M5 parte desde 1.099 dólares. El salto hasta 599 dólares es grande. La diferencia son 500 dólares. Eso cambia el público. Ahora hablamos de estudiantes, familias y personas que antes miraban un Chromebook o un portátil con Windows. El MacBook Neo mantiene el chasis de aluminio. Se siente como un Mac. Viene en colores como Citrus, Blush, Indigo y plata. Esa decisión recuerda al iBook G3 de principios de los años 2000. Apple está enviando un mensaje: este es el Mac juvenil.La pantalla conserva buena resolución y brillo. Tiene cámara de 1080p. Tiene altavoces con Dolby Atmos. Pero empiezan los ajustes: el teclado no tiene retroiluminación. El trackpad es mecánico, no háptico. Solo admite un monitor externo en 4K a 60 hercios. No tiene puerto MagSafe. Y el Touch ID solo aparece en el modelo de 512 GB que cuesta 699 dólares. Apple no está escondiendo que hubo concesiones. Está diciendo que el precio lo justifica. ¿Te parece suficiente? Aquí está el punto delicado. El MacBook Neo usa un chip de iPhone, no un chip de la serie M. Eso rompe la lógica que Apple venía construyendo desde 2020, cuando migró todos sus Mac a Apple Silicon con arquitectura pensada para computadores. El A18 Pro tiene seis núcleos de CPU. Dos de alto rendimiento y cuatro de eficiencia. Tiene cinco núcleos de GPU y soporte para trazado de rayos. En tareas ligeras como navegar, escribir y ver video, va a rendir bien. Pero en edición de video 4K, en modelado 3D o en grandes proyectos de programación, puede quedarse corto frente a un MacBook Air con chip M.Además, los 8 GB de memoria son el límite. No hay opción de 16 GB. En 2026, muchos usuarios ya consideran 8 GB como el mínimo justo. Si abres muchas pestañas, videollamadas y apps al mismo tiempo, vas a notar presión en el sistema. Otro detalle: solo uno de los puertos USB-C es USB 3. El otro es USB 2. Eso significa que puedes conectar un monitor o tener transferencia rápida, pero no todo a la vez con la misma velocidad. Para un equipo pensado para estudiantes, puede ser suficiente. Para alguien que quiere crecer con el equipo, puede sentirse limitado.Entonces surge la duda real: ¿es una puerta de entrada inteligente o una forma de segmentar más el mercado para empujar después al usuario hacia modelos más caros? Apple no improvisó este movimiento. El mercado de portátiles económicos estaba dominado por Chromebook y por equipos Windows de menos de 700 dólares. Muchos de ellos ofrecen buena batería y rendimiento aceptable. Lo que Apple aporta aquí es construcción premium, integración con iPhone y acceso completo a macOS Tahoe.El MacBook Neo permite copiar y pegar entre iPhone y Mac. Permite usar apps del ecosistema. Está preparado para Apple Intelligence. Eso significa que Apple quiere que el usuario joven entre al ecosistema temprano y luego, cuando necesite más potencia, suba a un Air o a un Pro. Desde el punto de vista estratégico, tiene lógica. Desde el punto de vista técnico, hay límites claros. Si eres estudiante que escribe, navega y hace trabajos en la nube, este equipo puede ser suficiente durante varios años. Si eres creador de contenido, diseñador o desarrollador exigente, probablemente vas a necesitar un modelo con chip M y más memoria. El precio de 599 dólares lo convierte en el Mac más accesible de la historia en lanzamiento oficial. Eso cambia la conversación. Pero también redefine qué entendemos por “Mac completo”.La decisión final no es emocional. Es práctica. ¿Qué vas a hacer con él todos los días? El lanzamiento ocurrió junto a otros anuncios como el iPhone 17e y los nuevos MacBook Pro con chip M5 Pro y M5 Max. El contraste es fuerte. Mientras el Neo baja a 599 dólares, el MacBook Pro de 16 pulgadas puede superar los 7.000 dólares en configuraciones altas.El Neo pesa 1,2 kilogramos. Es el mismo peso que el MacBook Air. Su batería es de 36,5 vatios hora. Apple afirma hasta 16 horas de video. Esa cifra suele medirse en condiciones controladas, con brillo moderado y aplicaciones optimizadas. En uso real puede variar. En Reino Unido y la Unión Europea, el cargador no viene incluido en la caja. Solo el cable USB-C. En Estados Unidos sí incluye adaptador de 20 vatios. Ese detalle reduce costos logísticos y ambientales, pero también puede generar molestias. El descuento educativo baja el precio a 499 dólares. Eso lo pone en territorio de iPad Air. Apple está compitiendo contra su propio catálogo. Si alguien duda entre un iPad con teclado y un MacBook Neo, ahora la diferencia es menor. Y algo más: solo soporta un monitor externo. Para quien usa dos pantallas, esto es un límite concreto. No es un detalle menor.Todo esto configura un producto atractivo, pero muy medido. Apple calculó cada concesión. El MacBook Neo abre la puerta de entrada al ecosistema Mac desde 599 dólares. Ofrece buen diseño y rendimiento suficiente para tareas básicas. Tiene límites claros en memoria y puertos. Antes de comprar, revisa qué uso real le vas a dar.Cuéntame qué opinas y sígueme en Flash Diario. Resumen para TikTok (20 palabras)MacBook Neo cuesta 599 dólares, usa chip de iPhone y apunta a estudiantes. Buen precio, pero con límites claros.BibliografíaWallpaperWiredThe TelegraphTechRadarMacRumorsPCMagMacworldCreative Bloq Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

    23 min
  8. ¿Hay gente en Kenia viendo lo que capturan las Ray-Ban Meta?

    4 MAR

    ¿Hay gente en Kenia viendo lo que capturan las Ray-Ban Meta?

    Gafas Meta bajo lupaInvestigación revela que gafas Meta envían videos íntimos a revisores humanos para entrenar inteligencia artificial Por Félix Riaño @LocutorCo Un reportaje de medios suecos destapa cómo videos capturados con gafas inteligentes Meta Ray-Ban pueden terminar en manos de anotadores de datos en Kenia. El material incluye escenas privadas y datos financieros que usuarios no sabían que se estaban compartiendo. Las ves en anuncios. Las ves en redes sociales. Un deportista famoso se las pone y les pregunta quién es el mejor jugador de hockey de Suecia.Parecen gafas normales. Pero no lo son.Son las gafas inteligentes de Meta, creadas junto a Ray-Ban. Prometen ayudarte a traducir idiomas, identificar objetos y responder preguntas con solo decir: “Hey Meta”.La promesa es clara: tú tienes el control.Pero una investigación de los diarios suecos Svenska Dagbladet y Göteborgs-Posten cuenta otra historia. Según su trabajo, parte del video que capturan estas gafas termina siendo visto por personas reales que trabajan entrenando inteligencia artificial.Y algunas de esas imágenes muestran momentos muy privados.La pregunta es sencilla y directa: cuando hablas con la IA de tus gafas… ¿quién más podría estar viendo? Pero la inteligencia artificial necesita ojos humanos. En septiembre de 2025, en Menlo Park, California, el director de Meta presenta las nuevas gafas como el futuro de la empresa. En pantallas gigantes se ve el mundo desde sus ojos mientras camina hacia el escenario. Las gafas prometen traducción en tiempo real, reconocimiento de objetos y hasta ayuda para el trabajo diario.En 2025 se vendieron cerca de siete millones de unidades, después de que en 2023 y 2024 se vendieran juntas unos dos millones. El crecimiento fue rápido.Para que la inteligencia artificial entienda lo que ve la cámara, necesita entrenamiento. Ahí entran los llamados “anotadores de datos”. En Nairobi, Kenia, empleados de la empresa Sama revisan imágenes y videos. Dibujan cuadros sobre objetos, etiquetan personas, clasifican escenas. Es un trabajo repetitivo. Pero es la base de muchos sistemas de visión artificial.El problema es que, según la investigación sueca, no todo lo que llega a sus pantallas son flores y señales de tránsito. Varios trabajadores contaron que han visto escenas íntimas capturadas por las gafas. Personas en el baño. Personas cambiándose de ropa. Tarjetas bancarias visibles al pagar en una tienda.Algunos empleados dijeron que muchas veces creen que quienes aparecen en los videos no saben que están grabando.Uno de ellos afirmó: “Vemos todo. Desde salas de estar hasta cuerpos desnudos”. Meta explica en sus términos de uso que algunas interacciones con sus sistemas de IA pueden revisarse de forma automática o manual. Es decir, por personas.Cuando periodistas probaron las gafas en Suecia e intentaron usarlas sin conexión a internet, la función de inteligencia artificial no funcionó. Al analizar el tráfico de red, detectaron comunicación frecuente con servidores de Meta en Suecia y Dinamarca. Eso contradice lo que algunos vendedores dijeron en tiendas, donde afirmaban que todo se quedaba en el teléfono.En Europa rige el Reglamento General de Protección de Datos, conocido como GDPR. Esta norma exige transparencia sobre cómo se procesan los datos personales y dónde se almacenan. Expertos consultados por los periodistas señalaron que muchos usuarios no son plenamente conscientes de que el video puede enviarse a servidores externos y revisarse por humanos.Además, antiguos empleados de Meta indicaron que los sistemas que difuminan rostros pueden fallar, sobre todo con poca luz.Eso abre un riesgo evidente: imágenes que deberían estar protegidas podrían no estarlo. Meta respondió que el contenido se maneja según sus políticas de privacidad y términos de uso. También afirmó que filtra datos para proteger la privacidad antes de cualquier revisión. Pero no ofreció detalles específicos sobre cuánto tiempo se guardan los videos ni exactamente quién puede acceder a ellos.Las autoridades europeas han sido informadas del caso. Legisladores han pedido aclaraciones sobre la transferencia de datos fuera de la Unión Europea, especialmente hacia países que aún no cuentan con reconocimiento formal de protección equivalente. Mientras tanto, el debate no es solo legal. Es social.En universidades de Estados Unidos ya hay preocupación por el uso de estas gafas en campus. Algunos estudiantes dicen sentirse incómodos al no saber si alguien los está grabando. En una escuela de Texas se prohibió el uso de tecnología vestible en 2025 por temor a trampas académicas y grabaciones no autorizadas.La tecnología avanza rápido. Las normas sociales van más despacio.Y la confianza se construye con transparencia. Este caso también muestra algo que a veces olvidamos: la inteligencia artificial no se entrena sola. Detrás de cada sistema hay miles de personas etiquetando datos. En muchos casos, en países con salarios bajos. Sama ya había estado en el centro de polémicas anteriores relacionadas con moderación de contenido para grandes plataformas tecnológicas. Ahora su labor se centra en visión artificial. El trabajo es estricto. Según los testimonios, los empleados no pueden entrar con teléfonos ni grabar nada en la oficina. Firmaron acuerdos de confidencialidad.Al mismo tiempo, la propia política de Meta indica que no se deben compartir datos sensibles con la IA. La responsabilidad recae en el usuario. Eso plantea una situación compleja.Si alguien activa la IA sin saber que la cámara sigue captando imágenes durante algunos segundos más, ese material puede entrar en el sistema de entrenamiento.Y una vez que los datos se usan para entrenar modelos, recuperarlos o eliminarlos no es sencillo. La discusión ya no es solo técnica. Es ética.¿Qué significa consentimiento cuando hablamos de cámaras que parecen gafas normales?¿Cómo se informa de forma sencilla a millones de usuarios sobre procesos técnicos complejos?Y una más: ¿estamos leyendo realmente lo que aceptamos cuando pulsamos “aceptar”? Las gafas inteligentes ofrecen funciones útiles y sorprendentes. Pero esta investigación recuerda que cada avance trae responsabilidades.La privacidad no es un detalle pequeño. Es parte de tu vida diaria.Antes de activar cualquier asistente con cámara, conviene preguntarse qué datos salen de tu dispositivo y a dónde viajan.Te leo en comentarios y te invito a seguir el pódcast Flash Diario para entender juntos cómo la tecnología afecta nuestra vida. Investigación revela que gafas Meta envían videos privados a trabajadores en Kenia para entrenar inteligencia artificial. Bibliografía Svenska DagbladetGöteborgs-PostenGizmodoEngadget9to5MacNewsweekForbesThe DecoderDigWatch Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

    16 min

Programas con beneficios por suscripción

PREMIUM @LOCUTORCO

Episodios exclusivos y sin anuncios

$ 29.900/mes o $ 99.900/año después de la prueba

Calificaciones y reseñas

5
de 5
9 calificaciones

Acerca de

Noticias de ciencia y tecnología en Flash Diario, de El Siglo 21 es Hoy. Este es el pódcast informativo que te mantiene al día con las noticias más relevantes del mundo tecnológico y científico. ¡En 5 minutos! Noticias de tecnología, noticias de ciencia, noticias de entretenimiento digital. Y también noticias de economía digital. Es un producto informativo de ElSiglo21esHoy.com Cada episodio de Flash Diario te ofrece una dosis diaria de noticias de actualidad en formato breve y conciso, presentando las noticias más importantes en diferentes ámbitos como la tecnología, la ciencia, la cultura y la sociedad. Con Flash Diario no tienes que preocuparte por perderte ninguna novedad o avance importante en tu día a día. En 5 minutos (promedio) te ofrecemos la información más relevante de manera clara y precisa, para que puedas estar al tanto de lo que sucede en el mundo sin perder tiempo ni detalles. Flash Diario es el compañero perfecto para las personas que quieren estar al tanto de las últimas noticias pero no tienen tiempo para seguir programas más largos y detallados. Con Flash Diario estarás siempre actualizado, informado y preparado para cualquier conversación o situación que se presente. ¡Suscríbete ahora y no te pierdas ni un solo flash informativo! Suscríbete gratis en: ➜ YouTube: https://bit.ly/FlashDiario ➜ Spotify: https://spoti.fi/3MRBhwH ➜ Apple Podcasts: https://apple.co/3BR7AWe Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

Más de @LocutorCo

También te podría interesar