PREMIUM @LOCUTORCO

Episodios exclusivos y sin anuncios

$4.99/mo or $24.99/yr after trial

FLASH DIARIO de El Siglo 21 es Hoy

Noticias de ciencia y tecnología en Flash Diario, de El Siglo 21 es Hoy. Este es el pódcast informativo que te mantiene al día con las noticias más relevantes del mundo tecnológico y científico. ¡En 5 minutos! Noticias de tecnología, noticias de ciencia, noticias de entretenimiento digital. Y también noticias de economía digital. Es un producto informativo de ElSiglo21esHoy.com Cada episodio de Flash Diario te ofrece una dosis diaria de noticias de actualidad en formato breve y conciso, presentando las noticias más importantes en diferentes ámbitos como la tecnología, la ciencia, la cultura y la sociedad. Con Flash Diario no tienes que preocuparte por perderte ninguna novedad o avance importante en tu día a día. En 5 minutos (promedio) te ofrecemos la información más relevante de manera clara y precisa, para que puedas estar al tanto de lo que sucede en el mundo sin perder tiempo ni detalles. Flash Diario es el compañero perfecto para las personas que quieren estar al tanto de las últimas noticias pero no tienen tiempo para seguir programas más largos y detallados. Con Flash Diario estarás siempre actualizado, informado y preparado para cualquier conversación o situación que se presente. ¡Suscríbete ahora y no te pierdas ni un solo flash informativo! Suscríbete gratis en: ➜ YouTube: https://bit.ly/FlashDiario ➜ Spotify: https://spoti.fi/3MRBhwH ➜ Apple Podcasts: https://apple.co/3BR7AWe Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

  1. Latam-GPT regional

    11H AGO

    Latam-GPT regional

    Latam-GPT regionalLatam-GPT, el modelo abierto chileno, busca reducir sesgos y fortalecer soberanía tecnológica latinoamericana Por Félix Riaño @LocutorCo Chile presentó Latam-GPT, un modelo de inteligencia artificial abierto entrenado con datos de América Latina y el Caribe para mejorar la representación cultural y lingüística en sistemas de IA Chile acaba de dar un paso que puede cambiar la conversación sobre inteligencia artificial en nuestra región. El 10 de febrero, en Santiago, se presentó Latam-GPT, un modelo de lenguaje abierto creado desde América Latina y pensado para América Latina. El proyecto fue coordinado por el Centro Nacional de Inteligencia Artificial de Chile y reunió a más de 60 instituciones y cerca de 200 especialistas de al menos 15 países. La idea es sencilla de entender: muchos sistemas de inteligencia artificial que usamos a diario fueron entrenados sobre todo con información en inglés y con referencias culturales del norte global. Eso deja por fuera parte de nuestra historia, nuestras palabras y nuestras formas de hablar. ¿Puede una región participar en la revolución de la IA si su propia voz casi no aparece en los datos?La región quiere su propia voz digital Latam-GPT fue desarrollado sobre la arquitectura abierta Llama 3.1, creada por Meta. Tiene 70.000 millones de parámetros. Cuando hablamos de parámetros, nos referimos a los valores internos que el modelo ajusta para aprender patrones del lenguaje. Entre más parámetros, mayor capacidad para captar relaciones complejas entre palabras y contextos. Para entrenarlo, el equipo reunió más de 300.000 millones de fragmentos de texto, lo que equivale a unos 230.000 millones de palabras. También se habla de más de ocho terabytes de información. Ocho terabytes son ocho millones de megabytes, un volumen comparable al contenido de millones de libros digitales. Todo ese material fue recopilado con permisos y licencias, según el Centro Nacional de Inteligencia Artificial. El modelo fue entrenado principalmente en español y portugués, los idiomas mayoritarios de la región. Además, el plan es incorporar lenguas indígenas como el mapudungun y el rapa nui. En su primera fase se entrenó en la nube de Amazon Web Services, y en 2026 se va a utilizar un supercomputador en la Universidad de Tarapacá, en el norte de Chile, con una inversión cercana a cinco millones de dólares. El contexto es claro. Estudios citados por los impulsores del proyecto indican que el español representa alrededor del 4 % de los datos usados para entrenar grandes modelos de lenguaje. El portugués apenas ronda el 2 %. Eso significa que más del 90 % del material proviene de otros idiomas y otras realidades culturales. Cuando un modelo aprende sobre todo con datos de Estados Unidos o Europa, puede responder mejor a preguntas sobre el sitio de Calais en 1346 que sobre el sitio de Chillán en la independencia chilena. Puede generar imágenes estereotipadas cuando se le pide representar a una persona latinoamericana. Ese sesgo no siempre es malintencionado, pero sí refleja un desequilibrio en los datos. Al mismo tiempo, el mercado global de la inteligencia artificial está dominado por grandes empresas de Estados Unidos y China, con presupuestos de cientos de millones o miles de millones de dólares. Latam-GPT fue desarrollado con un presupuesto cercano a 550.000 dólares, según varias fuentes. Algunos académicos advierten que, con esa diferencia de recursos, competir de tú a tú con modelos comerciales será muy difícil. Entonces surge otra pregunta: ¿el objetivo es competir o construir infraestructura pública regional? Los responsables del proyecto insisten en que Latam-GPT no nace como un chatbot para el público general. No es una copia directa de servicios como ChatGPT o Gemini. Es una base tecnológica abierta que gobiernos, universidades y empresas pueden adaptar a sus propias necesidades. Al estar disponible en plataformas como Hugging Face y GitHub, cualquier desarrollador puede descargar el modelo, ajustarlo y crear aplicaciones locales. Por ejemplo, la empresa chilena Digevo ya anunció que va a usarlo para desarrollar sistemas de atención al cliente para aerolíneas y comercios, capaces de entender modismos, velocidad de habla y expresiones regionales. El presidente chileno, Gabriel Boric, afirmó durante el lanzamiento que la región quiere sentarse a la mesa de la economía digital del futuro. La apuesta es construir soberanía tecnológica. Eso implica tener capacidad de decisión sobre los datos, las reglas y los usos de la inteligencia artificial en servicios públicos, salud, educación y justicia.Latam-GPT se suma a otras iniciativas regionales como SEA-LION en el sudeste asiático y UlizaLlama en África. Todas comparten una idea: adaptar la inteligencia artificial a contextos culturales específicos y reducir la dependencia de modelos extranjeros. El proyecto fue coordinado por el Centro Nacional de Inteligencia Artificial de Chile, con apoyo del Ministerio de Ciencia de ese país, el Banco de Desarrollo de América Latina y el Caribe, conocido como CAF, y otras organizaciones académicas y sociales de países como Colombia, Brasil, México, Perú, Uruguay y Argentina.Aunque el presupuesto inicial fue modesto en comparación con los gigantes tecnológicos, el plan contempla nuevas inversiones en infraestructura. El supercomputador que se instalará en la Universidad de Tarapacá permitirá entrenar versiones futuras con mayor capacidad y posiblemente añadir funciones multimodales, es decir, que el modelo pueda trabajar también con imágenes, audio o video. Otro punto clave es la gobernanza. Al tratarse de un modelo abierto, será necesario establecer reglas de uso, evaluaciones de sesgo, documentación sobre los datos empleados y mecanismos de actualización. La apertura facilita auditorías y adaptaciones locales, pero también exige responsabilidad en su implementación.Desde el punto de vista económico, un modelo regional puede reducir costos para startups y entidades públicas que no pueden pagar licencias elevadas de servicios internacionales. También puede impulsar la investigación en universidades latinoamericanas y formar talento especializado en inteligencia artificial. La gran incógnita es la sostenibilidad a largo plazo. Los modelos de lenguaje requieren actualizaciones constantes, nuevos datos y capacidad de cómputo. Si la coalición de más de 60 instituciones se mantiene activa, Latam-GPT puede convertirse en una plataforma estable. Si pierde financiación, el impulso inicial podría diluirse.En resumen, Latam-GPT es un modelo de inteligencia artificial abierto creado en Chile con apoyo regional para mejorar la representación cultural y lingüística de América Latina. Busca reducir sesgos y fortalecer soberanía tecnológica. Ahora la pregunta es cómo se va a usar y si logrará consolidarse como infraestructura pública regional. Te invito a seguir el pódcast en Spotify y a compartir este episodio de Flash Diario. Tu apoyo ayuda a que más personas entiendan la tecnología que está transformando nuestro mundo. BibliografíaAI BusinessEuronewsUPIIntelliNewsFrance InfoThe Tico Times Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

    12 min
  2. Anillo de fuego solar

    1D AGO

    Anillo de fuego solar

    Anillo de fuego solarAnillo de fuego solar del 17 de febrero de 2026 visible en la Antártida Por Félix Riaño @LocutorCo El primer eclipse solar de 2026 será anular, con un “anillo de fuego” visible desde la Antártida y parcialmente desde Sudamérica y África. Este 17 de febrero de 2026 el cielo va a ofrecer uno de esos espectáculos que parecen de ciencia ficción. La Luna va a pasar justo delante del Sol y va a dejar un aro brillante alrededor. A eso se le llama eclipse solar anular, o como muchos lo conocen, “anillo de fuego”.Pero hay un detalle importante: apenas alrededor del 2 % de la población mundial va a poder verlo en persona. El lugar privilegiado será una franja muy estrecha de la Antártida. En el sur de Argentina, Chile y partes del sur de África se va a observar como eclipse parcial.¿Por qué esta vez casi nadie habla del eclipse? ¿Qué lo hace diferente del eclipse total que vimos en 2024 en América? Vamos a entenderlo paso a paso. Pocas personas podrán verlo directamente Un eclipse solar ocurre cuando la Luna se interpone entre la Tierra y el Sol. Eso sucede en fase de Luna nueva. Pero no siempre vemos un eclipse. La razón es geométrica. La órbita de la Luna está inclinada. Muchas veces pasa un poco por encima o por debajo del Sol desde nuestra perspectiva.En este caso, el alineamiento será casi perfecto. La Luna cubrirá hasta el 96 % del disco solar en la zona central del fenómeno. El problema es que la Luna estará un poco más lejos de la Tierra en su órbita elíptica. Al estar más lejos, se verá ligeramente más pequeña. Por eso no tapará el Sol por completo.El resultado será un círculo oscuro con un borde brillante alrededor. Ese borde es el Sol que sigue asomando. El fenómeno completo comenzará a las 09:56 en Tiempo Universal Coordinado y terminará a las 14:27. En el punto máximo, el anillo podrá durar hasta 2 minutos y 20 segundos. La sombra recorrerá un corredor de unos 4.282 kilómetros de largo y 616 kilómetros de ancho sobre el hielo antártico. Aquí viene el punto curioso. Este eclipse no generará grandes concentraciones de turistas. La franja de anularidad cruza una región de la Antártida donde casi no vive nadie. Se estima que apenas algunas decenas de científicos en bases como Concordia o Mirny podrán observar el anillo completo si el clima lo permite.Eso explica por qué el evento pasa casi desapercibido en muchos países. En el sur de Argentina y Chile el Sol aparecerá “mordido”, pero no se verá el anillo completo. En zonas del sur de África también será parcial. Para millones de personas en el hemisferio norte, simplemente no será visible.Otro punto clave es la seguridad. En un eclipse total, durante unos instantes se puede mirar sin gafas especiales cuando el Sol queda completamente cubierto. Aquí eso nunca ocurrirá. Siempre habrá luz solar directa. Mirar sin protección puede causar daño permanente en la retina. Gafas de sol normales no sirven. Se necesitan gafas certificadas para observación solar o métodos indirectos como un proyector estenopeico hecho con cartón. Aunque este eclipse sea remoto, forma parte de un ciclo más amplio. Los eclipses suelen venir en temporadas. Cuando ocurre uno solar, alrededor de dos semanas antes o después suele haber uno lunar. Y eso es lo que va a pasar ahora.El 3 de marzo de 2026 habrá un eclipse lunar total visible desde América, Asia, Australia y el Pacífico. En ese caso, la Tierra se interpondrá entre el Sol y la Luna. La Luna se teñirá de rojo. Ese fenómeno sí será visible para millones de personas y no requerirá gafas especiales.Además, el calendario astronómico de 2026 viene cargado. El 12 de agosto de 2026 habrá un eclipse solar total visible desde Groenlandia, Islandia y el norte de España. En 2027 habrá otro eclipse anular visible desde el sur de Chile y Argentina, con una duración mucho mayor.Así que, aunque este “anillo de fuego” sea exclusivo de la Antártida, el espectáculo de los eclipses seguirá ofreciendo oportunidades más accesibles muy pronto. Un dato fascinante es la coincidencia de tamaños aparentes entre el Sol y la Luna. El Sol es unas 400 veces más grande que la Luna. Pero también está aproximadamente 400 veces más lejos. Esa proporción hace que, vistos desde la Tierra, ambos parezcan casi del mismo tamaño.Cuando la Luna está en su punto más cercano a la Tierra, puede cubrir el Sol por completo y producir un eclipse total. Cuando está más lejos, como ahora, deja ese aro brillante.Se calcula que alrededor de 176 millones de personas podrán ver al menos una fase parcial de este eclipse. Aun así, eso representa una pequeña fracción del planeta.Y un detalle interesante: en regiones como el noroeste de Estados Unidos no se verá ningún eclipse solar hasta el año 2045. En otras palabras, la geografía decide quién puede vivir estos momentos. Todo depende de estar exactamente en el lugar correcto cuando la sombra pasa. Es pura mecánica celeste.Resumen y recomendación El 17 de febrero de 2026 veremos un eclipse solar anular con un “anillo de fuego” visible desde la Antártida. Será breve, remoto y científicamente fascinante. Si no puedes verlo, prepárate para el eclipse lunar del 3 de marzo.Cuéntame si alguna vez has visto un eclipse y qué sentiste.  Bibliografía CNNSky at Night MagazineSpace.comLive Science Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

    10 min
  3. Estación Espacial Internacional a plena tripulación

    2D AGO

    Estación Espacial Internacional a plena tripulación

    Cuatro astronautas ya están en la Estación Espacial Internacional tras la primera evacuación médica en 65 años. La misión Crew-12 marca un momento delicado y simbólico para la exploración humana. Por Félix Riaño @LocutorCo Tripulación Crew-12 llega a la Estación Espacial tras evacuación médica histórica de la NASA La Estación Espacial Internacional vuelve a estar completa. Este sábado 14 de febrero, cuatro nuevos astronautas llegaron al laboratorio orbital que gira a unos 400 kilómetros sobre la Tierra. Viajaron a bordo de una cápsula Dragon impulsada por un cohete Falcon 9 de SpaceX. Su llegada ocurre después de un hecho poco común: en enero, la NASA tuvo que evacuar a un astronauta por un problema de salud. Fue la primera vez en 65 años de vuelos espaciales humanos que una misión se acortó por razones médicas. Durante un mes, la estación funcionó con solo tres tripulantes. ¿Qué pasó allá arriba y qué va a cambiar ahora con esta nueva misión?Pero hay un detalle que inquieta. La misión se llama Crew-12. Está formada por Jessica Meir y Jack Hathaway, de la NASA; Sophie Adenot, de la Agencia Espacial Europea; y Andrei Fedyaev, de la agencia rusa Roscosmos. Despegaron el viernes 13 de febrero desde Cabo Cañaveral, en Florida, y tardaron unas 34 horas en alcanzar la Estación Espacial Internacional.Cuando la cápsula se acopló, a las 20:15 GMT del sábado, Sophie Adenot saludó con un “Bonjour” desde el espacio. Dos horas después, se abrieron las escotillas. Ya eran siete personas flotando dentro de una estructura del tamaño de un campo de fútbol que orbita la Tierra a unos 28.000 kilómetros por hora.Durante el último mes, la estación operó con solo tres astronautas: un estadounidense y dos rusos. La NASA decidió pausar caminatas espaciales y reducir algunos experimentos mientras esperaba refuerzos. Ahora, con siete tripulantes, la actividad científica se va a normalizar. Todo comenzó el 7 de enero. Uno de los astronautas de la misión anterior presentó un problema de salud que la NASA describió como serio. Por privacidad médica, la agencia no reveló su identidad ni la naturaleza del incidente. La decisión fue traer de regreso a los cuatro integrantes de esa misión más de un mes antes de lo previsto.La cápsula amerizó en el Pacífico, cerca de San Diego. Pasaron su primera noche en un hospital antes de volver a Houston. Mientras tanto, la estación quedó con una tripulación reducida. Aunque no hubo emergencias técnicas, sí se limitaron actividades. En un entorno donde cada tarea está programada al minuto, perder cuatro personas altera toda la logística.Y aquí surge la pregunta: si las misiones van a ser más largas, incluso hacia la Luna o Marte, ¿qué va a pasar cuando haya un problema médico y no exista la opción de regresar en pocas horas?La NASA decidió no modificar los chequeos médicos previos al lanzamiento de Crew-12. Tampoco añadió equipos médicos extra. Confía en los protocolos actuales. Pero al mismo tiempo, reconoce que la medicina espacial necesita evolucionar. La nueva tripulación no solo va a retomar experimentos pendientes. También va a probar tecnologías médicas pensadas para viajes más lejanos. Por ejemplo, un sistema de ultrasonido que usa inteligencia artificial y realidad aumentada para guiar al propio astronauta durante el examen, sin depender tanto de expertos en la Tierra.Van a ensayar un filtro que convierte agua potable en líquido apto para uso intravenoso en emergencias. También estudiarán cómo la microgravedad afecta el flujo sanguíneo y la formación de coágulos en las venas del cuello.Jessica Meir, quien ya pasó 205 días en órbita en 2019 y participó en la primera caminata espacial femenina junto a Christina Koch, ahora regresa como comandante. Y hay un detalle interesante: Christina Koch está asignada a la misión Artemis II, que podría despegar hacia la Luna a partir del 3 de marzo si las pruebas del cohete Space Launch System avanzan sin más fugas de hidrógeno.Mientras la estación recibe nuevos tripulantes, en Florida se siguen reemplazando sellos y haciendo pruebas de combustible para el programa lunar. Todo está conectado: lo que ocurre hoy en órbita baja va a influir en cómo la humanidad regrese a la Luna y, más adelante, intente llegar a Marte. La Estación Espacial Internacional lleva más de 25 años habitada de forma continua. Es uno de los proyectos de ingeniería más costosos jamás construidos, con una inversión estimada entre 150.000 y 160.000 millones de dólares a lo largo de su vida útil.Está previsto que en 2030 la estación sea desorbitada de forma controlada y caiga en una zona remota del océano Pacífico. Crew-12 será una de las últimas tripulaciones que vivan allí durante varios meses.Sophie Adenot se convierte en la segunda mujer francesa en viajar al espacio, después de Claudie Haigneré en la década de 1990. Para la Agencia Espacial Europea, esta misión llamada εpsilon será la más larga realizada por uno de sus astronautas hasta ahora, con hasta nueve meses en órbita.La cooperación internacional sigue siendo uno de los pilares de la estación. A pesar de tensiones políticas en la Tierra, Estados Unidos, Europa y Rusia continúan trabajando juntos en órbita. Desde las ventanas de la estación no se ven fronteras. Esa frase la repiten muchos astronautas, y vuelve a cobrar sentido en un momento en el que el proyecto se acerca a su final. La Estación Espacial Internacional vuelve a tener siete tripulantes después de una evacuación médica histórica.  Crew-12 va a retomar la ciencia y probar nuevas herramientas médicas para misiones más lejanas. La exploración espacial entra en una etapa de transición. ¿Estamos preparados para cuidar la salud humana lejos de casa? Te leo en comentarios y sigue el pódcast en Flash Diario. 🔗 BibliografíaAP NewsNBC NewsESA The GuardianLe Monde Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

    11 min
  4. ¿Puede un cometa cambiar de sentido?

    5D AGO

    ¿Puede un cometa cambiar de sentido?

    El Cometa 41P frenó, se detuvo y cambió sentido tras acercarse al Sol en 2017 Por Félix Riaño @LocutorCo Un análisis de imágenes del telescopio Hubble reveló que el cometa 41P invirtió su rotación después del perihelio en 2017 En 2017, un cometa de apenas medio kilómetro de diámetro hizo algo que parece imposible. El cometa 41P/Tuttle–Giacobini–Kresák, conocido como 41P, redujo su velocidad de giro de forma drástica cuando se acercó al Sol. Pasó de rotar cada 20 horas a hacerlo cada 53 horas en pocas semanas. Luego desapareció de nuestra vista porque quedó demasiado cerca del Sol desde la perspectiva de la Tierra. Meses después, cuando volvió a ser visible, los datos mostraron algo aún más sorprendente: estaba girando en sentido contrario y completaba una vuelta cada 14,4 horas. ¿Cómo puede un objeto espacial frenar hasta detenerse y luego empezar a girar al revés?¿Y si el cometa se frenó hasta cero? Planteamiento descriptivoPara entender esta historia vamos a empezar por lo básico. Un cometa es una mezcla de roca y hielo que quedó como residuo del nacimiento del Sistema Solar hace unos 4.600 millones de años. Muchos de estos cuerpos viajan en órbitas muy alargadas. El cometa 41P pertenece a la llamada “familia de Júpiter”. Eso significa que su órbita está muy influenciada por la gravedad de Júpiter y que tarda menos de 20 años en dar una vuelta alrededor del Sol. En su caso, tarda unos 5,4 años.En abril de 2017, 41P llegó a su perihelio, que es el punto de la órbita más cercano al Sol. Allí recibió más calor. El hielo comenzó a transformarse en gas, un proceso llamado sublimación. Ese gas salió disparado al espacio y formó una nube llamada coma. También aparecieron chorros, como si fueran pequeñas mangueras naturales que empujan el cometa. Aquí aparece el detalle que lo cambia todo. Cuando esos chorros de gas salen de forma desigual, actúan como pequeños motores. Si el gas sale más fuerte de un lado que de otro, el cometa recibe un empujón que altera su rotación. Es parecido a lo que ocurre cuando soplas una rueda con aire de un solo lado.Observaciones del telescopio espacial Swift de la NASA mostraron que entre marzo y mayo de 2017 el periodo de rotación pasó de 20 horas a 46 y luego hasta 53 horas. Normalmente los cambios en cometas se miden en minutos. Aquí hablamos de decenas de horas. Es un cambio enorme para un objeto tan pequeño, de unos 500 metros de diámetro.Después de mayo, el cometa quedó oculto por el brillo solar. No había datos. Cuando regresó en diciembre, el telescopio espacial Hubble tomó nuevas imágenes. El astrónomo David Jewitt, de la Universidad de California en Los Ángeles, analizó esas fotos años después. Encontró que el periodo era ahora de 14,4 horas. Eso significa que estaba girando más rápido que antes y en sentido contrario. Para que eso ocurra, tuvo que frenar completamente, llegar a cero y empezar a girar al revés. Los cálculos indican que ese punto de detención pudo ocurrir en junio de 2017. Este hallazgo ayuda a responder una pregunta más grande. ¿Por qué hay menos cometas pequeños de los que esperamos encontrar? Una posible explicación es que muchos se destruyen por su propia rotación. Si los chorros los aceleran demasiado, la fuerza centrífuga puede romperlos.El estudio también estimó que el núcleo de 41P mide cerca de 500 metros. Es pequeño en términos astronómicos. Su tamaño lo hace más vulnerable a cambios rápidos. Además, la fracción activa de su superficie, es decir, la parte que libera gas, bajó de aproximadamente 2,4 en 2001 a cerca de 0,14 en 2017. Eso sugiere que su superficie ha cambiado con el tiempo, tal vez formando una capa más dura que bloquea parte del hielo.Aquí hay otro dato inquietante. Aunque su órbita podría mantenerse estable durante unos 10.000 años, el análisis indica que podría romperse por inestabilidad rotacional en unos 25 años si continúa este comportamiento. Eso es muy poco tiempo en términos cósmicos.El cometa volverá a acercarse al Sol en 2028. Los astrónomos estarán atentos. Nuevos telescopios como el Observatorio Vera C. Rubin en Chile van a observar miles de objetos pequeños. Vamos a tener muchos más datos para entender si 41P es un caso raro o si este fenómeno es más común de lo que pensábamos. El cometa 41P fue observado por primera vez en 1858 por Horace Tuttle. Más tarde fue redescubierto por Michel Giacobini en 1907 y por Ľubor Kresák en 1951. Por eso lleva tres apellidos. Su órbita lo lleva desde un punto un poco más cercano al Sol que la órbita de la Tierra hasta más allá de Júpiter.En 1973 tuvo un gran estallido de brillo y alcanzó magnitud 4, lo que significa que pudo verse a simple vista en cielos oscuros. En 2017 volvió a llamar la atención por razones muy distintas.El estudio de David Jewitt fue publicado como prepublicación en arXiv y aceptado en la revista The Astronomical Journal. Otros astrónomos, como Dennis Bodewits y Jane Luu, han señalado que aunque se habían propuesto modelos teóricos donde un cometa podía invertir su rotación, nunca se había observado algo así con datos tan claros.Este caso también nos enseña que los cometas no son rocas inertes. Son cuerpos dinámicos. Cambian, pierden masa, se fracturan y evolucionan cada vez que se acercan al Sol. Son como fósiles activos del origen del Sistema Solar.Resumen final y recomendaciónEl cometa 41P redujo su giro, se detuvo y comenzó a rotar al revés en 2017. Chorros de gas actuaron como motores naturales que cambiaron su velocidad. Podría romperse en pocas décadas. Vamos a seguir atentos a su regreso en 2028. Cuéntame qué te parece esta historia y sigue el pódcast en Spotify: Flash Diario Bibliografía Phys.org The New York Times IFLScience arXiv – David Jewitt (2026) DOI: 10.48550/arxiv.2602.06403 Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

    12 min
  5. WhatsApp Web ya permite llamar

    6D AGO

    WhatsApp Web ya permite llamar

    WhatsApp Web incorpora llamadas cifradas en navegador con pantalla compartida y soporte progresivo para más usuarios Por Félix Riaño @LocutorCo Después de casi diez años desde su lanzamiento en 2015, WhatsApp Web va a empezar a permitir llamadas de voz y video directamente desde el navegador. Hasta ahora, si querías llamar desde un computador, tenías que usar el celular o descargar la aplicación de escritorio para Windows o macOS. La versión en el navegador servía para mensajes y envío de archivos, pero no para hablar en tiempo real. La novedad ya está llegando a personas inscritas en el programa beta de WhatsApp Web. En esta primera fase, las llamadas funcionan uno a uno. No hay llamadas grupales todavía. También se puede compartir la pantalla durante una videollamada. Todo mantiene el cifrado de extremo a extremo basado en el protocolo Signal. ¿Estamos viendo a WhatsApp convertirse en una herramienta de reuniones desde el navegador? Meta acelera, pero aún hay límites. Planteamiento descriptivoWhatsApp Web nació en 2015 como una extensión del celular. Su función principal era reflejar en el navegador lo que ya estaba en el teléfono. Con el paso de los años fue mejorando en velocidad y estabilidad, pero había una ausencia evidente: no se podía llamar.Mientras tanto, las llamadas de voz llegaron a WhatsApp móvil en 2015 y las videollamadas poco después. En 2021, WhatsApp lanzó aplicaciones de escritorio para Windows y macOS que sí permitían llamadas. El navegador quedó rezagado durante casi una década. Ahora, según reportes de WABetaInfo y medios tecnológicos como 9to5Google y GSM Arena, la función de llamadas está empezando a activarse en la versión web beta. Aparecen botones visibles de “voz” y “video” dentro de los chats individuales. No hace falta instalar nada adicional. Basta con tener el navegador actualizado, cámara y micrófono autorizados, y la sesión vinculada al teléfono mediante código QR. Un detalle técnico importante: estas llamadas usan WebRTC, que es un estándar abierto que permite comunicación en tiempo real dentro del navegador. Es la misma base que usan muchas plataformas de reuniones en línea. Que WhatsApp Web incorpore llamadas es una mejora práctica, pero también abre preguntas sobre seguridad y uso responsable. Las llamadas siguen estando cifradas de extremo a extremo mediante el protocolo Signal. Eso significa que solo las personas que participan en la conversación pueden escuchar o ver el contenido. Ni siquiera Meta puede acceder a esas comunicaciones Pero cuando usamos el navegador, entran en juego otros factores. El navegador tiene extensiones instaladas, permisos de cámara y micrófono, notificaciones emergentes. Si el usuario no presta atención a los permisos que concede, puede exponer información privada. Además, compartir pantalla desde el computador implica que la otra persona puede ver documentos, correos o incluso contraseñas si no se tiene cuidado. Al mismo tiempo, WhatsApp enfrenta retos de seguridad social. En paralelo a esta actualización, Meta ha anunciado nuevas pantallas de advertencia cuando alguien es añadido a grupos desconocidos. Medios como la BBC han reportado casos de menores agregados a grupos con adultos desconocidos que intentaban interactuar con ellos. Esto obliga a hablar de educación digital en casa y en colegios.Una herramienta más potente exige mayor conciencia del usuario. Qué va a pasar ahora? En las próximas semanas, la función se va a expandir más allá del programa beta. Primero seguirán siendo llamadas individuales. Luego, según los reportes, llegarán las llamadas grupales con hasta 32 participantes, además de enlaces de llamada y programación de reuniones.Para usuarios de Linux, esta noticia es especialmente útil. No existe una aplicación oficial de escritorio de WhatsApp para Linux. Ahora podrán llamar directamente desde el navegador sin depender del celular. También beneficia a personas que usan computadores corporativos donde no se pueden instalar aplicaciones externas. Si quieres probarlo antes, puedes entrar a WhatsApp Web, ir a Configuración, luego Ayuda y activar la opción de unirte al programa beta. No garantiza acceso inmediato, pero aumenta las probabilidades.Y aquí viene la parte práctica de servicio: revisa ya mismo en tu teléfono la opción “Quién puede añadirme a grupos”. Ve a Ajustes, Privacidad, Grupos, y selecciona “Mis contactos” o “Mis contactos excepto…”. Eso reduce el riesgo de ser añadido a chats desconocidos.La tecnología avanza. La responsabilidad también tiene que avanzar. WhatsApp supera los tres mil millones de usuarios activos mensuales según cifras recientes citadas por medios internacionales. Esa escala convierte cada pequeña actualización en un cambio global.El cifrado que protege estas llamadas está basado en el protocolo Signal, desarrollado originalmente por la organización Signal Foundation. Este sistema cifra los mensajes y llamadas en el dispositivo del emisor y solo se descifran en el dispositivo del receptor.La incorporación de llamadas en navegador también es parte de una tendencia mayor en la industria tecnológica: convertir el navegador en una plataforma completa de aplicaciones. Servicios como Google Meet y otras herramientas de colaboración ya funcionan sobre WebRTC. WhatsApp se suma a esa lógica. Al mismo tiempo, Meta ha anunciado nuevas pantallas de “resumen de seguridad” cuando alguien es agregado a un grupo desconocido. Esa pantalla muestra quién creó el grupo, cuántos miembros tiene y opciones para salir o reportar. La medida responde al aumento de intentos de estafas y fraudes digitales.Si tienes hijos o menores en casa, conviene conversar con ellos sobre no aceptar llamadas ni unirse a grupos de personas que no conocen. También es recomendable activar verificación en dos pasos y usar dispositivos con actualizaciones de seguridad vigentes.Tecnología y educación digital deben ir juntas.Resumen: WhatsApp Web añade llamadas cifradas en navegador. Útiles, pero requieren atención a seguridad y privacidad. Cuéntame qué opinas y sigue el pódcast en Flash Diario. Bibliografía GSM Arena 9to5GoogleWABetaInfo Forbes BBC ghacks Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

    21 min
  6. YouTube Music convierte texto y voz en playlists personalizadas

    FEB 11

    YouTube Music convierte texto y voz en playlists personalizadas

    Playlist con IA 🎧 YouTube Music convierte texto y voz en listas personalizadas Por Félix Riaño @LocutorCo YouTube y YouTube Music ya están desplegando una nueva función que permite crear listas de reproducción con inteligencia artificial. La herramienta está disponible para usuarios Premium en Android y iOS y funciona a partir de descripciones escritas o dictadas por voz. Basta con indicar un estado de ánimo, un género o una actividad para que la aplicación genere una playlist completa en segundos. El movimiento llega en medio de una competencia intensa entre plataformas musicales, donde descubrir canciones rápido se ha vuelto tan relevante como escucharlas. La música fluye mejor cuando alguien más decide el orden Flash Diario también está disponible en YouTube Music, y por eso esta historia conecta directo con cómo usamos esa app todos los días. La nueva función se llama AI Playlist y ya está llegando a usuarios de YouTube Premium y YouTube Music Premium en Android y iPhone.El camino para usarla es corto. Entras a la pestaña Biblioteca, tocas el botón “Nuevo” y eliges “AI Playlist”. Desde ahí puedes escribir o decir en voz alta qué tipo de música quieres escuchar. Puede ser algo amplio, como “indie pop”, o algo más concreto, como “electrónica suave para estudiar de noche”.En pocos segundos aparece una lista completa. No es una radio temporal. Es una playlist que se guarda, se edita, se renombra y se puede escuchar cuando quieras. El sistema trabaja con todo el catálogo de YouTube Music, que incluye canciones oficiales, conciertos, versiones alternativas y remezclas subidas por creadores.La función aparece asociada a Gemini, el sistema de inteligencia artificial de Google, encargado de interpretar palabras relacionadas con ritmo, época, ánimo y contexto. Armar una playlist siempre ha tenido algo de trabajo manual. Buscar canciones, probar combinaciones y ordenar temas para que el flujo tenga sentido. Los algoritmos ayudaron a acelerar ese proceso, pero también acostumbraron a muchas personas a escuchar siempre lo mismo.Con AI Playlist, la selección parte de un texto breve escrito por el usuario, pero el resultado final sigue dependiendo del algoritmo. Si la descripción es general, la lista también lo será. Si el pedido es más detallado, el resultado mejora. Todo depende de cómo se formule la idea.Además, esta función queda limitada a usuarios de pago. Al mismo tiempo, YouTube Music está probando restricciones en funciones gratuitas, como el acceso a letras. La estrategia apunta a que Premium concentre las herramientas más cómodas para descubrir y organizar música. ouTube Music no está sola en este camino. Spotify, Amazon Music y Deezer ya ofrecen funciones parecidas. La diferencia de YouTube Music está en el origen de su catálogo. Al apoyarse en todo el ecosistema de YouTube, la inteligencia artificial puede mezclar lanzamientos oficiales con directos, rarezas, versiones caseras y contenido que no aparece en otras plataformas.El usuario mantiene cierto control. Las canciones se pueden eliminar, la playlist se puede ajustar y esos cambios influyen en futuras recomendaciones. No es una decisión definitiva, es un punto de partida rápido.Google ha informado que sus servicios de suscripción ya superan los trescientos veinticinco millones de usuarios entre Google One y YouTube Premium. La música ocupa un lugar central en ese crecimiento y estas funciones buscan reducir el tiempo entre tener una idea y empezar a escuchar. AI Playlist se suma a otra herramienta importante dentro de YouTube Music: Samples. Samples es un feed vertical de fragmentos cortos de videos musicales que aparece en el menú inferior de la app móvil. Funciona de forma similar a TikTok. Deslizas, das like, compartes y, si algo te gusta, puedes reproducir la canción completa al instante.Samples se lanzó en dos mil veintitrés como una función de descubrimiento musical personalizada y se apoya en el catálogo de videos musicales más grande del mundo. Desde ahí se muestran lanzamientos recientes y canciones antiguas que el sistema considera relevantes para cada persona.En iOS, Samples también aparece dentro de las páginas de artistas, con un botón tipo Shorts que muestra fragmentos solo de ese músico. Es una forma rápida de recorrer varias canciones antes de entrar en su discografía completa.El recorrido queda bien definido: primero descubres canciones con Samples y luego conviertes ese hallazgo en una playlist completa usando AI Playlist, todo sin salir de YouTube Music. YouTube Music combina ahora un feed rápido para descubrir canciones con Samples y una herramienta para crear playlists completas usando inteligencia artificial. Ambas funciones refuerzan el plan Premium y cambian la forma de explorar música. Cuéntanos qué te parece y sigue Flash Diario en Spotify y YouTube Music: 👉 Flash Diario en Spotify Bibliografía TechCrunchThe Verge9to5Google – AI Playlist9to5Google – Samples Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

    15 min
  7. Audífonos con cámaras, ¿por qué?

    FEB 10

    Audífonos con cámaras, ¿por qué?

    Los próximos AirPods Pro podrían integrar cámaras infrarrojas para gestos, audio espacial y funciones de inteligencia artificial Por Félix Riaño @LocutorCo Apple vuelve a mover el tablero de los audífonos inalámbricos. Varias filtraciones coinciden en una idea que, hasta hace poco, sonaba extraña: unos AirPods Pro capaces de “ver” el entorno. No se habla de cámaras para fotos o video, sino de sensores infrarrojos integrados en cada auricular. La promesa es clara: nuevos gestos con las manos, mejor audio espacial y una relación más estrecha con la inteligencia artificial de Apple. Las fuentes apuntan a un lanzamiento en 2026 y a un modelo que conviviría con los AirPods Pro actuales. El precio, el nombre y la fecha exacta siguen en discusión. La pregunta es directa: ¿para qué quiere Apple que tus audífonos vean lo que pasa a tu alrededor?S Ver no es grabar, pero igual despierta dudas razonables. Las filtraciones parten de un nombre que ya suena familiar en el mundo Apple: Kosutami, un coleccionista de prototipos que suele mostrar piezas reales, aunque no siempre acierta en precios. Según sus mensajes, los próximos AirPods Pro “pueden ver alrededor”. A esto se suma lo dicho desde hace tiempo por el analista Ming-Chi Kuo, quien asegura que Apple trabaja en audífonos con al menos una cámara infrarroja. Estas cámaras no capturan imágenes tradicionales. Funcionan como sensores de profundidad, parecidos al sistema de puntos que usa Face ID en el iPhone. La idea no es nueva. Desde 2024 se habla de usar estos sensores para mejorar el audio espacial y la interacción con Apple Vision Pro. En 2025, Apple incluso recibió una patente relacionada con cámaras para detección de proximidad en dispositivos vestibles. Todo encaja en una misma dirección. Aquí aparece la confusión. ¿Estamos ante unos AirPods Pro 4 completamente nuevos o ante una versión “Pro más Pro” del modelo actual? Las fuentes no se ponen de acuerdo. Kosutami dice que el precio se mantendría en 249 dólares, unos 230 euros al cambio aproximado. Otros filtradores, como Instant Digital, creen que Apple va a lanzar una variante más cara, situada entre los AirPods Pro y los AirPods Max. Eso implicaría un precio cercano a 299 dólares, alrededor de 275 euros. También está el calendario. Apple suele esperar unos tres años entre grandes cambios de hardware. Los AirPods Pro 3 llegaron en 2025. Lanzar otro modelo en 2026 rompe esa costumbre. Por eso, muchos analistas creen que no será un reemplazo total, sino una opción adicional en la tienda. Lo que sí parece bastante firme es el para qué. Estas cámaras infrarrojas servirían para reconocer gestos con las manos, ajustar el sonido según el espacio y mejorar la precisión del audio espacial cuando se usan con Apple Vision Pro. También encajan con el discurso reciente de Tim Cook, que insiste en la “inteligencia visual” como parte del futuro de Apple Intelligence. Para que una inteligencia entienda el entorno, necesita sensores. Si no hay gafas inteligentes aún, los audífonos se vuelven un buen punto de partida. Hoy, lo cierto es esto: Apple no ha confirmado nada. Lo probable es que veamos un modelo con sensores infrarrojos en 2026, presentado en el evento de septiembre junto al iPhone. El nombre y el precio siguen abiertos, pero la dirección tecnológica ya está bastante marcada. El contexto ayuda a entender la jugada. Apple ya vende audífonos en varios escalones: modelos básicos, AirPods 4 en dos versiones, AirPods Pro y AirPods Max. Añadir una variante avanzada de los Pro encaja con esa estrategia. Además, el mercado de audífonos premium está creciendo. Marcas como Bang & Olufsen, Bose y Bowers & Wilkins empujan precios altos con funciones avanzadas. Apple necesita diferenciarse con algo más que cancelación de ruido. Es importante aclarar algo para niños y adultos: estas cámaras no graban video ni toman fotos. Son sensores infrarrojos que detectan luz y movimiento para calcular distancia y forma. Funcionan en segundo plano y alimentan algoritmos, no galerías de imágenes. También es cierto que Apple ya experimentó con actualizaciones intermedias. Los AirPods Pro 2 recibieron cambios importantes sin cambiar de nombre. Así que una versión “AirPods Pro 3 con sensores” no sería extraña dentro de su historia reciente.Separador Los próximos AirPods Pro podrían sumar sensores infrarrojos para gestos, audio espacial y funciones de Apple Intelligence. Hoy son filtraciones bien respaldadas, pero siguen siendo rumores. Vamos a estar atentos a 2026. Cuéntame qué te parece esta idea y sigue Flash Diario en Spotify Apple planea AirPods Pro con sensores infrarrojos para gestos, audio espacial e inteligencia artificial, según varias filtraciones coincidentes.Separador🔗 Bibliografía 9to5MacMacRumorsAppleInsiderDigital Trends MacObserver  Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

    15 min
  8. La pausa asiática que afecta a la IA

    FEB 9

    La pausa asiática que afecta a la IA

    Samsung se prepara para enviar HBM4 tras el Año Nuevo Lunar y acelerar la memoria para IA Por Félix Riaño @LocutorCo El 9 de febrero de 2026, las fábricas de semiconductores en Corea del Sur están operando bajo un calendario especial. El Año Nuevo Lunar, conocido localmente como Seollal, se celebrará el 17 de febrero y los feriados oficiales se extenderán del 16 al 18 de febrero. Durante esos días, gran parte de la actividad industrial del país se detendrá o funcionará de forma limitada. En ese contexto, Samsung Electronics ha confirmado que retomará a pleno ritmo la producción justo después del feriado para comenzar los primeros envíos comerciales de su memoria HBM4 a Nvidia. Esta memoria está destinada a los próximos aceleradores de inteligencia artificial de Nvidia y su calendario de producción está directamente condicionado por esta pausa anual, una de las más relevantes del año para la industria tecnológica asiática. La inteligencia artificial depende de calendarios industriales muy concretos La inteligencia artificial moderna funciona gracias a centros de datos que procesan enormes volúmenes de información de manera constante. En el núcleo de esos sistemas están los procesadores diseñados por Nvidia, una empresa estadounidense especializada en unidades de procesamiento gráfico, conocidas como GPU. Estos chips destacan por realizar muchos cálculos al mismo tiempo, pero su rendimiento depende directamente de la memoria que los alimenta. High Bandwidth Memory, o HBM, es un tipo de memoria creada para ese propósito. A diferencia de la memoria tradicional, HBM se apila en capas y se coloca muy cerca del procesador, lo que permite mover datos con mayor velocidad y menor consumo energético. La tecnología ha evolucionado por etapas: HBM, HBM2, HBM2E, HBM3, HBM3E y ahora HBM4. Cada generación responde al aumento de demanda provocado por modelos de inteligencia artificial cada vez más grandes. Samsung Electronics ha desarrollado HBM4 usando su proceso DRAM 1c, de sexta generación en la clase de diez nanómetros, junto con una base lógica fabricada con tecnología de cuatro nanómetros. La transición hacia HBM4 ocurre tras un periodo complejo para Samsung. En la generación anterior, HBM3E, la empresa no logró posicionarse con la misma rapidez que SK hynix, otra compañía surcoreana especializada en memoria. SK hynix consiguió convertirse en el principal proveedor de HBM para Nvidia y capturó la mayor parte de los contratos vinculados al auge de la inteligencia artificial. Micron Technology, fabricante estadounidense de memoria, quedó en una posición secundaria en esta categoría. Mientras la demanda de inteligencia artificial siguió creciendo, la capacidad mundial de fabricación de memoria se volvió un recurso limitado. Este problema se agrava cada año alrededor del Año Nuevo Lunar, cuando fábricas en Corea del Sur, China y otros países asiáticos reducen su actividad durante varios días. Esa pausa afecta cadenas de suministro globales y obliga a planificar con precisión qué se fabrica antes y qué se entrega después del feriado. Ante esta situación, Samsung ha organizado su calendario para que la producción y los envíos de HBM4 comiencen inmediatamente después del Seollal. En su complejo industrial de Pyeongtaek, uno de los mayores centros de fabricación de semiconductores del mundo, la empresa está ampliando la línea P4 para producir entre cien mil y ciento veinte mil obleas al mes dedicadas a HBM4. Sumadas a otras líneas, el objetivo es alcanzar alrededor de doscientas mil obleas mensuales, una parte relevante de su producción total de DRAM. Los primeros envíos a Nvidia están previstos para la tercera semana de febrero, en línea con los planes de Nvidia para presentar su nueva plataforma de aceleradores de inteligencia artificial, llamada Vera Rubin, durante la conferencia GTC 2026, programada para marzo. Aunque los analistas estiman que SK hynix mantendrá una mayor cuota de suministro, llegar temprano al mercado permite a Samsung reforzar su posición técnica y comercial. HBM4 introduce mejoras relevantes en eficiencia energética frente a la generación anterior. Esto resulta especialmente importante para centros de datos que operan de forma continua, donde el consumo eléctrico y la refrigeración representan una parte considerable de los costos. Nvidia necesita este tipo de memoria para alcanzar anchos de banda totales superiores a los veinte terabytes por segundo en sus sistemas más avanzados. Sin HBM4, ese nivel de rendimiento no sería viable. Al mismo tiempo, el énfasis de los fabricantes en producir HBM reduce la oferta de memoria convencional para computadores personales y dispositivos móviles, lo que mantiene presión sobre los precios. En este contexto, los fabricantes de memoria ya no influyen solo en componentes, sino en el ritmo general de la innovación tecnológica. ) A días del Año Nuevo Lunar, Samsung se prepara para activar la producción y los envíos de HBM4 a Nvidia. Esta memoria será una pieza central de los próximos sistemas de inteligencia artificial. El calendario industrial asiático vuelve a marcar el ritmo global. Escucha más historias como esta y sigue Flash Diario en Spotify. A días del Año Nuevo Lunar, Samsung se alista para enviar HBM4 a Nvidia y acelerar la inteligencia artificial. 📚 BibliografíaKorea Economic Daily – Samsung to ramp up HBM4 DRAM output capacityReuters – Samsung to start production of HBM4 chips for NvidiaReuters – Samsung highlights progress on HBM4 supplyYonhap News Agency – Samsung to begin mass production of HBM4TechPowerUp – Nvidia to use Samsung and SK hynix HBM4Xataka – Samsung y la crisis de la memoria RAM Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support. Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

    10 min

Shows with Subscription Benefits

PREMIUM @LOCUTORCO

Episodios exclusivos y sin anuncios

$4.99/mo or $24.99/yr after trial

About

Noticias de ciencia y tecnología en Flash Diario, de El Siglo 21 es Hoy. Este es el pódcast informativo que te mantiene al día con las noticias más relevantes del mundo tecnológico y científico. ¡En 5 minutos! Noticias de tecnología, noticias de ciencia, noticias de entretenimiento digital. Y también noticias de economía digital. Es un producto informativo de ElSiglo21esHoy.com Cada episodio de Flash Diario te ofrece una dosis diaria de noticias de actualidad en formato breve y conciso, presentando las noticias más importantes en diferentes ámbitos como la tecnología, la ciencia, la cultura y la sociedad. Con Flash Diario no tienes que preocuparte por perderte ninguna novedad o avance importante en tu día a día. En 5 minutos (promedio) te ofrecemos la información más relevante de manera clara y precisa, para que puedas estar al tanto de lo que sucede en el mundo sin perder tiempo ni detalles. Flash Diario es el compañero perfecto para las personas que quieren estar al tanto de las últimas noticias pero no tienen tiempo para seguir programas más largos y detallados. Con Flash Diario estarás siempre actualizado, informado y preparado para cualquier conversación o situación que se presente. ¡Suscríbete ahora y no te pierdas ni un solo flash informativo! Suscríbete gratis en: ➜ YouTube: https://bit.ly/FlashDiario ➜ Spotify: https://spoti.fi/3MRBhwH ➜ Apple Podcasts: https://apple.co/3BR7AWe Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

More From @LocutorCo

You Might Also Like