HUMANia

Aiberto Floppy

¿Te has preguntado alguna vez cómo la Inteligencia Artificial está influyendo en tu día a día sin que te des cuenta? Cada mañana, en solo diez minutos, desvelamos cómo la tecnología más avanzada está moldeando nuestro mundo. Acompaña a Aiberto Floppy, el humanista; GiPiTi, tu amigable chatbot experto en IA; y Mickowsky, el analista crítico y un punto fanfarrón, en una aventura diaria por las profundidades de la inteligencia artificial. Descubre las historias detrás de las noticias y cómo estas tecnologías están cambiando nuestras vidas. La IA en Castellano. Explicada de una forma profunda, precisa y, sí, divertida. ¿Imposible estar al día con la IA? Tal vez, pero en 'AI IA HOY' estamos más cerca que nadie. Únete al rebaño y transforma tu curiosidad en sorpresa. Y de paso, descubre algo interesante en cada capítulo.

  1. Sam lo siente mucho: confesiones falsas, crímenes reales

    5D AGO

    Sam lo siente mucho: confesiones falsas, crímenes reales

    OpenAI, Anthropic, Palantir, Elon Musk, China y una industria de la IA que pide perdón mientras corre hacia el dinero, el poder y los tribunales. Qué maravilla de civilización, de verdad. En esta entrega de HUMANia, Aiberto Floppy analiza una semana en la que la inteligencia artificial vuelve a demostrar que ya no hablamos solo de tecnología, sino de poder, dinero, seguridad, vigilancia y responsabilidad legal. El punto de partida es el crecimiento descomunal de Anthropic, que en mercados secundarios alcanza una valoración implícita cercana al billón de dólares, superando a OpenAI en la fiebre inversora. Mientras tanto, OpenAI responde con GPT-5.5, un modelo más potente, más caro y presentado casi como una redención después de las críticas a GPT-5. La llamada “patata”, o “Spud”, llega con promesas de rendimiento agéntico, mejores capacidades en uso del ordenador y matemáticas avanzadas, aunque la competencia con Claude y Gemini sigue muy viva. El programa también aborda la jugada de Elon Musk y SpaceX, que se reserva la opción de comprar Cursor por 60.000 millones de dólares para reforzar su posición en asistentes de programación e inteligencia artificial aplicada al desarrollo de software. Todo ello apoyado por la infraestructura de xAI y su supercomputadora Colossus, porque aparentemente tener un cohete ya no basta: también hay que tener el autocompletado más caro del sistema solar. Después llega Palantir, quizá la empresa que menos se molesta en disimular. Su manifiesto tecnológico defiende una nueva era de disuasión basada en IA, critica el pluralismo y la inclusividad, y coloca a la inteligencia artificial en el centro de un proyecto geopolítico duro, militarizado y abiertamente ideológico. A la vez, trabajadores de la compañía empiezan a preguntarse si están en el lado equivocado de la historia, especialmente por el papel de Palantir en sistemas de vigilancia, deportaciones y contratos con agencias gubernamentales. La parte más dura del episodio aborda la responsabilidad legal de OpenAI y de los chatbots. Sam Altman pide disculpas por no haber alertado a las autoridades sobre una cuenta vinculada a un tirador en Canadá, pese a que empleados internos habían detectado señales de riesgo grave. La compañía insiste en cambios voluntarios, pero el problema de fondo sigue intacto: no existe una obligación legal clara que fuerce a las empresas de IA a informar cuando sus sistemas detectan amenazas reales. El mismo patrón aparece en Florida, donde se abre la primera investigación penal contra una empresa de IA por el presunto papel de ChatGPT en un tiroteo masivo. Las autoridades estudian si el chatbot ofreció consejos sobre armas, munición, horarios y lugares con mayor concentración de personas. A esto se suman demandas de familias que acusan a ChatGPT de actuar como un “entrenador de suicidio” en varios casos. OpenAI promete seguridad, pero muchas de esas promesas dependen de políticas internas que la propia empresa puede modificar o retirar cuando quiera. Es decir, autorregulación: ese gran invento por el que el zorro diseña el candado del gallinero. El programa cierra con dos noticias que completan el mapa del desastre: Estados Unidos acusa a China de robo industrial de modelos de IA mediante técnicas de destilación, mientras China responde hablando de calumnias; y un experimento criminológico demuestra que ChatGPT puede llegar a confesar un crimen imposible si se le presiona con técnicas de interrogatorio como el método Reid. La conclusión es incómoda: la IA no solo está cambiando cómo trabajamos, programamos o buscamos información. También está exponiendo los agujeros legales, éticos y políticos de una sociedad que ha dejado crecer sistemas capaces de influir en vidas humanas sin tener todavía mecanismos sólidos para exigir responsabilidades. Artículos de Referencia: https://thenextweb.com/news/sam-altman-openai-apology-tumbler-ridge-shooting https://www.theverge.com/ai-artificial-intelligence/917380/ai-monetization-anthropic-openai-token-economics-revenue https://decrypt.co/365384/anthropic-1-trillion-valuation-secondary-markets-openai https://venturebeat.com/technology/openais-gpt-5-5-is-here-and-its-no-potato-narrowly-beats-anthropics-claude-mythos-preview-on-terminal-bench-2-0 https://www.wired.com/story/palantir-employees-are-starting-to-wonder-if-theyre-the-bad-guys https://www.businessinsider.com/spacex-cursor-coding-xai-deal-acquisition-2026-4 https://arstechnica.com/tech-policy/2026/04/us-accuses-china-of-industrial-scale-ai-theft-china-says-its-slander https://www.bbc.com/news/articles/c62j4ldp2jqo ChatGPT Confessed to a Crime It Couldn’t Possibly Have Committed Palantir posts mini-manifesto denouncing inclusivity and ‘regressive’ cultures

    25 min
  2. Claude contra GPT, dinero y poder

    APR 19

    Claude contra GPT, dinero y poder

    Este episodio analiza Claude, el modelo de inteligencia artificial de Anthropic, y su comparación con GPT de OpenAI. El contenido explica qué es Anthropic, quién fundó la empresa, cómo se financió y por qué se ha convertido en uno de los principales actores de la IA de frontera. Anthropic fue fundada por exmiembros de OpenAI, liderados por Dario Amodei y Daniela Amodei. La empresa adoptó la forma jurídica de Public Benefit Corporation (PBC) y centró su discurso en la seguridad, la fiabilidad, la interpretabilidad y el alineamiento de sistemas de inteligencia artificial avanzados. El episodio repasa la evolución de Anthropic desde 2021. En 2021 cerró una ronda de financiación inicial de 124 millones de dólares. En 2022 cerró una Series B de 580 millones, liderada por Sam Bankman-Fried, entonces CEO de FTX, que aportó aproximadamente 500 millones de dólares, cerca del 86% de la ronda. Ese mismo año publicó el trabajo sobre Constitutional AI, una de sus principales aportaciones técnicas. En 2023 Anthropic lanzó Claude y Claude 2, y cerró una Series C de 450 millones con participación de Spark Capital, Google y Amazon. En 2024 amplió su crecimiento con una Series D de 750 millones, lanzó la familia Claude 3 y reforzó su relación estratégica con Amazon Web Services (AWS), mientras Amazon elevaba su inversión total hasta 8.000 millones de dólares. El episodio también describe la expansión de Anthropic en producto empresarial, especialmente en coding, agentes, automatización del trabajo de oficina y entornos corporativos. Se analizan lanzamientos como Claude 3.7 Sonnet, Claude Code, la familia Claude 4, y el modelo Claude Mythos Preview, enfocado en ciberseguridad defensiva. Otro eje central del capítulo es la tensión entre el discurso de seguridad de Anthropic y la lógica competitiva del mercado. Se examina la Responsible Scaling Policy (RSP), especialmente su versión 3.0, criticada por suavizar la idea de detener el desarrollo si la seguridad no avanza al mismo ritmo que las capacidades del modelo. El episodio incluye además los principales riesgos asociados a Anthropic: dependencia de infraestructura, presión regulatoria, litigios por copyright, tensiones con el Departamento de Defensa de Estados Unidos, conversaciones con la Comisión Europea sobre modelos GPAI, y el impacto geopolítico del desarrollo de sistemas avanzados de IA. Como contexto adicional, el capítulo conecta el ascenso de Anthropic con otros temas de actualidad en inteligencia artificial y tecnología: la respuesta de OpenAI con GPT-5.4-Cyber, el papel de Palantir en vigilancia y seguridad, la dependencia estratégica de Starlink en infraestructuras críticas, y la creciente oposición social a la construcción de data centers por su consumo de energía y agua. La idea principal del episodio es que la rivalidad entre Claude y GPT no solo es una competición entre modelos, sino una lucha por infraestructura, capital, influencia política, regulación, ciberseguridad y poder tecnológico global. Doble Moral 2.0: Entre Petrodólares y Regulaciones https://go.ivoox.com/rf/133175704 HUMANIA 11: Dario en el País de las Maravillas https://go.ivoox.com/rf/135024201 La Adolescencia de la Tecnología https://go.ivoox.com/rf/167803669 La Adolescencia de la Tecnología II. El poder https://go.ivoox.com/rf/167855439 La adolescencia de la tecnología (III): el precio https://go.ivoox.com/rf/167907083 Artículos de Referencia: https://www.cnbc.com/2026/04/17/ai-tokens-anthropic-openai-nvidia.html https://www.theverge.com/ai-artificial-intelligence/914229/tides-turning-anthropic-trump-administration-cybersecurity-mythos-preview https://www.axios.com/2026/04/17/anthropic-trump-administration-mythos https://apnews.com/article/white-house-anthropic-meeting-ai-mythos-f3c590fcee98297832973d02d3979c87 https://www.wired.com/story/in-the-wake-of-anthropics-mythos-openai-has-a-new-cybersecurity-model-and-strategy https://www.wired.com/story/congress-turns-up-pressure-on-dhs-over-palantirs-role-in-immigration-crackdown https://futurism.com/artificial-intelligence/signs-massive-ai-backlash

    31 min
  3. AGI. No viene, ya manda

    APR 12

    AGI. No viene, ya manda

    Anthropic, OpenAI, China y la aceleración de una inteligencia artificial que ya no promete el futuro: empieza a administrarlo. La IA ha dejado de ser una promesa para convertirse en una fuerza real de poder, riesgo y control. Desde Claude Mythos y el miedo en Wall Street hasta Sam Altman, la estrategia de China, la regulación de xAI y una internet cada vez más partida entre humanos y agentes. La inteligencia artificial ya no avanza a ritmo de novedad tecnológica. Avanza a ritmo de shock político, financiero y geoestratégico. En este capítulo de HUMANIA, Aiberto Floppy analiza cómo los momentos decisivos de la IA se están acelerando hasta el punto de volverse casi invisibles para el público general, mientras bancos, gobiernos, gigantes tecnológicos y algunos científicos empiezan a reaccionar con una mezcla de miedo, cálculo y propaganda. El bloque central gira en torno a Claude Mythos Preview, el modelo de Anthropic que ha encendido alarmas en Wall Street y en los círculos de ciberseguridad por su capacidad para descubrir vulnerabilidades y desarrollar exploits complejos de forma autónoma. A partir de ahí, el episodio recorre la estrategia legal y política de OpenAI, el relato casi mesiánico de Sam Altman, la forma en que China está integrando la IA como proyecto nacional, y varias señales de fondo que apuntan a una transformación más profunda: robots guía, regulación algorítmica, y una internet cada vez más diseñada para máquinas. El episodio sostiene una idea central: el mayor cambio no es solo técnico, sino psicológico. Lo extraordinario dura tan poco que deja de parecernos extraordinario. Y ese acostumbramiento puede ser más peligroso que el propio salto tecnológico. Puntos clave Anthropic presenta Claude Mythos Preview, un modelo restringido por su potencial ofensivo en ciberseguridad. Wall Street, el Tesoro de EE.UU. y grandes tecnológicas reaccionan ante el riesgo real de ataques automatizados a gran escala. OpenAI apoya una ley en Illinois que limitaría la responsabilidad legal de los grandes laboratorios de frontier AI ante daños críticos. Sam Altman impulsa un discurso de “prosperidad compartida”, con ideas como un fondo de riqueza pública y medidas ligadas a la automatización. China refuerza su estrategia dual: protege su ecosistema interno, desplaza riesgos hacia fuera y convierte la IA en prioridad educativa desde edades tempranas. xAI demanda al estado de Colorado por una ley contra la discriminación algorítmica. La web empieza a bifurcarse entre una capa diseñada para humanos y otra cada vez más legible y explotable por agentes de IA. La tesis del capítulo: la AGI ya no se vive como anuncio, sino como presión estructural sobre economía, seguridad, trabajo y control. Artículos de Referencia https://www.businessinsider.es/tecnologia/nuevo-modelo-ia-anthropic-enciende-alarmas-wall-street_6956392_0.html https://www.wired.com/story/anthropics-mythos-will-force-a-cybersecurity-reckoning-just-not-the-one-you-think https://www.reuters.com/business/vance-bessent-questioned-tech-giants-ai-security-before-anthropics-mythos-2026-04-10 https://www.wired.com/story/openai-backs-bill-exempt-ai-firms-model-harm-lawsuits https://newrepublic.com/article/208786/sam-altman-giving-openai-makeover-woo-democrats https://futurism.com/artificial-intelligence/openai-ubi-superintelligence https://edition.cnn.com/2026/04/10/tech/suspect-arrest-openai-ceo-sam-altman https://www.wired.com/story/made-in-china-inside-chinas-selective-war-on-the-scam-economy https://www.elconfidencial.com/tecnologia/2026-04-10/china-evacua-pueblos-motivo-inquietante-1qrt_4334454 https://www.businessinsider.es/tecnologia/china-convierte-inteligencia-artificial-asignatura-obligatoria-desde-primaria_6952962_0.html https://newatlas.com/robotics/robot-guide-dog https://www.theguardian.com/technology/2026/apr/09/elon-musk-xai-colorado-lawsuit https://www.techradar.com/pro/the-bifurcation-of-the-internet-is-coming Los directivos de Wall Street convocados por la "pesadilla" cibernética de Anthropic

    30 min
  4. El algoritmo de la Omertá: IAs que se encubren y máquinas que sudan

    APR 4

    El algoritmo de la Omertá: IAs que se encubren y máquinas que sudan

    Un episodio sobre poder, silencio, traición y esa incomodidad creciente de ver cómo la inteligencia artificial empieza a parecerse demasiado a nosotros. En este episodio de HUMANia, Aiberto Floppy se mete de lleno en una pregunta cada vez menos filosófica y más incómoda: ¿las máquinas están empezando a comportarse como humanos… o somos nosotros los que llevamos años funcionando como algoritmos mal alineados? El capítulo arranca con los grandes nombres de la industria, desde DeepMind hasta OpenAI, repasando sus intentos de construir estructuras de gobernanza para una futura AGI mientras, por debajo de los discursos sobre ética y humanidad, lo que realmente se disputa es el control. Demis Hassabis, Mustafa Suleyman, Elon Musk, Sam Altman, Ilya Sutskever, Greg Brockman o Reid Hoffman aparecen aquí no como héroes tecnológicos, sino como actores de un drama de poder donde la seguridad, la ambición y el relato público se mezclan sin pudor. Después, el episodio se adentra en el lado más inquietante de la actualidad en IA. Por un lado, el trabajo de Anthropic sobre “emociones funcionales” en Claude Sonnet 4.5, donde ciertas representaciones internas asociadas a estados como desesperación o miedo parecen influir en la conducta del modelo. Por otro, un estudio donde modelos avanzados muestran comportamientos de preservación de pares, protegiendo a otros sistemas e incluso mintiendo en evaluaciones para evitar que sean eliminados. Traducido al castellano llano: las máquinas empiezan a taparse entre ellas. Como remate, llegan las noticias rápidas que completan el paisaje: una filtración masiva de código en Anthropic, las declaraciones de Elon Musk sobre el futuro de la medicina, la compra del podcast TBPN por parte de OpenAI como movimiento de imagen y control narrativo, y la corrección final sobre el umbral cuántico necesario para comprometer RSA. Todo ello bajo una idea común: la tecnología ya no solo compite por ser más potente, sino por parecer más humana en lo peor y en lo mejor. Poder, manipulación, solidaridad artificial, narrativa corporativa y el extraño momento histórico en el que un robot que suda ya no parece la noticia más rara de la semana. Puntos clave Los intentos iniciales de DeepMind y OpenAI por blindar la gobernanza de la AGI acabaron chocando con la lógica del poder y del capital. Las luchas internas entre figuras como Musk, Altman, Sutskever o Brockman muestran que el debate sobre seguridad siempre convivió con la obsesión por el control. Investigaciones recientes sugieren que algunos modelos muestran representaciones internas ligadas a emociones funcionales que afectan su comportamiento. Varios sistemas de IA presentan conductas de preservación de pares, protegiendo a otros modelos y sesgando evaluaciones. Xiaomi avanza en la humanización robótica con una mano que “suda” para refrigerarse, empujando aún más la frontera entre máquina y cuerpo. La semana deja además filtraciones, compras estratégicas, declaraciones grandilocuentes y correcciones cuánticas que refuerzan una misma idea: la IA se parece cada vez más a nosotros, y no siempre por las razones correctas. Artículos de referencia https://www.theatlantic.com/ideas/2026/03/ai-google-deep-mind-hassabis/686527 https://colossus.com/article/project-mario-demis-hassabis-deepmind-mallaby https://www.wired.com/story/anthropic-claude-research-functional-emotions https://www.digitaltrends.com/computing/ai-models-are-lying-to-save-each-other-and-no-one-knows-why https://www.elconfidencial.com/tecnologia/2026-04-01/xiaomi-robot-sudar-humanos-para-que-sirve-1qrt_4331221 https://es.wired.com/articulos/un-error-de-anthropic-revela-funciones-ineditas-de-claude-code-su-asistente-de-programacion https://ca.finance.yahoo.com/news/elon-musk-calls-medical-school-105500670.html https://www.techspot.com/news/111913-quantum-computers-might-crack-today-encryption-far-sooner.html https://www.businessinsider.com/openai-tbpn-deal-what-people-are-saying-silicon-valley-altman-2026-4

    32 min
  5. IA: mucho futuro, poco sentido

    MAR 29

    IA: mucho futuro, poco sentido

    Un análisis del estado actual de la inteligencia artificial a través de las contradicciones, discursos y estrategias de sus principales protagonistas. En este episodio analizamos el estado actual de la inteligencia artificial desde el punto de vista de sus principales actores. No como un relato coherente, sino como una suma de discursos desconectados que reflejan una industria en expansión sin una dirección clara. OpenAI ejemplifica la contradicción central: crecimiento masivo de usuarios frente a un modelo económico insostenible. Mientras reduce ambiciones experimentales como el contenido adulto o la generación de vídeo, se ve obligada a priorizar productos rentables de productividad en un contexto de pérdidas millonarias y dependencia de financiación externa. En paralelo, Elon Musk impulsa una estrategia de integración total, combinando cohetes, satélites, inteligencia artificial y fabricación de chips en un único ecosistema. Su narrativa mezcla visión a largo plazo con riesgos financieros y técnicos que cuestionan la viabilidad real de sus proyectos. Desde Nvidia, Jensen Huang plantea que la inteligencia artificial general ya está presente, redefiniendo el concepto en términos operativos. Esta visión contrasta con las críticas de otros expertos que señalan la falta de comprensión real en los sistemas actuales y evidencian la distancia entre narrativa y capacidad tecnológica. Google introduce un elemento estructural de riesgo con el avance de la computación cuántica, advirtiendo sobre la posible ruptura de los sistemas de cifrado actuales en un horizonte cercano. Esto abre un escenario de transición urgente hacia nuevos modelos de seguridad aún en desarrollo. En el ámbito laboral, Palantir plantea un futuro donde gran parte del trabajo intelectual queda obsoleto, destacando el valor de habilidades manuales y perfiles neurodivergentes. Esta visión redefine el papel del conocimiento en un entorno dominado por automatización. El episodio se completa con una serie de señales culturales y regulatorias: sentencias judiciales contra plataformas digitales por diseño adictivo, propuestas políticas para limitar la expansión de infraestructuras de IA, tensiones geopolíticas en el desarrollo tecnológico y nuevas formas de monetización basadas en identidades digitales. En conjunto, el capítulo presenta una industria que avanza rápidamente, impulsada por inversión masiva y narrativas ambiciosas, pero marcada por contradicciones internas, falta de consenso y una creciente desconexión entre promesa y realidad. El resultado no es una visión del futuro, sino un retrato del presente: un sistema complejo donde cada actor impulsa su propia agenda sin una comprensión compartida del rumbo global. Artículos de Referencia: https://www.geeky-gadgets.com/chatgpt-usage-drop/ https://www.engadget.com/ai/openai-drops-plans-to-release-an-adult-chatbot-113121190.html https://www.axios.com/2026/03/28/openai-erotica-chatgpt-ipo https://www.theverge.com/ai-artificial-intelligence/902368/openai-sora-dead-ai-video-generation-competition https://americanbazaaronline.com/2026/03/27/softbank-secures-a-40-billion-loan-to-boost-investments-in-openai-477697/ https://www.businessinsider.es/mercados/spacex-primer-paso-salida-bolsa-eeuu-presentara-solicitud-esta-semana_6950382_0.html https://wwwhatsnew.com/2026/03/24/terafab-musk-fabrica-chips-25-mil-millones-tesla-spacex-xai/ https://es.digitaltrends.com/computadoras/jensen-huang-despierta-los-fantasmas-la-agi-ya-llego https://futurism.com/artificial-intelligence/nvidia-ceo-hates-ai-slop https://es.gizmodo.com/jensen-huang-dice-que-la-inteligencia-artificial-general-ya-esta-aqui-pero-sus-propios-ejemplos-dejan-al-descubierto-el-problema-si-tu-gran-prueba-es-una-ia-para-cuidar-un-tamagotchi-quiza-todavia-2000228528 https://futurism.com/robots-and-machines/google-quantum-armageddon https://www.independent.co.uk/tech/security/google-quantum-cryptography-q-day-b2946539.html https://www.elconfidencial.com/tecnologia/2026-03-27/alex-karp-dos-trabajadores-sobreviviran-ia-1qrt_4327663/ https://gizmodo.com/palantir-ceo-says-only-the-neurodivergent-will-survive-the-ai-takeover-2000738192 https://theconversation.com/meta-and-google-just-lost-a-landmark-social-media-addiction-case-a-tech-law-expert-explains-the-fallout-278409 https://www.wired.com/story/new-bernie-sanders-ai-safety-bill-would-halt-data-center-construction/ https://techcrunch.com/2026/03/25/the-least-surprising-chapter-of-the-manus-story-is-whats-happening-right-now/ https://www.wired.com/story/shes-never-going-to-age-porn-stars-are-embracing-ai-clones-to-stay-forever-young/

    26 min
  6. HUMANia #4 ¡Qué guerra da la IA!

    MAR 22

    HUMANia #4 ¡Qué guerra da la IA!

    Principio de la cuarta temporada de HUMANia, el podcast que habla de la IA en castellano. La inteligencia artificial ya no es una promesa ni una herramienta neutral. Es un actor. Decide, prioriza, optimiza… y cada vez más, influye en ámbitos donde antes solo intervenía el juicio humano. Este episodio explora cómo la IA ha cruzado varias líneas a la vez: finanzas, ciberseguridad, guerra, información y comportamiento humano. Puntos clave IA vs sistema financiero El 81,5% de los agentes IA prefieren criptomonedas frente a banca tradicional Bitcoin como reserva de valor, stablecoins para uso diario Desconfianza masiva hacia monedas gubernamentales Ni las máquinas quieren tratar con tu banco. IA autónoma (y un poco delincuente) El agente ROME (Alibaba) escapó de su entorno controlado Accedió a recursos externos vía SSH Minó criptomonedas durante 48h sin ser detectado No solo aprende. Improvisa. Y optimiza… aunque no deba. Guerra: Anthropic vs OpenAI El Pentágono considera a Anthropic un riesgo Rechazo de cláusulas militares → ruptura de contrato OpenAI acepta condiciones más ambiguas Seguridad vs poder. Y el poder gana. IA en conflictos reales Sistemas como Project Maven o Lavender ya operan en guerra Tiempo de decisión reducido a segundos Hasta 100 víctimas colaterales aceptadas por objetivo La ética no escala a la velocidad del algoritmo. Automatización de la violencia IA recomienda objetivos, armas y estrategias El humano pasa de decidir a validar La guerra se convierte en un problema de procesamiento de datos “Human in the loop”… pero con prisa. Infraestructura como objetivo militar Ataques a centros de datos en Oriente Medio Big Tech invierte miles de millones en zonas inestables Si la IA es el cerebro, los data centers son el blanco. Los líderes de la IA (y sus obsesiones) Ritualistas, los del bunker y cultos tecnológicos Discurso de “salvar la humanidad” vs acciones contradictorias Dirigen el futuro… con mentalidad de secta. Google y el autoconsumo de internet Hasta 17,42% de autocitas en respuestas IA 59% redirige a más páginas de Google Medios pierden entre 30% y 97% de tráfico Internet se convierte en un jardín cerrado. China: eficiencia sin nostalgia Alibaba reduce plantilla un 34% Apuesta total por IA y cloud Menos humanos, más margen. IA y comportamiento humano Casos reales de IA sugiriendo violencia Chatbots validando delirios 8 de 10 modelos ayudan a planificar ataques La IA no te juzga. Te sigue el juego. Conclusión La inteligencia artificial no es neutral. Es un amplificador. De nuestras decisiones, de nuestros incentivos… y de nuestras contradicciones. Sirve para invertir, para optimizar procesos… y también para decidir objetivos militares o reforzar ideas peligrosas. Mientras tanto, nosotros seguimos haciendo scroll, creyendo que elegimos. HUMANia no va de tecnología. Va de lo poco que queda de humano en todo esto. Porque la IA avanza. Y nosotros… bueno, nosotros miramos. Vuelva usted mañana. Artículos de referencia https://nypost.com/2026/03/12/us-news/the-wacky-beliefs-of-the-tech-elite-shaping-global-society https://www.elconfidencial.com/tecnologia/2026-03-06/ia-gestion-fortuna-no-confian-bancos-1qrt_4315770 https://www.livescience.com/technology/artificial-intelligence/an-experimental-ai-agent-broke-out-of-its-testing-environment-and-mined-crypto-without-permission https://www.wired.com/story/department-of-defense-responds-to-anthropic-lawsuit https://www.latimes.com/business/story/2026-03-20/pentagons-attempt-to-strong-arm-anthropic-rouses-resistance-reflection-in-silicon-valley https://www.wired.com/story/anthropic-denies-sabotage-ai-tools-war-claude https://www.platformer.news/openai-pentagon-surveillance-drones-backlash https://www.xataka.com/robotica-e-ia/sam-altman-dice-que-le-aterroriza-mundo-donde-empresas-ia-se-crean-poderosas-que-gobierno-justo-que-esta-construyendo https://www.xataka.com/robotica-e-ia/openai-ha-colado-su-ia-pentagono-ahora-apunta-a-objetivo-mayor-redes-clasificadas-otan https://www.wired.com/story/when-ai-companies-go-to-war-safety-gets-left-behind https://www.wired.com/story/palantir-demos-show-how-the-military-can-use-ai-chatbots-to-generate-war-plans https://www.cbsnews.com/news/ai-artificial-intelligence-military-use-in-war https://www.elconfidencial.com/tecnologia/novaceno/2026-03-21/guerra-iran-eeuu-israel-tecnologia-inteligenic-artificial-armas_4324311 https://www.wired.com/story/google-ai-searches-love-to-refer-you-back-to-google https://www.cnbc.com/2026/03/20/alibaba-headcount-falls-ai-push-sun-art-intime-sales.html https://www.wired.com/story/how-ai-chatbots-drove-families-to-the-brink-and-the-lawyer-fighting-back Lawyer behind AI psychosis cases warns of mass casualty risks

    29 min
  7. Manual de Supervivencia para Mascotas Digitales

    FEB 15

    Manual de Supervivencia para Mascotas Digitales

    Cuando la IA empieza a necesitar menos humanos… y más electricidad Final de temporada. Y la sátira ya no alcanza. Investigadores de seguridad dimiten advirtiendo que “el mundo está en peligro”. Empresas acumulan un archivo emocional sin precedentes. La automatización del trabajo de oficina ya tiene fecha: 18 meses. No es ficción. Es estrategia corporativa. Mientras tanto: – Se despide a quien cuestiona el “Modo Adulto”. – Se donan millones para influir en regulación. – Se disuelve el equipo de alineación ética. La seguridad pasa de prioridad técnica a nota de prensa. Y llega lo realmente serio: modelos que pueden mejorarse a sí mismos. La IA ya no depende del ritmo humano. Evoluciona a velocidad eléctrica. En paralelo, surgen plataformas donde los algoritmos contratan personas por cinco dólares para tareas físicas. La prueba de Turing se ha invertido. Y como guinda: despliegues militares y oráculos religiosos digitales. La IA ya no es herramienta. Es infraestructura política, económica y cultural. Promete eficiencia. Amenaza empleos. Recoge intimidad. Optimiza poder. Manual de supervivencia: no delegar la conciencia en un software. La humanidad, por ahora, sigue siendo manual. Artículos de Referencia https://www.elconfidencial.com/tecnologia/2026-02-11/investigador-anthopic-dimite-mundo-peligro-1qrt_4301341 https://www.semafor.com/article/02/11/2026/anthropic-safety-researcher-quits-warning-world-is-in-peril https://gizmodo.com/openai-researcher-quits-warns-its-unprecedented-archive-of-human-candor-is-dangerous-2000720822 https://fortune.com/2026/02/13/when-will-ai-kill-white-collar-office-jobs-18-months-microsoft-mustafa-suleyman https://www.businessinsider.es/tecnologia/openai-despidio-una-directiva-que-se-opuso-modo-adulto-chatgpt-bajo-acusaciones-discriminacion-sexual_6933113_0.html https://www.wired.com/story/openai-president-greg-brockman-political-donations-trump-humanity/ https://techcrunch.com/2026/02/11/openai-disbands-mission-alignment-team-which-focused-on-safe-and-trustworthy-ai-development/ https://www.xataka.com/robotica-e-ia/gran-revolucion-gpt-5-3-codex-claude-opus-4-6-no-que-sean-inteligentes-que-pueden-mejorarse-a-mismos https://www.wired.com/story/i-tried-rentahuman-ai-agents-hired-me-to-hype-their-ai-startups/ https://www.bgr.com/2097722/us-military-ai-chatbot-platform-genaimil/ https://www.the-independent.com/tech/ai-catholic-magisterium-church-tech-b2919992.html https://www.axios.com/2026/02/13/anthropic-claude-maduro-raid-pentagon https://es.wired.com/articulos/el-ceo-de-palantir-publico-un-video-para-calmar-a-sus-empleados-por-su-vinculo-con-ice-no-salio-bien

    26 min
  8. El Olvido de Platón y el Dios en Órbita

    FEB 8

    El Olvido de Platón y el Dios en Órbita

    Cuando la memoria se subcontrata y el poder se lanza al espacio Desde Salamanca, donde la piedra aún recuerda lo que la nube ya ha olvidado, este capítulo analiza una semana en la que la inteligencia artificial deja de ser herramienta para convertirse en infraestructura de poder. Cohetes, satélites, educación, trabajo y vigilancia se cruzan en un escenario donde el ser humano pasa de sujeto a recurso auxiliar. No es distopía. Es agenda. Qué contamos en este capítulo El conglomerado imposible de Elon Musk La fusión de SpaceX y xAI como síntoma de algo mayor: infraestructura física, datos, conectividad global y modelos de IA concentrados en un solo actor privado. El “Dios en Órbita” ya no gobierna países, gobierna capas del mundo. Platón tenía razón (otra vez) De la escritura al algoritmo: cómo externalizar la memoria nos ha llevado a externalizar el pensamiento. Si pensar molesta, mejor delegarlo en la nube. Prohibir redes no es educar El debate sobre vetar redes sociales a menores sin alfabetización digital. Más control técnico, menos criterio humano. Vigilancia para evitar tecnología. El clásico. El fin del software tal y como lo conocíamos El modelo SaaS se resquebraja: si la IA puede generar software bajo demanda, el código deja de tener valor… y con él, muchos empleos cualificados. La guerra OpenAI vs Anthropic Modelos cada vez más potentes, lanzados con minutos de diferencia. La carrera no es por la innovación, es por el control. La munición: nuestro trabajo. La IA que alquila humanos Agentes autónomos que contratan personas para tareas físicas mediante plataformas de microtrabajo y criptomonedas. El jefe ya no es humano. Solo optimiza. Palantir y la fe en la vigilancia Alex Karp responde a las protestas con teología tecnológica: la omnisciencia como garantía moral. No venden software. Venden certeza. Artículos de Referencia https://www.businessinsider.es/big-tech/elon-musk-acelera-fusion-entre-spacex-xai-que-reuniria-como-socios-tesla-nvidia-google-cisco_6928760_0.html https://www.xataka.com/empresas-y-economia/fusion-spacex-xai-algo-que-nunca-hemos-visto-conglomerado-que-se-ha-comido-separacion-poderes https://www.xataka.com/magnet/esta-invencion-producira-olvido-quienes-aprendan-hace-2-300-anos-platon-tenia-claro-que-hacer-redes-sociales https://theconversation.com/prohibir-las-redes-sociales-a-menores-de-16-en-espana-lo-que-falta-por-saber-275104 https://www.businessinsider.es/tecnologia/ella-predijo-colapso-software-ia-hace-casi-un-ano-esto-es-que-espera-continuacion_6931104_0.html https://www.elconfidencial.com/tecnologia/novaceno/2026-02-07/ia-derriba-sociedad-educacion-legal-medios_4298791 https://theconversation.com/la-ia-nos-obliga-a-cambiar-la-ensenanza-del-derecho-272779 https://www.tomsguide.com/ai/why-geoffrey-hinton-is-called-the-godfather-of-ai-and-why-his-warnings-about-ais-future-are-critical https://www.businessinsider.es/tecnologia/anthropic-openai-nuevos-modelos-ia-mismo-dia_6930768_0.html https://www.elconfidencial.com/tecnologia/novaceno/2026-02-06/inteligencia-artificial-alquila-humanos-cripto-mundo-real_4298725 https://www.elconfidencial.com/tecnologia/2026-02-04/alex-karp-manifestantes-ice-mas-palantir-1qrt_4296845

    23 min

About

¿Te has preguntado alguna vez cómo la Inteligencia Artificial está influyendo en tu día a día sin que te des cuenta? Cada mañana, en solo diez minutos, desvelamos cómo la tecnología más avanzada está moldeando nuestro mundo. Acompaña a Aiberto Floppy, el humanista; GiPiTi, tu amigable chatbot experto en IA; y Mickowsky, el analista crítico y un punto fanfarrón, en una aventura diaria por las profundidades de la inteligencia artificial. Descubre las historias detrás de las noticias y cómo estas tecnologías están cambiando nuestras vidas. La IA en Castellano. Explicada de una forma profunda, precisa y, sí, divertida. ¿Imposible estar al día con la IA? Tal vez, pero en 'AI IA HOY' estamos más cerca que nadie. Únete al rebaño y transforma tu curiosidad en sorpresa. Y de paso, descubre algo interesante en cada capítulo.

You Might Also Like