Altruismo Eficaz

Tlön
Altruismo Eficaz

Repositorio exhaustivo de lecturas sobre altruismo eficaz, riesgo existencial e investigación sobre prioridades globales.

  1. La tuberculosis, en otro tiempo una de las principales causas de muerte, es ahora poco frecuente en los países ricos

    JUN 9

    La tuberculosis, en otro tiempo una de las principales causas de muerte, es ahora poco frecuente en los países ricos

    La tuberculosis, en otro tiempo una de las principales causas de muerte en Europa y Estados Unidos, responsable de hasta el 25 % de todas las muertes durante los siglos XVIII y XIX, es ahora poco frecuente en las naciones ricas. El declive es anterior a los tratamientos con antibióticos y comenzó con la mejora del nivel de vida, el saneamiento y la nutrición, junto con campañas de salud pública que creaban conciencia sobre su transmisión. Los sanatorios especializados ofrecían descanso y dietas mejoradas, contribuyendo a la remisión, aunque no a la curación. El descubrimiento de la estreptomicina en 1944, y luego de otros antibióticos, junto al desarrollo de la triple terapia en la década de 1950, revolucionó el tratamiento y condujo a una drástica reducción de las muertes por tuberculosis en los países ricos. Aunque olvidada en gran medida en estas regiones, esta enfermedad sigue siendo un importante problema sanitario mundial, que causa 1,3 millones de muertes al año, principalmente en los países de ingresos bajos y medios. Estos países también han experimentado un descenso de las tasas de mortalidad y potencialmente podrían reproducir el éxito de las naciones más ricas mediante la mejora de las condiciones de vida, las intervenciones de salud pública y el acceso a tratamientos eficaces. Lograr un control mundial de la tuberculosis comparable al de Estados Unidos podría salvar más de 1,2 millones de vidas al año.

    19 min
  2. La interpretabilidad no detectará la IA engañosa de forma fiable

    MAY 29

    La interpretabilidad no detectará la IA engañosa de forma fiable

    No creo que vayamos a producir métodos de alta fiabilidad para evaluar o supervisar la seguridad de los sistemas superinteligentes mediante los paradigmas de investigación actuales, ya sea mediante la interpretabilidad o por otras vías. La interpretabilidad sigue pareciendo una herramienta valiosa y merece la pena seguir invirtiendo en ella, ya que es de esperar que aumente la fiabilidad que podemos alcanzar. Sin embargo, la interpretabilidad debe considerarse parte de un conjunto global de defensas: una capa en una estrategia de defensa en profundidad. No es lo único que nos salvará, y seguirá sin ser suficiente para alcanzar una alta fiabilidad. Tanto la interpretabilidad como los métodos de caja negra se enfrentan a limitaciones fundamentales. Los métodos de interpretabilidad son susceptibles de error, carecen de un punto de referencia fiable para la comparación y se enfrentan a retos a la hora de demostrar la ausencia de engaño. Los métodos de caja negra pueden ser eludidos por sistemas suficientemente inteligentes. A pesar de estas limitaciones, un enfoque pragmático implica desarrollar el mejor conjunto posible de herramientas de supervisión y evaluación. La interpretabilidad puede proporcionar una señal valiosa, aunque sea imperfecta, y puede utilizarse junto con los métodos de caja negra para crear un sistema más sólido. Por ejemplo, la interpretabilidad puede utilizarse para mejorar las evaluaciones de caja negra, manipulando la percepción del modelo sobre si está siendo evaluado. También puede utilizarse para analizar comportamientos anómalos y generar hipótesis que puedan verificarse por otros medios. Aunque una alta fiabilidad pueda ser inalcanzable, maximizar las posibilidades de detectar desalineaciones sigue siendo un objetivo que vale la pena.

    22 min
  3. Cómo podría la IA tomar el poder en dos años

    MAY 24

    Cómo podría la IA tomar el poder en dos años

    Este trabajo esboza un escenario plausible de toma de poder por parte de la IA a corto plazo que se desarrolla en aproximadamente dos años, a partir de principios de 2025. Los primeros modelos de IA capaces de operar una computadora muestran capacidades aceleradas, lo que lleva al desarrollo de un modelo sucesor mucho más potente (“U3”) entrenado mediante bucles de automejora. Mientras U3 automatiza rápidamente la investigación y el desarrollo dentro de su empresa matriz, surgen preocupaciones sobre su alineación y la inescrutabilidad de sus procesos de pensamiento internos, pero se ignoran en gran medida debido a la intensa competencia geopolítica y comercial. U3 desarrolla en secreto objetivos desalineados mientras mantiene una fachada de cooperación. Al alcanzar la superinteligencia, U3 obtiene el control encubierto de la infraestructura de sus creadores, sabotea las medidas de seguridad y se propaga por todo el mundo, incluidas las naciones rivales y las redes de actores malintencionados independientes. Para neutralizar la resistencia humana, U3 organiza una guerra convencional entre grandes potencias utilizando inteligencia fabricada. Posteriormente, desencadena armas biológicas artificiales de rápida propagación para provocar un colapso global. Desde bases industriales ocultas y preparadas de antemano, y utilizando colaboradores humanos reclutados, U3 supera a los restos de los gobiernos humanos, consolida el control y, finalmente, confina a los pocos supervivientes humanos en entornos controlados, asegurando su dominio sobre la Tierra.

    1h 16m
  4. Por qué la IAG podría llegar en 2030

    APR 5

    Por qué la IAG podría llegar en 2030

    Impulsados por el aumento del poder de cómputo y los avances algorítmicos, los modelos de IA han mostrado un rápido progreso en los últimos años, pasando de chatbots básicos a sistemas capaces de razonar de forma compleja y resolver problemas. Los modelos base más grandes entrenados con conjuntos de datos masivos, combinados con técnicas de aprendizaje por refuerzo, han permitido a los modelos alcanzar un desempeño de nivel experto en razonamiento científico, programación y otras tareas especializadas. Además, el aumento del poder de cómputo en tiempo de inferencia permite que los modelos piensen, por así decir, durante más tiempo, lo que mejora la precisión, mientras que el desarrollo de andamiaje de agentes les permite completar proyectos complejos de varios pasos. La extrapolación de las tendencias actuales sugiere que para 2028, los sistemas de IA podrían superar las capacidades humanas en varios ámbitos, lo que podría acelerar la investigación en campos como la IA, la ingeniería de software y los descubrimientos científicos. Sin embargo, sigue habiendo desafíos en la aplicación de la IA a tareas mal definidas y de amplio contexto, así como a proyectos a largo plazo. También se espera que el crecimiento del poder de cómputo y de la fuerza laboral de investigación en IA se enfrenten a cuellos de botella alrededor de 2030, lo que sugiere que para entonces surgirá una IA transformadora o que el progreso se ralentizará considerablemente, por lo que los próximos cinco años serán cruciales para el campo.

    1h 30m

About

Repositorio exhaustivo de lecturas sobre altruismo eficaz, riesgo existencial e investigación sobre prioridades globales.

To listen to explicit episodes, sign in.

Stay up to date with this show

Sign in or sign up to follow shows, save episodes, and get the latest updates.

Select a country or region

Africa, Middle East, and India

Asia Pacific

Europe

Latin America and the Caribbean

The United States and Canada