1 tim. 5 min

KI-Forscher und -Unternehmer warnen vor existenziellen Risiken durch AI - Wie gefährlich sind KIs oder könnten es werden? | "KI und Mensch" | Folge 10, Teil 1 KI und Mensch

    • Teknologi

Die dunkle Seite der KI: Risiken, Kritik und die Zukunft der Technologie
Willkommen zur neuesten Episode unseres Podcasts, in der wir uns intensiv mit dem Thema "Künstliche Intelligenz und das Risiko des Untergangs" beschäftigen. In dieser Folge diskutieren wir eine Reihe von Quellen und Perspektiven, die sowohl die potenziellen Risiken als auch die Kritik an diesen Warnungen beleuchten.

Wir beginnen mit einem Blick auf die Erklärung von www.safe.ai zum Risiko der KI und berichten über Warnungen von Branchenführern, die in der New York Times und anderen Medien aufgegriffen und disktutiert wurden. Eine Studie der Universität Oxford liefert eine düstere Antwort auf die Frage, ob künstliche Intelligenz das Ende der Menschheit bedeuten könnte, während Kritiker diese Warnungen als übertrieben betrachten.

Wir werden auch die aktuellen Risiken diskutieren, die in dem Artikel "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?" (2021) aufgeführt sind, einschließlich der Verstärkung von Vorurteilen und Stereotypen, der Generierung von beleidigender Sprache und der Ausnutzung durch böswillige Akteure.

Darüber hinaus werden wir den Energieverbrauch von KI und die Auswirkungen auf die Nachhaltigkeit betrachten, basierend auf einem Artikel von www.zdnet.com. Wir werden auch die Wahrscheinlichkeit des Untergangs durch KI (auch genannt p(Doom) / x-risk) diskutieren, die auf Foren oder Artikeln unter anderem im Time Magazine behandelt werden.

Schließlich werden wir die Ansichten verschiedener Experten wie Eliezer Yudkowsky, Yoshua Bengio, Max Tegmark und Geoffrey Hinton beleuchten, die ihre Gedanken und Bedenken zur KI und ihrem Potenzial für Risiken geäußert haben.

Wir hoffen, dass diese Episode Ihnen einen umfassenden Überblick über das aktuelle Gespräch rund um KI und Risiken bietet und freuen uns auf Ihre Gedanken und Fragen zu diesem wichtigen Thema. Bleiben Sie dran!


Link-Liste für Teil 1:
https://www.safe.ai/statement-on-ai-risk
https://www.nytimes.com/2023/05/30/technology/ai-threat-warning.html

https://www.swr.de/wissen/experten-warnen-vor-ausloeschung-der-menschheit-durch-ki-100.html

Oxford Studie: https://www.fr.de/wissen/ki-kuenstliche-intelligenz-ende-menschheit-oxford-studie-liefert-duestere-antwort-91821912.html


Kritik:
https://www.tagesspiegel.de/politik/umweltfolgen-durch-kunstliche-intelligenz-gravierend-forscherin-aus-oxford-kritisiert-ausloschungs-warnung-9911783.html
https://theconversation.com/if-were-going-to-label-ai-an-extinction-risk-we-need-to-clarify-how-it-could-happen-206738


Aktuelle Risiken:
On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? (2021)
https://dl.acm.org/doi/pdf/10.1145/3442188.3445922

Energy-Consumption: https://www.zdnet.com/home-and-office/sustainability/this-new-aws-tool-shows-customers-the-carbon-footprint-of-their-cloud-computing-usage/

p(Doom) / x-risk: https://forum.effectivealtruism.org/posts/THogLaytmj3n8oGbD/p-doom-or-agi-is-high-why-the-default-outcome-of-agi-is-doom

https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/
Eliezer Yudkowsky https://twitter.com/ESYudkowsky

Yoshua Bengio https://www.bbc.co.uk/news/technology-65760449
Max Tegmark:
https://www.channel4.com/news/ai-extinction-threat-is-going-mainstream-says-max-tegmark
https://time.com/6273743/thinking-that-could-doom-us-with-ai/
Geoffrey Hinton: https://www.nytimes.com/2023/05/30/podcasts/the-daily/chatgpt-hinton-ai.html

Weitere Stimmen:
https://twitter.com/abacaj/status/1664237098633658368
https://twitter.com/ylecun
https://twitter.com/tdietterich/status/1663602549130432512
https://twitter.com/GaryMarcus/status/1664124885009068032?s=20
https://twitter.com/chrmanning/status/1663920862439915524


Experts survey: https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/


Folgt uns auf:

Twitter: https://twitter.com/KIundMensch
Twitch: https://www.twitch.tv/kiundmensch
Youtube: https://www.youtube.com/@kiundmensch

Die dunkle Seite der KI: Risiken, Kritik und die Zukunft der Technologie
Willkommen zur neuesten Episode unseres Podcasts, in der wir uns intensiv mit dem Thema "Künstliche Intelligenz und das Risiko des Untergangs" beschäftigen. In dieser Folge diskutieren wir eine Reihe von Quellen und Perspektiven, die sowohl die potenziellen Risiken als auch die Kritik an diesen Warnungen beleuchten.

Wir beginnen mit einem Blick auf die Erklärung von www.safe.ai zum Risiko der KI und berichten über Warnungen von Branchenführern, die in der New York Times und anderen Medien aufgegriffen und disktutiert wurden. Eine Studie der Universität Oxford liefert eine düstere Antwort auf die Frage, ob künstliche Intelligenz das Ende der Menschheit bedeuten könnte, während Kritiker diese Warnungen als übertrieben betrachten.

Wir werden auch die aktuellen Risiken diskutieren, die in dem Artikel "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?" (2021) aufgeführt sind, einschließlich der Verstärkung von Vorurteilen und Stereotypen, der Generierung von beleidigender Sprache und der Ausnutzung durch böswillige Akteure.

Darüber hinaus werden wir den Energieverbrauch von KI und die Auswirkungen auf die Nachhaltigkeit betrachten, basierend auf einem Artikel von www.zdnet.com. Wir werden auch die Wahrscheinlichkeit des Untergangs durch KI (auch genannt p(Doom) / x-risk) diskutieren, die auf Foren oder Artikeln unter anderem im Time Magazine behandelt werden.

Schließlich werden wir die Ansichten verschiedener Experten wie Eliezer Yudkowsky, Yoshua Bengio, Max Tegmark und Geoffrey Hinton beleuchten, die ihre Gedanken und Bedenken zur KI und ihrem Potenzial für Risiken geäußert haben.

Wir hoffen, dass diese Episode Ihnen einen umfassenden Überblick über das aktuelle Gespräch rund um KI und Risiken bietet und freuen uns auf Ihre Gedanken und Fragen zu diesem wichtigen Thema. Bleiben Sie dran!


Link-Liste für Teil 1:
https://www.safe.ai/statement-on-ai-risk
https://www.nytimes.com/2023/05/30/technology/ai-threat-warning.html

https://www.swr.de/wissen/experten-warnen-vor-ausloeschung-der-menschheit-durch-ki-100.html

Oxford Studie: https://www.fr.de/wissen/ki-kuenstliche-intelligenz-ende-menschheit-oxford-studie-liefert-duestere-antwort-91821912.html


Kritik:
https://www.tagesspiegel.de/politik/umweltfolgen-durch-kunstliche-intelligenz-gravierend-forscherin-aus-oxford-kritisiert-ausloschungs-warnung-9911783.html
https://theconversation.com/if-were-going-to-label-ai-an-extinction-risk-we-need-to-clarify-how-it-could-happen-206738


Aktuelle Risiken:
On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? (2021)
https://dl.acm.org/doi/pdf/10.1145/3442188.3445922

Energy-Consumption: https://www.zdnet.com/home-and-office/sustainability/this-new-aws-tool-shows-customers-the-carbon-footprint-of-their-cloud-computing-usage/

p(Doom) / x-risk: https://forum.effectivealtruism.org/posts/THogLaytmj3n8oGbD/p-doom-or-agi-is-high-why-the-default-outcome-of-agi-is-doom

https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/
Eliezer Yudkowsky https://twitter.com/ESYudkowsky

Yoshua Bengio https://www.bbc.co.uk/news/technology-65760449
Max Tegmark:
https://www.channel4.com/news/ai-extinction-threat-is-going-mainstream-says-max-tegmark
https://time.com/6273743/thinking-that-could-doom-us-with-ai/
Geoffrey Hinton: https://www.nytimes.com/2023/05/30/podcasts/the-daily/chatgpt-hinton-ai.html

Weitere Stimmen:
https://twitter.com/abacaj/status/1664237098633658368
https://twitter.com/ylecun
https://twitter.com/tdietterich/status/1663602549130432512
https://twitter.com/GaryMarcus/status/1664124885009068032?s=20
https://twitter.com/chrmanning/status/1663920862439915524


Experts survey: https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/


Folgt uns auf:

Twitter: https://twitter.com/KIundMensch
Twitch: https://www.twitch.tv/kiundmensch
Youtube: https://www.youtube.com/@kiundmensch

1 tim. 5 min

Mest populära poddar inom Teknologi

Lex Fridman Podcast
Lex Fridman
Elbilsveckan
Peter Esse & Christoffer Gullin
AI Sweden Podcast
AI Sweden
Darknet Diaries
Jack Rhysider
Acquired
Ben Gilbert and David Rosenthal
The Vergecast
The Verge