34 min

Künstliche Intelligenz und das verzerrte Abbild der Realität #DMW Podcast - ein Podcast der Digital Media Women

    • Sociedad y cultura

In der dritten Folge des #DMW Podcasts spricht Ariana Sliwa von den #DMW mit Philipp Koch. Philipp ist Machine Learning Engineer, Data Scientist, Consultant und Hochschuldozent. Im Jahr 2016 hat er Limebit gegründet, ein Software-Unternehmen für Machine Intelligence, zuvor hat er einige Jahre bei IBM gearbeitet.

Alexa, Siri und der Terminator – die Assoziationen beim Begriff Künstliche Intelligenz (KI) sind vielfältig, aber nicht immer positiv. Häufig wecken sie sogar die Angst, dass Maschinen bald unser Leben und Denken übernehmen, dass Software die Menschen in der Arbeitswelt ersetzen könnte. Aber davon sind wir weit entfernt, beruhigt Philipp Koch. Und weil KI mit so vielen Vorstellungen und Ängsten behaftet ist, bevorzugt er den Begriff Machine Learning. Dieser drücke besser aus, dass es mehr um eine etwas klügere Automatisierung geht als um wirklich intelligentes Verhalten. Und diese Automatisierung bringt viele Vorteile, beispielsweise wenn es um die Verarbeitung und Interpretation großer Datenmengen oder um repetitive Prozesse geht. Und genau deshalb sind Daten kein „Müll“, der lästigerweise gespeichert werden muss, sondern ein Rohstoff, der nützliche Informationen bietet. Doch wie gut die Maschinen am Ende zu einem zufriedenstellenden Ergebnis kommen, hängt vor allem vom „Training“ ab. Eine Aufgabe der Software-Entwickler:innen ist es deshalb, dafür zu sorgen, dass die Daten, die der Algorithmus verwendet, möglichst diskriminierungsfrei sind. Und vielleicht, so Philipp, verbiete es sich dann eigentlich, mit historischen Daten zu arbeiten, in denen sich soviel Bias (Verzerrung) und Diskriminierung angesammelt hat.

Mehr über Philipp Koch findet Ihr auf seinem LinkedIn-Profil https://www.linkedin.com/in/Philipp-koch-berlin und auf der
der Website seines Unternehmens www.limebit.de

Hier geht es zu https://opendiscourse.de/. Die Datenbank hinter Open Discourse ist die erste granulare, umfassende und maschinenlesbare Aufbereitung jedes jemals gesprochenen Wortes in den Parlamentssitzungen des deutschen Bundestages. Sie ermöglicht erstmalig gefilterte Recherchen in den Reden und Zwischenrufen der Politker:innen und Fraktionen.

Wer Interesse an Arianas Bachelorarbeit mit dem Titel “The Relevance of Ethics in the Development of Machine Learning Systems” hat, folge diesem Link:
https://drive.google.com/file/d/1Y9iWyq0_GB6-8-atuKv3ItH3FYXxQQka/view?usp=sharing

Quellen zu den genannten Beispielen, bei denen das Machine-Learning-Modell mit unzureichenden Daten trainiert wurde:

J. Vincent (2018, Jan. 12), “Google ‘fixed’ its racist algorithm
by removing gorillas from its image-labeling tech," The Verge.
https://www.theverge.com/2018/1/12/16882408/google-racist-gorillas-photo-recognition-algorithm-ai

P. Dave (2018, Nov. 27), “Fearful of bias, Google blocks genderbased pronouns from new AI tool," Reuters. https://www.reuters.com/article/us-alphabet-google-ai-gender-idUSKCN1NW0EF

J. Dastin (2018, Oct. 10), “Amazon scraps secret AI recruiting tool that showed bias against women," Reuters.
https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

#DMW – der Podcast der Digital Media Women beschäftigt sich damit, wie stark Digitalisierung und Gleichberechtigung zusammenhängen. Wir sprechen mit Expert:innen, berichten aus der Praxis, teilen besondere Geschichten, möchten Tipps an die Hand geben und zum Mitmachen motivieren.

Die #DMW arbeiten für mehr Sichtbarkeit von Frauen auf allen Bühnen – ob Konferenzen, Fachmedien oder Management Board. Wir unterstützen und vernetzen Frauen, die den digitalen Wandel vorantreiben.
Webseite: www.digitalmediawomen.de
Facebook: https://www.facebook.com/DigitalMediaWomen
Twitter: https://twitter.com/digiwomende
Kontakt: info@digitalmediawomen.de

In der dritten Folge des #DMW Podcasts spricht Ariana Sliwa von den #DMW mit Philipp Koch. Philipp ist Machine Learning Engineer, Data Scientist, Consultant und Hochschuldozent. Im Jahr 2016 hat er Limebit gegründet, ein Software-Unternehmen für Machine Intelligence, zuvor hat er einige Jahre bei IBM gearbeitet.

Alexa, Siri und der Terminator – die Assoziationen beim Begriff Künstliche Intelligenz (KI) sind vielfältig, aber nicht immer positiv. Häufig wecken sie sogar die Angst, dass Maschinen bald unser Leben und Denken übernehmen, dass Software die Menschen in der Arbeitswelt ersetzen könnte. Aber davon sind wir weit entfernt, beruhigt Philipp Koch. Und weil KI mit so vielen Vorstellungen und Ängsten behaftet ist, bevorzugt er den Begriff Machine Learning. Dieser drücke besser aus, dass es mehr um eine etwas klügere Automatisierung geht als um wirklich intelligentes Verhalten. Und diese Automatisierung bringt viele Vorteile, beispielsweise wenn es um die Verarbeitung und Interpretation großer Datenmengen oder um repetitive Prozesse geht. Und genau deshalb sind Daten kein „Müll“, der lästigerweise gespeichert werden muss, sondern ein Rohstoff, der nützliche Informationen bietet. Doch wie gut die Maschinen am Ende zu einem zufriedenstellenden Ergebnis kommen, hängt vor allem vom „Training“ ab. Eine Aufgabe der Software-Entwickler:innen ist es deshalb, dafür zu sorgen, dass die Daten, die der Algorithmus verwendet, möglichst diskriminierungsfrei sind. Und vielleicht, so Philipp, verbiete es sich dann eigentlich, mit historischen Daten zu arbeiten, in denen sich soviel Bias (Verzerrung) und Diskriminierung angesammelt hat.

Mehr über Philipp Koch findet Ihr auf seinem LinkedIn-Profil https://www.linkedin.com/in/Philipp-koch-berlin und auf der
der Website seines Unternehmens www.limebit.de

Hier geht es zu https://opendiscourse.de/. Die Datenbank hinter Open Discourse ist die erste granulare, umfassende und maschinenlesbare Aufbereitung jedes jemals gesprochenen Wortes in den Parlamentssitzungen des deutschen Bundestages. Sie ermöglicht erstmalig gefilterte Recherchen in den Reden und Zwischenrufen der Politker:innen und Fraktionen.

Wer Interesse an Arianas Bachelorarbeit mit dem Titel “The Relevance of Ethics in the Development of Machine Learning Systems” hat, folge diesem Link:
https://drive.google.com/file/d/1Y9iWyq0_GB6-8-atuKv3ItH3FYXxQQka/view?usp=sharing

Quellen zu den genannten Beispielen, bei denen das Machine-Learning-Modell mit unzureichenden Daten trainiert wurde:

J. Vincent (2018, Jan. 12), “Google ‘fixed’ its racist algorithm
by removing gorillas from its image-labeling tech," The Verge.
https://www.theverge.com/2018/1/12/16882408/google-racist-gorillas-photo-recognition-algorithm-ai

P. Dave (2018, Nov. 27), “Fearful of bias, Google blocks genderbased pronouns from new AI tool," Reuters. https://www.reuters.com/article/us-alphabet-google-ai-gender-idUSKCN1NW0EF

J. Dastin (2018, Oct. 10), “Amazon scraps secret AI recruiting tool that showed bias against women," Reuters.
https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

#DMW – der Podcast der Digital Media Women beschäftigt sich damit, wie stark Digitalisierung und Gleichberechtigung zusammenhängen. Wir sprechen mit Expert:innen, berichten aus der Praxis, teilen besondere Geschichten, möchten Tipps an die Hand geben und zum Mitmachen motivieren.

Die #DMW arbeiten für mehr Sichtbarkeit von Frauen auf allen Bühnen – ob Konferenzen, Fachmedien oder Management Board. Wir unterstützen und vernetzen Frauen, die den digitalen Wandel vorantreiben.
Webseite: www.digitalmediawomen.de
Facebook: https://www.facebook.com/DigitalMediaWomen
Twitter: https://twitter.com/digiwomende
Kontakt: info@digitalmediawomen.de

34 min

Top podcasts en Sociedad y cultura

Seminario Fenix | Brian Tracy
matiasmartinez16
Despertando
Dudas Media
Códice Críptico
iHeartPodcasts
Radio Ambulante
NPR
La Verdad Sin Filtro
Jessica Lorc
Se Regalan Dudas
Dudas Media