Warum die künstliche Intelligenz niemals die menschliche übertreffen kann. Wie verhält sich die Intelligenz zu unserem Denken? Was meinen wir damit, wenn wir sagen: „Uns geht ein Licht auf?" Und welche Bedeutung hat in diesem Zusammenhang das Bewusstsein. Auf diese Fragen geben wir dieses Mal Antworten. Quellen: 1. Die 7 Intelligenzen nach Howard Gardner 2. Fachtagung „KI – Zwischen Transparenz und Teilhabe", St. Virgil, Salzburg, am 08. Mai 2025 Wenn bei dieser Fachtagung von bis zu 70 % Verzerrung gesprochen wurde, geht es vermutlich um den hohen Anteil nicht-repräsentativer oder strukturell verzerrter Trainingsdaten, nicht um bis zu 70 % „falsche Antworten" von KI-Systemen. 1. Datenverzerrung (Data Bias) KI-Systeme werden mit vorhandenen Daten trainiert – und diese Daten enthalten häufig: gesellschaftliche Ungleichheiten Überrepräsentation bestimmter Gruppen kulturelle oder sprachliche Schieflagen Ein großer Anteil der Trainingsdaten kann strukturell verzerrt sein– teilweise in der Größenordnung von 60–70 %, wenn man globale Repräsentation (z. B. westliche Perspektiven im Internet) betrachtet. 2. Globale Datenungleichheit Ein Beispiel: Ein Großteil öffentlich verfügbarer Trainingsdaten stammt aus Nordamerika und Europa. Viele Regionen (Globaler Süden, Minderheitensprachen) sind stark unterrepräsentiert. In diesem Kontext kann man sagen, dass ein erheblicher Anteil der Datengrundlage nicht global repräsentativ ist. 3. Wichtig: Kontextabhängigkeit Die „70 %" sind: keine standardisierte wissenschaftliche Messgröße kein global anerkannter Durchschnittswert eher eine zugespitzte, erklärende Größenordnung zur Illustration des Problems In diesem Zusammenhang sehr zu empfehlen: Bernd Resch, er ist Professor für GeoSoziale KI an der IT:U Interdisciplinary Transformation University und Visiting Scholar an der Harvard University (USA). https://it-u.at/de/research/professors/bernd-resch/ 3. Zentrale Studien zu Bias in KI: Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT '21), 610–623. https://doi.org/10.1145/3442188.3445922 Bolukbasi, T., Chang, K.-W., Zou, J. Y., Saligrama, V., & Kalai, A. T. (2016). Man is to computer programmer as woman is to homemaker? Debiasing word embeddings. Advances in Neural Information Processing Systems, 29. Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. Proceedings of Machine Learning Research, 81, 1–15. Caliskan, A., Bryson, J. J., & Narayanan, A. (2017). Semantics derived automatically from language corpora contain human-like biases. Science, 356(6334), 183–186. https://doi.org/10.1126/science.aal4230 Dodge, J., Gururangan, S., Card, D., Schwartz, R., & Smith, N. A. (2021). Documenting large webtext corpora: A case study on the Colossal Clean Crawled Corpus. Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (EMNLP). Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447–453. https://doi.org/10.1126/science.aax2342