153 Folgen

Der Daten- und Analyse-Podcast liefert aktuelle Erkenntnisse und umsetzbare Ratschläge, die Ihnen zum Erfolg verhelfen. Themen sind u. a.: Datenmodelle, künstliche Intelligenz, Management von Metadaten - alles, was Ihr Unternehmen am Laufen hält!

Auch die Welt der Fakten wird in diesem Podcast behandelt: von der Verwaltung der Metadaten (was bedeutet "Metadaten"?) bis hin zur Analyse komplexer Modellierungstechniken, um Trends im Kundenverhalten zu verstehen... Diese Sendung bietet den Hörern alles, was sie brauchen, um bei der Arbeit mit Daten erfolgreich zu sein.

Data & Analytics lernen Data & Analytics lernen

    • Bildung

Der Daten- und Analyse-Podcast liefert aktuelle Erkenntnisse und umsetzbare Ratschläge, die Ihnen zum Erfolg verhelfen. Themen sind u. a.: Datenmodelle, künstliche Intelligenz, Management von Metadaten - alles, was Ihr Unternehmen am Laufen hält!

Auch die Welt der Fakten wird in diesem Podcast behandelt: von der Verwaltung der Metadaten (was bedeutet "Metadaten"?) bis hin zur Analyse komplexer Modellierungstechniken, um Trends im Kundenverhalten zu verstehen... Diese Sendung bietet den Hörern alles, was sie brauchen, um bei der Arbeit mit Daten erfolgreich zu sein.

    Data & Analytics lernen - Die Datenblackbox im Financial

    Data & Analytics lernen - Die Datenblackbox im Financial

    Bei der Finanzdatenanalyse geht es darum, Zusammenhänge in Finanzdaten zu erkennen und zu erforschen, um bessere Entscheidungen zu treffen. Dazu werden häufig ausgefeilte statistische Techniken wie Regressionsanalysen und Zeitreihenanalysen eingesetzt. Sie kann aber auch mit einfachen Tools wie Excel durchgeführt werden. Die Datenanalyse kann zur Verbesserung einer Vielzahl von Entscheidungen in Finanzabteilungen eingesetzt werden, von der Preisgestaltung bis zum Risikomanagement. In vielen Fällen kann sie dazu beitragen, Probleme zu erkennen, die sonst unentdeckt bleiben würden. So kann die Datenanalyse beispielsweise aufzeigen, dass eine Finanzabteilung bei einer bestimmten Art von Ausgaben, wie z.B. Reisen, zu viel Geld ausgibt. Diese Informationen können dann genutzt werden, um Entscheidungen darüber zu treffen, wo die Kosten gesenkt werden sollen. Die Datenanalyse kann auch zur Verbesserung von Prognosemodellen verwendet werden. Wenn die Verkäufe eines Unternehmens beispielsweise saisonabhängig sind, kann die Datenanalyse dazu verwendet werden, die Muster in den Daten zu identifizieren und ein Modell zu entwickeln, das zukünftige Verkäufe vorhersagt. Diese Art der Analyse ist besonders in Finanzabteilungen wichtig, da genaue Prognosen für solide finanzielle Entscheidungen unerlässlich sind.


    ---

    Send in a voice message: https://podcasters.spotify.com/pod/show/data-analytics-podcast/message

    • 12 Min.
    Data & Analytics lernen - Data & Analytics in der Organisationsentwicklung

    Data & Analytics lernen - Data & Analytics in der Organisationsentwicklung

    Praktiker der Organisationsentwicklung haben die Bedeutung von Daten und Analysen für das Verständnis der Unternehmensleistung schon lange erkannt. In den letzten Jahren haben sich die Instrumente und Techniken, die den Praktikern zur Verfügung stehen, jedoch erheblich weiterentwickelt, so dass sich neue Möglichkeiten für die Nutzung von Daten zur Förderung des organisatorischen Wandels ergeben haben. Mit Hilfe von Daten und Analysen lassen sich nun potenzielle Verbesserungsbereiche ermitteln, die Ursachen von Organisationsproblemen verstehen und die Auswirkungen der vorgeschlagenen Änderungen messen. Infolgedessen wird die datengesteuerte Organisationsentwicklung als Mittel zur Leistungssteigerung immer beliebter. Durch die Nutzung von Daten und Analysen können Praktiker ihrer Arbeit ein neues Maß an Strenge und Objektivität verleihen, was letztlich zu einer besseren Entscheidungsfindung und einem höheren Erfolgsniveau führt.


    ---

    Send in a voice message: https://podcasters.spotify.com/pod/show/data-analytics-podcast/message

    • 6 Min.
    Data & Analytics lernen - Rassistische Voreingenommenheit von Maschinen

    Data & Analytics lernen - Rassistische Voreingenommenheit von Maschinen

    Die Sorge wächst, dass die Systeme der künstlichen Intelligenz (KI), auf die immer häufiger zurückgegriffen wird, bestimmte Gruppen benachteiligen. Das liegt daran, dass die Daten, aus denen diese Systeme lernen, oft selbst voreingenommen sind, zum Beispiel aufgrund von Diskriminierungsmustern in der Vergangenheit. Wenn maschinelle Lernsysteme nicht sorgfältig überwacht werden, könnten sie diese Voreingenommenheit verstärken und sogar noch verschlimmern. Ein Gesichtserkennungssystem beispielsweise, das auf einem Datensatz mit überwiegend weißen Gesichtern trainiert wurde, wird schwarze Gesichter wahrscheinlich weniger genau erkennen. Dies könnte schwerwiegende Auswirkungen auf Bereiche wie die Strafverfolgung haben, wo KI-Systeme eingesetzt werden, um Entscheidungen darüber zu treffen, wer angehalten und durchsucht werden soll. Es besteht die Gefahr, dass diese Systeme bestehende soziale Ungleichheiten verschärfen, wenn sie nicht stärker zur Rechenschaft gezogen werden.


    ---

    Send in a voice message: https://podcasters.spotify.com/pod/show/data-analytics-podcast/message

    • 9 Min.
    Data & Analytics lernen - Framing-Prozess in der Unternehmensanalyse

    Data & Analytics lernen - Framing-Prozess in der Unternehmensanalyse

    Der Framing-Prozess ist ein wichtiger Teil der Unternehmensanalyse. Er umfasst das Verstehen des Problems oder der Gelegenheit, die Definition der Ziele und Zielsetzungen und die Entwicklung eines Plans, um diese zu erreichen. Dieser Prozess trägt dazu bei, dass alle Beteiligten auf derselben Seite stehen und dass jeder den Projektumfang und den Zeitplan versteht. Ohne einen klaren Bezugsrahmen kann es schwierig sein, Entscheidungen zu treffen oder Maßnahmen zu ergreifen. Der Framing-Prozess ist daher ein wesentliches Instrument für Unternehmensanalysten.


    ---

    Send in a voice message: https://podcasters.spotify.com/pod/show/data-analytics-podcast/message

    • 6 Min.
    Data & Analytics lernen - Einstieg in die Verarbeitung natürlicher Sprache: NLP, NLU, und NLG

    Data & Analytics lernen - Einstieg in die Verarbeitung natürlicher Sprache: NLP, NLU, und NLG

    Die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) ist ein Teilgebiet der Linguistik, der Informatik, der Informationstechnik und der künstlichen Intelligenz, das sich mit der Interaktion zwischen Computern und menschlichen (natürlichen) Sprachen befasst.

    NLP dient der Anwendung linguistischer Analyse und Wissensdarstellung auf Textdaten, um Aufgaben wie automatische Zusammenfassung, Übersetzung, Dialogmanagement, Textklassifizierung, Stimmungsanalyse, Erkennung benannter Entitäten, Themenmodellierung, Beziehungsextraktion und maschinelles Lesen durchzuführen. NLP kann für Anwendungen wie Chatbots, intelligente persönliche Assistenten (IPAs), die automatische Generierung von Untertiteln für Videos oder Bilder und die maschinelle Übersetzung verwendet werden.

    NLP-Algorithmen lassen sich grob in zwei Kategorien einteilen: regelbasierte Methoden und statistische Methoden. Regelbasierte Methoden basieren auf handgeschriebenen Regeln, die von Entwicklern oder Linguisten verfasst werden, während statistische Methoden auf Trainingsdaten beruhen, die mit linguistischen Informationen versehen sind. Beide Ansätze haben ihre eigenen Vor- und Nachteile; regelbasierte Methoden sind genauer, erfordern aber mehr Zeit und Aufwand bei der Entwicklung, während statistische Methoden weniger genau, aber einfacher zu entwickeln sind.

    NLU und NLG sind verwandte, aber unterschiedliche Teilbereiche des NLP. NLU befasst sich mit der Interpretation natürlichsprachlicher Eingaben, während NLG sich mit der Erzeugung natürlichsprachlicher Ausgaben befasst. NLU-Systeme nehmen unstrukturierte Eingaben wie freien Text auf und analysieren sie in strukturierte Darstellungen wie logische Formen oder Parse-Bäume. NLG-Systeme nehmen strukturierte Eingaben wie logische Formen oder Parse-Bäume entgegen und erzeugen entsprechende natürlichsprachliche Ausgaben. Sowohl NLU- als auch NLG-Systeme können entweder regelbasiert oder statistisch sein.

    Morphologie, Syntax, Semantik und Pragmatik sind die wichtigsten linguistischen Aspekte im NLP. Die Morphologie ist die Lehre von der Wortbildung, einschließlich der Flexion (das Hinzufügen von Endungen zu Wortstämmen, um die grammatische Funktion anzuzeigen) und der Derivation (die Bildung neuer Wörter aus bestehenden). Syntax ist die Lehre von der Satzstruktur, einschließlich der Reihenfolge der Wörter innerhalb eines Satzes. Semantik ist die Lehre von der Bedeutung, einschließlich der Wortbedeutung (lexikalische Semantik) und der Satzbedeutung (kompositorische Semantik). Die Pragmatik befasst sich mit der Frage, wie der Kontext die Bedeutung beeinflusst.

    Die NLP-Forschung wurde durch eine Reihe verschiedener Ziele motiviert, darunter die Entwicklung besserer Methoden zur Verarbeitung natürlichsprachlicher Daten, die Entwicklung von Systemen, die automatisch natürlichsprachliche Texte verstehen oder erzeugen können, die Verbesserung der Kommunikation zwischen Mensch und Computer, die Unterstützung bei der Entwicklung künstlicher Intelligenz und die Modellierung von Aspekten der menschlichen Kognition.


    ---

    Send in a voice message: https://podcasters.spotify.com/pod/show/data-analytics-podcast/message

    • 7 Min.
    Data & Analytics lernen - Eine Einführung in die Interpretation der Diskriminanzanalyse

    Data & Analytics lernen - Eine Einführung in die Interpretation der Diskriminanzanalyse

    Die Diskriminanzanalyse ist eine Klassifizierungsmethode, bei der eine lineare Kombination von Merkmalen verwendet wird, um eine Entscheidungsgrenze zu finden, die zur Klassifizierung neuer Datenpunkte verwendet werden kann. Die Koeffizienten der Linearkombination werden so bestimmt, dass die Grenze den Abstand zwischen den Mittelwerten der beiden Klassen maximiert und gleichzeitig die klasseninterne Varianz minimiert. Dies führt zu einer Grenze, die so nah wie möglich an beiden Klassen liegt und gleichzeitig so weit wie möglich von jedem Klassenmittelwert entfernt ist. Die aus der Diskriminanzanalyse gewonnene Entscheidungsgrenze kann verwendet werden, um Schätzungen der Klassifizierungsgenauigkeit für neue Datensätze zu erhalten. Die Diskriminanzanalyse ist auch für die explorative Datenanalyse nützlich, da sie dabei helfen kann, herauszufinden, welche Merkmale für die Unterscheidung am wichtigsten sind.


    ---

    Send in a voice message: https://podcasters.spotify.com/pod/show/data-analytics-podcast/message

    • 2 Min.

Top‑Podcasts in Bildung

G Spot mit Stefanie Giesinger
Stefanie Giesinger & Studio Bummens
Eine Stunde History - Deutschlandfunk Nova
Deutschlandfunk Nova
ZEIT Sprachen – English, please!
ZEIT ONLINE
Easy German: Learn German with native speakers | Deutsch lernen mit Muttersprachlern
Cari, Manuel und das Team von Easy German
Gehirn gehört - Prof. Dr. Volker Busch
Prof. Dr. Volker Busch
Quarks Science Cops
Quarks