242 Folgen

Bei genauem Hinsehen finden wir die Naturwissenschaft und besonders Mathematik überall in unserem Leben, vom Wasserhahn über die automatischen Temporegelungen an Autobahnen, in der Medizintechnik bis hin zum Mobiltelefon. Woran die Forscher, Absolventen und Lehrenden in Karlsruhe gerade tüfteln, erfahren wir hier aus erster Hand.

Modellansatz Gudrun Thäter, Sebastian Ritterbusch

    • Wissenschaft
    • 4,8 • 25 Bewertungen

Bei genauem Hinsehen finden wir die Naturwissenschaft und besonders Mathematik überall in unserem Leben, vom Wasserhahn über die automatischen Temporegelungen an Autobahnen, in der Medizintechnik bis hin zum Mobiltelefon. Woran die Forscher, Absolventen und Lehrenden in Karlsruhe gerade tüfteln, erfahren wir hier aus erster Hand.

    Benchmark OpenLB

    Benchmark OpenLB

    Gudrun spricht in dieser Folge mit Sarah Bischof, Timo Bohlig und Jonas Albrecht. Die drei haben im Sommersemester 2021 am Projektorientiertes Softwarepraktikum teilgenommen. Das Praktikum wurde 2010 als forschungsnaher Lernort konzipiert. Studierende unterschiedlicher Studiengänge arbeiten dort ein Semester lang an konkreten Strömungssimulationen. Es wird regelmäßig im Sommersemester angeboten. Seit 2014 liegt als Programmiersprache die Open Source Software OpenLB zugrunde, die ständig u.a. in der Karlsruher Lattice Boltzmann Research Group (LBRG) weiter entwickelt wird. Konkret läuft das Praktikum etwa folgendermaßen ab: Die Studierenden erhalten eine theoretische Einführung in Strömungsmodelle, die Idee von Lattice-Boltzmann-Methoden und die Nutzung der Hochleistungrechner am KIT. Außerdem finden sie sich für ein einführendes kleines Projekt in Gruppen zusammen. Anschließend wählen sie aus einem Katalog eine Frage aus, die sie bis zum Ende des Semesters mit Hilfe von Computersimulationen gemeinsam beantworten. Diese Fragen sind Teile von Forschungsthemen der Gruppe, z.B. aus Promotionsprojekten oder Drittmittelforschung. Während der Projektphase werden die Studierenden von dem Doktoranden/der Doktorandin der Gruppe, die die jeweilige Frage gestellt haben, betreut. Am Ende des Semesters werden die Ergebnisse in Vorträgen vorgestellt und diskutiert oder es wird eine Podcastfolge aufgenommen. In einer Ausarbeitung werden außerdem die Modellbildung, die Umsetzung in OpenLB und die konkreten Simulationsergebnisse ausführlich dargelegt und in den aktuellen Forschungsstand eingeordnet. Sarah, Timo und Jonas sind am KIT im Masterstudiengang Chemieingenieurwesen eingeschrieben. Neben den verschiedenen Masterstudiengängen Mathematik kommen aus diesem Studiengang die meisten Interessenten für das Softwarepraktikum. Im Podcast erläutern sie, was sie an der Strömungssimulation interessiert und inwieweit sie sich gut oder auch nicht so gut auf die Anforderungen vorbereitet gefühlt haben, wie sie sich die Arbeit in der Gruppe aufgeteilt haben und was sie an fachlichen und überfachlichen Dingen dort gelernt haben. Das Thema des Projektes war ein Benchmark für die Durchströmung der Aorta. Dies ist einer der Showcases für OpenLB, die auf den ersten Blick die Leistungsfähigkeit der Software demonstrieren sollen. Das Projekt wurde von der Gruppe in drei Teile gegliedert: Benchmark Test auf dem bwUniCluster 2.0 (High Performance Computer) Performance Analyse mit selbstgeschriebener Source Code Erweiterung Performance Analyse mit externer Software (Validierung der Source Code Erweiterung) Mit Hilfe der Benchmark Tests auf dem HPC konnte die maximale Skalierbarkeit des Aorta Source Codes in Abhängigkeit der Problemgröße gefunden werden. Sie gibt an, auf wie vielen Computerprozessoren der Showcase mit der höchsten Performance simuliert werden kann. Des Weiteren wurde die parallele Effizienz mit Hilfe der Speedup Kennzahl untersucht. (...)

    • 34 Min.
    Dynamische Benetzung

    Dynamische Benetzung

    Gudrun spricht in dieser Folge mit Mathis Fricke von der TU Darmstadt über Dynamische Benetzungsphänomene. Er hat 2020 in der Gruppe Mathematical Modeling and Analysis bei Prof. Dieter Bothe promoviert. Diese Gruppe ist in der Analysis und damit in der Fakultät für Mathematik angesiedelt, arbeitet aber stark interdisziplinär vernetzt, weil dort Probleme aus der Verfahrenstechnik modelliert und simuliert werden. Viele Anwendungen in den Ingenieurwissenschaften erfordern ein tiefes Verständnis der physikalischen Vorgänge in mehrphasigen Strömungen, d.h. Strömungen mit mehreren Komponenten. Eine sog. "Kontaktlinie" entsteht, wenn drei thermodynamische Phasen zusammenkommen und ein komplexes System bilden. Ein typisches Beispiel ist ein Flüssigkeitströpfchen, das auf einer Wand sitzt (oder sich bewegt) und von der Umgebungsluft umgeben ist. Ein wichtiger physikalischer Parameter ist dabei der "Kontaktwinkel" zwischen der Gas/Flüssig-Grenzfläche und der festen Oberfläche. Ist der Kontaktwinkel klein ist die Oberfläche hydrophil (also gut benetzend), ist der Kontaktwinkel groß ist die Oberläche hydrophob (schlecht benetzend). Je nach Anwendungsfall können beide Situationen in der Praxis gewollt sein. Zum Beispiel können stark hydrophobe Oberflächen einen Selbstreinigungseffekt aufweisen weil Wassertropfen von der Oberfläche abrollen und dabei Schmutzpartikel abtransportieren (siehe z.B. https://de.wikipedia.org/wiki/Lotoseffekt). Dynamische Benetzungsphänomene sind in Natur und Technik allgegenwärtig. Die Beine eines Wasserläufers nutzen eine ausgeklügelte hierarchische Oberflächenstruktur, um Superhydrophobie zu erreichen und das Insekt auf einer Wasseroberfläche leicht stehen und laufen zu lassen. Die Fähigkeit, dynamische Benetzungsprozesse zu verstehen und zu steuern, ist entscheidend für eine Vielzahl industrieller und technischer Prozesse wie Bioprinting und Tintenstrahldruck oder Massentransport in Mikrofluidikgeräten. Andererseits birgt das Problem der beweglichen Kontaktlinie selbst in einer stark vereinfachten Formulierung immer noch erhebliche Herausforderungen hinsichtlich der fundamentalen mathematischen Modellierung sowie der numerischen Methoden. Ein übliche Ansatz zur Beschreibung eines Mehrphasensystems auf einer makroskopischen Skala ist die Kontinuumsphysik, bei der die mikroskopische Struktur der Materie nicht explizit aufgelöst wird. Andererseits finden die physikalischen Prozesse an der Kontaktlinie auf einer sehr kleinen Längenskala statt. Man muss daher das Standardmodell der Kontinuumsphysik erweitern, um zu einer korrekten Beschreibung des Systems zu gelangen. Ein wichtiges Leitprinzip bei der mathematischen Modellierung ist dabei der zweite Hauptsatz der Thermodynamik, der besagt, dass die Entropie eines isolierten Systems niemals abnimmt. Dieses tiefe physikalische Prinzip hilft, zu einem geschlossenen und zuverlässigen Modell zu kommen. (...)

    • 1 Std. 6 Min.
    Moving Asymptotics

    Moving Asymptotics

    Gudrun spricht in dieser Folge mit Attila Genda über sein Praktikum bei Dassault Systèmes (Standort Karlsruhe), das er m Frühjahr und Sommer 2020 im Rahmen seines Masterstudiums Technomathematik absolviert hat. Bei Dassault Systèmes in Karlsruhe wird schon seit einigen Jahrzehnten Strukturoptimierung betrieben. Wir haben dort auch schon einige Podcastfolgen zu den mathematischen Hintergründen und den aktuellen Weiterentwicklungen aufgenommen (s.u.). Für die numerische Lösung der betrachteten partiellen Differentialgleichungen werden Finite Elemente Verfahren eingesetzt. Grundlage einer jeden Strukturoptimierung ist ein mathematisches Optimierungsproblem unter Nebenbedingungen. Dazu werden eine Zielgröße und mehrere Nebenbedingungen definiert. Die Zielgröße ist dabei abhängig von zu bestimmenden Variablen, die als Unbekannte oder Optimierungsparameter bezeichnet werden. Die Nebenbedingungen sind Bedingungen an die Variablen, die erfüllt sein müssen, damit die Löung ”zulässig“ ist. Das Ziel der Optimierung ist nun die Minimierung der Zielgröße unter Einhaltung der Nebenbedingungen. Um konkrete Probleme zu lösen, gibt es eine Bandbreite verschiedener Löungsmöglichkeiten, die jeweils auf die Aufgabenstellung zugeschnitten werden. Alle Löser bzw. Minimierungsprobleme haben jedoch gemein, dass sowohl die Konvexität der Zielfunktion als auch die Konvexität des Designgebiets von fundamentaler Bedeutung für die Lösbarkeit des Problems sind. Strukturoptimierung verändert die Form eines Bauteils oder einer Baugruppe so, dass weniger Material nötig ist, aber vorgegebene Festigkeitsanforderungen (z.B. Spannungen, denen das Teil typischerweise ausgesetzt ist) erfüllt sind. Dabei darf sich die Materialverteilung frei in approximativen Schritten verändern und ist nicht durch eine Vorplanung der prinzipiell einzuhaltenden äußeren Form begrenzt. Dies führt z.B. zur Entstehung von Löchern in der Form des Bauteils, was die Topologie auch im mathematischen Sinne verändert. Das ist kompliziert und einfach zugleich - je nachdem, unter welchem Blickwinkel man es betrachtet. Die Einfachheit ergibt sich aus der Tatsache, dass keine Zellen aus dem numerischen Netz der Numerik entfernt werden. Man setzt einfach eine Variable, die angibt, ob dort Material vorhanden ist oder nicht. Anstatt dies jedoch mit binären Werten zu tun (d.h. Material "an" oder "aus"), ändert man die Materialdichte der Zelle kontinuierlich zwischen [0, 1]. Dabei steht 0 für kein Material und 1 für die volle Materialmenge. Um numerische Probleme zu vermeiden wird statt 0 eine kleine Zahl verwendet. Da diese Modellierung im Allgemeinen zu physikalisch nicht interpretierbaren Ergebnissen führt, bei denen die Zellen weder leer sind noch die volle Menge an Material enthalten, müssen wir sicherstellen, dass der Optimierer dazu neigt, Ergebnisse zu finden, bei denen die Anzahl der Zellen mit mittlerer Dichte minimal ist. Dazu bestrafen wir solche Konstruktionen. [...]

    • 49 Min.
    Ginkgo

    Ginkgo

    Gudrun spricht mit Hartwig Anzt. Er leitet die Helmholtz-Nachwuchsgruppe Fixed-point methods for numerics at Exascale (FiNE) am SCC. Seine Forschung beschäftigt sich mit numerischer linearer Algebra in modernen Hochleistungsrechnersystemen. Angesichts des explosionsartigen Anstiegs der Hardware-Parallelität erfordert die effiziente Ausführung von Anwendungen auf solchen Systemen eine völlige Neugestaltung der zugrunde liegenden numerischen Methoden. Dieses neue Paradigma muss Implementierungen umfassen, die sich auf die Parallelität auf Knotenebene, ein reduziertes globales Kommunikationsvolumen und abgeschwächte Synchronisationsanforderungen konzentrieren. Hartwig ist Teil des PEEKS und xSDK-Projekts und leitet die Multiprecision-Initiative im US Exascale Computing Project (ECP). Das Ziel dieser Initiative besteht darin, die Nutzung verschiedener arithmetischer Präzisionen in numerische Algorithmen zu erforschen, wodurch viele Algorithmen beschleunigt werden können, ohne dabei Genauigkeit einzubüßen. Hartwigs Forschungsschwerpunkt liegt auf der Entwicklung und Optimierung numerischer Methoden für effizientes Hochleistungsrechnen. Insbesondere interessiert er sich für lineare Algebra für dünn besetzte Matrizen, iterative und asynchrone Methoden, Krylov-Löser und Vorkonditionierung. Die zugrundeliegende Idee besteht darin, numerische Probleme als Fixpunktprobleme umzuformulieren, um höhere Parallelisierungsgrade zu ermöglichen. Die Implementierung der Fixpunktmethoden macht typischerweise starken Gebrauch von (datenparallelen) Batch-Routinen und weist schwache Synchronisationsanforderungen auf. Die Algorithmenforschung wird ergänzt durch Bemühungen, die auf eine nachhaltige Software-Entwicklung in einem akademischen Umfeld und einen gesunden Software-Lebenszyklus abzielen. Ein Ergebnis dieser Bemühungen ist Ginkgo, eine Open Source Softwarebibliothek für numerische lineare Algebra mit dem Fokus auf Löser für dünn besetzte Systeme, die Hartwig ins Leben gerufen hat. Bei dem Stichwort Software-Nachhaltigkeit könnte man an das Vorhandensein eines Continuous Integration (CI)-Frameworks denken, also das Vorhandensein eines Test-Frameworks, das aus Unit-Tests, Integrationstests und End-to-End-Tests besteht (inkl. das Vorhandensein einer Software-Dokumentation). Wenn man jedoch fragt, was der übliche Todesstoß für ein wissenschaftliches Softwareprodukt ist, ist es oft die fehlende Plattform- und Leistungsportabilität. Vor diesem Hintergrund haben Hartwig und seine Gruppe wir Ginkgo-Bibliothek mit dem primären Fokus auf Plattform-Portabilität und der Fähigkeit, nicht nur auf neue Hardware-Architekturen zu portieren, sondern auch eine gute Performance zu erreichen, entwickelt. Die grundlegende Idee beim Design der Ginkgo-Bibliothek ist eine radikale Trennung der Algorithmen von den hardwarespezifischen Dingen. Daneben sprechen Gudrun und Hartwig über die Nutzung von Kalkülen mit geringer Genauigkeit für letztendlich präzise Algorithmen. [...]

    • 54 Min.
    Oszillationen

    Oszillationen

    Diese Folge entstand im Rahmen eines Projekts zur Modellbildungsvorlesung von Gudrun. Es ist eine Arbeit von Yannik Brenner, Bastian Hasenclever und Urs Malottke, die das Ziel haben, in einigen Jahren Mathematik und Physik am Gymnasium zu unterrichten. Außerdem macht Yannik selbst Musik und hat sich deshalb ganz praktisch mit Schwingungen an der Gitarre beschäftigt. Die drei hatten die Idee, dass man das Thema Schwingunge interessant für die Schule aufbereiten kann, wenn es dazu auch Hörbeispiele gibt. Deshalb haben Sie sich an einen Tisch gesetzt, das Gespräch und die Hörbeispiele aufgenommen und schließlich den Text dazu aufgeschrieben. Der harmonische Oszillator spielt eine wichtige Rolle zur Modellierung verschiedenster physikalischer Sachverhalte. Daher bietet es sich an, ihn schon in der Schule zu thematisieren, wo er auch in der Oberstufe im Bildungsplan zu finden ist. Während im Podcast der Versuch unternommen wurde, ein Grundverständnis für das Thema ohne formale Zusammenhänge zu entwickeln, sollen hier zusätzlich die mathematischen Hintergründe gemeinsam mit einigen Abbildungen ergänzt werden. Die didaktischen Aspekte, die in der Episode zur Sprache kommen, spielen im folgenden Text jedoch nur eine untergeordnete Rolle. Ein Oszillator ist ein System, das um einen bestimmten Punkt, in der Regel Ruhepunkt oder auch die Ruhelage genannt, schwingen kann. Befindet sich das System in Ruhe in dieser Ruhelage, passiert ohne die Einwirkung äußerer Kräfte nichts; wird das System von diesem Punkt ausgelenkt, wird es durch eine rückstellende Kraft wieder Richtung Ruhepunkt beschleunigt. Der Zusatz "harmonisch" bedeutet, dass die Rückstellkraft linear von der Auslenkung zum Ruhepunkt abhängt, also proportional zur Auslenkung zunimmt. Der Graph der Bewegungsfunktion ist eine Sinus- oder Cosinus-Kurve. Die einfachsten und wohl auch bekanntesten Beispiele eines Oszillators im Bereich der Mechanik sind das Faden- und das Federpendel. Beim Fadenpendel ist der niedrigste Punkt die Ruhelage und die Rückstellkraft resultiert aus der Gravitationskraft. Beim Federpendel stellt die Federkraft die rückstellende Kraft dar. Ein schwingfähiges System besitzt verschiedene Eigenschaften, mit deren Hilfe das gesamte System beschrieben werden kann. Um den harmonischen Oszillator zu verstehen, kann man sich zuerst die Bewegungsgleichung ansehen, also die Gleichung, die die aktuelle Lage des Systems beschreibt. Ausgangspunkt ist die Rückstellkraft, die im mechanischen Fall linear von der Auslenkung zur Ruhelage, also dem aktuellen Ort, abhängt (auf nicht-mechanische Einsatzgebiete wird später eingegangen). Die Rückstellkraft F kann mit einer Variablen k, die von verschiedenen Merkmalen des Systems abhängt, gemeinsam mit dem Ort also als $F(t) = -k\,x(t)$ dargestellt werden. Die Kraft kann auch als Beschleunigung a, also der zweifachen Ableitung des Ortes, mal der Masse m ausgedrückt werden. [...]

    • 30 Min.
    Verkehrsflusssimulation

    Verkehrsflusssimulation

    Im Rahmen der Vorlesung Mathematical Modelling and Simulation haben Jan Dietrich und Alexander Grötz ein Projekt bearbeitet, wo sie Verkehr mit Hilfe der Software VISSIM simulieren. Die Idee kam ihnen durch ein Praktikum Firma ptvgroup an der Verkehrsmodellierung, das Jan Dietrich kürzlich dort absovliert hat. Im Gespräch geht es um verschiedene Formen der Modellierung von Verkehrsflüssen und um konkrete Umsetzung des Modells in VISSIM. Der ersten Teil des Podcasts ist dabei der theorietischen Ausgestaltung von Verkehrsmodellen gewidmet. Im Wesentlichen unterschiedet man zwischen zwei Gruppen von Verkehrsmodellen. Während die so genannten Verkehrsflussmodelle, die die zeitliche Veränderung des Verkehrsaufkommens untersuchen, werden Verkehrsnachfragemodelle dazu verwendet, um Aussagen über das Verkehrsaufkommen in einem Jahr oder die Aufteilung dieser Nachfrage auf die verschiedenen Transportmittel zu treffen. Weiter werden diese beiden Gruppen nochmals in drei Kategorien uterteilt; genauer in Makroskopische Modelle, Mesoskopische Modelle und Mikroskopische Modelle. Eine letzte Unterscheidungsmöglichkeit zwischen einzelnen (Verkehrs-)Modellen ist der Zufall: Wenn jede Modellvariable in dem Sinn "vorhersehbar", dass die quantitative Ausprägung der einzelnen Variablen für alle betrachteten Zeiten exakt berechenbar sind und über deren Ausprägung keine Unsicherheit herrscht, sprich man von deterministischen Modellen. Oft ist es jedoch so, dass man bestimmte Ereignisse oder auch Handlungen der einzelnen Verkehrsteilnehmer nicht exakt vorhersehen kann. Dadurch erhält man aber gewisse Unsicherheiten bei der Berechnung zukünftiger Zustände, weil man die genaue Ausprägung der zufälligen Größen erst ex post kennt. Man wird im Allgemeinen also nie den exakten Zustand eines Modells mit solchen zufälligen Einflussgrößen bestimmen können. Solche Modelle, die Zufallsvariablen beinhalten, nennt man stochastisch. Im zweiten Teil des Podcasts, geht es um die praktische Umsetzung von Verkehrsmodellen mit Hilfe der Software PTV VISSIM. In VISSIM werden zahlreiche Aspekte des Straßenverkehrs sehr realitätsnah und graphisch ansprechend abgebildet. Neben der reinen Simulation der Bewegung von Fahrzeugen wird dabei auch auf viele Details, die das Verhalten der Fahrzeuge in der Realität beeinßussen, Rücksicht genommen. Unter anderem werden verschiedene Fahrzeugklassen und deren unterschiedliches Verhalten beim Bremsvorgang berücksichtigt, aber auch Dinge wie Vorfahrtsregelungen und Spurwechsel können modelliert werden. Mit der Erweiterung PTV Viswalk kann sogar auf das Verhalten einzelner Fußgänger Rücksicht genommen werden. Die Modellierung der Bewegung der einzelnen Verkehrsteilnehmer in PTV Vissim basiert dabei grundlegend auf dem Fahrzeugfolgemodell von Rainer Wiedemann, einem s.g. mikroskopischen, stochastischen Verkehrsfolgemodell, in welches auch psychologische Aspekte der Verkehrsmodellierung mit einfließen.

    • 39 Min.

Kundenrezensionen

4,8 von 5
25 Bewertungen

25 Bewertungen

Politik und Liebe ,

der einzige Cast...

...in meinem Podcatcher der mich nötigt während den Folgen mich in Themen einzulesen. Ich liebe es!

Methodischer Nicolas ,

Win/win

Ein wundervoller Podcast für alle die sich für Mathematik und ihre Relevanz für das alltägliche Leben interessieren. Darüber hinaus ist der Podcast eine klassische Win/Win Situation:
Die Studenten, die ihre Abschlussarbeiten vorstellen, können ihre spannende Forschung einem deutlich breiteren Publikum vorstellen als es im klassischen Seminar an der Universität möglich gewesen wäre.
Der Hörer lernt wo überall Mathematik zu finden ist und wie mathematische Modelle in der Lage sind die Welt zu beschreiben.
Vielen Dank für diesen Podcast!

Top‑Podcasts in Wissenschaft

Das gefällt dir vielleicht auch