25 Min.

Low Latency Storage und Hot Data. Anforderungen & Entwicklungstrends Storage Consortium

    • Technologie

Datenanalysen und neue KI-basierte Applikationen erfordern leistungsfähige IT-Infrastrukturen, aber keine Silos; ein Expertengespräch.

Um was geht es in dieser Podcast-Episode? Storage-Technologien sind kein Selbstzweck und werden verstärkt über aktuelle Entwicklungen auf der Anwendungsseite beeinflusst. Beispiel: die Verschmelzung von Data Lake- und Data Warehouse-Architekturen, um als eine zentral aggregierte Ressource für alle strukturierten, semi- und unstrukturierten Daten eines Unternehmens zu agieren.

Die Gesprächspartner dieser Podcast-Episode sind Dirk Hannemann, HPE Principal Solution Architect und Christian Hansmann, Solution Sales Architect bei der Firma Cancom (die Fragen stellt Norbert Deuschle vom Storage Consortium).

Unternehmensrelevante Daten in immer größeren Mengen erzeugt. Zudem fordert der Einsatz von Big Data Analysen, ML und KI auf Grund von Digitalisierung die existierende Speicher- und IT-Infrastruktur von Core-to-Edge heraus. Verstärkt ist die Speicher- und Datenverwaltungsseite gefordert, kosteneffiziente und leistungsfähige Lösungen für Daten und Anwendungen (User) bereitzustellen.

In den letzten beiden Podcast-Episoden sind wir darauf eingegangen, welche Herausforderungen und Lösungsansätze aus Speicher- und Datenmanagement-Sicht mit dem Fokus auf sogenannte kalte und warme Daten bestehen. Real-time Datenanalysen und neue teils KI-basierte Applikationen, erfordern Performance-seitig eine hohe und skalierbare Verarbeitungsgeschwindigkeit. Dies betrifft aber nicht nur den Storage mit I/O-Protokollen, sondern den gesamten IT-Infrastruktur-Stack, um Silos und Engpässe möglichst gar nicht erst entstehen zu lassen.

Diese Podcast-Episode beschäftigt sich primär mit dem Thema Low-latency storage und „Hot- oder Fast Data“. Zudem werfen wir einen Blick auf Entwicklungstrends im Bereich von Multiprotokoll Storage, der Bedeutung von NVMoF im Zusammenhang mit Software Definierten Architekturen und Flash sowie einem gezielten Einsatz von hybriden Cloud Deployments. Angesprochen werden zudem einige damit verbundene Entwicklungstrends für die nächsten Jahre.

Datenanalysen und neue KI-basierte Applikationen erfordern leistungsfähige IT-Infrastrukturen, aber keine Silos; ein Expertengespräch.

Um was geht es in dieser Podcast-Episode? Storage-Technologien sind kein Selbstzweck und werden verstärkt über aktuelle Entwicklungen auf der Anwendungsseite beeinflusst. Beispiel: die Verschmelzung von Data Lake- und Data Warehouse-Architekturen, um als eine zentral aggregierte Ressource für alle strukturierten, semi- und unstrukturierten Daten eines Unternehmens zu agieren.

Die Gesprächspartner dieser Podcast-Episode sind Dirk Hannemann, HPE Principal Solution Architect und Christian Hansmann, Solution Sales Architect bei der Firma Cancom (die Fragen stellt Norbert Deuschle vom Storage Consortium).

Unternehmensrelevante Daten in immer größeren Mengen erzeugt. Zudem fordert der Einsatz von Big Data Analysen, ML und KI auf Grund von Digitalisierung die existierende Speicher- und IT-Infrastruktur von Core-to-Edge heraus. Verstärkt ist die Speicher- und Datenverwaltungsseite gefordert, kosteneffiziente und leistungsfähige Lösungen für Daten und Anwendungen (User) bereitzustellen.

In den letzten beiden Podcast-Episoden sind wir darauf eingegangen, welche Herausforderungen und Lösungsansätze aus Speicher- und Datenmanagement-Sicht mit dem Fokus auf sogenannte kalte und warme Daten bestehen. Real-time Datenanalysen und neue teils KI-basierte Applikationen, erfordern Performance-seitig eine hohe und skalierbare Verarbeitungsgeschwindigkeit. Dies betrifft aber nicht nur den Storage mit I/O-Protokollen, sondern den gesamten IT-Infrastruktur-Stack, um Silos und Engpässe möglichst gar nicht erst entstehen zu lassen.

Diese Podcast-Episode beschäftigt sich primär mit dem Thema Low-latency storage und „Hot- oder Fast Data“. Zudem werfen wir einen Blick auf Entwicklungstrends im Bereich von Multiprotokoll Storage, der Bedeutung von NVMoF im Zusammenhang mit Software Definierten Architekturen und Flash sowie einem gezielten Einsatz von hybriden Cloud Deployments. Angesprochen werden zudem einige damit verbundene Entwicklungstrends für die nächsten Jahre.

25 Min.

Top‑Podcasts in Technologie

Apfelfunk
Malte Kirchner & Jean-Claude Frick
Lex Fridman Podcast
Lex Fridman
Flugforensik - Abstürze und ihre Geschichte
Flugforensik
NewMinds.AI -  Podcast
Jens Polomski & Max Anzile
c’t uplink - der IT-Podcast aus Nerdistan
c’t Magazin
Waveform: The MKBHD Podcast
Vox Media Podcast Network