139 Folgen

Das Storage Consortium fokussiert aktuelles technisches & wirtschaftliches Wissen für IT Organisationen und Unternehmen – Verlagsunabhängig und unter Mitarbeit sowie Themenauswahl eines erfahrenen Industrieexperten. Die Schwerpunkte des Online-Angebotes - neben dem Hauptgebiet Datenmanagement und Speicherverwaltung - bilden praxisnahe Informationen & Trends zu KI, Big Data, Cloud Computing... im Zusammenhang mit Server- und Netzwerkinfrastruktur-Lösungen für professionelle Rechenzentren und Cloud-Services-Anbieter. Top-aktuelle Podcasts und unser umfangreiches Podcast-Archiv finden Sie in der zugehörigen Rubrik unserer Webseite unter www.storageconsortium.de

Storage Consortium Storage Consortium

    • Technologie
    • 4,7 • 3 Bewertungen

Das Storage Consortium fokussiert aktuelles technisches & wirtschaftliches Wissen für IT Organisationen und Unternehmen – Verlagsunabhängig und unter Mitarbeit sowie Themenauswahl eines erfahrenen Industrieexperten. Die Schwerpunkte des Online-Angebotes - neben dem Hauptgebiet Datenmanagement und Speicherverwaltung - bilden praxisnahe Informationen & Trends zu KI, Big Data, Cloud Computing... im Zusammenhang mit Server- und Netzwerkinfrastruktur-Lösungen für professionelle Rechenzentren und Cloud-Services-Anbieter. Top-aktuelle Podcasts und unser umfangreiches Podcast-Archiv finden Sie in der zugehörigen Rubrik unserer Webseite unter www.storageconsortium.de

    Tape-basierter S3 Object Storage - Anwendungsfälle und Einsatzvorteile

    Tape-basierter S3 Object Storage - Anwendungsfälle und Einsatzvorteile

    Das Storage Consortium (N.Deuschle) spricht in dieser Podcast-Episode mit Herrn Thomas Thalmann, Geschäftsführer der Firma PoINT Software & Systems GmbH in Siegen zu den Technologien, Vorteilen und konkreten Anwendungsfällen einer S3-basierten Objektspeicher-Softwarelösung in Kombination mit Tape Storage.

    Im Einzelnen werden in dem Gespräch folgende Punkte adressiert und ausführlicher behandelt:

    Unstrukturierte Daten, Objektdatenspeicherung, S3, die Cloud und Bandsysteme... Wie sind die akuellen Entwicklungen in der Praxis zu bewerten und wo liegen die wesentlichen Gründe für das beschleunigte Datenwachstum auf der Seite Ihrer Kunden?

    Wo liegen die Vorteile bei der Verbindung einer Objekt-basierten Datenspeicherung mit Tape-Medien? Welcher Nutzen ergibt sich daraus gegenüber der verbreiteten Datei-basierten Speicherung? Warum die Archivdaten nicht einfach in der Cloud ablegen?

    Native S3-Schnittstelle und Bandspeicher: Sowohl zur Archivierung als auch für Objekt Storage verwendet man zum Zugriff (RESTful-)APIs. Das Verfahren arbeitet zustandslos über eine einheitliche Schnittstelle. Was sind die wesentliche Gründe, die für den Einsatz von APIs auf Basis der S3 Schnittstelle sprechen?

    Welche Voraussetzungen sollten geschaffen werden, um Tape-Technologien in Form von Bandbiblotheken sinnvoll in vorhandene Speicher-Infrastrukturen einzubinden?

    Welche bevorzugten Anwendungsfälle und Einsatzvorteile bietet die Tape-basierter S3 Object Storagelösung 'PoINT Archival Gateway’.

    Weitere Informationen zum Thema finden Sie auf der Webseite des Storage Consortium unter www.storageconsortium.de

    • 18 Min.
    Details zur Active Scale Cold Storage Strategie von Quantum

    Details zur Active Scale Cold Storage Strategie von Quantum

    Speicherverwaltungs-Technologien, um die zunehmende Lücke zwischen Datenwachstum und Infrastrukturbudget zu schließen. "Flash - Disk - Tape - Cloud - Object - Cold Storage" - Wie passt das alles zusammen?

    Norbert Deuschle vom Storage Consortium im Gespräch mit Ines Wolf - Managerin Pre-Sales CE der Firma Quantum. Ein technischer Podcast mit Details zum Quantum Active Scale Cold Storage - Speicherlösungsangebot.

    Im einzelnen werden folgende Punkte angesprochen und detaillierter behandelt:

    Was sind gerade die größten Herausforderungen bei der Speicherung, dem Zugriff und der Verwaltung im Zusammenhang mit einer langfristigen Aufbewahrung von Massendaten? Was bedeutet Cold Storage?

    Welche Zugriffsmöglichkeiten ergeben sich auf Basis welcher Technologien?

    Wie kann eine moderne Speicherverwaltung unter Einbeziehung von Storageklassen dabei helfen, kalte Daten bei Bedarf wieder "zum Leben" zu erwecken?

    Disk (HDD), Tape und die Cloud (S3) ? Wie passen die Technologien zusammen. Welche Anforderungen ergeben sich im Gegensatz zu HDDs beim Schreiben auf Band (Mengen, Kosten, Verwaltung usw.)

    Wie lassen sich die daran beteiligten verschiedenen Speichertechnologien möglichst einheitlich verwalten?

    Welche Rolle spielt Object Storage im Rahmen der Quantum Active Scale Cold Storage - Technologie? Was unterscheidet diese von anderen Lösungsansätzen?

    Intelligentes Data Staging, Tape Mgmt., 2D Erasure Coding, 3 GEO DDP usw. und weitere Optionen.

    Warum bestimmte Kunden Cold Storage und Objektspeicher lieber on-premise implementieren? Vorteile gegenüber der Public Cloud.

    Wie lässt sich die Verbindung zu Cloud Deployments (S3 / Glacier / API-Ansatz) realisieren. Wie kann Tape in Zusammenhang mit S3, Cloud und Objektspeicher genutzt werden?

    Möglichkeiten, die Lösung als ‚Storage as a Service’ zu beziehen (pay-as-you-use ), ähnlich wie bei Public-Cloud - Angeboten.

    Storage und künstliche Intelligenz

    Storage und künstliche Intelligenz

    QLC-Flash, Storage Class Memory (SCM), Filesystem-Software und hochparallele Speicher-I/O-Architekturen für KI-Infrastrukturen.
    Zum Inhalt des Podcast: Moderne Speichertechnologien leisten in Bezug auf ihre Leistung, Skalierbarkeit und Kapazität viel mehr als noch vor drei bis fünf Jahren, was sich wiederum auf alle wesentlichen Aspekte von KI-Projekten wie Datenpflege und -Management bis hin zum Datenbanken-Design positiv auswirken kann. Ein Beispiel: Bei Deep Learning (DL) Projekten bedeutet ein langsamer Speicher immer eine langsamere maschinelle Lernleistung, denn das Deep Neural Network stellt ein Abbild eines massiv parallelen vernetzten Modells dar, bei dem bis zu Milliarden von Neuronen lose miteinander verbunden werden, um ein einziges Problem zu lösen. GPUs wiederum sind massiv parallele Prozessoren, bei denen jeder einzelne aus Tausenden von lose gekoppelten Rechenkernen besteht, um 100x höhere Leistungswerte und mehr als eine Standard CPU zu erzielen...

    Kontinuierlicher Datenschutz (CDP) zur Erweiterung von Backup-Restore-Verfahren

    Kontinuierlicher Datenschutz (CDP) zur Erweiterung von Backup-Restore-Verfahren

    Eine Übersicht zu Leistungsmerkmalen, Einsatzbedingungen und Positionierung von Continuous Data Protection (CDP) im Zusammenhang mit Backup-/Restore und Disaster Recovery (D/R).

    Um was geht es in diesem Blogpost? Kontinuierlicher Datenschutz- oder auch Datensicherung (Continuous Data Protection, CDP) speichert automatisch alle Änderungen an Daten. Falls eine Modifikation erfolgt, werden je nach Implementierung kontinuierlich oder annähernd in real-time Kopien erzeugt.
    Im Vergleich dazu laufen Backup-Jobs mit Hilfe von Snapshots ein- oder mehrmals zu bestimmten Zeiten (periodisch). CDP ist im gewissen Sinn eine Backup-Weiterführung, allerdings mit Vorteilen in Bezug auf den Datenschutz, der Geschwindigkeit beim Restore, Migration, Datenverfügbarkeit und Disaster Recovery-Möglichkeiten; zudem besteht die Option, D/R-Tests on-premise und-/oder in Verbindung mit der Cloud einfacher und damit auch häufiger umzusetzen. In diesem Podcast werden im wesentlichen folgenden Themen behandelt:

    Warum überhaupt CDP und was unterscheidet kontinuierliche Datensicherung von Standard-Backup-Verfahren?

    Wie arbeitet CDP?

    Welche Einschränkungen gilt es bei CDP zu beachten?Wo liegen die Herausforderungen bei Backup-Verfahren ohne CDP-Funktionen?

    • 8 Min.
    Kosten, Komplexität und Risiken der Cloud reduzieren - Ein Experten-Podcast mit NetApp und Cancom

    Kosten, Komplexität und Risiken der Cloud reduzieren - Ein Experten-Podcast mit NetApp und Cancom

    Herausforderung „Hybride Cloud-Infrastruktur“; wo besteht Handlungsbedarf? Ein Gespräch zu Lösungen und Trends

    Zum Podcast-Inhalt: Der Trend zu Software-Definierten- und hybriden Cloud Infrastrukturen ist einerseits nicht von der Hand zu weisen, wirft aber Fragen auf: Welche Datenmanagement- und Cloud-Strategie ist für mein Unternehmen geeignet, was sind die zentralen Herausforderungen die es zu beachten gilt (Sicherheit, Kosten, Komplexität) und wie positioniert sich ein bislang eher traditionell an on-premise-Speicherlösungen orientierter Anbieter wie NetApp in diesem dynamischen Marktumfeld? Und welche Schwerpunkte im Lösungs-/Projektgeschäft sind dabei für ein IT-Dienstleistungsunternehmen im Bereich der Digitalen Transformation wie Cancom zentral? Diese und weitere Fragen werden (Hörzeit: ca. 26 Min.) im Rahmen einer Q & A in diesem Podcast genauer besprochen.

    Dazu stehen Ihnen mit Axel Frentzen, NetApp Senior Technical Partner Manager und Daniel Harenkamp, Solution Architect bei Cancom, zwei erfahrene Experten für die Bereiche Backup, Hochverfügbarkeit, Clouddaten- und Speichermanagement zur Verfügung; die Fragen stellt Norbert Deuschle vom Storage Consortium.

    Im Einzelnen werden im Podcast folgende Themenbereiche behandelt (Auszug):

    Was sind für ihre Kunden derzeit die größten Herausforderungen im Bereich der Datenverwaltung?

    Im Zuge der „Cloudifizierung“ stellen Unternehmenskunden Flexibilität, Sicherheit, Vereinfachung und Kostenreduzierung in den Mittelpunkt ihrer strategischen Initiativen zur Daten- und Speicherverwaltung. Was sind die spezifischen NetApp-Mehrwerte in der Cloud?

    Cloudifizierung und die Herausforderungen im Hinblick auf Komplexität, Datenschutz (Sicherheit) und das Einhalten von Compliance-Richtlinien Sicherheit / Cyberprotection / Ransomware und Backup-Restore. Wo sieht ein Dienstleister wie CANCOM aus Projektsicht hier aktuellen Handlungsbedarf?

    Die Cloud ist nicht nur ein Storage-Thema, sondern betrifft die Compute- und IT-Infrastrukturseite generell. Im Zusammenhang mit der Digitalisierung werden Anwendungsseitig technologische Entwicklungen wie z.B. API-gesteuerte Lösungen auf Basis von Microservices sowie Container wichtiger (cloud-native-Ansätze).

    Wie adressieren NetApp und Cancom Lösungsseitig diese Entwicklungstrends?

    Was sollten Kunden tun, um den für sie jeweils möglichst kosteneffizientesten Weg in die Cloud zu finden?

    Ist „lift & shift“ eine Lösung? Wie lassen sich die Infrastrukturkosten in der Cloud bestimmen / was kostet mich die Cloud?

    Welche Kostenoptimierungs-Potentiale lassen sich nutzen?

    Welche Daten speichert man wo (Handling, Sicherheit, Kosten)? Space Efficency Features wie Deduplication und Compression Data Tiering in günstigeren kalten Speicher (S3 / Blob)

    Zentrale Datenhaltung – dezentral nur Caching (z.B. GFC) Sicherheit durch Ransomwareschutz via Snapshots, Replikation der Snapshots, Fpolicy / VSCAN etc.

    Neues S3-Protokoll in ONTAP

    Storage Anbindung für Kubernetes Platformen (Trident) Applikationskonsistenter Backup Service für Kubernetes-Apps (Astra Control)

    Firmenübernahmen wie DataSense, Talon, Cloudjumper... FinOps und Security via NetApp Spot, Cloudcheckr usw...

    • 26 Min.
    Persistenter Speicher und Cloud-native IT-Infrastrukturen

    Persistenter Speicher und Cloud-native IT-Infrastrukturen

    Gerade weil sich moderne Applikations-Arbeitslasten stärker in Richtung Container verschieben, steht der Storage weiterhin im Mittelpunkt.

    Teil 1: Als Container-Technologien wie Docker zu umfangreichen Orchestrierungslösungen mit Kubernetes führten, lag der Fokus nicht primär auf der Bereitstellung von persistenten „Enterprise-Class-Storage" Funktionalitäten. Für Anwender führt dies immer wieder zu Schwierigkeiten im Zusammenhang mit der Storage-Bereitstellung, zumal Kubernetes selbst generell nicht gerade einfach zu verwalten ist.

    Klassischer Enterprise Storage rechnet nicht mit kurzlebigen, sprunghaften Dev-Ops-Workloads. Auch Container Storage Interface (CSI) Implementierungen lösen das Problem nicht vollständig, denn mit der Erstellung und dem ‚Ableben’ von Containern werden auch die Verbindungen zu den Speicher-Volumes verändert. Diese Prozesse belasten wiederum den Unternehmensspeicher, vor allem bei komplexen schnellwachsenden und dynamischen Umgebungen. Wichtige Themen wie Datensicherheit, Replikation, Thin Provisioning, Hochverfügbarkeit, Backup-Restore und weitere speicherbezogene Funktionen können damit zu einer echten Herausforderung werden...

    Im nächsten Podcast zu diesem Thema (Teil 2) soll dann näher auf den Bereich Cloud-native Speicherarchitekturen oder 'von SAN über HCI zu CAS (container attached storage)' eingegangen werden.

    • 4 Min.

Kundenrezensionen

4,7 von 5
3 Bewertungen

3 Bewertungen

Top‑Podcasts in Technologie

NDR Info
Jean-Claude Frick & Malte Kirchner
Lex Fridman
Jack Rhysider
Jason Calacanis
Undsoversum GmbH