
149 Folgen

Storage Consortium Storage Consortium
-
- Technologie
-
-
5,0 • 3 Bewertungen
-
Das Storage Consortium fokussiert aktuelles technisches & wirtschaftliches Wissen für IT Organisationen und Unternehmen – Verlagsunabhängig und unter Mitarbeit sowie Themenauswahl eines erfahrenen Industrieexperten. Die Schwerpunkte des Online-Angebotes - neben dem Hauptgebiet Datenmanagement und Speicherverwaltung - bilden praxisnahe Informationen & Trends zu KI, Big Data, Cloud Computing... im Zusammenhang mit Server- und Netzwerkinfrastruktur-Lösungen für professionelle Rechenzentren und Cloud-Services-Anbieter. Top-aktuelle Podcasts und unser umfangreiches Podcast-Archiv finden Sie in der zugehörigen Rubrik unserer Webseite unter www.storageconsortium.de
-
Qumulo File Daten Management: Kundenanforderungen und Lösungen
Zum Inhalt dieser Podcast-Episode:
In großen Unternehmen werden sich die Kapazitäten im Bereich von unstrukturierten Daten - on-premise, im Edge- und in der Cloud - von 2023 bis 2026 verdreifachen (Quelle: Gartner). Storage File Systeme sind damit mehr denn je gefordert. Dies stellt Verantwortliche jeder Organisationsgröße vor ganz unterschiedliche Herausforderungen.
In diesem Zusammenhang werden leistungsfähige Lösungen und Plattformen, die eine wachsende Anzahl von Geschäftsanwendungen und Daten unterstützen, immer wichtiger. Mit ein Grund, weshalb hybride Cloud-Datei-Implementierungen im Trend liegen.
Handlungsbedarf besteht zudem im Bereich von Anschaffungs- Betriebs- und Verwaltungskosten, die es zu beherrschen und konsolidieren gilt. Als Lösung bieten sich moderne, software-definierte (SDS) Scale-out-Filesystem Softwarelösungen an, die zudem Schnittstellen zu Cloud-Ressourcen und Objektspeicher-Angeboten besitzen.
SDS-Speicherplattformen - basierend auf Industrie-Standard-Hardware-Komponenten wie CPU, Flash etc. - kombiniert mit einer skalierbaren Speicher- und Datenverwaltung als SDS-Ansatz bieten verschiedene Vorteile. Aus Gründen von Verfügbarkeit, Redundanz und Leistung werden die Daten bei dieser Cluster-Architektur über mehrere Knoten verteilt (n+1/-2 oder mehr), inklusive hybriden Cloud-Workflow-Support und Public Cloud IaaS Betrieb.
Wie die oben genannten Anforderungen mit dem aktuellen Lösungsportfolio des Storage Filesystem- und Filedatenmanagement-Spezialisten Qumulo adressiert werden können, darum geht es in dieser interaktiven Podcast Episode mit Marc Frei und Jochen Kanta, beide Mitarbeiter der Firma Qumulo. Die Fragen stellt Norbert Deuschle vom Storage Consortium. Es werden folgende Themenbereiche angesprochen (Hörzeit ca. 27 min.):
Grundsätzliche Anforderungen an moderne Dateisysteme-Lösungen.
Auf welche spezifischen Leistungsmerkmale kommt es bei der Auswahl eines File Systems an?
Granulare Snapshots, Quota Management, Data Movement, vereinfachte Integration in Netzwerke, Active Directories etc.
Wie positioniert sich Qumulo und was bedeutet der Scale Anywhere™ Ansatz des Unternehmens?
Welche Rolle spielt die Software Definierte Speicher- und Datenverwaltung im Zusammenhang mit Themen wie Infrastruktur-Modernisierung, Cloud Deployments, und Flash-Speicherentwicklung.
File Systeme und Cloud Object Storage. Wie läßt sich das Zusammenspiel aus Anwendungssicht aktuell beschreiben?
Kundenanforderungen, Herausforderungen etc.
Cybersicherheit, Disaster Recovery, Backup. Wo liegen die Herausforderungen aus Sicht der Kunden von Qumulo und wie lassen sich Prozesse vereinfachen und beschleunigen?
Anwendungsbeispiele aus dem Automotive- und Gesundheitswesen mit konkreten Kundenanforderungen. Wirtschaftliche (TCO / ROI) und technologische Aspekte.
Zusammenfassung. -
NASUNI Cloud-native SaaS-Software-Plattform zur Konsolidierung unstrukturierter Filedaten
Zum Inhalt der Podcast-Episode: unstrukturierte Filedaten wachsen sowohl im Core als auch im Edge. Dazu kommt: technische Fortschritte als auch regulatorische Rahmenbedingen führen zu geänderten, dynamischen Anforderungen an den Daten-Lebenszyklus. Dazu gehört die Notwendigkeit die Verfügbarkeit dieser Daten über längere Zeiträume zu gewährleisten und sie vor Verlusten, Katastrophen und Cyber-Angriffen in verteilten Umgebungen zu schützen. IT-Verantwortliche stehen gerade hier unter zunehmenden Druck, ihre Datei-Infrastrukturen skalierbar zu erweitern aber auch zu vereinfachen und mit vertretbaren Kosten zu modernisieren.
Hierbei spielen Aspekte wie Home Office, RZ-Konsolidierung nebst Rationalisierung, Datenmigrationen, Backup, Replikations-Verfahren für Disaster-Recovery-Zwecke sowie aktuell verstärkte Umweltauflagen und Compliance-Initiativen eine Rolle.
Bei großen Mengen an unstrukturierten Filedaten kommen klassische Hardware-zentrierte NAS-Speicherumgebungen hier schnell an ihre Grenzen und moderne Lösungsansätze unter Einbeziehung von Cloud-Technologien sind gefordert. S3 Object Storage ist - wie bereits mehrfach thematisiert - zwar ein wichtiger Teil dieser Architektur, aber es braucht noch mehr. Wichtig sind leistungsfähige Dateisysteme, die eine sichere, kosteneffiziente und transparent skalierbare Datenspeicherung – je nach Anforderungen vor-Ort und in der Cloud - ermöglichen.
Wie diese Anforderungen und Randbedingungen mit dem aktuellen Lösungsportfolio von NASUNI adressiert werden können, darum geht es in dieser Podcast Episode mit Herrn Markus Warg, Nasuni Field Technical Director, EMEA (1). Die Fragen stellt Norbert Deuschle vom Storage Consortium. Es werden u.a. folgende Aspekte angesprochen:
Einleitung: Drängende Herausforderungen aus Sicht von NASUNI mit ausgewählten Beispielen.
Unstrukturierte File-Daten, Objektdatenspeicher, S3 und die Cloud: Migration lokaler Fileserver-Ressourcen, NAS-, Backup- und DR-Infrastrukturen mit Hilfe von Nasuni Software und Public Cloud Anbietern wie Azure, Google oder AWS. Weshalb Organisationen diesen Weg gehen sollten.
Cybersicherheit als eine Priorität: Ransomware-Angriffe nehmen zu. Business Case und Budgets für Infrastrukturinvestitionen in den Bereichen Datenschutz und Speicher-/Datenverwaltung über File-Backup- und Notfallplanung (Disaster Recovery). Welche Strategien sind für Nasuni in diesem Umfeld zielführend?
Backup bringt bei einer großen Menge an unstrukturierten Filedaten aufgrund der Komplexität (Menge, Formate, Verteilung, Policies, usw.) eine Reihe von Besonderheiten mit sich, die Verantwortliche kennen sollten. Wo liegen die Herausforderungen und wie lassen sich diese Prozesse möglichst vereinfachen und beschleunigen?
Reduzierung der Gesamtkosten zur Beschaffung und Verwaltung von Dateispeicher-Umgebungen (TCO) bei gleichzeitiger Erhöhung des Return-on-Invest (ROI) zur Erzeugung eines höheren Geschäftswerts aus den IT-Investitionen.
Erweiterte Dateizugriffe im Hinblick auf die geschäftliche Vorteile und nicht nur auf die IT. Stichwort: Information als ein Unternehmenswert.
Zusammenfassung: Die optimierte Strategie im Bereich von Filedaten-Speicherung und Verwaltung kann Unternehmen helfen die zunehmende Lücke zwischen Datenwachstum, Komplexität und IT-Infrastrukturkosten zu schließen. Das Nasuni Datenservice-Modell als Cloud-native SaaS-Software-Plattform transformiert traditionelle NAS Datei-Infrastrukturen mit einer Reihe von spezifischen Filedaten-Services und der Möglichkeit, dazu einen oder bei Bedarf mehrere Cloud-Anbieter zu wählen. Die Filedaten werden im Rahmen der Lösung innerhalb eines skalierbaren Cloud-Objektspeichers konsolidiert, um von überall auf diese Dateien sicher zugreifen zu können. -
Low Latency Storage und Hot Data. Anforderungen & Entwicklungstrends
Datenanalysen und neue KI-basierte Applikationen erfordern leistungsfähige IT-Infrastrukturen, aber keine Silos; ein Expertengespräch.
Um was geht es in dieser Podcast-Episode? Storage-Technologien sind kein Selbstzweck und werden verstärkt über aktuelle Entwicklungen auf der Anwendungsseite beeinflusst. Beispiel: die Verschmelzung von Data Lake- und Data Warehouse-Architekturen, um als eine zentral aggregierte Ressource für alle strukturierten, semi- und unstrukturierten Daten eines Unternehmens zu agieren.
Die Gesprächspartner dieser Podcast-Episode sind Dirk Hannemann, HPE Principal Solution Architect und Christian Hansmann, Solution Sales Architect bei der Firma Cancom (die Fragen stellt Norbert Deuschle vom Storage Consortium).
Unternehmensrelevante Daten in immer größeren Mengen erzeugt. Zudem fordert der Einsatz von Big Data Analysen, ML und KI auf Grund von Digitalisierung die existierende Speicher- und IT-Infrastruktur von Core-to-Edge heraus. Verstärkt ist die Speicher- und Datenverwaltungsseite gefordert, kosteneffiziente und leistungsfähige Lösungen für Daten und Anwendungen (User) bereitzustellen.
In den letzten beiden Podcast-Episoden sind wir darauf eingegangen, welche Herausforderungen und Lösungsansätze aus Speicher- und Datenmanagement-Sicht mit dem Fokus auf sogenannte kalte und warme Daten bestehen. Real-time Datenanalysen und neue teils KI-basierte Applikationen, erfordern Performance-seitig eine hohe und skalierbare Verarbeitungsgeschwindigkeit. Dies betrifft aber nicht nur den Storage mit I/O-Protokollen, sondern den gesamten IT-Infrastruktur-Stack, um Silos und Engpässe möglichst gar nicht erst entstehen zu lassen.
Diese Podcast-Episode beschäftigt sich primär mit dem Thema Low-latency storage und „Hot- oder Fast Data“. Zudem werfen wir einen Blick auf Entwicklungstrends im Bereich von Multiprotokoll Storage, der Bedeutung von NVMoF im Zusammenhang mit Software Definierten Architekturen und Flash sowie einem gezielten Einsatz von hybriden Cloud Deployments. Angesprochen werden zudem einige damit verbundene Entwicklungstrends für die nächsten Jahre. -
Strategien gegen Angriffe auf wichtige Backupdaten
Zum Inhalt der Podcast-Episode: Backup-Umgebungen werden immer mehr zum Ziel von Angriffen. Sichere Offline-Datenkopien können im Fall der Fälle den Unterschied machen.
Der konsequente Einsatz moderner Hardware- und Software-Sicherungssysteme, kombiniert mit dem Ansatz, wichtige Kopien von kritischen Daten verschlüsselt offline zu halten, kann sicher vor Ransomware & Co. schützen. Ein "Air-Gapped"-System darf dazu nicht physisch mit einem externen Netzwerk verbunden sein. Ransomware-Schutz bedeutet anders ausgedrückt auch zu verhindern, dass kritische Daten vor dem Ablauf ihres Lifecyles kompromittiert werden. Moderne Verfahren sichern dazu virtuelle Maschinen über S3 direkt auf einen Objektspeicher on-premise oder in der Cloud. Weitere Stichworte: unveränderliche Speicherung, immutable storage über einen mehrstufigen Schutz mit S3 Object Lock.
Eine sichere Lösung sollte Teil einer umfassenderen Architektur sein, die auch eine Offline-Kopie von Backup-Daten auf Medien wie Tape als externen Datenträger erforderlich macht. Nur offline (nicht am Netzwerk) gehaltene Daten bieten einen vollständigen Schutz vor Ransomware und böswilligen Fernzugriffen. Backup-Anbieter verweisen in diesem Zusammenhang auf die favorisierte 3-2-1-1-(0) Regel, d.h. 3 verschiedene Datenkopien auf 2 verschieden Medien; auf einem Off-site medium; dazu ein offline medium (air-gapped, verschlüsselt); und 0-Fehler nach verifiziertem Backup-Recovery-Prozess (der letzte Punkt "0-Fehler" geht auf eine Empfehlung des Softwareanbieters Veeam zurück).
Kritische Anwendungsdaten über S3 direkt auf einen Objektspeicher (HDD, Flash) zu sichern, ist auch eine sinnvolle Lösung, um die Lücke zwischen Datenwachstum und Infrastrukturbudgets zu schließen. Im nächsten Schritt ist es deshalb bei immer mehr kalten (inaktiven) Massendaten praktikabel, unter Einbeziehung von automatisierten Tape- Ressourcen eine logisch konsolidierte Datenverwaltung aufzubauen...
Mehr dazu auch unter www.storageconsortium.de -
Kalte Daten im Unternehmen weniger klimaschädlich speichern und Kosten senken
Podcastfolge zur Verwaltung und Speicherung von kalten Daten im Unternehmen. Unstrukturierte Massendaten mit Tape, File- und Object Storage effizient verwalten.
Zum Inhalt dieser Episode: Folgt man Untersuchungen wie dem aktuellen IDC Global DataSphere Report, soll sich das unternehmensbezogene Datenaufkommen in den nächsten 5 Jahren verdoppeln. Wir sprechen beim Unternehmenseinsatz hier von 80% und mehr an unstrukturierten- sowie semistrukturierten Daten. Davon wird in der Praxis aktuell übrigens nur ein kleiner einstelliger Prozentsatz für Analysezwecke verwendet- wo doch eigentlich der Wert der Daten als strategisches Asset für die digitale Transformation im Mittelpunkt stehen sollte. Es besteht also dringend Handlungsbedarf, denn die Analysen von historischen und anderen Daten, auf die nur selten zugegriffen wird können helfen, wettbewerbsfähiger zu bleiben.
Technologien wie Apache Hadoop ermöglichen die kosteneffiziente Durchführung von Big-Data-Analysen auf Basis von Open-Source-Technologien und die dazu geeignete Speichertechnologie entscheidet auch über den Projekterfolg. Nur ist es für viele gerade kleinere und mittlere Unternehmen aufgrund von Budgetbeschränkungen und fehlenden Fachkräften schwierig, diese Ziele mit rein internen Plattformen vor-Ort im eigenen Datacenter zu erreichen.
Public Cloud-Speicher andererseits bringen andere Herausforderungen in Bezug auf die Datenhoheit und -kontrolle mit sich. Auch die Zugriffs- und Speichergebühren, die beim Zugriff auf kalte Daten teuer werden können sind nicht zu unterschätzende Faktoren.
In dieser Episode erfahren Sie, weshalb kalte Daten aus Umwelt- und Kostengründen ein Thema sind. Es wird auch darauf eingegangen, wie diese energieeffizient gespeichert und verwaltet werden können. Weitergehende Informationen zum Thema mit Verweisen zu IT-Technologien und Anbieterlösungen finden Sie auf unserer Webseite. -
Speichersystem-Auswahlkriterien für primäre Unternehmens-Workloads
Zum Hintergrund: IT-Verantwortliche benötigen Transparenz, bevor sie in mehr Speicherplatz investieren, auch müssen sie steigende Kosten vermeiden. Untersuchungen zufolge geben Unternehmen derzeit bereits mehr als 30 % ihres IT-Budgets für die Speicherung und Verwaltung von Daten aus.
Dies bedeutet aber auch, dass es für Service Provider (CSPs/MSPs) und interne Rechenzentren-/Dienstleister noch diverse Spielräume zur Optimierung gibt, über die richtigen Speicherangebote bei der Senkung der Storage- und damit IT-Infrastrukturkosten mitzuwirken. Zumal sich durch Software-gesteuerte Architekturen die Möglichkeit bietet, Daten nicht mehr in abgeschlossenen Silos bzw. abhängig von der Infrastruktur in der sie gespeichert sind, sondern auch unabhängig von den zugehörigen Anwendungen zu verwalten.
Zum Inhalt dieser Podcast-Episode: Der hybride Cloud-Betrieb mit Hilfe integrierter Datendienste wird verstärkt durch softwaredefinierte Infrastruktur- und Asset-Verbrauchsmodelle bestimmt werden. Bei Auswahl eines Speicheranbieters im Primärspeicher-Umfeld sollte in diesem Zusammenhang deshalb auf folgende Leistungsmerkmale geachtet werden...