Discover
Storage Consortium Podcasts
Storage Consortium Podcasts
Author: Norbert Deuschle, Storage Consortium
Subscribed: 19Played: 174Subscribe
Share
© Storage Consortium
Description
Technisches & wirtschaftliches Wissen für IT Organisationen und Unternehmen – Verlagsunabhängig und unter Mitarbeit sowie Themenauswahl eines erfahrenen Industrieexperten.
177 Episodes
Reverse
Eine cyberresiliente Speicherumgebung gehört mit zu den zentralen Anforderungen, um die Sicherheit von kritischen Daten zu gewährleisten und Angriffe auf die Storage-Infrastruktur verhindern zu können.
Hinweis: Unternehmen in Deutschland sind ab dem nationalen Stichtag (6. Dez. 2025) verpflichtet, die erhöhten Cybersicherheitsstandards und Meldepflichten der NIS2-Richtlinie zu erfüllen. Laut BSI müssen diese selbständig prüfen, ob sie von der NIS-2-Richtlinie betroffen sind.
Gesucht sind im Speicher- und Datenverwaltungs-Umfeld Lösungen & Services, um die schädliche Auswirkungen eines Cyberangriffs oder andere Katastrophen so weit wie möglich zu minimieren oder im Idealfall unmöglich machen zu können.
Welche Maßnahmen und aktuellen Technologien dafür in Frage kommen, wird in dieser Podcast-Episode zusammengefasst. Weiterführende Informationen zu dem Themenkomplex finden Sie unter www.storageconsortium.de
Im Schnittpunkt zwischen KI und modernen Anwendungen stehen die Daten. Wo liegen potentielle IT-Infrastruktur-Engpässe und wie kann man sie vermeiden? Überblick zu Storageanforderungen inklusive Update zur NVIDIA Spectrum-X Ethernet Platform…
Hintergrund
KI-Applikationen und deren Entwicklung stellt andere Anforderungen an die Speicherinfrastruktur als klassische transaktionsorientierte Enterprise-Workloads. Aus KI-Sicht soll eine hohe "Ingest"-Bandbreite für Zugriffsmuster von kleinen bis großen Files zur Verfügung stehen.
Bei vielen und sehr großen Datensätzen ergeben sich verschiedene Herausforderungen in Bezug auf den „richtigen“ Storage, d.h. Protokolle, Filesysteme, Server-Technologien, disaggregierte Architekturen vs. Hyperconverged sowie den geeigneten Netzwerkkomponenten.
NVIDIA hat seine Spectrum-X-Netzwerkplattform funktional auf die Datenspeicher-Struktur und damit das entstehende Storage-Ökosystem ausgeweitet. Spectrum-X führte dazu Neuerungen ein, die von InfiniBand übernommen wurden.
Anbieter wie DDN, Dell Technologies, Hewlett Packard Enterprise, Hitachi Vantara, IBM, NetApp, Nutanix, Pure Storage, VAST Data und WEKA arbeiten mit NVIDIA hier verstärkt zusammen.
Fazit
Bei KI ist es wichtig, die Speicherarchitektur stets im Auge zu behalten und wo nötig, gezielt zu modernisieren. Organisationen sind dann in der Lage, das Potenzial und die damit verbundenen Vorteile und Versprechen für die Anwendungsebene schneller auszuschöpfen.
Weitere Details dazu finden Sie auch unter www.storageconsortium.de unter den Stichworten KI und Storage...
Die Speicher- und Dateninfrastruktur im Unternehmen steht weiter im Fokus. Für mehr Resilienz und Datenschutz reichen Snapshots alleine nicht aus…
Um was geht es in dieser Episode?
Während Themen wie GenAI oder Quantum Computing gerade viel Aufmerksamkeit erhalten, drückt IT- und Anwenderseitig in der Praxis meist an anderer Stelle der Schuh.
Denn Cyberangriffe nehmen an Raffinesse und Umfang immer weiter zu und beschäftigen damit die ohnehin angespannte Personallage vieler Rechenzentren und Unternehmen.
Um die ständigen Angriffe abzuwehren ist es unumgänglich, die Widerstandsfähigkeit - sprich Ausfallsicherheit, Problemerkennung und rasche Wiederherstellungsfähigkeit - von kritischen Speicherumgebungen weiter zu erhöhen.
Vereinfacht gesagt müssen die Systeme nach einem Angriff so schnell wie möglich wieder arbeiten können und die Sicherheit der im Betrieb gespeicherten kritischen Daten gewährleistet sein. Angriffe auf Storage-Produktivumgebungen sind pro-aktiv im Vorfeld bereits zu verhindern.
Dafür stehen eine Reihe von modernen KI-gestützten Technologien zur Verfügung, die konsequent eingesetzt werden sollten (Stichwort: IT-Infrastruktur-Modernisierung).
Grundsätze zum Aufbau einer Cyber-resistenten Enterprise Storage Infrastruktur:
Damit kritische Daten vor dem Ablauf ihres Lifecyles nicht kompromittiert werden, ist ein pro-aktiver Ansatz zur Widerstandsfähigkeit gegen Angriffe notwendig.
Verantwortliche sind gut beraten, dazu mehrere Schutzmaßnahmen zu kombinieren, um Angriffe sowie Penetrationen möglichst frühzeitig zu erkennen und die Systeme und Daten bei Bedarf schnell wiederherstellen zu können.
Aus Storage- und Data Management-Sicht haben sich folgende Technologien sowie Verfahren bewährt:
Diesen Beitrag als Podcast hören...
Künstliche Intelligenz, Container und Edge-Computing sind für die IT-Infrastruktur potentiell eine Herausforderung...
Um was geht es in dieser Episode?
Wenn Rechenleistung und Datenkapazitäten wachsen, ist eine Speicherinfrastruktur gefordert, die damit flexibel Schritt halten kann. Auch die leistungsfähigsten Compute-Ressourcen werden nur so schnell arbeiten, wie sie auf die gespeicherten Daten zugreifen können.
Ein skalierbarer, softwaredefinierte Speicher im KI-Umfeld ist ein aktives Element zur Beschleunigung von datenintensiven Workloads. Traditionelle Speicherlösungen können hingegen verschiedene Engpässe erzeugen, die anspruchsvolle datenbezogene Anwendungen ausbremsen.
Wichtig ist die Fähigkeit, Rechen- und Speicherkapazität unabhängig voneinander zu skalieren. Auch sollte die starre Abhängigkeit von einem Hypervisor-System vermieden werden.
Auf Storage- und Data Management-Ebene sind dabei die folgende Aspekte kritisch zu beachten...
In unserem Experten-Podcast #172 bei HPE und CANCOM nachgefragt:
"Wie können Betriebe die Möglichkeiten von KI-Technologien im Unternehmensmaßstab nutzen, ohne dabei die Kontrolle über ihre Daten- und IT-Infrastruktur zu verlieren"
Zum Inhalt
Wenn Unternehmen mit der Planung und Implementierung von KI-Projekten befasst sind, müssen Sie IT-Infrastrukturseitig eine Reihe spezifischer Herausforderungen bewältigen, die vermehrt Hybride- oder Private Cloud-Lösungen betreffen. Weitere Fragestellungen in diesem Zusammenhang können sein:
Welche KI-Modelle sind im Zuge der dynamischen KI-Entwicklungen am Markt für meinen Betrieb sinnvoll?
Wie lassen sich Pilotprojekte ohne große Hindernisse in Produktionsumgebungen überführen?
Wie ist mit geschützten Daten umzugehen (Compliance)?
Wie schaffe ich eine möglichst robuste und einheitliche Datenverwaltung?
Ist mein Storage KI-geeignet?
Eva Dölle, AI Consultant im Competence Center Cloud & Datacenter des IT-Dienstleisters CANCOM (IT, Services) und Dirk Derichsweiler, Field CTO & Distinguished Technologist bei HP Enterprise (HPE), werden in dieser Podcastfolge für Sie auch aus Praxissicht auf diese Punkte detaillierter eingehen.
Moderation und Fragen: Norbert Deuschle, Storage Consortium.
Mit welchen unternehmerischen Herausforderungen sind Kunden derzeit primär im Zusammenhang mit KI-Projekten konfrontiert?
Sind Hybride- oder Private Cloud-Lösungen gegenüber reinen Public Cloud-Implementierungen zu bevorzugen? Beispiel: HPE Private Cloud for AI, PCAI.
Wie lassen sich bei der Skalierung von KI-Implementierungen (in Reaktion auf wachsende Geschäftsanforderungen und dynamische Entwicklungen) Kosten und Ausgaben aus Projektsicht möglichst effektiv planen und kontrollieren?
Sowohl die IT bei Modellentwicklung (Training) als auch Fachabteilungen (Inferenz-Thematik) dürfen beim KI-Einsatz nicht mit einer überdimensionierten Infrastruktur (teuer) und unnötiger technischer Komplexität belastet werden...
Welche Ansätze bieten sich in der Praxis an? Wie können spezialisierte IT- und Services-Anbieter wie CANCOM effektiv unterstützen?
Agentic AI ist weltweit im Vormarsch. Wie sollten sich Verantwortliche aus Projektsicht darauf einstellen?
Fazit
Um KI-Anwendungsfälle zu identifizieren, die eine wahrnehmbare Wertschöpfung und damit Return-on-invest liefern, werden fundierte Kenntnisse der Geschäftsanforderungen benötigt. Wichtiger Punkt: Verantwortliche sollten den Bedarf an Rechenleistung und Speicherplatz mit allen finanziellen Auswirkungen sorgfältig abwägen und sicherstellen, dass KI-Implementierungen bei einer Skalierung leistungs- und kosteneffizient bleiben.
Die richtige Auswahl sowie Optimierung des Technologie-Stacks wie Storage, Server, Netzwerk und Data Management, ist für moderne KI-Anwendungen entscheidend für den geschäftlichen Nutzen und damit Projekterfolg.
Dazu gilt es, die jeweils verwendeten Technologien im gesamten KI-Stack sorgfältig aufeinander abzustimmen und entsprechend anzupassen.
Um was geht es in dieser Podcast-Episode?
Die Datensicherung (Backup-Restore) kann alleine weder monetäre Verluste durch Ausfallzeiten noch Reputationsverluste ungeschehen machen, bildet jedoch für viele Betriebe eine zentrale Säule und Schutzmaßnahme gegen Cyberangriffe.
Allerdings können Backups gegen Ransomware & Co. bei erfolgreichen Angriffen oftmals nur begrenzt erfolgreich sein. Welche Gründe dafür verantwortlich sind und weshalb sie „nur“ ein Teil einer breiter angelegten Datenschutzstrategie sind, erfahren Sie in dieser aktuellen Podcast-Folge...
Wie KI- und datenintensive Anwendungen von scale-out Filesystemen, Flash Storage und einem intelligenten Datenmanagement profitieren können...
Parallele scale-out File Systeme, sequentielle I/O-Muster, effizientes Metadaten-Management und leistungsfähige Protokolle-/Technologien wie NVMe over Fabrics können dabei helfen, neben der KI-Leistung auch die Lebensdauer von NAND-Flash-Speichersystemen zu erhöhen.
Um was geht es in dieser Podcast-Episode?
Der Einsatz von Containerlösungen im Vergleich zur herkömmlichen Virtualisierung bietet für verschiedene Applikationsszenarien direkte Vorteile. Mit Cloud-nativen Architekturen wird es möglich, skalierbare Anwendungen für öffentliche, private- oder hybriden Umgebungen zu erstellen und auszuführen.
Es entstehen lose gekoppelte Systeme, die sowohl flexibel und stabil als auch zentral verwaltbar sind. In Kombination mit einer robusten Automatisierung lassen sich zudem mit minimalem Aufwand im laufenden Betrieb Änderungen vorzunehmen.
Die klassische Virtualisierung hingegen ist weiterhin für viele (Legacy-)Anwendungen gesetzt, insbesondere, wenn branchenspezifische Sicherheitsanforderungen mit Szenarien, die eine vollständige Betriebssystemisolation erforderlich machen, beachtet werden sollten.
Das CSI (Container Storage Interface), wie es in Orchestrierungs-Lösungen wie Kubernetes zu finden ist, wird sowohl von physischen als auch von softwaredefinierten Lösungen verschiedener Anbieter im Bereich Enterprise Storage unterstützt. Ferner sind Software-Definierte Plattformen (vermehrt open-source) mit Unterstützung von File-, Block- und Objectstorage in diesem Umfeld gut positioniert..
Im Schnittpunkt zwischen künstlicher Intelligenz und leistungshungrigen Anwendungen stehen immer mehr Daten, während potentielle Infrastruktur-Engpässe bei der Verarbeitung auf der Netzwerk-, Server- und Speicherseite auftreten können.
Beim Einsatz und Betrieb von KI-Projekten hat sich die Nachfrage nach geeignetem Arbeitsspeicher und Storagekapazitäten für die Unterstützung von Trainingssätzen und Inferenz-Engines erhöht.
Vermehrt steht zudem die Verarbeitung aller Arten von Daten, einschließlich Text und Bilder sowie Audio- und Videoinhalte im Mittelpunkt und die Speicherung semi- und unstrukturierter Daten spielt dabei eine zentrale Rolle im gesamten KI-Lebenszyklus.
Auf der Speicherebene hat GDDR5 inzwischen Schwierigkeiten, mit dem GPU-Leistungswachstum mitzuhalten, besonders in Bezug auf Kriterien wie Strom-/Energieverbrauch, Integration und Packungsdichte der verschiedenen eingesetzten Komponenten. High-Bandwidth-Memory HBM Produkte versprechen hier Leistungsvorteile...
Diese und weitere Aspekte zu dem komplexen Themenkreis "Storage, Datenverwaltung und KI" werden in dieser Podcast-Episode kurz angerissen. Weitere Information dazu finden Sie auch unter www.storageconsortium.de
Zum Inhalt dieser Podcast-Episode #300
Im modernen Anwendungsumfeld hat sich unterstützt von KI und weiter ausgefeilten Data Analytics Methoden inzwischen ein datenzentrierter Ansatz etabliert.
Daten werden zudem als Unternehmenskritische strategische Ressource genutzt. Dieser dann vielfach aus unstrukturierten Daten bestehende Pool wächst jedoch schnell und will entsprechend gespeichert, geschützt und archiviert werden.
Ein cyberresilienter Speicher gehört in diesem Zusammenhang neben der reinen Datensicherung zu den zentralen Komponenten einer IT-Infrastruktur.
Über welche technischen Ausstattungsmerkmale und Funktionen ein Unternehmensspeicher verfügen sollte, um die Sicherheit von unternehmenskritischen Daten zu gewährleisten, darum geht es zusammengefasst in dieser Podcastfolge...
Neben den im Podcast geschilderten Verfahren, Technologien und Maßnahmen bleibt der Faktor Mensch weiterhin ein wichtiger „Baustein“ in der Sicherheitsarchitektur von Unternehmen und Organisationen. Jedoch werden automatisierte KI-gestützte Speicher- und Datensicherungsverfahren mit pro-aktiver Ransomware-Erkennung zur Identifizierung kritischer Daten bei der rasch steigenden Menge an unstrukturierten Daten (siehe KI) immer wichtiger.
Weitere Informationen zu Anbieterlösungen, Markt- und Technologietrends finden Sie auf unserer Webseite storageconsortium.de
Integrative IT-Strategien im Zeichen von (generativer) KI, unstrukturierten Daten und Infrastruktur-Modernisierung; in unserem Experten-Podcast mit Beteiligung von HPE und CANCOM nachgefragt
Zum Inhalt dieser (nicht synthetischen) Podcast-Episode: In dieser Folge beschäftigen wir uns inhaltlich primär mit der Speicherung, Verwaltung und Analyse von stetig wachsenden unstrukturierten Datenmengen im Zusammenhang mit KI und anderen kritischen Unternehmensanwendungen; dies vor allem in Hinblick auf die Auswahl der richtigen Speicher- und Datenverwaltungslösung.
Die Fragen stellt Norbert Deuschle vom Storage Consortium. Gesprächspartner sind die Storage- und IT-Experten Juergen Ruhland vom HPE Storage Competency Center Germany und Christian Hansmann, Solution Sales Architect bei Firma CANCOM. (1)
Um was geht es konkret? Die Anforderungen an IT-Infrastrukturen, also Storage, Netzwerke, Server etc. steigen weiter an. Dies hat direkte Auswirkungen auf die Speicher- und Datenverwaltung. Folgt man globalen Trends, so sollen sich in großen Unternehmen & Organisationen die Kapazitäten im Bereich der unstrukturierten Daten bis 2026 verdreifachen.
Dies stellt Verantwortliche jeder Organisationsgröße vor Herausforderungen, aber es gibt Lösungen: Dazu gehören scale-out File- und Objektspeicher-Systeme, die heute bereits erfolgreich und bevorzugt im Umfeld von unstrukturierten Daten, S3 und der Cloud agieren.
In diesem Zusammenhang zählt aktuell die Unterstützung Performance-orientierter KI-Anwendungen sowie ein möglichst einheitliches hybrides Cloud Daten Management zu den Top-Prioritäten vieler Unternehmen.
IT-Herausforderungen "KI, Data Protection und Cloud-Integration". In unserem Experten-Podcast #297 mit dem Anbieter NetApp nachgefragt.
Guten Tag und herzlich Willkommen zu dieser weiteren Podcast-Episode des Storage Consortium!
In dieser Podcast-Episode sollen einige der zentralen Herausforderungen und Lösungsansätze im Bereich von IT-Infrastruktur-Modernisierung angesprochen und diskutiert werden; dies im Zusammenhang mit den aktuellen Speicher- und Daten-Management Angeboten des Anbieters.
Das Storage Consortium (Norbert Deuschle) sprach dazu mit Herrn Marc Kleff, Director Solutions Engineering, bei Firma NetApp.
Folgende Themen werden behandelt (Hörzeit: 26 min):
1. Gestiegene Anforderungen an ein intelligentes Datenmanagement
2. Cyberbedrohungen abwehren und den Datenschutz verbessern
3. Künstliche Intelligenz und Daten-Infrastruktur-Modernisierung
4. Anforderungen und Lösungsbeispiele zur Datenverwaltung in der Hybriden Multi-Cloud
Fazit
Zum Inhalt dieses Podcasts:
Das Interesse am Einsatz von KI in deutschen Unternehmen ist weiterhin hoch und das betrifft auch das Vertrauen in KI-generierte Resultate. Damit rückt die zugehörige Speichertechnologie weiter in den Fokus.
Eigentlich sollte man meinen, Flash Storage für KI ist inzwischen ein „No-Brainer“, aber die Wahl des geeigneten Speichers hängt stark von den spezifischen Anforderungen des jeweiligen Projekts ab.
Beispiel: Modelle müssen häufig auf große Datensätze zugreifen oder hängen direkt von Echtzeit-Analysen ab. Flash Storage ist aus Performance-Gründen sinnvoll, besonders wenn hohe Leistungsanforderungen wie niedrige Latenzzeiten bei zufälligen Zugriffsmustern (random IO) im Vordergrund stehen...
Zum Inhalt dieser Podcast-Episode:
Kritische Anwendungen und IT-Systeme - hier am Beispiel von SAP - müssen rund um die Uhr an 365 Tagen laufen und sich absolut stabil verhalten. Dies führt direkt zu den zentralen Gründen, weshalb Unternehmen eine SAP-Systemhärtung durchführen sollten, unter Berücksichtigung der hierfür notwendigen Sicherheitsaspekte und Compliance-Anforderungen.
Ein Interaktiver Experten-Podcast mit
Joachim Misselbeck, Senior Solution Manager SAP, CANCOM
Jörg Bunse, Solution Achitect, SUSE
Norbert Deuschle, Moderation / Storage Consortium
Im Beitrag soll auf folgende Fragestellungen sowie Themenbereiche eingegangen werden:
Zentrale Gründe, warum Unternehmen eine SAP Systemhärtung durchführen sollten, einschließlich der relevanten Sicherheitsaspekte sowie Compliance-Anforderungen.
Konsequenzen bei Nicht-Durchführung einer SAP-Systemhärtung
Analyse der potenziellen Risiken und Konsequenzen, denen Unternehmen gegenüberstehen, wenn sie keine Systemhärtung durchführen, wie Sicherheitslücken, Datenverlust oder Compliance-Verstöße.
Status quo und praktische Umsetzung beim Kunden:
Bewertung des aktuellen Standes in Unternehmen bezüglich der SAP-Systemhärtung.
Wie gehen Unternehmen das Thema in der Praxis an und welche Herausforderungen bestehen?
Welche Rolle wird der Einsatz von künstlicher Intelligenz (KI) spielen?
Aspekte bei der praktischen Umsetzung einer SAP-Systemhärtung
Besprechung der wesentlichen Punkte, die Unternehmen bei der Umsetzung einer SAP-Systemhärtung beachten sollten (Planung, Automatisierung, Durchführung, Überwachung...)
Erläuterung, wie CANCOM Unternehmen bei der Umsetzung einer SAP-Systemhärtung unterstützen kann (Beratung, Implementierung, kontinuierliche Betreuung...)
Zur Rolle von SUSE Linux für SAP-Applikationen:
Konkrete Darstellung, wie SUSE Linux dazu beiträgt, die Sicherheit und Stabilität von SAP-Systemen zu verbessern und die Systemhärtung erfolgreich umzusetzen.
Vorteile für Unternehmen und Zusammenfassung
Wie Unternehmen von den Lösungen beider Unternehmen profitieren können und warum die SAP-Systemhärtung für Unternehmen relevant ist.
Wichtige SLA-Parameter zur Verfügbarkeit und Leistung für die schnelle Wiederherstellung kritischer Daten im Disaster- und Recovery-Fall stehen neben sicheren Backups im Vordergrund.
Die 2016 eingeführten Cybersicherheits-Vorschriften der EU wurde durch die 2023 veröffentlichte NIS2-Richtlinie weiter aktualisiert. Stichtag ist der 17. Okt. 2024.
Was bedeutet NIS-2 für Speichersysteme, Datensicherung und Disaster Recovery und weshalb sollten betroffene Unternehmen-/Organisation verstärkt auf KI, AIOps und moderne Cybersecurity-Maßnahmen-/Verfahren setzen...
Eine Podcast-Episode mit dem Datei- und Objektspeicher-Anbieter Cloudian* zu kundenseitigen Anforderungen und strategische Antworten auf den stetig steigenden Speicherbedarf im Bereich von unstrukturierten sowie semi-strukturierten Daten, akuell verstärkt im Zusammenhang mit KI- und hybriden Cloud-Anwendungen. Mit Kundenbeispielen...
*Gesprächspartner ist Herr Carsten Graf, VP EMEA Sales, bei Cloudian®. Cloudian ist ein spezialisierter Datei- und Objektspeicher Anbieter (aus dem Silicon Valley) und auf S3-API-Speichersysteme spezialisiert. Das Unternehmen stellte erstmals 2011 seine objektbasierte Plattform HyperStore® vor.
Moderation und Fragen: Norbert Deuschle vom Storage Consortium.
Einzelne Punkte, die in diesem Podcast näher behandelt werden (Hörzeit 20 min):
Object Storage ist mit File Storage ein wesentlicher technologischer Aspekt jeder zukunftsorientierten Speicher- und Datenverwaltungsstrategie im größeren Maßstab. Objekt Storage als ein technisches Element in der Cloud hat die Datenspeicherung selbst in einen Service verwandelt (von CAPEX zu einer berechenbaren Betriebsausgabe, OPEX).
Gerade entstehen mit dem raschen Wachstum im Umfeld von (generativer) KI neue Herausforderungen. Skalierbare Speicherservices für primär unstrukturierte Daten werden deshalb verstärkt nachgefragt.
Ein weiterer Aspekt betrifft die Modernisierung und Integration mit Datensicherungslösungen, mit dem Schwerpunkt auf schnellen Restore und Unveränderlichbarkeit, sowie erhöhtem Datenschutz auf Grund von steigenden Cyberbedrohungen.
Performance-Aspekte und Cloud-native Anwendungsszenarien sind weitere Aspekte des modernen Daten- und Speichermanagements. In diesem Zusammenhang gilt es die dynamischen Entwicklungen im KI-Umfeld auf der IT-Infrastrukturseite zu berücksichtigen und betrieblich sinnvoll abzubilden.
In Summe ergeben sich daraus sich eine Reihe komplexer Anforderungen aber auch Lösungsansätze, über die wir in dieser Episode sprechen werden. Die (technologischen) Randbedingungen in diesem Zusammenhang sind:
KI und Data Analytics, Flash Performance
Backup- und Cyberprotection, Data Privacy
DevOps-Initiativen, Cloud-native, Kubernetes & Co.
Weitere Informationen zum Thema finden Sie unter www.storageconsortium.de
Kritische Sicherheitsmerkmale von Tape-Automatisierungs-Systemen für mehr Schutz vor Ransomware & Co.
Um was geht es in diesem Podcast?
Tape ist technologiebedingt bereits ein sehr sicheres Speichermedium, da es vom Netz getrennt als sog. „Air-Gap"-Speicher fungieren kann und zudem mit AES-256-Bit-Verschlüsselung sowie WORM-Fähigkeiten ausgestattet ist. Die Erweiterung um Multi-Faktor-Authentifizierung (MFA) ist eine weitere Möglichkeit, den Sicherheitsstandard zu erhöhen.
Aktuell werden automatisierte Bandbiblotheken verstärkt als hochsicherer Daten-Tresor verwendet, entweder zur Speicherung dauerhafter Archivkopien - Stichwort „kalte Daten“ - oder als Zielort von Offline-Datenkopien (3-2-2-1 Regel) zum Schutz vor Ransomware- sowie Malware-Infektionen.
Norbert Deuschle vom Storage Consortium hat bei Frau Ines Wolf, Managerin Presales Central Europe, des Speicherspezialisten Quantum nachgefragt, über welche erweiterten Sicherheitsfunktionen konkret eine moderne Tape-Library neben den üblichen Standardmaßnahmen-/Verfahren im Zuge stetig steigender Anforderungen an die Datensicherheit verfügen sollte. In diesem Zusammenhang sind nach Ansicht der Expertin fünf Punkte von besonderer Bedeutung...
Um was geht es in diesem Podcast?
Generative KI ist für Unternehmen eine der Schlüsseltechnologien mit einem wirklichen Transformations-Potenzial.
Als KI-Enabler bereits etabliert haben sich dazu Graphdatenbanken. Anbieter sind Unternehmen wie ArangoDB, TigerGraph, Amazone Neptune, DataStax, Oracle, IBM, Redis, GraphDB, Neo4j und weitere...
Knowledge Graphen verknüpfen heterogene Daten zu einem semantischen Kontext, in dem sie Daten und Datenbeziehungen als gleichwertig behandeln. Dies schafft ein geeignetes Umfeld für Netzwerkanalysen, Deep und Machine Learning sowie KI. An der Seite von LLMs setzen Graphen beispielsweise notwendige Grenzen und Prioritäten, um KI-Ergebnisse genauer, erklärbar und nachvollziehbar zu machen.
Das Training von Machine Learning(ML)- und Large Language-Modellen(LLM) erfordert hohe Rechenleistungen und Speicherkapazitäten. Neue Prozessor-Serien und Super-GPUs verschieben die Grenzen des Machbaren dabei deutlich nach oben.
Die Experten des Graphdatenbanken-Anbieters Neo4j werfen für uns nachfolgend einen Blick auf aktuelle Treiber sowie die tatsächlichen Folgen für das KI-Ecosystem, inklusive noch zu lösender KI-Hürden.
Zusammengefasst sind 8 Punkte erwähnenswert:
Nicht nur sichere Technologien, sondern auch flexiblere Verbrauchsmodelle sowie Beschaffungsangebote (STaaS) für konsolidierte software-definierte Datendienste werden verstärkt gefragt…
Um was geht es in diesem Podcast? Fortschritte bei Digitalisierung, Vernetzung und Entwicklung neuer stark datengetriebener Anwendungen im Verbund mit hybriden Cloud-Deployments hat zu einem weiteren Wachstum im Bereich von semi- und unstrukturierter Daten geführt. Ältere Speichersysteme gerade im NAS-Umfeld stoßen dann schnell an ihre Grenzen, denn die möglichst nahtlose, unkomplizierte Erweiterung und Verwaltung von Leistung und Kapazität lässt sich in einer festen Hardware-Architektur nur bis zu einer bestimmten Größe sinnvoll abbilden.
Ein weiterer kritischer Punkt betrifft die Zunahme von Cyberangriffen, besonders in Form von Ransomware. Diese zielen vermehrt auf unstrukturierte Datensätze und Backupdaten. Integrierte Cyber-Security-Funktionalitäten für verteilte Dateisysteme und Objektspeicherplattformen werden deshalb notwendig, je mehr Angriffe auf diese Systeme und Daten stattfinden.
Vom Anbieter verwaltete Cloud-basierte Speicherlösungen as-a-Service (STaaS) als Ergänzung oder Ersatz für eigene Speicherinfrastrukturen vor Ort können eine Alternative darstellen (variable Kosten, Sicherheit, reduzierte Komplexität, immer die aktuellste Technologie etc.). Weiterer Vorteil: der Hersteller übernimmt die Verwaltung, Wartung und den Support und damit die komplette Verantwortung und je nach Angebot auch Sicherheit der Speicherumgebung...
Mehr dazu in diesem Podcast und auf unserer Webseite www.storageconsortium.de
Sichere Snapshots, Air Gap und Immutability...
Die sichere Offline-Aufbewahrung von Datenkopien für Backup-Zwecke ist ein entscheidender Faktor, um Lösegeldforderungen zu begegnen und die saubere Wiederherstellung von unternehmenskritischen Daten sicherzustellen.
Moderne Verfahren sichern virtuelle Maschinen über S3 direkt auf einen Objektspeicher on-premise und-/oder in der Cloud. Diese unveränderliche Speicherung (immutable Storage) über den mehrstufigen Schutz mit S3 Object Lock hat sich in der Praxis bewährt.
Offline Speichermedien mit "Air Gap" haben keine direkte physische Verbindung zum Netzwerk und sind eine wirksame Barriere gegen Ransomware und auch Malware. Neben Festplatte oder Flash erlaubt es der Einsatz von Bandspeicher-Systemen (Tape) sowie Daten-Deduplizierung, auch große Kapazitäten energieeffizient zu sichern und bei Bedarf zeitnah wiederherzustellen; ohne wesentliche Betriebsunterbrechungen.
Das physische Air Gap ist ein sicherer Weg, um kritische Daten vor Ransomware zu schützen. Die Technik ist aber wegen ihres Offline-Charakters nicht für die schnelle Wiederherstellung geeignet.
Wie kann diese Herausforderung mit Backup-Verfahren und Lösungen wie (virtual) Appliances vor-Ort angegangen werden?




