DiscoverStorage Consortium
Storage Consortium
Claim Ownership

Storage Consortium

Author: Storage Consortium

Subscribed: 0Played: 2
Share

Description

Das Storage Consortium fokussiert aktuelles technisches & wirtschaftliches Wissen für IT Organisationen und Unternehmen – Verlagsunabhängig und unter Mitarbeit sowie Themenauswahl eines erfahrenen Industrieexperten. Die Schwerpunkte des Online-Angebotes - neben dem Hauptgebiet Datenmanagement und Speicherverwaltung - bilden praxisnahe Informationen & Trends zu KI, Big Data, Cloud Computing... im Zusammenhang mit Server- und Netzwerkinfrastruktur-Lösungen für professionelle Rechenzentren und Cloud-Services-Anbieter. Thematisch top-aktuelle Podcasts und unser umfangreiches Podcast-Archiv finden Sie in der zugehörigen Rubrik unserer Webseite unter www.storageconsortium.de
174 Episodes
Reverse
Die Speicher- und Dateninfrastruktur im Unternehmen steht weiter im Fokus. Für mehr Resilienz und Datenschutz reichen Snapshots alleine nicht aus… Um was geht es in dieser Episode? Während Themen wie GenAI oder Quantum Computing gerade viel Aufmerksamkeit erhalten, drückt IT- und Anwenderseitig in der Praxis meist an anderer Stelle der Schuh. Denn Cyberangriffe nehmen an Raffinesse und Umfang immer weiter zu und beschäftigen damit die ohnehin angespannte Personallage vieler Rechenzentren und Unternehmen. Um die ständigen Angriffe abzuwehren ist es unumgänglich, die Widerstandsfähigkeit - sprich Ausfallsicherheit, Problemerkennung und rasche Wiederherstellungsfähigkeit - von kritischen Speicherumgebungen weiter zu erhöhen. Vereinfacht gesagt müssen die Systeme nach einem Angriff so schnell wie möglich wieder arbeiten können und die Sicherheit der im Betrieb gespeicherten kritischen Daten gewährleistet sein. Angriffe auf Storage-Produktivumgebungen sind pro-aktiv im Vorfeld bereits zu verhindern. Dafür stehen eine Reihe von modernen KI-gestützten Technologien zur Verfügung, die konsequent eingesetzt werden sollten (Stichwort: IT-Infrastruktur-Modernisierung). Grundsätze zum Aufbau einer Cyber-resistenten Enterprise Storage Infrastruktur: Damit kritische Daten vor dem Ablauf ihres Lifecyles nicht kompromittiert werden, ist ein pro-aktiver Ansatz zur Widerstandsfähigkeit gegen Angriffe notwendig. Verantwortliche sind gut beraten, dazu mehrere Schutzmaßnahmen zu kombinieren, um Angriffe sowie Penetrationen möglichst frühzeitig zu erkennen und die Systeme und Daten bei Bedarf schnell wiederherstellen zu können.  Aus Storage- und Data Management-Sicht haben sich folgende Technologien sowie Verfahren bewährt: Diesen Beitrag als Podcast hören...
Künstliche Intelligenz, Container und Edge-Computing sind für die IT-Infrastruktur potentiell eine Herausforderung... Um was geht es in dieser Episode? Wenn Rechenleistung und Datenkapazitäten wachsen, ist eine Speicherinfrastruktur gefordert, die damit flexibel Schritt halten kann. Auch die leistungsfähigsten Compute-Ressourcen werden nur so schnell arbeiten, wie sie auf die gespeicherten Daten zugreifen können. Ein skalierbarer, softwaredefinierte Speicher im KI-Umfeld ist ein aktives Element zur Beschleunigung von datenintensiven Workloads. Traditionelle Speicherlösungen können hingegen verschiedene Engpässe erzeugen, die anspruchsvolle datenbezogene Anwendungen ausbremsen. Wichtig ist die Fähigkeit, Rechen- und Speicherkapazität unabhängig voneinander zu skalieren. Auch sollte die starre Abhängigkeit von einem Hypervisor-System vermieden werden. Auf Storage- und Data Management-Ebene sind dabei die folgende Aspekte kritisch zu beachten...
In unserem Experten-Podcast #172 bei HPE und CANCOM nachgefragt: "Wie können Betriebe die Möglichkeiten von KI-Technologien im Unternehmensmaßstab nutzen, ohne dabei die Kontrolle über ihre Daten- und IT-Infrastruktur zu verlieren" Zum Inhalt Wenn Unternehmen mit der Planung und Implementierung von KI-Projekten befasst sind, müssen Sie IT-Infrastrukturseitig eine Reihe spezifischer Herausforderungen bewältigen, die vermehrt Hybride- oder Private Cloud-Lösungen betreffen. Weitere Fragestellungen in diesem Zusammenhang können sein: Welche KI-Modelle sind im Zuge der dynamischen KI-Entwicklungen am Markt für meinen Betrieb sinnvoll? Wie lassen sich Pilotprojekte ohne große Hindernisse in Produktionsumgebungen überführen? Wie ist mit geschützten Daten umzugehen (Compliance)? Wie schaffe ich eine möglichst robuste und einheitliche Datenverwaltung? Ist mein Storage KI-geeignet? Eva Dölle, AI Consultant im Competence Center Cloud & Datacenter des IT-Dienstleisters CANCOM (IT, Services) und Dirk Derichsweiler, Field CTO & Distinguished Technologist bei HP Enterprise (HPE), werden in dieser Podcastfolge für Sie auch aus Praxissicht auf diese Punkte detaillierter eingehen. Moderation und Fragen: Norbert Deuschle, Storage Consortium. Mit welchen unternehmerischen Herausforderungen sind Kunden derzeit primär im Zusammenhang mit KI-Projekten konfrontiert? Sind Hybride- oder Private Cloud-Lösungen gegenüber reinen Public Cloud-Implementierungen zu bevorzugen? Beispiel: HPE Private Cloud for AI, PCAI. Wie lassen sich bei der Skalierung von KI-Implementierungen (in Reaktion auf wachsende Geschäftsanforderungen und dynamische Entwicklungen) Kosten und Ausgaben aus Projektsicht möglichst effektiv planen und kontrollieren? Sowohl die IT bei Modellentwicklung (Training) als auch Fachabteilungen (Inferenz-Thematik) dürfen beim KI-Einsatz nicht mit einer überdimensionierten Infrastruktur (teuer) und unnötiger technischer Komplexität belastet werden... Welche Ansätze bieten sich in der Praxis an? Wie können spezialisierte IT- und Services-Anbieter wie CANCOM effektiv unterstützen? Agentic AI ist weltweit im Vormarsch. Wie sollten sich Verantwortliche aus Projektsicht darauf einstellen? Fazit Um KI-Anwendungsfälle zu identifizieren, die eine wahrnehmbare Wertschöpfung und damit Return-on-invest liefern, werden fundierte Kenntnisse der Geschäftsanforderungen benötigt. Wichtiger Punkt: Verantwortliche sollten den Bedarf an Rechenleistung und Speicherplatz mit allen finanziellen Auswirkungen sorgfältig abwägen und sicherstellen, dass KI-Implementierungen bei einer Skalierung leistungs- und kosteneffizient bleiben. Die richtige Auswahl sowie Optimierung des Technologie-Stacks wie Storage, Server, Netzwerk und Data Management, ist für moderne KI-Anwendungen entscheidend für den geschäftlichen Nutzen und damit Projekterfolg. Dazu gilt es, die jeweils verwendeten Technologien im gesamten KI-Stack sorgfältig aufeinander abzustimmen und entsprechend anzupassen.
Um was geht es in dieser Podcast-Episode? Die Datensicherung (Backup-Restore) kann alleine weder monetäre Verluste durch Ausfallzeiten noch Reputationsverluste ungeschehen machen, bildet jedoch für viele Betriebe eine zentrale Säule und Schutzmaßnahme gegen Cyberangriffe. Allerdings können Backups gegen Ransomware & Co. bei erfolgreichen Angriffen oftmals nur begrenzt erfolgreich sein. Welche Gründe dafür verantwortlich sind und weshalb sie „nur“ ein Teil einer breiter angelegten Datenschutzstrategie sind, erfahren Sie in dieser aktuellen Podcast-Folge...
Wie KI- und datenintensive Anwendungen von scale-out Filesystemen, Flash Storage und einem intelligenten Datenmanagement profitieren können... Parallele scale-out File Systeme, sequentielle I/O-Muster, effizientes Metadaten-Management und leistungsfähige Protokolle-/Technologien wie NVMe over Fabrics können dabei helfen, neben der KI-Leistung auch die Lebensdauer von NAND-Flash-Speichersystemen zu erhöhen.
Um was geht es in dieser Podcast-Episode? Der Einsatz von Containerlösungen im Vergleich zur herkömmlichen Virtualisierung bietet für verschiedene Applikationsszenarien direkte Vorteile. Mit Cloud-nativen Architekturen wird es möglich, skalierbare Anwendungen für öffentliche, private- oder hybriden Umgebungen zu erstellen und auszuführen. Es entstehen lose gekoppelte Systeme, die sowohl flexibel und stabil als auch zentral verwaltbar sind. In Kombination mit einer robusten Automatisierung lassen sich zudem mit minimalem Aufwand im laufenden Betrieb Änderungen vorzunehmen. Die klassische Virtualisierung hingegen ist weiterhin für viele (Legacy-)Anwendungen gesetzt, insbesondere, wenn branchenspezifische Sicherheitsanforderungen mit Szenarien, die eine vollständige Betriebssystemisolation erforderlich machen, beachtet werden sollten. Das CSI (Container Storage Interface), wie es in Orchestrierungs-Lösungen wie Kubernetes zu finden ist, wird sowohl von physischen als auch von softwaredefinierten Lösungen verschiedener Anbieter im Bereich Enterprise Storage unterstützt. Ferner sind Software-Definierte Plattformen (vermehrt open-source) mit Unterstützung von File-, Block- und Objectstorage in diesem Umfeld gut positioniert..
Im Schnittpunkt zwischen künstlicher Intelligenz und leistungshungrigen Anwendungen stehen immer mehr Daten, während potentielle Infrastruktur-Engpässe bei der Verarbeitung auf der Netzwerk-, Server- und Speicherseite auftreten können. Beim Einsatz und Betrieb von KI-Projekten hat sich die Nachfrage nach geeignetem Arbeitsspeicher und Storagekapazitäten für die Unterstützung von Trainingssätzen und Inferenz-Engines erhöht. Vermehrt steht zudem die Verarbeitung aller Arten von Daten, einschließlich Text und Bilder sowie Audio- und Videoinhalte im Mittelpunkt und die Speicherung semi- und unstrukturierter Daten spielt dabei eine zentrale Rolle im gesamten KI-Lebenszyklus. Auf der Speicherebene hat GDDR5 inzwischen Schwierigkeiten, mit dem GPU-Leistungswachstum mitzuhalten, besonders in Bezug auf Kriterien wie Strom-/Energieverbrauch, Integration und Packungsdichte der verschiedenen eingesetzten Komponenten. High-Bandwidth-Memory HBM Produkte versprechen hier Leistungsvorteile... Diese und weitere Aspekte zu dem komplexen Themenkreis "Storage, Datenverwaltung und KI" werden in dieser Podcast-Episode kurz angerissen. Weitere Information dazu finden Sie auch unter www.storageconsortium.de
Zum Inhalt dieser Podcast-Episode #300 Im modernen Anwendungsumfeld hat sich unterstützt von KI und weiter ausgefeilten Data Analytics Methoden inzwischen ein datenzentrierter Ansatz etabliert. Daten werden zudem als Unternehmenskritische strategische Ressource genutzt. Dieser dann vielfach aus unstrukturierten Daten bestehende Pool wächst jedoch schnell und will entsprechend gespeichert, geschützt und archiviert werden. Ein cyberresilienter Speicher gehört in diesem Zusammenhang neben der reinen Datensicherung zu den zentralen Komponenten einer IT-Infrastruktur. Über welche technischen Ausstattungsmerkmale und Funktionen ein Unternehmensspeicher verfügen sollte, um die Sicherheit von unternehmenskritischen Daten zu gewährleisten, darum geht es zusammengefasst in dieser Podcastfolge... Neben den im Podcast geschilderten Verfahren, Technologien und Maßnahmen bleibt der Faktor Mensch weiterhin ein wichtiger „Baustein“ in der Sicherheitsarchitektur von Unternehmen und Organisationen. Jedoch werden automatisierte KI-gestützte Speicher- und Datensicherungsverfahren mit pro-aktiver Ransomware-Erkennung zur Identifizierung kritischer Daten bei der rasch steigenden Menge an unstrukturierten Daten (siehe KI) immer wichtiger. Weitere Informationen zu Anbieterlösungen, Markt- und Technologietrends finden Sie auf unserer Webseite storageconsortium.de
Integrative IT-Strategien im Zeichen von (generativer) KI, unstrukturierten Daten und Infrastruktur-Modernisierung; in unserem Experten-Podcast mit Beteiligung von HPE und CANCOM nachgefragt Zum Inhalt dieser (nicht synthetischen) Podcast-Episode: In dieser Folge beschäftigen wir uns inhaltlich primär mit der Speicherung, Verwaltung und Analyse von stetig wachsenden unstrukturierten Datenmengen im Zusammenhang mit KI und anderen kritischen Unternehmensanwendungen; dies vor allem in Hinblick auf die Auswahl der richtigen Speicher- und Datenverwaltungslösung. Die Fragen stellt Norbert Deuschle vom Storage Consortium. Gesprächspartner sind die Storage- und IT-Experten Juergen Ruhland vom HPE Storage Competency Center Germany und Christian Hansmann, Solution Sales Architect bei Firma CANCOM. (1) Um was geht es konkret? Die Anforderungen an IT-Infrastrukturen, also Storage, Netzwerke, Server etc. steigen weiter an. Dies hat direkte Auswirkungen auf die Speicher- und Datenverwaltung. Folgt man globalen Trends, so sollen sich in großen Unternehmen & Organisationen die Kapazitäten im Bereich der unstrukturierten Daten bis 2026 verdreifachen. Dies stellt Verantwortliche jeder Organisationsgröße vor Herausforderungen, aber es gibt Lösungen: Dazu gehören scale-out File- und Objektspeicher-Systeme, die heute bereits erfolgreich und bevorzugt im Umfeld von unstrukturierten Daten, S3 und der Cloud agieren. In diesem Zusammenhang zählt aktuell die Unterstützung Performance-orientierter KI-Anwendungen sowie ein möglichst einheitliches hybrides Cloud Daten Management zu den Top-Prioritäten vieler Unternehmen.
IT-Herausforderungen "KI, Data Protection und Cloud-Integration". In unserem Experten-Podcast #297 mit dem Anbieter NetApp nachgefragt. Guten Tag und herzlich Willkommen zu dieser weiteren Podcast-Episode des Storage Consortium! In dieser Podcast-Episode sollen einige der zentralen Herausforderungen und Lösungsansätze im Bereich von IT-Infrastruktur-Modernisierung angesprochen und diskutiert werden; dies im Zusammenhang mit den aktuellen Speicher- und Daten-Management Angeboten des Anbieters. Das Storage Consortium (Norbert Deuschle) sprach dazu mit Herrn Marc Kleff, Director Solutions Engineering, bei Firma NetApp. Folgende Themen werden behandelt (Hörzeit: 26 min): 1. Gestiegene Anforderungen an ein intelligentes Datenmanagement 2. Cyberbedrohungen abwehren und den Datenschutz verbessern 3. Künstliche Intelligenz und Daten-Infrastruktur-Modernisierung 4. Anforderungen und Lösungsbeispiele zur Datenverwaltung in der Hybriden Multi-Cloud Fazit
Zum Inhalt dieses Podcasts: Das Interesse am Einsatz von KI in deutschen Unternehmen ist weiterhin hoch und das betrifft auch das Vertrauen in KI-generierte Resultate. Damit rückt die zugehörige Speichertechnologie weiter in den Fokus. Eigentlich sollte man meinen, Flash Storage für KI ist inzwischen ein „No-Brainer“, aber die Wahl des geeigneten Speichers hängt stark von den spezifischen Anforderungen des jeweiligen Projekts ab. Beispiel: Modelle müssen häufig auf große Datensätze zugreifen oder hängen direkt von Echtzeit-Analysen ab. Flash Storage ist aus Performance-Gründen sinnvoll, besonders wenn hohe Leistungsanforderungen wie niedrige Latenzzeiten bei zufälligen Zugriffsmustern (random IO) im Vordergrund stehen...
Zum Inhalt dieser Podcast-Episode: Kritische Anwendungen und IT-Systeme - hier am Beispiel von SAP - müssen rund um die Uhr an 365 Tagen laufen und sich absolut stabil verhalten. Dies führt direkt zu den zentralen Gründen, weshalb Unternehmen eine SAP-Systemhärtung durchführen sollten, unter Berücksichtigung der hierfür notwendigen Sicherheitsaspekte und Compliance-Anforderungen. Ein Interaktiver Experten-Podcast mit Joachim Misselbeck, Senior Solution Manager SAP, CANCOM Jörg Bunse, Solution Achitect, SUSE Norbert Deuschle, Moderation / Storage Consortium Im Beitrag soll auf folgende Fragestellungen sowie Themenbereiche eingegangen werden: Zentrale Gründe, warum Unternehmen eine SAP Systemhärtung durchführen sollten, einschließlich der relevanten Sicherheitsaspekte sowie Compliance-Anforderungen. Konsequenzen bei Nicht-Durchführung einer SAP-Systemhärtung Analyse der potenziellen Risiken und Konsequenzen, denen Unternehmen gegenüberstehen, wenn sie keine Systemhärtung durchführen, wie Sicherheitslücken, Datenverlust oder Compliance-Verstöße. Status quo und praktische Umsetzung beim Kunden: Bewertung des aktuellen Standes in Unternehmen bezüglich der SAP-Systemhärtung. Wie gehen Unternehmen das Thema in der Praxis an und welche Herausforderungen bestehen? Welche Rolle wird der Einsatz von künstlicher Intelligenz (KI) spielen? Aspekte bei der praktischen Umsetzung einer SAP-Systemhärtung Besprechung der wesentlichen Punkte, die Unternehmen bei der Umsetzung einer SAP-Systemhärtung beachten sollten (Planung, Automatisierung, Durchführung, Überwachung...) Erläuterung, wie CANCOM Unternehmen bei der Umsetzung einer SAP-Systemhärtung unterstützen kann (Beratung, Implementierung, kontinuierliche Betreuung...) Zur Rolle von SUSE Linux für SAP-Applikationen: Konkrete Darstellung, wie SUSE Linux dazu beiträgt, die Sicherheit und Stabilität von SAP-Systemen zu verbessern und die Systemhärtung erfolgreich umzusetzen. Vorteile für Unternehmen und Zusammenfassung Wie Unternehmen von den Lösungen beider Unternehmen profitieren können und warum die SAP-Systemhärtung für Unternehmen relevant ist.
Wichtige SLA-Parameter zur Verfügbarkeit und Leistung für die schnelle Wiederherstellung kritischer Daten im Disaster- und Recovery-Fall stehen neben sicheren Backups im Vordergrund. Die 2016 eingeführten Cybersicherheits-Vorschriften der EU wurde durch die 2023 veröffentlichte NIS2-Richtlinie weiter aktualisiert. Stichtag ist der 17. Okt. 2024. Was bedeutet NIS-2 für Speichersysteme, Datensicherung und Disaster Recovery und weshalb sollten betroffene Unternehmen-/Organisation verstärkt auf KI, AIOps und moderne Cybersecurity-Maßnahmen-/Verfahren setzen...
Eine Podcast-Episode mit dem Datei- und Objektspeicher-Anbieter Cloudian* zu kundenseitigen Anforderungen und strategische Antworten auf den stetig steigenden Speicherbedarf im Bereich von unstrukturierten sowie semi-strukturierten Daten, akuell verstärkt im Zusammenhang mit KI- und hybriden Cloud-Anwendungen. Mit Kundenbeispielen... *Gesprächspartner ist Herr Carsten Graf, VP EMEA Sales, bei Cloudian®. Cloudian ist ein spezialisierter Datei- und Objektspeicher Anbieter (aus dem Silicon Valley) und auf S3-API-Speichersysteme spezialisiert. Das Unternehmen stellte erstmals 2011 seine objektbasierte Plattform HyperStore® vor. Moderation und Fragen: Norbert Deuschle vom Storage Consortium. Einzelne Punkte, die in diesem Podcast näher behandelt werden (Hörzeit 20 min): Object Storage ist mit File Storage ein wesentlicher technologischer Aspekt jeder zukunftsorientierten Speicher- und Datenverwaltungsstrategie im größeren Maßstab. Objekt Storage als ein technisches Element in der Cloud hat die Datenspeicherung selbst in einen Service verwandelt (von CAPEX zu einer berechenbaren Betriebsausgabe, OPEX). Gerade entstehen mit dem raschen Wachstum im Umfeld von (generativer) KI neue Herausforderungen. Skalierbare Speicherservices für primär unstrukturierte Daten werden deshalb verstärkt nachgefragt. Ein weiterer Aspekt betrifft die Modernisierung und Integration mit Datensicherungslösungen, mit dem Schwerpunkt auf schnellen Restore und Unveränderlichbarkeit, sowie erhöhtem Datenschutz auf Grund von steigenden Cyberbedrohungen. Performance-Aspekte und Cloud-native Anwendungsszenarien sind weitere Aspekte des modernen Daten- und Speichermanagements. In diesem Zusammenhang gilt es die dynamischen Entwicklungen im KI-Umfeld auf der IT-Infrastrukturseite zu berücksichtigen und betrieblich sinnvoll abzubilden. In Summe ergeben sich daraus sich eine Reihe komplexer Anforderungen aber auch Lösungsansätze, über die wir in dieser Episode sprechen werden. Die (technologischen) Randbedingungen in diesem Zusammenhang sind: KI und Data Analytics, Flash Performance Backup- und Cyberprotection, Data Privacy DevOps-Initiativen, Cloud-native, Kubernetes & Co. Weitere Informationen zum Thema finden Sie unter www.storageconsortium.de
Kritische Sicherheitsmerkmale von Tape-Automatisierungs-Systemen für mehr Schutz vor Ransomware & Co. Um was geht es in diesem Podcast? Tape ist technologiebedingt bereits ein sehr sicheres Speichermedium, da es vom Netz getrennt als sog. „Air-Gap"-Speicher fungieren kann und zudem mit AES-256-Bit-Verschlüsselung sowie WORM-Fähigkeiten ausgestattet ist. Die Erweiterung um Multi-Faktor-Authentifizierung (MFA) ist eine weitere Möglichkeit, den Sicherheitsstandard zu erhöhen. Aktuell werden automatisierte Bandbiblotheken verstärkt als hochsicherer Daten-Tresor verwendet, entweder zur Speicherung dauerhafter Archivkopien - Stichwort „kalte Daten“ - oder als Zielort von Offline-Datenkopien (3-2-2-1 Regel) zum Schutz vor Ransomware- sowie Malware-Infektionen. Norbert Deuschle vom Storage Consortium hat bei Frau Ines Wolf, Managerin Presales Central Europe, des Speicherspezialisten Quantum nachgefragt, über welche erweiterten Sicherheitsfunktionen konkret eine moderne Tape-Library neben den üblichen Standardmaßnahmen-/Verfahren im Zuge stetig steigender Anforderungen an die Datensicherheit verfügen sollte. In diesem Zusammenhang sind nach Ansicht der Expertin fünf Punkte von besonderer Bedeutung...
Um was geht es in diesem Podcast? Generative KI ist für Unternehmen eine der Schlüsseltechnologien mit einem wirklichen Transformations-Potenzial. Als KI-Enabler bereits etabliert haben sich dazu Graphdatenbanken. Anbieter sind Unternehmen wie ArangoDB, TigerGraph, Amazone Neptune, DataStax, Oracle, IBM, Redis, GraphDB, Neo4j und weitere... Knowledge Graphen verknüpfen heterogene Daten zu einem semantischen Kontext, in dem sie Daten und Datenbeziehungen als gleichwertig behandeln. Dies schafft ein geeignetes Umfeld für Netzwerkanalysen, Deep und Machine Learning sowie KI. An der Seite von LLMs setzen Graphen beispielsweise notwendige Grenzen und Prioritäten, um KI-Ergebnisse genauer, erklärbar und nachvollziehbar zu machen. Das Training von Machine Learning(ML)- und Large Language-Modellen(LLM) erfordert hohe Rechenleistungen und Speicherkapazitäten. Neue Prozessor-Serien und Super-GPUs verschieben die Grenzen des Machbaren dabei deutlich nach oben. Die Experten des Graphdatenbanken-Anbieters Neo4j werfen für uns nachfolgend einen Blick auf aktuelle Treiber sowie die tatsächlichen Folgen für das KI-Ecosystem, inklusive noch zu lösender KI-Hürden. Zusammengefasst sind 8 Punkte erwähnenswert:
Nicht nur sichere Technologien, sondern auch flexiblere Verbrauchsmodelle sowie Beschaffungsangebote (STaaS) für konsolidierte software-definierte Datendienste werden verstärkt gefragt… Um was geht es in diesem Podcast? Fortschritte bei Digitalisierung, Vernetzung und Entwicklung neuer stark datengetriebener Anwendungen im Verbund mit hybriden Cloud-Deployments hat zu einem weiteren Wachstum im Bereich von semi- und unstrukturierter Daten geführt. Ältere Speichersysteme gerade im NAS-Umfeld stoßen dann schnell an ihre Grenzen, denn die möglichst nahtlose, unkomplizierte Erweiterung und Verwaltung von Leistung und Kapazität lässt sich in einer festen Hardware-Architektur nur bis zu einer bestimmten Größe sinnvoll abbilden. Ein weiterer kritischer Punkt betrifft die Zunahme von Cyberangriffen, besonders in Form von Ransomware. Diese zielen vermehrt auf unstrukturierte Datensätze und Backupdaten. Integrierte Cyber-Security-Funktionalitäten für verteilte Dateisysteme und Objektspeicherplattformen werden deshalb notwendig, je mehr Angriffe auf diese Systeme und Daten stattfinden. Vom Anbieter verwaltete Cloud-basierte Speicherlösungen as-a-Service (STaaS) als Ergänzung oder Ersatz für eigene Speicherinfrastrukturen vor Ort können eine Alternative darstellen (variable Kosten, Sicherheit, reduzierte Komplexität, immer die aktuellste Technologie etc.). Weiterer Vorteil: der Hersteller übernimmt die Verwaltung, Wartung und den Support und damit die komplette Verantwortung und je nach Angebot auch Sicherheit der Speicherumgebung... Mehr dazu in diesem Podcast und auf unserer Webseite www.storageconsortium.de
Sichere Snapshots, Air Gap und Immutability... Die sichere Offline-Aufbewahrung von Datenkopien für Backup-Zwecke ist ein entscheidender Faktor, um Lösegeldforderungen zu begegnen und die saubere Wiederherstellung von unternehmenskritischen Daten sicherzustellen. Moderne Verfahren sichern virtuelle Maschinen über S3 direkt auf einen Objektspeicher on-premise und-/oder in der Cloud. Diese unveränderliche Speicherung (immutable Storage) über den mehrstufigen Schutz mit S3 Object Lock hat sich in der Praxis bewährt. Offline Speichermedien mit "Air Gap" haben keine direkte physische Verbindung zum Netzwerk und sind eine wirksame Barriere gegen Ransomware und auch Malware. Neben Festplatte oder Flash erlaubt es der Einsatz von Bandspeicher-Systemen (Tape) sowie Daten-Deduplizierung, auch große Kapazitäten energieeffizient zu sichern und bei Bedarf zeitnah wiederherzustellen; ohne wesentliche Betriebsunterbrechungen. Das physische Air Gap ist ein sicherer Weg, um kritische Daten vor Ransomware zu schützen. Die Technik ist aber wegen ihres Offline-Charakters nicht für die schnelle Wiederherstellung geeignet. Wie kann diese Herausforderung mit Backup-Verfahren und Lösungen wie (virtual) Appliances vor-Ort angegangen werden?
ESG, Stromkosten, CO2-Emissionen und steigende Datenmengen im semi-/unstrukturierten Bereich - Ist Active Cold Storage die Lösung? Im interaktiven Tech-Podcast mit Firma Quantum nachgefragt… Zum Inhalt dieses Podcasts (25 min.): Die Weiterentwicklung von Rechenzentrum-Infrastrukturen aus Sicht der Energieeffizienz nimmt an Bedeutung zu. KI, ML, Cloud-Computing, immer mehr Daten und die schnelle Entwicklung neuer Business-Apps führen nicht nur zu unvorhersehbaren Auslastungen innerhalb der IT-Infrastruktur, sondern auch zu höheren Kosten und Betriebsausgaben im Zusammenhang mit der Speicherung, dem Zugriff und der Verwaltung- besonders im Zusammenhang mit der langfristigen Aufbewahrung von Massendaten (Stichworte: Complinace, unstrukturierte Daten, Cold Storage etc.). Nachhaltigkeitsziele erreichen und die Energiekosten des Unternehmens zu minimieren – IT-Teams können dazu einen wichtigen Beitrag leisten, wenn sie richtig planen. Hintergrund: die ITK-Technologie steht derzeit für rund 10 Prozent des gesamten Energiebedarfs und ist damit für rund zwei Prozent der weltweit erzeugten CO2-Emissionen mitverantwortlich. Norbert Deuschle vom Storage Consortium spricht in dieser Podcast-Episode mit Frau Ines Wolf - Managerin Pre-Sales CE bei der Firma Quantum (1) zu den aktuellen kundenseitigen Herausforderungen sowie Lösungen Ihres Unternehmens aus Sicht der Datenspeicherung und Verwaltung. Im einzelnen werden folgende Punkte angesprochen und ausführlicher behandelt: Das Kürzel ESG beschreibt (drei) Verantwortungsbereiche von Unternehmen und Organisationen, die verschiedene nachhaltigkeitsbezogene Kriterien beinhalten. Umweltbewusstsein, Energiekosten (E), Emissionsvorgaben (G) etc. Was bedeutet ESG aus Sicht der Speicherverwaltung? Veraltete IT-Infrastrukturen und der Fachkräftemangel sind für viele Unternehmen eine Herausforderung bei der Umsetzung der Nachhaltigkeitsziele. Aus Sicht der IT im Rechenzentrums-Umfeld betrifft das konkret die Modernisierung und den optimierten Einsatz der dazugehörigen IT-Infrastruktursysteme- und Komponenten. Auf viele Daten wird nach einiger Zeit nur mehr selten zugegriffen. Als Konsequenz daraus kann die Migration kaum benutzter inaktiver (kalter) Daten von Festplattensystemen auf stromlose Bandspeicher oder teilweise auf Flash (Metadaten) zur deutlichen Verringerung der CO2-Emissionen beitragen. Voraussetzung: Datenworkflows und den Bedarf beim Kunden verstehen Begrifflichkeiten: Active Cold Storage; near-line storage; HSM, Active Archiving, Datenklassifizierung, Compliance-Vorgaben Warum bestimmte Kunden Cold Storage und Objektspeicher lieber on-premise implementieren? Vorteile gegenüber der Public Cloud. Wie lässt sich die Verbindung zu Cloud Deployments (S3 / Glacier / API-Ansatz) realisieren. Wie kann Tape in Zusammenhang mit S3, Cloud und Objektspeicher genutzt werden? Quantum Active Cold Storage: Strategie und Lösungsangebot

 Neben dem geringeren Stromverbrauch steht die Speicherung auf stromlose Medien wie Tape auch für weniger Abfall und Elektronikschrott (Stichwort: E Umweltverschmutzung). Fazit Neben Speichermedien nebst Anwendungsprofilen ist der Einsatz von Software-Werkzeugen zur Datenklassifizierung und als Vorbereitung zur Migration zentral. Weiter spielen Verfahren zur Datenreduktion wie Deduplizierung, Kompression, Erasure Coding sowie HSM in Verbindung mit near-line Storage (active archving) und die mögliche Anbindung an die Cloud eine Rolle. Richtig umgesetzt können über das Jahr gerechnet daraus teils erhebliche Stromkosteneinsparungen pro KWh pro Anwendung und Speicher resultieren. In der richtigen Kombination von modernen Hardware- mit Software-Ressourcen lassen sich aus Sicht von Energieeffizienz und Nachhaltigkeit reale Synergien erzeugen.
Interaktiver Podcast mit Experten der Firmen Cloudeteer und NASUNI zur SAS-basierten NAS-Plattform des Anbieters. Kundenseitige Herausforderungen und strategische Antworten auf einen stetig steigenden File (Storage) Bedarf... Um was geht es in der Episode? File-Daten Speicherdienste im Cloud-Zeitalter erfreuen sich einer verstärkten Nachfrage. Die Gründe liegen kundenseitig primär in der Notwendigkeit begründet, IT-Infrastrukturen so zu verändern und zu modernisieren, dass unter dem Strich für das Unternehmen - sowohl on-premise als auch in der Cloud - ein deutliches Mehr an Flexibilität und Vereinfachung resultiert. Dies gilt ebenfalls für Themen wie Backup-Restore und Datenschutz im Zusammenhang mit Cyberbedrohungen durch Ransomware & Co. Aber auch im Umfeld des Managements von unstrukturierten Daten generell besteht Handlungsbedarf, gerade was die IT-Kostenseite (CAPEX vs. OPEX) betrifft. Gesprächspartner unter Einbeziehung der Lösung der Anbieters NASUNI sind Matthias Bretag, Chapter Lead Azure und Multicloud Consultant bei Firma Cloudeteer, ein Microsoft- und Nasuni-Lösungspartner, zusammen mit Markus Warg, Field Technical Director EMEA bei Nasuni. Die Moderation und Fragen stellt Norbert Deuschle (Storage Consortium). Wichtige Punkte, die im Podcast ausführlich behandelt werden (Hörzeit 27 min): Prognosen zeigen, dass sich der Speicherbedarf im unstrukturierten Bereich in den nächsten Jahren mehr als verdoppeln soll. Klassisches NAS wurde dafür nicht entwickelt. Wie können Kunden im Kontext eines weiter steigenden Kapazitätsbedarf darauf reagieren. Stichworte: mehr Flexibilität (Skalierbarkeit), Vereinfachung (Verwaltung, Fachkräftemangel), Kostenreduzierung (Budgetsituation)... Gründe weshalb die Nasuni Lösung über die Firma Cloudeteer als Lösungspartner verkauft wird. Abgrenzung, Erweiterung und Ergänzung zu Lösungen wie z.B. von Microsoft mit Azure Files etc. Klassische Backup-Ansätze bringen bei großen Mengen an unstrukturierten Filedaten eine Reihe von Herausforderungen mit sich. Typisches Problem im Bereich Backup-Restore: Wie können PB’s an Daten in möglichst kurzer Zeit - und zwar ohne Lösegeld zu zahlen - nach einer Verschlüsselungsattacke schnell wiederhergestellt werden? Weitergehende Ansätze zum Schutz vor Cyberangriffen im Bereich der Public Cloud.
 Die SAS-basierte NASUNI NAS-Plattform als Lösungsansatz zum schnellen Restore nach Verschlüsselungsangriffen. Erweiterte Filezugriffe im Hinblick auf den geschäftlichen Mehrwert und nicht nur die IT (Technik). Stichwort: Information als zentraler Unternehmenswert; Mehrwerte aus unstrukturierten Daten erzeugen. Objekt Storage als technisches Element in der Public Cloud hat die Datenspeicherung in einen Service verwandelt. Prozesse der Datenspeicherung transformieren damit von einer CAPEX-dominierten Funktion zu einer vorhersehbaren Betriebsausgabe, OPEX. Fazit: Die richtige Speicher-Strategie im Bereich von File-Daten kann helfen, die potentielle Lücke zwischen Datenwachstum und IT-Budgets zu schließen. Das Nasuni Datenservice-Modell transformiert traditionelle Datei-Infrastrukturen mit einer Reihe von spezifischen Services und mit der Möglichkeit, einen oder auch mehrere Cloud-Anbieter zu wählen... Weitere Information dazu finden Sie auch auf unserer Webseite.
loading
Comments