Chat with us, powered by LiveChat

Sichere und effiziente Storage-Strategien – Wie ein modernes Storage-Konzept die IT-Kosten senkt

IT-Knowledge Base: Für IT-Interessierte & Unternehmen, die auf der Suche nach einem Managed Services Provider sind.

 

Ohne sie geht nichts: Daten sind ein essentieller Bestandteil jedes Unternehmens. Das weltweit generierte Datenvolumen soll sich bis zum Jahr 2025 auf 175 Zettabyte belaufen (vgl. Seagate 2018). Im Jahr 2018 waren es noch 33 Zettabyte. Laut der Studie entspricht die geschätzte Menge aller jemals von Menschen gesprochenen Worte digitalisiert 42 Zettabyte (vgl. Spiegel 2011). Durch dieses Beispiel lässt sich sehr gut erahnen, wie groß die Datenflut zukünftig ausfallen wird. Und es zeigt einmal mehr, wie sehr jedes Unternehmen von Daten abhängig ist und diese auch effizient verwalten muss. Viele Unternehmen sehen in der Verwaltung hingegen auch einen großen Kostenfaktor, ebenso fällt die Speicherung immer schwerer. Moderne Storage-Strategien können Unternehmen jedoch bei diesem Problem helfen.

Definition – Was ist Storage?

Auf Deutsch bedeutet „Storage“ Speicher und beschreibt jegliche Art von Speicherlösungen im IT-Umfeld. Dazu zählen zum Beispiel weitverbreitete Varianten wie HDD- und SSD-Festplatten. HDDs (Hard Disk Drives) basieren auf mechanischen Komponenten, während SSDs (Solid State Drives) auf statische Flash-Speicher setzen. Storage kann als zweigeteilt betrachtet werden: Primärer Storage, der die Daten im Arbeitsspeicher hält und Sekundärer Storage, der die Daten auf Festplatten etc. speichert. Aufgrund der Nähe zum Prozessor ist der Zugriff auf einen primären Storage schneller. Allerdings lassen sich auf einem sekundären Storage wesentlich mehr Daten speichern. Grundsätzlich gibt es drei verschiedene Varianten, um Speicherlösungen anzuschließen:

DAS – Direct Attached Storage
Dieser Begriff bezeichnet eine Festplatte, die an einen einzelnen Rechner angeschlossen ist oder mit einem Server verbunden ist. Andere Computer und Server haben keinen Zugriff auf die Festplatte. Der Server muss für das Lesen und Schreiben von Daten nicht erst ein Netzwerk überqueren, deshalb ist DAS schneller als ein Netzwerk-Storage. Unternehmen nutzen Direct Attached Storage oft, wenn eine bestimmte Anwendung eine hohe Performance benötigt. Außerdem ist das Laufwerk einfach zu verwenden aufgrund der geringen Komplexität. Allerdings wird DAS auch oft kritisiert. Für jede Festplatte muss ein Hardware-Anschluss vorhanden sein und andere Geräte oder Anwender können nicht direkt auf die Daten zugreifen. Zugriffe können nur aufwendig über Benutzerrechte oder Freigaben vom verbundenen Rechner realisiert werden. Deshalb ist DAS im Vergleich zu anderen Storagelösungen ziemlich unflexibel. Außerdem kann ein Defekt an einer verbundenen Festplatte zum Problem werden. Die Daten sind dann möglicherweise nicht mehr nutzbar und können nur durch ein Backup-Laufwerk erneut bereitgestellt werden.

NAS – Network Attached Storage
Bei einem NAS-System agieren die Festplatten losgelöst vom Server. Deshalb werden sie als eigenständige Einheit angesehen. Eine Nas-Speicherlösung besteht im Prinzip aus einer oder mehreren Festplatten, einem Netzteil für die Stromversorgung und dem Netzwerkinterface. All das zusammen in einem Gehäuse bezeichnet man als NAS. Der Speicherplatz steht entweder allen Netzwerkteilnehmern zur Verfügung oder wird benutzerabhängig aufgeteilt. Der Vorteil besteht darin, dass unterschiedliche Clients auf dieselben Daten Zugriff haben. Falls mehr Speicherkapazität gebraucht wird, können NAS-Systeme mit größeren Festplatten ausgerüstet werden. Häufig werden NAS-Server als Sicherungsmedium für die Archivierung genutzt oder für die Wiederherstellung nach Zwischenfällen, wie zum Beispiel Disaster Recovery. In höherwertige NAS-Produkte passen genug Festplatten für Redundant Array of Independent Disks (RAID). RAID ist eine Speichertechnologie, die aus mehreren Festplatten eine Einheit macht. Dadurch werden bessere Zugriffszeiten generiert und Hochverfügbarkeit erreicht

SAN – Storage Area Network
Bei einem SAN erhalten mehrere Server per Netzwerk Zugriff auf einen angebundenen Datenpool. Die Server sind somit vom Speicher entkoppelt und dienen nur noch der reinen Verwaltung. Dies ermöglicht eine bessere Skalierung des Speichers, hohe Verfügbarkeit und Leistung.

Storage-Lösungen: Darauf sollten Unternehmen achten

Die Leistungsfähigkeiten von Speicherlösungen sind sehr verschieden. Deshalb ist es für Unternehmen wichtig, sie vor einem Kauf zu vergleichen. Je nach Anwendungsbereich sind andere Merkmale vorteilhaft. Die folgenden Faktoren sind die drei wichtigsten, um die Qualität von Speichermedien zu messen:

Transfergeschwindigkeit
Damit Daten genutzt werden können, sind Lese- und Schreiboperationen von und auf der Storage-Lösung notwendig. Die Geschwindigkeit, mit der diese Vorgänge ausgeführt werden, wird meistens in MB/s (Megabyte pro Sekunde) oder IOPS (Input/Output Operation per Second) angegeben.

Zugriffszeiten
Sie geben an, wie viel Zeit durchschnittlich bis zum Zugriff auf einen vom Anwender genutzten Datenblock vergeht. Zum Beispiel bei einem Transfer vieler kleiner Datensätze kann eine schnellere Zugriffszeit auch einen schnelleren Umgang mit der Storage-Lösung bedeuten.

Zuverlässigkeit
Besonders in Unternehmen arbeiten Speicherlösungen 24/7. Damit Ausfälle vermieden und damit Kosten für Neuanschaffungen gesenkt werden, sind zuverlässige Speichermedien sehr wichtig. Diese Zuverlässigkeit wird mit dem „Mean Time Between Failures-Wert“ (MTBF) bewertet. Er gibt an, wie viel Zeit durchschnittlich bis zu einem Laufwerksfehler vergeht. Professionelle Lösungen erreichen mehrere Millionen Stunden.

Storage-Kosten sparen: Tipps für Unternehmen

Deduplizierung
Bei der Verwaltung vieler Daten entstehen früher oder später Redundanzen. Mithilfe der Deduplizierung lassen sich diese Daten identifizieren und durch einen sogenannten Zeiger ersetzen. Ein Zeiger beschreibt in der IT einen Speicherwert oder eine Datenstruktur, welche auf einen anderen Datenwert verweist. Bei dieser Technik verweist er auf die Datei, die erstmalig aufgetaucht ist. Der Zeiger ist um ein Vielfaches kleiner und nimmt somit viel weniger Speicherplatz ein. Es gibt zwei Arten der Reduzierungsmethode: Das synchrone und das asynchrone Vorgehen. Beim synchronen Verfahren werden die Daten beim Schreiben auf dem Speicher dedupliziert, währende beim asynchronen Verfahren die Analyse zur Deduplizierung erst nach der Speicherung erfolgt. Außerdem bestehen Unterschiede in der Aussortierung: Die sogenannte File-Level-Deduplizierung untersucht ganze Files auf Redundanzen. Allerdings werden die Inhalte der Dateien nicht auf Kopien untersucht und jede kleine Änderung in einem File führt zu einem erneuten Speichern. Das reduziert zwar den Verwaltungsaufwand, kostet aber Speicherplatz. Bei der Block-Deduplizierung wird der Inhalt des Files in Blöcke aufgeteilt und dann auf Redundanzen untersucht. Mehrfach vorhandenes Datenmaterial innerhalb einer Datei und auch zwischen unterschiedlichen Dateien wird dann aussortiert. Mit diesem Verfahren wird jedoch auch mehr Rechenleistung verbraucht. Egal ob synchron oder asynchrones Verfahren – ein effizienter Einsatz von Festplattenplatz erlaubt es, Daten länger auf der Festplatte zu halten. Das sorgt für weniger Zeitaufwand bei der Wiederherstellung von Daten und verringert die Notwenigkeit von Backups.

Disaster Recovery
Der englische Begriff bezeichnet Maßnahmen zur Wiederaufnahme des IT-Betriebs nach einem Störungs- oder Katastrophenfall. Die Störungen können zum Beispiel durch Naturkatastrophen, Bedienungsfehler oder Hackerangriffe verursacht werden. Das Ziel von Disaster Recovery ist es, die negativen Auswirkungen gering zu halten. Es werden beispielsweise Server, Netzwerke oder Datenspeicher wiederhergestellt. Geschäftskritische Daten zu verlieren kann die Existenz eines Unternehmens bedrohen. Deshalb ist es wichtig, sich auf einen Datenverlust vorzubereiten, die Datensicherungssysteme regelmäßig zu prüfen und Backup-Lösungen zu nutzen.

Cloud Technologie
Bei einer lokalen Datensicherung entstehen Kosten für Hard- und Software, Wartungskosten und Einmalkosten für Implementierung und Konfiguration des Systems. Backup-Lösungen aus der Cloud liegen dagegen meist deutlich unter den Kosten einer lokalen Lösung.

Daten analysieren
Unternehmen können Geld sparen, indem sie unterschiedliche Daten auf unterschiedlichen Speicherklassen halten. Außerdem werden die Daten dann optimal aufbewahrt. Die vorhandenen Daten, die zu erwartenden Wachstumsraten der Datentypen und die Anforderungen an jeden Datentyp müssen dafür analysiert werden. Im Normalfall genügen drei bis vier Speicherklassen aus, um alle wichtigen Bedarfe zu decken. Beispielsweise oft abgefragte Daten werden auf schnellen Solid-State-Disk-Speichern (SSD) gesichert und Daten, die nur gelegentlich zum Einsatz kommen und nicht blitzschnell auf dem Bildschirm erscheinen müssen, können auf kostengünstigen Speicherlösungen ausgelagert werden.

Egal, welche technischen Verfahren und Tools man beim Thema Storage zur Kostenreduktion nutzt, letztlich muss man sich für einen Hersteller entscheiden. Der Markt von professionellen Storage-Anbietern für das Enterprise-Segment ist zwar übersichtlich, aber mittlerweile deutlich differenzierter als noch vor einigen Jahren – nicht zuletzt auch aufgrund von Cloud-Storagelösungen. Wer dennoch nach einem NAS-, DAS- oder SAN-System sucht, sollte sich unter anderem den taiwanesischen Hersteller QSAN anschauen. Als Spezialist für NAS- und SAN-Lösungen, bieten die Ostasiaten eine breites Produktportfolio für unterschiedliche Anwendungsbereiche wie Backup, Datensicherheit, Virtualisierung oder Cloud-Anwendungen an. Dabei zeichnen sich die QSAN-Storagelösungen durch eine starke Performance, hohe Datensicherheit sowie ein solides Datenmanagement aus – und das zu preisgünstigen Konditionen. Insbesondere kleinere Unternehmen können dadurch – im Vergleich zu Preisen bei Branchengrößen wie DELL EMC, IBM, HP oder Fujitsu – einiges an IT-Investitionskosten sparen, ohne dabei Abstriche bei der Qualität machen zu müssen.

Dafür liefert QSAN auch zahlreiche gute Argumente: So bleiben Nutzer beispielsweise durch den Einsatz von All-Flash-Systemen sowie den Verzicht auf Hardware-Vendor-Locks flexibel und genießen hohe Skalierbarkeits- und Kompatibilitätsvorteile mit Blick auf ihre eigene IT-Umgebung. Weiter punktet QSAN mit 26-Bay-Gehäusen, erweitertem RAID-Level, intuitiven Web-Interfaces sowie diversen Testsiegen von unabhängigen IT-Fachmedien (itpro.co.uk; speicherguide.de; speicherreview.com). Auch das Setup der QSAN-Systeme ist dank Webfinder-Tool ohne Adminschulung schnell erledigt. Die auf die QSAN-Hardware abgestimmte Software stellt zudem Dienstprogramme onboard für Thin-Provisioning, beschreibbare Snapshots, Remote-Replikation und weitere Anwendungen ohne zusätzliche Lizenzgebühren zur Verfügung.

QSAN-Produkte unterstützen dabei unterschiedliche Technologien und Funktionalitäten wie iSCSl, Fibre-Channel und Serial-Attached SCSI (SAS) Storage-Netzwerk-Protokolle sowie eine systembasierende JBOD-Laufwerk-Architektur. Weiterhin setzt QSAN auf das Dateisystem ZFS, dass hochflexibel ist und die Funktionalitäten eines SAN-, NAS- und Cloud-Storage kombinieren kann. Aus unserer eigenen Erfahrung mit QSAN-Systemen sowie unterschiedlichen Anwendungsfällen bei unseren Kunden, können wir die Storagelösungen von QSAN daher ohne Bedenken empfehlen.

Storage-Virtualisierung

Bei der Speicher- oder auch Storage-Virtualisierung, werden physische Speicher aus mehreren Netzwerkspeichersystemen zusammengelegt, sodass aus Sicht des Administrators ein einziger zentral steuerbarer Speicher existiert. Durch die virtuelle Zusammenfassung von Speichersystemen entsteht ein sogenannter Speicherpool. Der große Vorteil bei der Speichervirtualisierung ist die Flexibilität in der Speichernutzung. Es gibt verschiedene Arten der Speichervirtualisierung, die man in der Informatik unterscheidet: „Switch-basiert“, „In Band“ oder „Host-basiert“.

Der Switch-basierte Ansatz hat heutzutage fast schon ausgedient. Hierbei passiert die Virtualisierung nahe am Switch und führt nur zu sehr geringen I/O-Verzögerungen. I/O bedeutet Ein-/Ausgabe und bezeichnet die Kommunikation eines Systems mit der Außenwelt. Diese Technik bietet allerdings keine Möglichkeit, ein Caching im Datenpfad einzusetzen, dadurch hängt die Performance von den Fähigkeiten des Speichersystems ab.

Bei dem „In Band“ Virtualisierungsverfahren wird ein spezielles System im Datenpfad etabliert. Dadurch mutiert das Virtualisierungssystem selbst zur Speicherinstanz. Der Vorteil ist, dass der integrierte Cache die Performance verbessert. Sollte das Virtualisierungssystem allerdings schwache Cache-Eigenschaften aufweisen, verschlechtert sich die Performance wieder.

Bei der Host-basierten Speichervirtualisierung ist ein Treiber auf dem Host-System für sämtliche Virtualisierungsfunktionen verantwortlich. Da keine zusätzliche Hardware benötigt wird, werden sämtliche Speichergeräte unmittelbar angesprochen. Deshalb bietet diese Methode die beste Performance von allen.

Wenn Sie mehr über das Thema Virtualisierung wissen möchten, lesen Sie unseren Beitrag: „Virtualisierung von Soft- und Hardware: Virtualisierung kurz erklärt“.

Die Cloud als Storage-Lösung

Storage as a Service wird der Cloud-Dienst zum Speichern in der Cloud genannt. Der Cloud-Provider stellt dem Unternehmen bei diesem Konzept die benötigten Speicherkapazitäten zur Verfügung. Damit haben Unternehmen Zugriff auf unbegrenzte Speicherressourcen für die Archivierung, Speicherung und das Backup. Trotz vieler Angebote seitens der Speicheranbieter, ist Cloud-Storage bis jetzt dennoch kein völliger Durchbruch gelungen. Viele Unternehmen möchten ihre Daten aufgrund der Sicherheit nicht auslagern. Der Speicher aus der Cloud hat aber noch ein Nachteil: Die Netzwerkanbindung zwischen den Servern im Unternehmen und den Service Providern ist beschränkt im Hinblick auf Verfügbarkeit und Performance. Daten mit langen Aufbewahrungsfristen, wie zum Beispiel Archivmaterial sind aber interessant für das Modell Cloud-Storage. Nutzen Unternehmen Cloud Storage, um Backups zu erstellen, ist die Auslagerung ein Vorteil. Die Sicherheitskopien sind nicht am selben Ort wie die Originale und einem Datenverlust wird vorgebeugt. Auch die Flexibilität ist ein Vorteil der Cloud: Unternehmen können Cloud-Speicher mieten, wenn sie benötigt werden und wieder abbestellen, wenn der Bedarf nicht mehr besteht. Außerdem bietet eine Cloud-Lösung Skalierbarkeit, denn die Virtualisierung ermöglicht es Speichervolumen genau auf die Anforderungen jedes Unternehmens anzupassen.

Unterschiedliche Storage-Technologien

Laut einer aktuellen Studie von Fujitsu investieren 46 Prozent der Firmen in neue Storage-Systeme und Technologien. Die sogenannten All-Flash-Arrays (kurz AFA) werden dabei immer beliebter und kristallisieren sich langsam als neuer Storage-Standard heraus. Bei AFAs handelt es sich um Storage-Systeme, die an Stelle von klassischen HDDs stattdessen auf SSDs setzen. Die Festplatten mit Flash-Speicher bieten dabei diverse Vorteile: Sie sind deutlich schneller, robuster, stromsparender und kompakter. SSDs galten einst als High-End, sind inzwischen aber erschwinglich geworden und im Endverbraucher-Markt angekommen.

Dies führt – laut Fujitsu – entsprechend zu einer steigenden Verbreitung von sogenannten Hyper Converged Infrastructures (HCI). HCIs sind Systeme, die für bestimmte Workloads vorkonfiguriert worden sind. Sie setzen dabei auf spezielle Hard- und Software, die das Management, die Skalierbarkeit und die Effizienz weiter verbessern. Auch Software-Defined Storages (SDS) kommen immer mehr zum Einsatz. Sie hingegen trennen die Hard- und Software klarer und unabhängiger voneinander. Dies ermöglicht die Verwendung von kostengünstigen Hardware-Komponenten, während der Speicher weiterhin automatisiert von einer Software verwaltet wird, um bestmögliche Lösungen bereitzustellen.

Die Zukunft der Storage-Strategien

Die oben erwähnte Studie von Fujitsu belegt, das 44 Prozent der befragten Unternehmen ihre Daten mehrheitlich in den eigenen vier Wänden haben möchten. Das Ziel ist es, die Daten auf eigens kontrollierbaren Storage-Infrastrukturen zu speichern und zu managen. Cloud First gilt für 42 Prozent der befragten Unternehmen. Ihr Ziel ist es, die Unternehmensdaten bei externen Managed Cloud Provider/ Managed Service Provider zu speichern und dort verwalten zu lassen. Für 14 Prozent der Unternehmen ist ein „Hybrid-Storage“-Szenario das strategische Ziel. Das heißt, sie möchten ihre Daten je nach Workload und Kritikalität auf interne und externe Provider verteilen.

Wunsch und Wirklichkeit stehen manchmal weit auseinander. Aufgrund der zunehmenden Datenflut wird es für Unternehmen zukünftig wahrscheinlich nicht möglich sein alle Daten im eigenen Rechenzentrum zu speichern. Es ist daher sehr realistisch, dass die Storage-Strategien in den kommenden Jahren, einen hybriden Charakter aufweisen werden. Außerdem sind IT-Teams oft unterbesetzt und stehen unter Druck. Sie können es sich immer weniger leisten, ihre Zeit damit zu verbringen Storage-Systeme am Laufen zu halten. Automatisierung und intelligente Speicherlösungen sind die Lösung der Zukunft.

Sie brauchen Hilfe bei Ihrer Storage-Strategie? Als IT-Systemhaus und Experte für Managed Services helfen wir Ihnen gerne.

 



WIR FÜR SIE: EMAIL ODER 05241 74 33 63-0