Chat with us, powered by LiveChat

Virtualisierung von Soft- und Hardware: Virtualisierung kurz erklärt

IT-Knowledge Base: Für IT-Interessierte & Unternehmen, die auf der Suche nach einem Managed Services Provider sind.

Definition – Was heißt Virtualisierung?

Die Komplexität von IT-Systemen in Unternehmen steigt mit den Jahren immer weiter an und zahlreiche Herausforderungen müssen dabei gemeistert werden. Dabei kann Virtualisierung eine wichtige Rolle spielen, insbesondere wenn es um die Reduzierung von IT-Kosten, Einsparungen bei der Hardware und das optimale Ausnutzen der Infrastruktur geht. Doch was ist Virtualisierung genau? Der Begriff beschreibt die Nachbildung eines Hard- oder Software-Objekts mit Hilfe einer Softwareschicht. Meistens besteht eine Workstation aus einem Computer, einer Tastatur, einer Maus und einem Bildschirm. Wahrscheinlich sitzen Sie gerade vor genau so einem Computer und lesen diesen Blogbeitrag. Bei der Virtualisierung hingegen gibt es nur einen physischen Rechner, auf dem mehrere virtuelle Rechner laufen. Diese Rechner haben keinen eigenen Bildschirm, keine eigene Maus und keine eigene Tastatur, aber sie können die Geräte des physischen Computers mitbenutzen. IT-Ressourcen wie Hardware, Software, Speicher und Netzwerkkomponenten können auf virtueller Ebene bereitgestellt und bedarfsgerecht an verschiedene Abnehmer verteilt werden.

Doch welchen Nutzen hat diese Vorgehensweise? Oftmals wird die Leistung eines Rechners nicht voll ausgenutzt und nur wenig beansprucht. Durch Virtualisierung können Ressourcen besser verteilt werden, denn die virtuellen Rechner teilen sich die vorhandene Leistung. Interessant ist Virtualisierung sowohl für große als auch für kleine Unternehmen. Grundsätzlich gilt: Wenn es Ressourcen gibt, die nicht vollständig genutzt werden, ist Virtualisierung von unternehmerischen IT-Ressourcen auf jeden Fall eine Überlegung wert. Dabei gibt es diverse Formen der Virtualisierung, die jeweils einen anderen Nutzen mit sich bringen. Unterschieden wird zwischen der Server-Virtualisierung, Netzwerk-Virtualisierung und Desktop-Virtualisierung. All diese Vorgehensweisen haben das gleiche Ziel: Mit weniger mehr erreichen. Um den Mehrwert von Virtualisierung genauer verstehen zu können, schauen wir uns die Vorteile einmal genauer an:

Vorteile der Virtualisierung

  1. Optimierung der Auslastung

Die Hardware-Komponenten von IT-Systemen werden meistens nur zu einem geringen Teil ausgelastet. In dem sich bspw. mehrere virtuelle Maschinen die vorhandene Hardware teilen, wird die Prozessorauslastung verbessert und die Speichermedien werden effektiver aufgeteilt.

  1. Energie sparen

Weniger physische Server im Rechenzentrum bedeuten weniger Stromverbrauch und weniger Kühlung. Die Einrichtung virtueller Maschinen ist ein Beitrag zu einer besseren Klimabilanz und einer grüneren IT.

  1. Kosten einsparen

Durch den geringeren Stromverbrauch werden natürlich auch Kosten gespart. Außerdem müssen weniger physische Systeme angeschafft werden.

  1. Kleinere Rechenzentren

Es werden weniger Stellflächen, Verkabelungen und Racks benötigt. Das schafft mehr Raum, der anderweitig genutzt werden kann.

  1. Anpassbarkeit

Applikationen können weiterlaufen, auch wenn ein Problem bei einem Server auftritt, denn sie können bei der Virtualisierung auf zwei verschiedenen physischen Servern betrieben werden. 

  1. Flexibilität

Der Administrator kann bei Bedarf oder im Notfall vom Home-Office auf den Server zugreifen. 

  1. Schnellere Server-Provisionierung

Virtuelle Maschinen können einfach und schnell installiert werden, sodass viel Zeit gespart wird.

Virtualisierung von Hardware

Bei der Hardware-Virtualisierung werden virtuelle Ressourcen wie CPU oder Speicher bereitgestellt. Ein Paradebeispiel für eine Virtualisierung von Hardware ist die virtuelle Maschine (kurz: VM). Dabei handelt es sich um einen virtuellen Rechner, der sich dem Nutzer gegenüber wie ein physischer Rechner inklusive Hardware und Betriebssystem verhält. Die VMs laufen als Gastsysteme auf einem oder mehreren physischen Systemen, die als Wirt bezeichnet werden. Für den Endnutzer lassen sie sich nicht von einem physischen Rechner unterschieden. Mit diesem Konzept können mehrere virtuelle Server für verschiedene Anwender auf Basis einer leistungsstarken Rechenplattform bereitgestellt werden. Möglich gemacht wird das durch einen sogenannten Hypervisor. Dies ist eine Software, die den Betrieb mehrerer Gastsysteme auf einem Wirtssystem ermöglicht. Es gibt zwei verschiedene Typen von Hypervisoren: Der eine setzt direkt auf der Hardware des Hostsystems auf und der andere läuft im Betriebssystem des Wirts und greift mithilfe des vom System bereitgestellten Gerätetreiber auf die Hardware zu. Kurzum: Hypervisoren verwalten die Hardware-Ressourcen des Wirtsystems. Zum Beispiel CPU, RAM, Festplattenspeicher und Peripherie werden dadurch auf beliebig viele Gastsysteme aufgeteilt. VMs bieten einen hohen Isolationsgrad und damit Sicherheit bei der Workload-Isolierung.

Die Hardware-Virtualisierung gilt als ein sicheres Konzept. Da jedes Gastsystem in einer virtuellen Hardwareumgebung ausgeführt wird, haben Hacker-Angriffe oder Malware in der Regel keinen Einfluss auf andere Gastsysteme desselben Wirtsystems.

Server-Virtualisierung

Ein weiteres Anwendungsfeld ist die Server-Virtualisierung. Dies bezeichnet Software- oder Hardware-Techniken, die dazu dienen, mehrere Instanzen eines Betriebssystems auf einem einzigen Rechner nebeneinander zu betreiben. Die einzelnen Instanzen werden virtuelle Maschine (VM) oder virtuelle Server genannt und verhalten sich in der virtuellen Umgebung identisch zum „normalen“ Betrieb direkt auf der Hardware. Dies gestattet eine gemeinsame Nutzung von Server-Ressourcen, die sich auf physischen Hosts befinden. Die Bereitstellung oder Veränderung virtueller Ressourcen für einzelne Server ist per Software möglich und bei Bedarf können die virtuellen Server im Betrieb auf andere Hostsysteme verschoben werden. Dadurch wird eine höhere Auslastung der Server-Hardware erreicht. Da z.B. Prozessoren in der Anschaffung meist kostspielig sind, wird damit verhindert das die kostspieligen Ressourcen ungenutzt bleiben. Anstatt für unterschiedliche Server-Anwendungen separate Rechenmaschinen zu verwenden, werden unterschiedliche Server als Gastsysteme auf derselben Hardware betrieben. Dadurch wird die Prozessauslastung verbessert, die Speichermedien werden effektiv aufgeteilt und es entsteht ein geringerer Stromverbrauch für Betrieb und Kühlung.

Rechner-Virtualisierung

Auch ein Rechner kann virtualisiert werden, zum Beispiel, um bei einem alten PC das komplette Betriebssystem zu sichern. Jede Datei, Seriennummer oder E-Mail ist damit gesichert, denn die virtuelle Maschine kann jederzeit auf einem anderen System starten. Dieses Vorgehen kann auch für Privatpersonen interessant sein.

Desktop-Virtualisierung

Die Desktop-Virtualisierung bezeichnet ein Konzept bei dem Desktop-Umgebungen zentral bereitgestellt und über ein Netzwerk in Anspruch genommen werden können. Es gibt verschiedene Modelle von Desktop Virtualisierung, die sich grob in zwei Kategorien einteilen lassen. Sie basieren darauf, ob die Betriebssystem-Instanz lokal oder entfernt ausgeführt wird. Wichtig zu wissen ist, dass nicht alle Arten von Desktop-Virtualisierung virtuelle Maschinen verwenden. Für die hostbasierte Desktop-Virtualisierung ist es erforderlich, dass der Nutzer über ein Netzwerk arbeitet und ein Remote-Display-Protokoll verwendet.

Bei der clientbasierten Desktop-Virtualisierung findet die Verarbeitung auf lokaler Hardware statt. Diese Art der Virtualisierung umfasst OS-Streaming: Das heißt, das Betriebssystem läuft auf lokaler Hardware, aber der Boot-Vorgang funktioniert über ein Remote-Disk-Image in einem Netzwerk. Nützlich ist das für Desktop-Gruppen, die das gleiche Image verwenden. Außerdem gibt es clientbasierte virtuelle Maschinen. Dabei läuft virtuelle Maschine auf einem Computer mit einem Hypervisor. Die clientbasierten VMs lassen sich durch das regelmäßige Synchronisieren des Images verwalten.

Einfach ausgedrückt, werden lokale Computer durch virtuelle Maschinen ersetzt. Die Hardwareressourcen werden dadurch effizient genutzt und die auf die Arbeitsplatzanforderungen zugeschnittenen Betriebssystem- und Softwarevarianten können zentral administriert werden.

Speicher virtualisieren

Anders als die anderen Vorgehensweisen beruht dieses Konzept nicht auf einer modifizierten Technik. Deshalb kämpft man bei der Speichervirtualisierung immer mit der Gravitation von Daten und dies kann eine echte Herausforderung sein. Bei der Speicher- oder auch Storage-Virtualisierung, werden physische Speicher aus mehreren Netzwerkspeichersystemen zusammengelegt, sodass aus Sicht des Administrators ein einziger zentral steuerbarer Speicher existiert. Allerdings sind die Daten an den tatsächlichen Speicherort gebunden und müssen erst kopiert werden, um eine verlustfreie Änderung der Speicherkonfiguration zu garantieren.

Durch die virtuelle Zusammenfassung von Speichersystemen entsteht ein sogenannter Speicherpool, aus dem die benötigten Kapazitäten für die Fachanwendungen bereitgestellt werden. Die Speichervirtualisierung hilft dem Systemadministrator dabei, Aufgaben wie die Datensicherung, Archivierung und Wiederherstellung leichter und in kürzerer Zeit zu erfüllen.

Betriebssystem virtualisieren

Dieses Verfahren bedient sich am vorhandenen Betriebssystem. Bei der Erstellung der Gäste werden nur die Individualdaten für die virtuelle Maschine angelegt. Abweichende Daten werden im Heimatverzeichnis abgelegt und alle gleichen Betriebssystemdaten werden von den Gästen mitgenutzt.

Dadurch besteht eine VM nur aus sehr wenigen Dateien und verbraucht weniger Festplatten- und Hauptspeicher als ein normaler Server. Bei dieser Technik ist eine hohe Ausnutzung der Systemressourcen gewährleistet. Aufgrund der geringen Leistungsansprüche ist eine hohe Anzahl VMs bei bescheidener Hardwareausstattung möglich. Ein Nachteil ist die Abhängigkeit des Gastsystems vom Host, denn das setzt eine homogene Basis an Betriebssystemen voraus. Wichtig ist, dass alle Gäste getrennt voneinander agieren können.

Netzwerk virtualisieren

Bei dieser Methode werden die verfügbaren Ressourcen eines Netzwerks kombiniert. Dafür wird die verfügbare Bandbreite in mehrere unabhängigen Kanäle aufgeteilt, die alle einem bestimmten Server oder einem Gerät zugewiesen werden können. Jeder Kanal ist unabhängig abgesichert und alle Teilnehmer haben von einem Computer aus Zugriff auf alle Ressourcen des Netzwerks. Besonders für einen Administrator ist die Netzwerkvirtualisierung nützlich, denn dadurch kann seine Produktivität und Effizienz verbessert werden. Viele seiner Aufgaben werden dadurch automatisch erledigt. Dateien, Bilder, Programme und Ordner können dadurch an einem zentralen physischen Ort gemanagt werden. Festplatten, Speichermedien und Bandlaufwerke können außerdem ohne Probleme hinzugefügt oder neu zugeordnet werden.

Durch eine Netzwerkvirtualisierung wird die Geschwindigkeit, Zuverlässigkeit, Flexibilität und Skalierbarkeit optimiert. Besonders effektiv ist diese Technik bei Netzwerken mit plötzlicher erhöhter Auslastung.

Was heißt NFV?

Hinter dieser Abkürzung stecken die Worte Network Functions und Virtualization. Dieses Konzept stellt Netzwerkfunktionen softwarebasiert auf standardisierter Hardware bereit. Diese Art der Virtualisierung verfolgt das Ziel, den Einsatz von proprietärer Hardware in Netzwerken zu minimieren. Zum Beispiel Geräte wie Router, Firewalls und Switches lassen sich dadurch auf virtuellen Maschinen und Servern hosten. Dadurch werden Netzwerke noch flexibler, skalierbarer und agiler. Außerdem können sie kostengünstiger mit Standard-Hard- und Software gesteuert werden. Neue Services können schnell und mit geringerem Aufwand implementiert werden. Hinweis: Besonders für Serviceprovider, die Ihre Services in kürzester Zeit dem Markt anpassen möchten, ist NFV interessant.

Virtualisierung von Software

Die Software Virtualisierung hat das Ziel, installierte Programmversionen vom Betriebssystem los zu lösen. Dadurch ist eine vorherige Installation nicht mehr notwendig. Eine virtualisierte Software muss also nicht mehr am Rechner installiert sein, sie kann einfach ausgeführt werden. Hilfreich ist das z.B., um eine Software auf Betriebssystemversionen zu starten, die eigentlich nicht unterstützt sind. Viele Virtualisierungslösungen arbeiten außerdem mit einer Sandbox. Das heißt, die Änderung des Programmes werden nicht direkt auf dem Rechner geschrieben, sondern in einem virtuellen Filesystem. Dadurch kann das Programm keinen Schaden am Rechner verursachen und Konflikte mit anderen Programmen werden vermieden.

Mit der Betriebssystem-Virtualisierung ist es beispielsweise möglich auf einem Rechner Windows 10 & macOS Mojave gleichzeitig laufen zu lassen. Auch der Begriff Application Streaming gehört zum Bereich der Virtualisierung von Software. Freigegebene virtuelle Programme können dadurch nur die Bereiche laden, die benötigt werden. Wird zum Beispiel eine zentral freigegebene Anwendung über das Netzwerk gestartet, werden nur Programmteile geladen, die zum Starten auch nötig sind. Während der Arbeit mit der Anwendung werden dann nach und nach alle benötigten Teile angefordert. Der Start des Programms wird dadurch beschleunigt und das Netzwerk wird entlastet.

Ein Problem bei der Software-Virtualisierung sind Programme, die sich tief in das Betriebssystem integrieren sowie Software, die bestimmte Treiber wie bspw. Antivirenprogramme oder VPN Clients anspricht. Diese können nicht zur Gänze virtualisiert werden.

Virtualisierungssoftware

Die ganzen Techniken lassen sich natürlich nur Mithilfe von Virtualisierungssoftware umsetzen, deshalb schauen wir uns die unterschiedlichen Lösungen einmal genauer an.

Im Bereich der Server Virtualisierung ist der Hypervisor ein Antriebsmotor, denn er ist der Kern jeder VM Software. Die führenden Hersteller bieten Virtualisierungslösungen als abgespeckte Version kostenfrei an. Allerdings sind für größere Umgebungen die kostenpflichtigen Managementwerkzeuge nötig. Die kostenfreien Varianten sind meistens ein Lockmittel, um potenzielle Kundschaft zu erreichen.

Microsoft und VMware bieten beispielsweise mit Hyper-V Server 2012 R2 und ESXi VM Software an. Diese stellt aber jeweils nur den Hypervisor als Kern zur Verfügung und die eigentlichen Werte, die Tools für High Availability über Storage- und Netzwerk-Visualisierung bis hin zu Disaster Recovery enthalten, sind den zahlenden Kunden vorbehalten. Die kostenfreien Pakete sind für stand-alone-Server mit den Schwerpunkten Testing, Betrieb von Entwicklungs- und Testumgebungen sowie für den Betrieb weniger kritischer Workloads nutzbar. Auch eine vollständige open source Virtualisierung ist auf dem Markt erhältlich: Der enServer von Citrix und Linux mit KVM stellen die Software bereit. Den Anwendern stehen hierbei alle vorhandenen Management-Tools zur Verfügung. Auf dieser Basis lassen sich potenziell auch größere Virtualisierungslösungen zum Nulltarif realisieren. Bis auf KFM ist all diesen Produkten gemeinsam, dass es sich um Bare-Metal-Syteme handelt. Das bedeutet, die Virtualisierungsschicht ist oberhalb der Hardware angesiedelt und nicht auf einem Betriebssystem. Auch die Ansätze der Hersteller ähneln sich: Microsoft, Citrix und KVM sind alle mit dem Managementbetriebssystem Windows 2012 R2 verbunden. Allein VMware ESXi kommt als eigenständige Mini-Appliance daher. Doch welche Virtualisierungssoftware überzeugt am meisten? Um diese Frage beantworten zu können schauen wir uns die Vor- und Nachteile genauer an:

Citrix XenServer

Vorteile:

  • Leistungsfähiger Hypervisor
  • Einfaches Setup
  • Unterstützung vieler Gast-Betriebssysteme
  • Vollständige Open-Source-Software

 

Nachteile:

  • Keine Web-GUI
  • Partner-Ökosystem kleiner als bei den großen Wettbewerbern

 

Microsoft Hyper-V Server

Vorteile:

  • Einfache Installation und geläufige Verwaltungsoptionen
  • Umfangreiche Features
  • Breite Hardwareunterstützung

 

Nachteile:

  • Lange Innovations-/Release-Zyklen

 

VMware ESXi

Vorteile:

  • Ausgereifter, leistungsfähiger Hypervisor
  • Breiteste OS-Unterstützung
  • Erweiterungspfad durch umfangreiche Managementoptionen

 

Nachteile:

  • Admin-Werkzeuge und Hardwarekompatibilität sind eingeschränkt

 

KVM

Vorteile:

  • Leistungsfähiger Hypervisor
  • Breite OS-Unterstützung
  • Viele Managementalternativen

 

Nachteile:

  • Linux-Know-how notwendig
  • Leistungsumfang ist von den Management-Tools abhängig

 

Diese Hypervisor-Produkte eignen sich alle als Basistechnologie. Welches System das sinnvollste ist, hängt immer vom jeweiligen Anwendungszweck ab. Dennoch ist – besonders im Unternehmensumfeld – für die Umsetzung von Virtualisierungslösungen Know-How gefragt.

Wollen Sie mehr aus Ihrer Serverinfrastruktur herausholen? Wir ermöglichen Ihnen die volle Auslastung Ihrer Kapazitäten und finden immer die passende Virtualisierungslösung für Sie.



WIR FÜR SIE: EMAIL ODER 05241 74 33 63-0