Die Kommunikation virtueller Maschinen (VMs) mit dem Netzwerk und dem Speicher führt nicht selten zu I/O-Engpässen, da mit der Anzahl der Server folgerichtig auch die Anzahl der NICs und Ports konsolidiert wird. Abhilfe kann am Frontend durch eine Host-basierte IO-Virtualisierung (Input/Output-Virtualisierung) erfolgen. Im Storage-Backend hilft dagegen der Einsatz eines Storage-Hypervisors, der einen intelligenten Mix aus verschiedenen Speichertechnologien bietet.
Wenn eine große Anzahl von virtuellen Maschinen auf einem einzigen Server läuft, wird der I/O-Verkehr schnell zu einem kritischen Engpass. Die I/O-Virtualisierung, meist in die Server- oder Director-Managementsoftware integriert, erleichtert dabei nicht nur die Bandbreite auf einem Server über mehrere VMs zu verteilen, sondern sie besorgt auch die dynamische Verwaltung der Verbindungen zwischen den Pools von physischen Servern.
Virtualisierte Server sind mindestens mit sechs NICs ausgestattet. In einer VMware-Konfiguration sind dabei je zwei für die Service-Konsole, das VMotion-Netzwerk sowie die virtuellen Maschinen reserviert. Service-Konsole und VMotion sind aber nur aus Gründen der Ausfallsicherheit doppelt angebunden. Dabei lassen sich über einen einzigen Gigabit Ethernet-Link leicht zehn oder mehr ESX-Servicekonsolen betreiben. Der VMotion-Verkehr wiederum findet größtenteils in einer Server-Farm innerhalb eines Server-Chassis statt, also benötigt er keine NIC mit großer Bandbreite. Bei einer statischen Port-Zuweisung bedeutet dies eine Verschwendung vorhandener Bandbreite. Deshalb ist in virtuellen Umgebungen eine dynamische Bandbreitenregulierung zur Verwaltung virtueller Netzwerkadressen sowie der erforderlichen LAN-Verbindung sinnvoll.
Dabei tritt die IO-Virtualisierung an die Stelle der fest einprogrammierten WWNs und MAC-Adressen und weist den VMs virtuelle Adressen zu. Die serverseitigen I/O-Parameter werden in einem von der Hardware unabhängigen Profilspeicher isoliert, was Installation, Wartung und Wiederinbetriebnahme der Server vereinfacht. Da sämtliche Parameter eines Servers in einem Serverprofil zusammengefasst werden, lässt es sich verschieben und einem beliebigen Server in einem beliebigen Chassis zuordnen. Gesteigerte Serverauslastung, rasche Anpassung an betriebliche Erfordernisse und Kostenreduktion durch Nutzung der gleichen Hardware für unterschiedliche, nicht gleichzeitig benötigte Applikationen sind die Folge.
Lastenverteilung über High-Speed-Verbindung
Als Effekt der I/O-Virtualisierung ergibt sich eine Vereinfachung der Verkabelung. Wenige High-Speed-Verbindungen (10-Gigabit-InfiniBand- oder Ethernet-Adapter) ersetzen dann mehrere Ethernet- und Fibre Channel-Verbindungen, die als multiple Netzwerk- und Storage-Verbindungen zum Einsatz kommen. Da alles über eine einzige Leitung läuft, kann das System flexibel die erforderte Bandbreite für die virtuellen Verbindungen zur Verfügung stellen und bietet deshalb die maximale Leistung genau da, wo sie benötigt wird. Weil die I/O-Virtualisierung für die Multiple-Ethernet- oder Fibre-Channel-Verbindungen unterschiedliche Geschwindigkeiten emuliert, kann die verfügbare Bandbreite schnell auf die Anforderungen der VM je nach Lastverteilung oder auch auf Veränderungen bei einer Migration reagieren. Dies vereinfacht die Verkabelung in Rechenzentren und macht die Installation der einzelnen Server unkomplizierter.
Insbesondere in virtuellen Umgebungen mit Blade-Servern ist die IO-Virtualisierung von Vorteil. Bei-Blade Server-Systemen sind NICs und HBAs in einem Blade-Chassis integriert und müssten ohne IO-Management bei einer Konfigurationsänderung der Server Blades umkonfiguriert werden. Dies bringt in der Praxis eine Überlappung der LAN- und SAN-Administrationsbereiche mit sich. Der IO-Manager besorgt eine Trennung von LAN- und SAN-Management bei der Nutzung von Blade-Servern, wodurch sich der Administrationsaufwand reduziert. Server Blades können ohne LAN- oder SAN-Administratoren ergänzt, ausgetauscht und wieder in Betrieb genommen werden.