Hyperconverged Infrastructure-Lösungen bieten flexible Skalierbarkeit und vereinfachen die Administration im Data Center dank smarter Softwarefeatures.
Foto: Bacher Systems
Manfred Köteles, Bacher Systems: „Technologie soll sich nicht mit Themen beschäftigen müssen, die einfach zu funktionieren haben – sonst bleiben Innovationen auf der Strecke“
Hohe Anfangsinvestitionen, schwankende Kapazitätsbedarfe und komplexe Verwaltung: Die Herausforderungen, mit denen Data Center aktuell zu kämpfen haben, sind mannigfaltig. Abhilfe schaffen sogenannte hyperkonvergente Lösungen. Diese integrieren Computing und Storage auf einer Plattform und machen die Administration dank intelligenter Software zum Kinderspiel.
„Klassische Server-Storage-Konzepte punkten zwar durch hohe Leistung und Ausfallsicherheit, stoßen aber dort an ihre Grenzen, wo zusätzlich leichte Administration und lineare Skalierbarkeit gefragt sind“, erklärt Manfred Köteles, Geschäftsführer des Systemhauses und Infrastruktur-Experten
Bacher Systems. Ist die Kapazität eines klassischen Systems ausgeschöpft, steht der Betreiber vor der Wahl, ein weiteres oder neues Speichersystem anzuschaffen. Dieses müsse zu Beginn meist überdimensioniert sein, um auch künftige Anforderungen erfüllen zu können, so Köteles weiter. Zudem müssen Daten auf zentralen Speichersystemen vorgehalten werden, um hohe Verfügbarkeit zu gewährleisten. Wenn eine klassische Hardware-Einheit ausfällt, sind gleich mehrere virtuelle Server betroffen. „Technologie soll sich nicht mit Themen beschäftigen müssen, die einfach zu funktionieren haben“, fasst Köteles das Dilemma zusammen, „sonst bleiben Innovationen auf der Strecke.“
„Hyperconverged“ löst diese Defizite durch konsequente Integration von Storage und Computing auf einer Standard-Server-Hardware – dem „Node“, der die kleinste Einheit der Architektur darstellt. Für System-Erweiterungen wird immer ein solcher Node – also eine Kombination aus Server mit internem Storage – zum bestehenden System hinzugefügt. Rechenzentrumsbetreiber können auf diese Weise Performance und Kapazitäten je nach Bedarf flexibel erweitern. Daten und Services werden Softwaregesteuert über den gesamten Cluster ausfallsicher verteilt, die Verwaltung des gesamten Systems geschieht über eine gemeinsame Oberfläche.
Ein weiterer wesentlicher Vorteil Softwaredefinierter Infrastruktur ist ihre Update-Fähigkeit. Da entsprechende Lösungen nicht auf spezielle Hardwareerfordernisse angewiesen sind, können Weiterentwicklungen und neue Funktionen durch ein einfaches Software-Update bewerkstelligt werden. Das macht die Lösungen auch zukunftssicher: Neue Features können so auch auf Legacy-Modelle eingesetzt werden.
Anwendungsbereiche für Hyperconverged Infrastrukturen sind überall dort zu finden, wo flexible Skalierbarkeit für wachsende IT-Services gebraucht wird und sich die Entwicklung der Nutzung schwer abschätzen lässt – etwa Web-Plattformen, virtuelle Desktops oder Big-Data-Applikationen. „Anwendungen und Datenbanken, die auf dem Scale-Out-Prinzip basieren, können schnell und einfach über eine Hyperconverged Infrastruktur zur Verfügung gestellt werden. Und auch die klassische Servervirtualisierung lässt sich damit sehr einfach umsetzen“, erklärt Manfred Pichlbauer, IT-Consultant bei Bacher.
Smarte Verbindung.
Als Partner für die Realisierung von Hyperconverged Infrastructure kooperiert Bacher mit dem US-amerikanischen Lösungsanbieter
Nutanix. Die Virtual Computing-Plattform Nutanix vereint Server, Storage und Virtualisierung. Im Unterschied zu anderen Lösungen aus dem „Hyperconverged“-Segment integrieren die Hardware-Appliances von Nutantix ein eigenes Filesystem – dieses verwaltet alle Daten und Meta-Daten und fungiert als Bindeglied zwischen Storage und Hypervisor. Das Prinzip Offenheit erstreckt sich dabei auch auf die unterstützten Virtualisierungsstandards: Unterstützt werden VMware vSphere, KVM und Microsoft Hyper-V.–lh–