Sonstiges

Desktop-Virtualisierungen: Server fressen mehr und mehr Büro-PCs

Wyse+S10

Das Sterben hat noch nicht einmal begonnen. Im kommenden Jahr ist es soweit und Hunderttausende von Unternehmen werden weltweit den Zyklus der Rechner-Neuausstattung in Angriff nehmen – Windows 7 könnte ein gutes Argument darstellen. Doch etwas wird anders sein. Vor allem in den Vereinigten Staaten werden viele Büroarbeiter mehr Platz auf und vor allem unter ihren Schreibtischen bemerken: Bildschirm, Tastatur, Netzwerkadapter – fertig. Das sind die Auswirkungen der Virtualisierung: Je mehr Anwendungen quasi outgesourced und auf einem leistungsfähigen Server gehostet werden, desto kümmerlicher werden die PC-Überreste an den Arbeitsplätzen sein.

Desktop-Virtualisierung ist ein großes Thema und das „Forbes Magazin“ geht sogar schon so weit, vom „Tod des PC“ zu sprechen. Auch wenn einige angesichts einer oberflächlichen Kosten-Nutzen-Rechnung vor einer Virtualiserung zurückschrecken – die Umstellung kostet mittelfristig viel weniger, als jedem Mitarbeiter eine Desktop-Maschine auf den Schreibtisch zu stellen: Neben den Hardware-Anschaffungskosten, verschlingt auch das Betriebssystem inklusive der Anwendungen eine Menge Geld. Und was ist mit den aufwändigen Einzelwartungen? Wenn der Rechner nicht ordnungsgemäß funktioniert, muss der Techniker erst seinen Weg zum hilflosen Mitarbeiter finden. Ein Virtualisierungs-Admin nimmt diese Korrekturen bequem am zentralen Server vor.

Forbes stellt unter anderem Wyse Technology vor, ein Hersteller, der darauf spezialisiert ist, sogenannte „Thin Clients“ an Unternehmen zu verkaufen. Was ihr oben seht, ist der Wyse S10. Das ist eine der Mini-Konsolen, die gerade dabei sind, den traditionellen Desktop-Rechner vom Thron zu stürzen: USB-Ports, Sound, Netzwerkzugang – keine Festplatte, kein Lüfter. „Der PC ist Vergangenheit“, teilte ein Sprecher dem Magazin in einem Interview mit. „Und PC-Bauer müssen nun ihre Strategie daran anpassen.“ Als deutliche Kampfansage hat Wyse die Wagen des eigenen Fuhrparks mit „Kein PC“-Stickern ausgestattet. Die „Thin Clients“ sind bereits ab 50 Dollar (rund 35 Euro) zu haben, der Hersteller geht aber davon aus, dass sie bald schon bei Vertragsabschlüssen für Virtualisierungen kostenlos abgegeben werden – eben wie beim Handy.

Der Markt der Desktop-Virtualisierung wird derzeit zwischen zwei Branchengrößen aufgeteilt: VMware und Citrix Systems. VMware macht heute einen Umsatz in Höhe von 1,9 Milliarden Dollar, wird an der Wall Street allerdings mit satten 17 Milliarden Dollar bewertet – das soll nur einmal verdeutlichen, welche Potenz die Investoren dem Virtualisierungsgedanken beimessen. Doch auch Citrix hat gute Chancen, seitdem Microsoft – einmal mehr überrumpelt von den Entwicklungen – plötzlich VMwares Marktmacht wahrnahm und eine enge Partnerschaft mit Citrix einging. Rechts und links warten bereits Zulieferer wie HP, Dell und Cisco, um eigene Produkte auf den Markt zu werfen, sobald die Rakete abgeht.

Und sie wird abgehen. Es gibt noch zwei Probleme, die es auf dem Weg zum endgültigen Rauswurf des PCs zu bewältigen gilt: Erstens: die Anschaffungskosten. Obwohl die Virtiualisierungssoftware oft schon zu vernünftigen Preisen zu haben ist, muss die Hardware – der Server – oft neu gekauft werden. Und je mehr Clients beziehungsweise Anwendungen verwaltet werden müssen, desto höher die erforderliche Leistung des Servers und somit sein Preis. Und zweitens: Performance-Probleme. Während Büroprogramme wie Word problemlos virtualisiert werden können, verursachen grafiklastige Anwendungen oft noch Probleme. Wenn ein YouTube-Video in Echtzeit vom Internet zum Server und von dort auf die Client-Konsole gestreamt wird, ist ein Ruckeln manchmal noch nicht zu vermeiden. Doch ich schätze, auch das ist eine Schwierigkeit, die im kommenden Jahr keine mehr ist.

(André Vatter)

Über den Autor

André Vatter

André Vatter ist Journalist, Blogger und Social Median aus Hamburg. Er hat von 2009 bis 2010 über 1.000 Artikel für BASIC thinking geschrieben.

10 Kommentare

  • Das scheint nicht nur ein Trend in den USA und nicht nur bei privaten Unternehmen ein Trend zu sein. Ich selbst arbeite im öffentlichen Dienst (spezifischer möchte ich an dieser Stelle nicht werden) und dort wird auch zunehmend auf Thin Clients gesetzt. Alle Mitarbeiter, die einen neuen Rechner erhalten, werden mit diesen kleinen Geräten ausgestattet. Da mein Büro-Rechner vor einiger Zeit wirklich seinen Geist aufgab, gehöre ich dazu. Auf meinem Schreibtisch steht nur noch ein Client, der kleiner als ein Schuhkarton ist und auf dem nur ein kleines Linux-System auf einer SSD installiert ist. Gearbeitet wird direkt auf einem Windows-Server 2003 R2 und gut ist. Die Performance ist – abgesehen von Grafikanwendungen wie Videos und dergleichen natürlich – sogar deutlich besser als mit meinem alten Desktop-Rechner. Aus Sicht des Anwender ist es natürlich ein Kontrollverlust, aber es handelt sich ja auch nicht um ein privates System, so dass das eigentlich nur ein Gefühl ist und mehr nicht.

    Insgesamt ist es billiger und vor allem kann die Administration – wie im Beitrag bereits angedeutet – zentral erfolgen. Das sind wirklich unschlagbare Argumente und daher denke ich schon, dass sich dieses Konzept zumindest bei größeren Unternehmen und Behörden durchsetzen wird. Bei uns sind gerade mal ca. 60 Mitarbeiter in der Kernverwaltung tätig und selbst dort scheint es sich offenbar schon zu rechnen.

  • Was für eine Leistung hat so ein Server? Mein Bürorechner hat 1,5ghz und 512mb ram. Jetzt habe ich 50 Rechner die auf so einen Server zu greifen. Hat das Teil dann 50gHz 25gb RAM?

  • Also bei uns läuft der Server mit vier Intel Xeons, aber genaueres weiß ich dazu auch nicht. Es arbeiten zurzeit aber auch nicht mehr als 10-15 Menschen gleichzeitig auf diesem System. Ich gehe davon aus, dass man hardwaremäßig sicher aufstocken müsste, wenn wirklich alle Mitarbeiter darauf arbeiten sollten. Einen weiteren Nachteil des zentralen Systems sehe ich auch darin, dass wenn es einmal ein Problem damit gibt, im schlimmsten Falle alle Mitarbeiter davon betroffen sind und nicht mehr richtig oder gar nicht mehr arbeiten könnte. Aber dafür konnte man sicherlich auch Absicherungen schaffen. Ich gehe dennoch davon aus, dass es sich mit der Zeit durchsetzen wird.

  • Tatsächlich wird Virtualisierung bereits seit 20Jahren betrieben. Es ist falsch zu sagen, dass jetzt erst damit angefangen wird. Es ist viel mehr so, dass wer jetzt noch nicht virtualisiert, die IT Entwicklung verschlafen hat. Weiterhin gibt es Virtualisierung in mehreren Stufen. Virtualisierung heißt nicht gleich Thin Client. Da sind noch ein bis zwei Schritte dazwischen. Es gibt die Servervirtualisierung, Anwendungsserver, Webserver die virtualisiert werden etc.
    Das nur mal kurz. Das ist ein so vielschichtiges Thema, dass man das so kurz gar nicht abschließend beschreiben kann. Aber wie gesagt: virtualisierung ist für erfahrene Sysadmins ein alter Hut.

  • Wie oft wurde eigentlich schon die Nachricht vom Tod des PCs verbreitet? Klar wird die Technik bzgl. Desktopvirtualisierung immer besser, aber zur vollständigen Ablöse aller Problemfälle werden noch ein paar Tage ins Land gehen. Ich denke da z.B. an CAD oder gar 3D CAD über schmale Leitungen. Jedes Jahr wird der Stand der Technik bei uns in der Fa. geprüft und wieder um ein weiteres Jahr verschoben 😉

  • Hat nicht Suns Chef oder war es der Chef von Oracle vor etlichen Jahren das gleiche gesagt und vorausgesagt aber es ist nicht eingetroffen! Ich weiss nicht, es gibt doch so günstige Desktop-PCs von der Preisersparnis halte ich persönlich nichts, ausserdem das schon vorhin erwähnte Problem, das ein Problem auf alle treffen würde und so ganz schnell eine ganze Company lahm legt.

  • Könnte natürlich passieren, denke aber auch, dass sich die Hardware dafür noch mehr verbessern muss.

  • bekommt maN DIE nicht mittlerweile schon ganz billig aus dem ausland?

    ps..@ oxmanix..
    dass sind computer die haben keine gefühle..
    😀 wünsch euch was..gruß sarah