Wer Produkte entwickelt oder über einen Webshop Waren und Dienste verkauft, benötigt oft zusätzliche IT-Kapazitäten. Public-Cloud-Lösungen bieten Rechen- und Speicherkapazitäten nach Bedarf als Infrastructure-as-a-Service aus der Cloud.
Ob Webshop vor Weihnachten oder Startup bei der Software-Entwicklung: Es gilt, die IT auf schwankende Bedarfe und temporäre Lastspitzen einzustellen. Ein um bis zu 600 Prozent höheres Bestellvolumen zur Weihnachtszeit verzeichnet beispielsweise das Verlags- und Versandhandelsunternehmen Weltbild. Wer indes eine Fitness-App entwickelt, kann zunächst nur schwer einschätzen, wie viel Rechen- und Speicherkapazität nötig sein wird, wenn Sportler ihre Aktivitäten aufzeichnen, speichern und auswerten wollen. Hinzu kommt der Ressourcenbedarf für Qualitäts-, Stress- und Lasttests.
Ganz ähnlich ergeht es Webshop-Betreibern vor der Eröffnung. Häufig ist nicht absehbar, welcher Besucherandrang auf ihre Webseite zukommen wird. Insbesondere Spitzenbelastungen wie etwa bei Online-Reisebüros zur Urlaubssaison lassen sich kaum abschätzen, können jedoch Server in die Knie zwingen.
„Quick Wins“ durch Public-Cloud-Bezug
Vor der Cloud-Zeit mussten sich Unternehmen für alle Eventualitäten rüsten und in eigene IT-Infrastrukturen investieren, die selbst für Lastspitzen ausreichten. In vielen Rechenzentren waren die Server so durchschnittlich nur zu rund 40 Prozent ausgelastet – aber immer in Betrieb. Die Folge: totes Kapital in Form von nicht genutzter Hardware.
Mehr Effizienz verspricht der flexible Bezug von Speicher, Rechenleistung & Co. aus einer Public Cloud wie etwa der Open Telekom Cloud. Gerade bei Test- und Entwicklungsumgebungen, Webseiten und eCommerce-Lösungen sowie Backup und Disaster Recovery lassen sich mithilfe von Public-Cloud-Infrastrukturen „Quick Wins“ erzielen, schreiben die Analysten von Crisp Research.
Anfänglich taten sich Unternehmen in Deutschland schwer, Infrastructure-as-a-Service-Angebote (IaaS) aus Rechenzentren zu nutzen – Stichwort: Datenschutz. Die Skepsis hat sich mittlerweile verringert. Laut Bitkom Cloud Monitor 2016 nutzt inzwischen jedes vierte deutsche Unternehmen Public-Cloud-Dienste – eine Steigerung um zehn Prozent im Vergleich zum Vorjahr. Bis 2019 sollen Public-Cloud-Dienste gar um 40 Prozent jährlich wachsen, so eine Studie des eco-Verbands und der Unternehmensberatung Arthur D. Little. Als Shooting-Star haben die Marktforscher hierbei IaaS ausgemacht: Bis 2019 soll der IaaS-Anteil am deutschen Public-Cloud-Markt von derzeit 25 Prozent auf 40 Prozent steigen.
Vertrauen in Sicherheit und Standort entscheidend
Die wichtigste Voraussetzung für den Erfolg der Public Cloud ist das Vertrauen in die Cloud-Anbieter. Von ihnen erwarten die Unternehmen, dass sie in Sachen Datensicherheit und Datenschutz den höchstmöglichen Standard bieten. Diesen sieht eine große Mehrheit der für den Bitkom Cloud Monitor befragten Unternehmen nur am Datenstandort Deutschland gewährleistet: Ein Rechenzentrum ausschließlich in Deutschland ist für 76 Prozent daher ein „Must-have“, ein Hauptsitz des Anbieters in Deutschland für 72 Prozent. Das ist Musik in den Ohren einheimischer Cloud-Provider, die den US-amerikanischen Schwergewichten Amazon & Co. Marktanteile abjagen wollen.
So zum Beispiel die Deutsche Telekom mit ihrer im März 2016 gestarteten Open Telekom Cloud, deren Leistungen ausschließlich aus einem Rechenzentrum in Biere/Sachsen-Anhalt und dessen „Zwilling“ in Magdeburg erbracht werden. Als Anbieter mit Unternehmenssitz in Deutschland unterliegen die Cloud-Dienste der Telekom automatisch den deutschen Gesetzen zu Datenschutz und Datensicherheit.
Rechenleistungen nach Wahl
Neben der Sicherheit steht der flexible Ressourcenbezug im Fokus. Die Open Telekom Cloud ermöglicht das Up- und Downscaling von allen IaaS-Leistungen in Echtzeit. Mithilfe der Services Autoscaling und Elastic Load Balancer lassen sich die IT-Ressourcen automatisiert an wechselnde Anforderungen anpassen und gegebenenfalls Lasten auf mehrere Server verteilen. Die Abrechnung erfolgt nach Verbrauch in einem stundengenauen Pay-per-use-Bezahlmodell. Da die Open Telekom Cloud auf einer OpenStack-Architektur mit offenen Schnittstellen basiert, droht kein Vendor-Lock-In.
Unternehmen greifen über ein Self-Service-Portal oder programmierbare Schnittstellen (APIs) auf die Open Telekom Cloud zu. Mit Sicherheitsmaßnahmen wie der Einrichtung einer Virtual Private Cloud beschränken sie den Zugriff auf ihre Daten und Ressourcen. Bei den Betriebssystemen besteht die Wahl zwischen Open Linux, Oracle Linux, SUSE und Windows oder einem eigenen, selbst gemanagten Image. Server sind von einem bis 32 vCPUs erhältlich, Arbeitsspeicher von einem bis 128 GB RAM. Für die Datenspeicherung ist neben Block Storage mit bis zu zehn virtuellen Festplatten (32 TB je Server) auch Object Storage verfügbar.
Wer in die Open Telekom Cloud umziehen will, kann hierfür eine Cloud Container Engine nutzen, mit deren Hilfe sich insbesondere komplexere Anwendungen auf andere Plattformen verschieben lassen. Aufgrund der anhaltend hohen Nachfrage will die Telekom die Kapazitäten ihrer Open Telekom Cloud bis 2018 noch einmal um 150 Prozent ausbauen.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Social Media & Content Marketing Manager (m/w/d) bonprix Handelsgesellschaft mbH in Hamburg |
||
Social Media Community Manager (m/f/d) Flaconi GmbH in Berlin |
||
HR Social Media Manager / Content Creator (m/w/d) freenet AG in Hamburg |
||
Online Marketing Manager – Social Media / SEO / Grafikdesign / CMS (m/w/d) reputatio AG in Pforzheim |
||
Social Media Manager:in zur Vertretung (w/m/d) Universität Duisburg-Essen in Duisburg |
||
Content Creator & Social Media Manager (m/w/d) Synflex Elektro GmbH in Blomberg |
||
(Senior) Manager Online & Social Media (f/m/d) Uniper SE in Düsseldorf |