Posts Tagged IaaS

Sep 21 2017

Public Cloud

Was ist das und wann macht es für Unternehmen Sinn

Public Cloud

Cloud-Experte: Dr. Robert Klimke

Unternehmenseigene Rechner und Infrastruktur – Private Cloud
Seit dem die ersten elektronischen Rechner vor über 70 Jahren auf den Markt kamen und Einzug in die Unternehmenswelt hielten, ging es um stete Optimierung der Technologie. Bis vor 30 Jahren war es für viele Unternehmen üblich die eigenen Daten, Geschäftsprozesse und Anwendungen auf den eigenen Rechenservern laufen zu lassen. Der Ausbau der Netz-Infrastruktur erlaubte es dann aber auch, diese Server in eigene Rechenzentren auszulagern. In diesem Sinne sprechen heute viele an dieser Stelle von der „private Cloud“.

Auslagerung in ein „fremdes“ Rechenzentrum – Hosting
Ein weiterer Schritt war dann die Auslagerung dieser Rechenserver auf fremde Rechenzentren. Dies führte nicht zuletzt zu Kostenersparnissen, bei der Wartung der notwenigen Hardware und der Administration. Die Rechenzentren optimierten ihre Leistungen, in dem sie virtuelle Technologien einsetzten, die es ihnen erlaubten, die Datenverarbeitung über mehrere Rechenserver zu verteilen, und so die gekaufte Hardware optimal auszunutzen. Inwieweit dieses Modell noch als „private Cloud“ zu bezeichnen ist, sei mal dahingestellt.

Lokale Rechenzentren vernetzen – Distributed Computing
Mehr und mehr Unternehmen, begannen in den 90er Jahren ihre Anwendungen webbasiert zur Verfügung zu stellen und bauten dazu vernetzte lokale Rechenzentren auf. Das Paradebeispiel hierfür ist Salesforce.

Externe Rechenleistung auf Knopfdruck – Public Cloud
In einem nächsten Schritt kamen einige Unternehmen auf die Idee, die Rechenleistungen, die sie nicht für ihr eigenes Unternehmen brauchten, anderen Unternehmen zur Verfügung zu stellen. Dies war quasi die Geburtsstunde der „Public Cloud“. Unternehmen, wie Amazon können so die weltweite Verfügbarkeit der Büchershops sicherstellen und gleichzeitig überschüssige Rechnerleistungen weiter verkaufen.

Was ist nun neu an der „Public Cloud“?
Im Prinzip sprechen wir hier immer noch von externen Rechenzentren. Innovativ war letztlich, dass man zunächst das Preismodell änderte. Der Kunde muss keine langfristigen Verpflichtungen oder aufwändige Wartungs- und Serviceverträgen eingehen. Der Kunden kann jeder Zeit die so genutzten Datenverarbeitungsleistungen rauf- oder runterfahren und bezahlt am Ende nur für das, was er auch nutzt. Er nutzt IT-Leistungen auf Knopfdruck und bezahlt , was er „verbraucht“ – „Pay-as-You-Go!“ ist das Motto der Stunde. Eine zweite Innovation: Unternehmen, die die Public Cloud für sich nutzen, müssen sich fast keine Gedanken mehr machen, ob die Rechenleistung der Public Cloud ausreicht, um beispielsweise besonders großvolumige Berechnungen, wie etwa die Analyse unstrukturierter Daten zu berechnen oder um großvolumige Videos und Bilder wie in der Industrieproduktion, Telemedizin, Fernsehen und andere Medien zur Verfügung zu stellen.

Mit der Zeit sind immer mehr Datenverarbeitungsleistungen dazugekommen: verschiedenste Datenbanken und Betriebssysteme, Microservices, Programmierschnittstellen-Bibliotheken und eine Menge an Anwendungen, die wir heute in unserem Browser oder als Mobile App kennen und nutzen.

Wo macht Public Cloud Sinn und wo nicht?

Aufgrund der Flexibilisierung was die Preismodelle innerhalb externer Rechenzentrumsleistungen und den verschiedenen Public Cloud Providern, wie etwa Amazon Web Services oder Google, betrifft, nähern sich die Preise immer weiter an. Im Vergleich zu den „Inhouse“-Rechenleistungen sind diese extern allokierten Rechenleistungen in der Regel deutlich günstiger und vor allen Dingen auch vor Angriffen von außen sicherer als im Vergleich zu den eigenen Rechnern im Haus.

Wenn es um global, sofort verfügbare Rechenleistungen und um schnelle Zugriffszeiten geht, dann sind die Zugriffszeiten (insbesondere was Bilder und Videos betrifft) und die damit einhergehenden Kosten bei den Public Cloud Providern fast nicht zu schlagen. Das gilt auch für die eigentliche Verfügbarkeit der Dienste in fast jedem Winkel der Welt. Diese weltweite, sofortige Verfügbarkeit auf Knopfdruck macht die Public Cloud so erfolgreich. So werden etwa die Playtika Spiele täglich von mehr als 6 Millionen Menschen in 190 Ländern, in 12 Sprachen gespielt. Hätte Playtika dafür eigene Recheninfrastrukturen aufbauen müssen, der StartUp, aus dem Jahre 2010, wäre nie so erfolgreich geworden.

Unternehmen, die auf Grund ihres Wachstums oder auf Grund von saisonalen Geschäften, extreme Verkehrsspitzen haben, können die Verfügbarkeit am sinnvollsten über einen Public Cloud Provider abdecken und dabei die Kosten im Vergleich deutlich senken. Insbesondere für eCommerce-Anwendungen bzw. Webshops macht die Public Cloud Sinn; denn es gibt nichts Leichteres, um so eine weltweite Kundschaft zu adressieren.
Unternehmen, die nicht in der Lage sind, personenbezogene Daten von der eigentlichen Anwendung zu separieren, müssen sich bewusst sein, dass gesetzliche Vorschriften den Verbleib dieser Daten, z. B. in Deutschland, gesetzlich vorschreiben. Hier liegt der Vorteil bei lokalen Rechenzentren und „Inhouse“-Rechnern. Aber in Deutschland bieten Public Cloud Provider wie etwa Microsoft Azure oder Amazon Web Services bei Bedarf auf Deutschland isolierte Public Cloud Leistungen an.

Unternehmen, die starren eigenen IT-Richtlinien, Governance-Regularien und andere gesetzlichen Vorschriften unterworfen sind, tun gut daran, mit einem Cloud-Berater diese Regularien zu besprechen und im Hinblick auf die Nutzung einer „Private“, „Hybrid“ oder „Public Cloud“ zu hinterfragen.
Was die Serviceorientierung, ITIL-Konformität, kundenbezogene Supportvereinbarungen betrifft, so liegt hier der Vorteil klar auf Seiten der lokalen Rechenzentrumsbetreiber und der unternehmenseigenen IT-Systeme, es sei denn man hat einen entsprechend auditierten, zertifizierten Public Cloud Managed Service Partner im Spiel, der schnellen Support anbieten kann.

Erste Schritte auf die Cloud zu

Abgesehen von dem Vergleich heutiger IT-Kosten und Public Cloud Kosten, stellt sich deshalb zu Beginn die „Meta“-Frage: Macht Public Cloud für mich Sinn oder nicht? Was können wir tun, um den Kundennutzen zu erhöhen und kann uns die Public Cloud mit einem neuen Web-Services dabei helfen? Was können wir tun, um den Kunden stärker an uns zu binden und können wir dies über eine App und deren Betrieb in der Public Cloud beschleunigen? Welche Serviceleistungen können wir auf den Kunden auslagern, in dem er Serviceaufträge über einen Service in der Cloud bereits detaillierter vordefiniert? Welche Produktionsprozesse können vereinfacht werden oder mit Hilfe von „Cloud Computing“ schneller und flexibler ausgelagert werden?“ „Welche Qualitätsverbesserungen lassen sich durch „Cloud-Computing-Services“ erzielen? Welche Technologie-Produkte stehen bereits beim jeweiligen Cloud-Provider zur Verfügung, die uns unsere Arbeit erleichtern? Welchen Vorteil habe ich durch weltweite Verfügbarkeit von IT-Ressourcen auf Knopfdruck? Hilft mir die Public Cloud bei einer globalen Expansion? Kann ich schneller alternative Produktionsressourcen verfügbar machen?

Unternehmen gehen den „Weg in die Cloud“ auf verschiedene Weise an.

Unternehmertyp 1:
Sie lassen sich einen Managementberater ins Haus kommen, der auf Strukturen und Prozesse in Bezug auf die „Digitalisierung“ hinweist und dabei Benchmark-Analysen präsentiert, die einem Angst und Bange werden lassen. Der nächste Schritt ist dann eine erste Annäherung an die Themen „Cloud“ und „Digitalisierung“, wobei Worte wie „agil“, „disruptive“ und „digital transformation“ nicht fehlen dürfen. Sukzessive wird die Ernsthaftigkeit in Bezug auf „Cloud Computing“ etc. für alle im Unternehmen sichtbar.

Unternehmertyp 2:
Diese Unternehmen wissen, dass man Menschen nicht einfach flexibler machen kann und Informationsveranstaltungen und Beratungen allein nicht ausreichen. Zu dem Zweck gründet dieser Typ ein Unternehmen, das „outside-the-box“ agiert und einfache Themen und Aspekte und Ideen mit Hilfe von Cloud-Technologien entwickelt, losgelöst von starren Hierarchieebenen, -prozessen und Governanceregeln. Typische Beispiele hierfür sind HoReCa der Metro Gruppe oder MOIA von Volkswagen. Laut der Studie „Digital Transformation“ von A.T. Kearney, 2016, scheitern neue, innovative, technologische Ideen in 25 % der Fälle an den bürokratischen Widerständen und unternehmenseigener Regelungen. Sogar 51 % der Befragten nannte in der Studie die eigene Unternehmenskultur als hinderlich für digitale Innovationen.

Unternehmertyp 3:
Diese Unternehmen haben nicht die Geduld und Zeit, sich aufwändige, strategische Beratungsleistungen einzukaufen und am Ende auf einem Haufen „Präsentationsfolien“ zu sitzen, Sie haben auch nicht die finanzielle Kraft und internen Ressourcen, um erfolgreich einen „Outside-the-Box“-Unternehmen aufzubauen und zu betreiben. Diese Unternehmen konzentrieren sich auf ihr Kerngeschäft und fragen sich anhand eines konkreten Falls, welchen unmittelbaren Nutzen „Cloud Computing“ und „Digitalisierung“ für sie hat, um Erfahrungen in der Public Cloud zu sammeln, insbesondere was Themen Managed Services, weltweite Verfügbarkeit, Sicherheit und Kosten betrifft.

Jedes Unternehmen startet auf seiner Reise in die Cloud von einem anderen „Fähigkeiten- und Ressourcenpool“ aus. Ein Berater kann hier sehr effektiven Nutzen liefern, eben nicht nur was die Gesetzgebung und andere Regularien betrifft, sondern auch, wie das Zusammenwirken mit der heutigen IT sichergestellt werden kann.

Als Empfehlung sollten folgende Rahmenbedingungen gegeben sein:

1. Der Berater hat nachweisbare und aktuelle Public Cloud Zertifizierungen aufzuweisen.

2. Der Berater hat nachweislich und referenzierbare Public Cloud Projekte umgesetzt. (Google, AWS, Azure etc.), insbesondere im Geschäftsumfeld des Mandanten.
3. Der Berater verfügt über dokumentierte „Best Practices“ in den Bereichen Migration, Automation und vor allen Dingen Sicherheit.

4. Der Berater ist in seinem eigenen Unternehmen einer von vielen, so dass er von einem Berater mit der gleichen Expertise, dem gleichen Skill-Set, jeder Zeit ersetzt werden kann.

5. Der Berater kann nachweisen, dass er es bereits geschafft hat, skalierbare Public Cloud Lösungen in Unternehmen verankern zu können.

6. Der Berater kennt gesamtheitliche IT-Organisationen und Architekturen.

7. Der Berater kennt die relevanten, lokale, wie auch internationale Regularien und Governance-Regularien.
8. Der Berater kann die Sensibilität der Daten, Anwendungen und Transaktionsprozesse „lesen“ und entsprechend Hinweise und Empfehlungen geben, was für welche Cloud-Variante am besten geeignet ist.

9. Der Berater kennt nachweislich die Veränderungen, die in Bezug auf die Nutzung der Public Cloud auf Unternehmen zukommen. Es geht also nicht nur um technisches Change Management.

Best Practices haben gezeigt, die „Reise zu den Wolken“ kann zäh und beschwerlich sein, oder aber man macht es von vorneherein richtig. Die folgende Abbildung zeigt den typischen Prozess auf der Reise in die Public Cloud und wie er mit Hilfe eines erfahrenen Beraters verkürzt werden kann.

Dabei ist es wichtig, den ersten Schritt sehr pragmatisch zu wählen und einen einfachen Anwendungsfall mit dem Berater in einem ersten Workshop zu besprechen und umzusetzen. Die Erfahrung hat gezeigt, während dieser einfache Anwendungsfall „seinen Weg in die Public Cloud“ findet, werden zahlreiche Erfahrungen gesammelt, die dann in einer parallel zu entwickelnden „Cloud Strategie“ einfließen und zwar auf Basis der unternehmenseigenen Realität.

Abstrakt
Ein kurzer Rückblick auf die bisherige Entwicklung der Computer erklärt, die Einfachheit hinter dem Begriff „Public Cloud“. Nicht jede Anwendung im Unternehmen oder Web-Service für Kunden ist für den Betrieb in der Public Cloud geeignet. Die richtige Vorgehensweise bei der Analyse und der Umsetzung von Projekten in der Public Cloud, ist mit dem richtigen Berater durchzuführen.

Public Cloud auch wichtig für Start-Ups

Wenn es Start-Up-Unternehmen in die deutsche Show „Höhle des Löwen“ schaffen, dann kollabieren regelmäßig die Websites dieser Unternehmen. Die Fernsehzuschauer wollen sich eben schnell ein Bild von dem Unternehmen im „Pitch“ machen. Erstaunlich, dass in unseren Zeiten Websites nicht verfügbar sein können, nur weil man seine Website selbst oder bei einem Rechenzentrum betreibt, das solche Verkehrsspitzen nicht verarbeiten kann. Man will sich gar nicht ausmalen, wie viele Investoren oder Kunden deshalb nicht den Weg zu diesem Start-Up-Unternehmen gefunden haben. Die Verfügbarkeit der eigenen Website aufrecht zu halten, selbst bei einem Massenandrang, ist eben über die Public Cloud möglich.

Zum Autor:
Dr. Robert Klimke verantwortet das Deutschland Geschäft eines weltweit operierenden Cloud-Dienstleister mit mehr als 9 Jahren Erfahrung aus mehr als 2.500 Cloud-Projekten. (rklimke@t-online.de)

Pressestelle

Kontakt
bSevice GmbH
Daniel Birkenmayer
Moritz-von-Schwind-Str. 5
82319 Starnberg
08971672000
info@bservice.de
http://www.bservice.de

Sep 21 2017

Public Cloud

Was ist das und wann macht es für Unternehmen Sinn

Public Cloud

Cloud-Experte Dr. Robert Klimke

Der Begriff der Public Cloud ist irreführend und mit einer Wolke (engl. Cloud) hat er auch nichts zu tun. Es ist alles viel simpler.

Unternehmenseigene Rechner und Infrastruktur – Private Cloud
Seit dem die ersten elektronischen Rechner vor über 70 Jahren auf den Markt kamen und Einzug in die Unternehmenswelt hielten, ging es um stete Optimierung der Technologie. Bis vor 30 Jahren war es für viele Unternehmen üblich die eigenen Daten, Geschäftsprozesse und Anwendungen auf den eigenen Rechenservern laufen zu lassen. Der Ausbau der Netz-Infrastruktur erlaubte es dann aber auch, diese Server in eigene Rechenzentren auszulagern. In diesem Sinne sprechen heute viele an dieser Stelle von der „private Cloud“.

Auslagerung in ein „fremdes“ Rechenzentrum – Hosting
Ein weiterer Schritt war dann die Auslagerung dieser Rechenserver auf fremde Rechenzentren. Dies führte nicht zuletzt zu Kostenersparnissen, bei der Wartung der notwenigen Hardware und der Administration. Die Rechenzentren optimierten ihre Leistungen, in dem sie virtuelle Technologien einsetzten, die es ihnen erlaubten, die Datenverarbeitung über mehrere Rechenserver zu verteilen, und so die gekaufte Hardware optimal auszunutzen. Inwieweit dieses Modell noch als „private Cloud“ zu bezeichnen ist, sei mal dahingestellt.

Lokale Rechenzentren vernetzen – Distributed Computing
Mehr und mehr Unternehmen, begannen in den 90er Jahren ihre Anwendungen webbasiert zur Verfügung zu stellen und bauten dazu vernetzte lokale Rechenzentren auf. Das Paradebeispiel hierfür ist Salesforce.

Externe Rechenleistung auf Knopfdruck – Public Cloud
In einem nächsten Schritt kamen einige Unternehmen auf die Idee, die Rechenleistungen, die sie nicht für ihr eigenes Unternehmen brauchten, anderen Unternehmen zur Verfügung zu stellen. Dies war quasi die Geburtsstunde der „Public Cloud“. Unternehmen, wie Amazon können so die weltweite Verfügbarkeit der Büchershops sicherstellen und gleichzeitig überschüssige Rechnerleistungen weiter verkaufen.

Was ist nun neu an der „Public Cloud“?
Im Prinzip sprechen wir hier immer noch von externen Rechenzentren. Innovativ war letztlich, dass man zunächst das Preismodell änderte. Der Kunde muss keine langfristigen Verpflichtungen oder aufwändige Wartungs- und Serviceverträgen eingehen. Der Kunden kann jeder Zeit die so genutzten Datenverarbeitungsleistungen rauf- oder runterfahren und bezahlt am Ende nur für das, was er auch nutzt. Er nutzt IT-Leistungen auf Knopfdruck und bezahlt , was er „verbraucht“ – „Pay-as-You-Go!“ ist das Motto der Stunde. Eine zweite Innovation: Unternehmen, die die Public Cloud für sich nutzen, müssen sich fast keine Gedanken mehr machen, ob die Rechenleistung der Public Cloud ausreicht, um beispielsweise besonders großvolumige Berechnungen, wie etwa die Analyse unstrukturierter Daten zu berechnen oder um großvolumige Videos und Bilder wie in der Industrieproduktion, Telemedizin, Fernsehen und andere Medien zur Verfügung zu stellen.

Mit der Zeit sind immer mehr Datenverarbeitungsleistungen dazugekommen: verschiedenste Datenbanken und Betriebssysteme, Microservices, Programmierschnittstellen-Bibliotheken und eine Menge an Anwendungen, die wir heute in unserem Browser oder als Mobile App kennen und nutzen.

Wo macht Public Cloud Sinn und wo nicht?

Aufgrund der Flexibilisierung was die Preismodelle innerhalb externer Rechenzentrumsleistungen und den verschiedenen Public Cloud Providern, wie etwa Amazon Web Services oder Google, betrifft, nähern sich die Preise immer weiter an. Im Vergleich zu den „Inhouse“-Rechenleistungen sind diese extern allokierten Rechenleistungen in der Regel deutlich günstiger und vor allen Dingen auch vor Angriffen von außen sicherer als im Vergleich zu den eigenen Rechnern im Haus.

Wenn es um global, sofort verfügbare Rechenleistungen und um schnelle Zugriffszeiten geht, dann sind die Zugriffszeiten (insbesondere was Bilder und Videos betrifft) und die damit einhergehenden Kosten bei den Public Cloud Providern fast nicht zu schlagen. Das gilt auch für die eigentliche Verfügbarkeit der Dienste in fast jedem Winkel der Welt. Diese weltweite, sofortige Verfügbarkeit auf Knopfdruck macht die Public Cloud so erfolgreich. So werden etwa die Playtika Spiele täglich von mehr als 6 Millionen Menschen in 190 Ländern, in 12 Sprachen gespielt. Hätte Playtika dafür eigene Recheninfrastrukturen aufbauen müssen, der StartUp, aus dem Jahre 2010, wäre nie so erfolgreich geworden.

Unternehmen, die auf Grund ihres Wachstums oder auf Grund von saisonalen Geschäften, extreme Verkehrsspitzen haben, können die Verfügbarkeit am sinnvollsten über einen Public Cloud Provider abdecken und dabei die Kosten im Vergleich deutlich senken. Insbesondere für eCommerce-Anwendungen bzw. Webshops macht die Public Cloud Sinn; denn es gibt nichts Leichteres, um so eine weltweite Kundschaft zu adressieren.
Unternehmen, die nicht in der Lage sind, personenbezogene Daten von der eigentlichen Anwendung zu separieren, müssen sich bewusst sein, dass gesetzliche Vorschriften den Verbleib dieser Daten, z. B. in Deutschland, gesetzlich vorschreiben. Hier liegt der Vorteil bei lokalen Rechenzentren und „Inhouse“-Rechnern. Aber in Deutschland bieten Public Cloud Provider wie etwa Microsoft Azure oder Amazon Web Services bei Bedarf auf Deutschland isolierte Public Cloud Leistungen an.

Unternehmen, die starren eigenen IT-Richtlinien, Governance-Regularien und andere gesetzlichen Vorschriften unterworfen sind, tun gut daran, mit einem Cloud-Berater diese Regularien zu besprechen und im Hinblick auf die Nutzung einer „Private“, „Hybrid“ oder „Public Cloud“ zu hinterfragen.
Was die Serviceorientierung, ITIL-Konformität, kundenbezogene Supportvereinbarungen betrifft, so liegt hier der Vorteil klar auf Seiten der lokalen Rechenzentrumsbetreiber und der unternehmenseigenen IT-Systeme, es sei denn man hat einen entsprechend auditierten, zertifizierten Public Cloud Managed Service Partner im Spiel, der schnellen Support anbieten kann.

Erste Schritte auf die Cloud zu

Abgesehen von dem Vergleich heutiger IT-Kosten und Public Cloud Kosten, stellt sich deshalb zu Beginn die „Meta“-Frage: Macht Public Cloud für mich Sinn oder nicht? Was können wir tun, um den Kundennutzen zu erhöhen und kann uns die Public Cloud mit einem neuen Web-Services dabei helfen? Was können wir tun, um den Kunden stärker an uns zu binden und können wir dies über eine App und deren Betrieb in der Public Cloud beschleunigen? Welche Serviceleistungen können wir auf den Kunden auslagern, in dem er Serviceaufträge über einen Service in der Cloud bereits detaillierter vordefiniert? Welche Produktionsprozesse können vereinfacht werden oder mit Hilfe von „Cloud Computing“ schneller und flexibler ausgelagert werden?“ „Welche Qualitätsverbesserungen lassen sich durch „Cloud-Computing-Services“ erzielen? Welche Technologie-Produkte stehen bereits beim jeweiligen Cloud-Provider zur Verfügung, die uns unsere Arbeit erleichtern? Welchen Vorteil habe ich durch weltweite Verfügbarkeit von IT-Ressourcen auf Knopfdruck? Hilft mir die Public Cloud bei einer globalen Expansion? Kann ich schneller alternative Produktionsressourcen verfügbar machen?

Unternehmen gehen den „Weg in die Cloud“ auf verschiedene Weise an.

Unternehmertyp 1:
Sie lassen sich einen Managementberater ins Haus kommen, der auf Strukturen und Prozesse in Bezug auf die „Digitalisierung“ hinweist und dabei Benchmark-Analysen präsentiert, die einem Angst und Bange werden lassen. Der nächste Schritt ist dann eine erste Annäherung an die Themen „Cloud“ und „Digitalisierung“, wobei Worte wie „agil“, „disruptive“ und „digital transformation“ nicht fehlen dürfen. Sukzessive wird die Ernsthaftigkeit in Bezug auf „Cloud Computing“ etc. für alle im Unternehmen sichtbar.

Unternehmertyp 2:
Diese Unternehmen wissen, dass man Menschen nicht einfach flexibler machen kann und Informationsveranstaltungen und Beratungen allein nicht ausreichen. Zu dem Zweck gründet dieser Typ ein Unternehmen, das „outside-the-box“ agiert und einfache Themen und Aspekte und Ideen mit Hilfe von Cloud-Technologien entwickelt, losgelöst von starren Hierarchieebenen, -prozessen und Governanceregeln. Typische Beispiele hierfür sind HoReCa der Metro Gruppe oder MOIA von Volkswagen. Laut der Studie „Digital Transformation“ von A.T. Kearney, 2016, scheitern neue, innovative, technologische Ideen in 25 % der Fälle an den bürokratischen Widerständen und unternehmenseigener Regelungen. Sogar 51 % der Befragten nannte in der Studie die eigene Unternehmenskultur als hinderlich für digitale Innovationen.

Unternehmertyp 3:
Diese Unternehmen haben nicht die Geduld und Zeit, sich aufwändige, strategische Beratungsleistungen einzukaufen und am Ende auf einem Haufen „Präsentationsfolien“ zu sitzen, Sie haben auch nicht die finanzielle Kraft und internen Ressourcen, um erfolgreich einen „Outside-the-Box“-Unternehmen aufzubauen und zu betreiben. Diese Unternehmen konzentrieren sich auf ihr Kerngeschäft und fragen sich anhand eines konkreten Falls, welchen unmittelbaren Nutzen „Cloud Computing“ und „Digitalisierung“ für sie hat, um Erfahrungen in der Public Cloud zu sammeln, insbesondere was Themen Managed Services, weltweite Verfügbarkeit, Sicherheit und Kosten betrifft.

Jedes Unternehmen startet auf seiner Reise in die Cloud von einem anderen „Fähigkeiten- und Ressourcenpool“ aus. Ein Berater kann hier sehr effektiven Nutzen liefern, eben nicht nur was die Gesetzgebung und andere Regularien betrifft, sondern auch, wie das Zusammenwirken mit der heutigen IT sichergestellt werden kann.

Als Empfehlung sollten folgende Rahmenbedingungen gegeben sein:

1. Der Berater hat nachweisbare und aktuelle Public Cloud Zertifizierungen aufzuweisen.

2. Der Berater hat nachweislich und referenzierbare Public Cloud Projekte umgesetzt. (Google, AWS, Azure etc.), insbesondere im Geschäftsumfeld des Mandanten.
3. Der Berater verfügt über dokumentierte „Best Practices“ in den Bereichen Migration, Automation und vor allen Dingen Sicherheit.

4. Der Berater ist in seinem eigenen Unternehmen einer von vielen, so dass er von einem Berater mit der gleichen Expertise, dem gleichen Skill-Set, jeder Zeit ersetzt werden kann.

5. Der Berater kann nachweisen, dass er es bereits geschafft hat, skalierbare Public Cloud Lösungen in Unternehmen verankern zu können.

6. Der Berater kennt gesamtheitliche IT-Organisationen und Architekturen.

7. Der Berater kennt die relevanten, lokale, wie auch internationale Regularien und Governance-Regularien.
8. Der Berater kann die Sensibilität der Daten, Anwendungen und Transaktionsprozesse „lesen“ und entsprechend Hinweise und Empfehlungen geben, was für welche Cloud-Variante am besten geeignet ist.

9. Der Berater kennt nachweislich die Veränderungen, die in Bezug auf die Nutzung der Public Cloud auf Unternehmen zukommen. Es geht also nicht nur um technisches Change Management.

Best Practices haben gezeigt, die „Reise zu den Wolken“ kann zäh und beschwerlich sein, oder aber man macht es von vorneherein richtig. Die folgende Abbildung zeigt den typischen Prozess auf der Reise in die Public Cloud und wie er mit Hilfe eines erfahrenen Beraters verkürzt werden kann.

Dabei ist es wichtig, den ersten Schritt sehr pragmatisch zu wählen und einen einfachen Anwendungsfall mit dem Berater in einem ersten Workshop zu besprechen und umzusetzen. Die Erfahrung hat gezeigt, während dieser einfache Anwendungsfall „seinen Weg in die Public Cloud“ findet, werden zahlreiche Erfahrungen gesammelt, die dann in einer parallel zu entwickelnden „Cloud Strategie“ einfließen und zwar auf Basis der unternehmenseigenen Realität.

Abstrakt
Ein kurzer Rückblick auf die bisherige Entwicklung der Computer erklärt, die Einfachheit hinter dem Begriff „Public Cloud“. Nicht jede Anwendung im Unternehmen oder Web-Service für Kunden ist für den Betrieb in der Public Cloud geeignet. Die richtige Vorgehensweise bei der Analyse und der Umsetzung von Projekten in der Public Cloud, ist mit dem richtigen Berater durchzuführen.

Public Cloud auch wichtig für Start-Ups

Wenn es Start-Up-Unternehmen in die deutsche Show „Höhle des Löwen“ schaffen, dann kollabieren regelmäßig die Websites dieser Unternehmen. Die Fernsehzuschauer wollen sich eben schnell ein Bild von dem Unternehmen im „Pitch“ machen. Erstaunlich, dass in unseren Zeiten Websites nicht verfügbar sein können, nur weil man seine Website selbst oder bei einem Rechenzentrum betreibt, das solche Verkehrsspitzen nicht verarbeiten kann. Man will sich gar nicht ausmalen, wie viele Investoren oder Kunden deshalb nicht den Weg zu diesem Start-Up-Unternehmen gefunden haben. Die Verfügbarkeit der eigenen Website aufrecht zu halten, selbst bei einem Massenandrang, ist eben über die Public Cloud möglich.

Zum Autor:
Dr. Robert Klimke verantwortet das Deutschland Geschäft eines weltweit operierenden Cloud-Dienstleister mit mehr als 9 Jahren Erfahrung aus mehr als 2.500 Cloud-Projekten. (rklimke@t-online.de)

Pressestelle

Firmenkontakt
bSevice GmbH
Daniel Birkenmayer
Moritz-von-Schwind-Str. 5
82319 Starnberg
08971672000
info@bservice.de
http://www.bservice.de

Pressekontakt
bService GmbH
Daniel Birkenmayer
Moritz-von-Schwind-Str. 5
82319 Starnberg
08971672000
info@bservice.de
http://www.bservice.de

Aug 11 2017

IaaS bietet große Einspar-Potenziale

„Infrastructure as a Service“

IaaS bietet große Einspar-Potenziale

IaaS im Unternehmen Elaxy

„Infrastructure as a Service“ – IaaS, also das Zukaufen von Rechnerinfrastrukturen für Unternehmen, sorgt für einen optimierten Ressourcen-Einsatz. Bei den damit eingesparten Ressourcen handelt es sich aber nicht „nur“ um die eigentlichen Server- und Rechenkapazitäten: Auch entsprechende Serverräume, Notstromaggregate und Sicherheitsvorrichtungen müssen nicht extra bzw. ständig vorgehalten werden. Oft entscheiden sich Unternehmen aus diesem Grund, ihre gesamte IT an externe Rechenzentren auszulagern.

Flexiblität ist notwendig – und realisierbar

Über die Inanspruchnahme von IaaS sparen Unternehmen überschüssige Kapazitäten und können, dank flexibler Anbieter wie zum Beispiel dem Coburger Unternehmen Elaxy, schnell auf fallende oder steigende Anforderungen reagieren. Schneller, als man ein eigenes Rechenzentrum installieren und bei weniger Beanspruchung wieder reduzieren könnte, profitiert man so vom Vorteil eines Höchstmaßes an Flexibilität.
Mit der innovativen Technologie des VMware vCloud Directors und der damit einhergehenden Bereitstellung des „Software Defined Datacenters“ bietet Elaxy seinen Kunden immer die komplette Kontrolle über ihre gebuchte Cloud.

Sechs Vorteile weist dabei das Coburger Rechenzentrum Elaxy aus, die IaaS seinen Kunden bietet. Mehr erfahren Sie hier: https://rechenzentrum.elaxy.de/services/iaas-infrastructure-as-a-service/

Bei IaaS kann vieles im Selfservice erledigt werden

Das „Ausrollen“ kompletter Systemlandschaften mit einem Knopfdruck ist eine weitere Möglichkeit, IaaS in voller Qualität auszuschöpfen. Hierbei können im Selfservice Netzwerk- und Serverkonfigurationen durchgeführt werden. Zusätzlich lässt sich stets der Überblick über die Auslastung aller gebuchten Infrastruktur-Ressourcen behalten.

Sicherheit ist unabdingbar – und wird gewährleistet

Zweifellos von unabdingbarer Bedeutung ist bei der Arbeit mit einem externen Rechenzentrum immer die Sicherheit. Dazu sagt Andreas Gold vom Unternehmen Elaxy: „Die Sicherheit der Daten und Verfügbarkeit der Anwendungen unserer Kunden steht bei uns an oberster Stelle.“
Aus diesem Grund betreiben die Spezialisten der Elaxy zwei Rechenzentren und setzen ausnahmslos Enterprise Hardware ein um für Ihre Kunden hochwertige IT-Dienstleistungen zu erbringen.

Fazit: IaaS ist nicht nur für große Unternehmen interessant

Es lohnt sich also nicht nur für große Unternehmen, sondern auch für Mittelständler, Ihre IT nach Extern auszulagern und damit die Sicherheit der Daten zu erhöhen. Das Kosteneinsparpotenzial kann hierbei ganz erheblich sein. Aufgrund der stets individuellen Anforderungen ist aber immer vorab ein ausführliches Beratungsgespräch notwendig, um die Vorteile von IaaS für das eigene Unternehmen auszuloten. Dann lässt sich IaaS mit einer zielgerichteten Strategie entsprechend wirksam ausschöpfen.

Mehr Informationen gibt es auch hier: https://rechenzentrum.elaxy.de/services/elaxy-cloud-iaas/

ELAXY bietet seit über 25 Jahren Software und Rechenzentrumsservices. Die Lösungen werden von Banken, Versicherungen und Finanzvertrieben eingesetzt. Auf die Outsourcing- Dienstleistungen setzen auch Kunden aus anderen Branchen wie E- Commerce- Unternehmen oder Industriebetriebe sowie regionale Unternehmen. Am Standort Coburg sind über 100 Mitarbeiter beschäftigt.

Firmenkontakt
ELAXY Business Solution & Services GmbH & Co. KG
Andreas Gold
Am Hofbräuhaus 1
96450 Coburg
+49 9561 5543 0
info@elaxy.de
https://rechenzentrum.elaxy.de

Pressekontakt
Logan Five GmbH
Frank Heumann
Kellergasse 28
96237 Ebersdorf
09562/4001-0
09562/4001-29
info@logan-5.de
http://www.logan-5.de

Jul 24 2017

Initiative Cloud Services Made in Germany stellt Juli 2017-Ausgabe ihrer Schriftenreihe vor

Initiative Cloud Services Made in Germany stellt Juli 2017-Ausgabe ihrer Schriftenreihe vor

Die Initiative Cloud Services Made in Germany hat eine aktualisierte Auflage ihrer Schriftenreihe veröffentlicht. In der bereits 2010 ins Leben gerufenen Initiative haben sich Anbieter von Cloud Computing-Lösungen aus den Bereichen Infrastructure-as-a-Service (IaaS), Platform-as-a-Service (PaaS) und Software-as-a-Service (SaaS) mit dem Ziel zusammengeschlossen, für mehr Rechtssicherheit beim Einsatz von Cloud Services zu sorgen. Die beiden Bände stehen ab sofort zum kostenlosen Download bereit.

Band 1: Initiative Cloud Services Made in Germany im Gespräch

Unter dem Titel „Initiative Cloud Services Made in Germany im Gespräch“ enthält Band 1 der Schriftenreihe eine Auswahl von Interviews mit Vertretern der an der Initiative beteiligten Unternehmen zum Thema Cloud Computing im allgemeinen und Cloud Computing in Deutschland im Speziellen.

Neu in der Interviewsammlung vertreten sind u.a.:

– Alessandra Scheffer, SPENDIT AG
– Stefan Schüffler, softgarden e-recruiting gmbh
– Daniel Thomy, PlusServer GmbH

Darüber hinaus wurde eine ganze Reihe von Interview aktualisiert, es macht also Sinn, sich die neue Ausgabe herunterzuladen, selbst wenn man bereits in Besitz einer älteren Ausgabe ist.

Band 2: Cloud Services Made in Germany in der Praxis

Unter dem Titel „Cloud Services Made in Germany in der Praxis“ berichten in Band 2 der Schriftenreihe Anwender aus den unterschiedlichsten Bereichen über ihre Erfahrungen beim Praxiseinsatz der Cloud Computing-Lösungen, die von den an der Initiative beteiligten Unternehmen angeboten werden.

Neu in Band 2 der Schriftenreihe der Initiative Cloud Services Made in Germany aufgenommen wurden die folgenden Praxisberichte:

– Uzuner Consulting nutzt ZEP für präzise Zeiterfassung und detailliertes Projekt-Controlling
– Rosenberger Gruppe nutzt virtuellen Datenraum von netfiles als Plattform zum weltweiten Dokumentenaustausch

Die beiden Bände der Schriftenreihe der Initiative Cloud Services Made in Germany stehen ab sofort zum kostenlosen Download ( http://www.cloud-services-made-in-germany.de/schriftenreihen) bereit.

Initiative Cloud Services Made in Germany – Mehr Rechtssicherheit beim Einsatz von Cloud Computing-Lösungen

In der in der im Jahr 2010 von der AppSphere AG in Leben gerufenen Initiative Cloud Services Made in Germany haben sich in Deutschland ansässige An-bieter unterschiedlicher Cloud Services (IaaS, PaaS, SaaS) mit dem Ziel zusammengeschlossen, für mehr Rechtssicherheit beim Einsatz von Cloud Computing-Lösungen zu sorgen.

Um möglichst auch jungen und kleinen Anbietern von Cloud Services die Möglichkeit zu geben, sich im Rahmen der Initiative zu präsentieren, wurde die finanzielle Einstiegshürde möglichst niedrig gelegt. Der Jahresbeitrag beträgt EUR 250,00 zzgl. MwSt., also gerade einmal etwas mehr als 20 Euro im Monat. „Das große Interesse von Anwender- wie von Anbieterseite zeigt, welche zentrale Rolle Themen wie Datenschutz und Rechtssicherheit in Deutschland spielen“, bestätigt Frank Roth, Vorstand AppSphere AG und Initiator der Initiative. „Viele Initiativen im IT-Umfeld bleiben aber häufig den „Großen“ vorbehalten, da die Beteiligung ein entsprechendes finanzielles Engagement voraussetzt. Der IT-Markt befindet sich allerdings derzeit im Umbruch, und da soll es auch Newcomern und Unternehmen ohne Millionen-Budget möglich sein, sich Gehör am Markt zu verschaffen.“

Weitere Informationen zur Initiative Cloud Services Made in Germany sind im Internet unter http://www.cloud-services-made-in-germany.de verfügbar.

Der Markt der Cloud Services wächst rasant und die Auswahl sicherer und rechtlich unbedenklicher OnDemand-Software-Lösungen fällt den Anwenderunternehmen zunehmend schwerer. Ziel der im Juni 2010 von der AppSphere AG mit Unterstützung des Cloud Computing Report ins Leben gerufenen Initiative Cloud Services Made in Germany ist es, für mehr Rechtssicherheit bei der Auswahl von Cloud Services zu sorgen.

Firmenkontakt
Initiative Cloud Services Made in Germany
Werner Grohmann
Ruhrallee 185
45136 Essen
0201-7495722
redaktion@cloud-computing-report.de
http://www.cloud-services-made-in-germany.de

Pressekontakt
Grohmann Business Consulting
Werner Grohmann
Ruhrallee 185
45136 Essen
0201-7495722
wgrohmann@grohmann-business-consulting.de
http://www.cloud-services-made-in-germany.de

Mai 26 2017

OVH 2017 erstmals im Cloud Spectator Ranking – und direkt auf Platz 1 in Europa

Provider liegt im Ranking noch vor den größten Anbietern aus den USA

OVH 2017 erstmals im Cloud Spectator Ranking - und direkt auf Platz 1 in Europa

OVH erreicht zum ersten Mal die Top 10 der Cloud IaaS-Anbieter und steht in Europa direkt auf Platz 1. In Nordamerika überholt OVH die größten amerikanischen Unternehmen und steigt auf den 2. Platz. Das Ergebnis bestätigt ein Geschäftsmodell, das weder im Preis noch in Sachen Leistung Kompromisse eingeht.

Cloud Spectator ist ein unabhängiges Unternehmen aus Boston, das auf Vergleiche von Cloud-Produkten spezialisiert ist. Vor Kurzem ist der neueste Vergleich von IaaS (Infrastructure as a Service) Public Cloud-Providern erschienen, in dem die zehn Anbieter mit dem besten Preis-Leistungs-Verhältnis bestimmt wurden. Um den CloudSpecs Value Score, den Vergleichswert des Cloud-Anbieter-Rankings, zu ermitteln, testet Cloud Spectator Leistung und Stabilität der CPU sowie Block-Level Storage und Memory für vier virtuelle Server verschiedener Größe. So kann der tatsächliche Wert der jeweiligen Cloud-Instanzen für die Benutzer auf einen Blick eingeschätzt werden.

Mit dem 1. Platz in Europa und dem 2. Platz in Nordamerika hat die Public Cloud von OVH einige der größten US-amerikanischen Cloud-Provider überholt, darunter Rackspace, Google, Microsoft Azure, Digital Ocean und Amazon. Die OVH Public Cloud ist somit mehr als nur eine Alternative von vielen und überzeugt sowohl hinsichtlich Stabilität und Performance als auch mit einem günstigen Preis. Dieser Erfolg beruht unter anderem auf dem Geschäftsmodell von OVH, das technische Innovationen wie das Flüssigkeitskühlsystem für die Server (um Rechenzentren ohne Klimaanlage zu kühlen) mit einem vertikal integrierten Unternehmenskonzept kombiniert. OVH hat somit volle Kontrolle über die komplette Wertschöpfungskette, vom Design des Rechenzentrums bis hin zu Server-Produktion und Support.

Große Unterschiede bei den Cloud-Angeboten
Das Hauptziel von Cloud Spectator ist die größere Transparenz auf dem Cloud-Markt, indem es Unternehmen hilft, den für sie passenden IaaS-Anbieter zu finden. In dieser Hinsicht hat das Ranking „starke Unterschiede zwischen den verschiedenen Anbietern in Sachen Preis, Leistung und Stabilität“ aufgedeckt, so Kenny Li, CEO von Cloud Spectator. Diese Unterschiede sind sogar so gravierend, dass Cloud Spectator den Käufern empfiehlt, nicht nur auf den Einheitspreis zu achten, sondern auch die Leistung zu berücksichtigen. Schließlich hat diese Einfluss auf die Verfügbarkeit der Infrastruktur und somit auch auf deren Gesamtkosten, welche schnell außer Kontrolle geraten können.

Der Erfolg von OVH im Cloud Spectator Ranking basiert auf einem grundlegenden Unterschied der OVH Public Cloud zu anderen Cloud-Angeboten, nämlich der sogenannten High Availability (HA). Dank HA hat der Nutzer immer vollen Zugriff auf alle seine Ressourcen, wohingegen die meisten Cloud-Anbieter diese anders kalkulieren. „Die bekanntesten Cloud-Anbieter versuchen mit ihren Infrastrukturen so viel Gewinn wie möglich zu erzielen und gehen davon aus, dass Kunden nie 100 % ihrer Ressourcen nutzen“, so Pierre Ourdouille, Public Cloud Tech Lead. „Daher verkaufen sie mehr Ressourcen, als auf dem physischen Server, auf dem der virtuelle Server gehostet ist, zur Verfügung steht. Das Ergebnis: Zu 80 % der Zeit haben die Nutzer keinen Zugriff auf alle Ressourcen, für die sie bezahlen. Manchmal haben sie Zugang zu 90 %, aber manchmal sind es eben auch viel weniger. Und an diesem Punkt wird es wirklich lästig. Wir nennen das den „Noisy Neighbour-Effekt“. Das ist auch vollkommen legal, aber man sollte sich dessen schon bewusst sein, bevor man eine Cloud-Lösung wählt. Und genau diesen Unterschied versucht auch der Bericht der Cloud Spectator Benchmark aufzuzeigen.“

Sich selber einen Überblick verschaffen
Cloud Spectator sagt zu Recht, dass das Fehlen standardisierter Benchmark-Kriterien sowie die hohe Anzahl an Variablen den Vergleich von Cloud-Diensten erschweren. Darüber hinaus gibt es auch Unterschiede in der Performance je nach Konfiguration des Dienstes, festgelegter Optionen (zum Beispiel, was den Storage betrifft) und geplantem Workload (je nach Anwendung, die auf dem virtuellen Server laufen soll). Da Anforderungen an Cloud-Dienste immer sehr individuell sind, lohnt es, sich selbst einen Überblick zu verschaffen und die Infrastrukturen mit eigenen Anwendungen zu testen.

Dieser Test wird außerdem dadurch vereinfacht, das die OVH Public Cloud mit anderen Diensten kompatibel und garantiert reversibel ist. Und es gibt ein weiteres Argument für die OVH Cloud, das im Cloud Spectator-Vergleich nicht erfasst wird: die enge Zusammenarbeit zwischen OVH und OpenStack. Dank der verwendeten OpenStack APIs ist die Portabilität der Cloudumgebungen garantiert und Nutzer können zusätzlich eine hybride Cloud-Lösung einrichten und mit Clouds anderer Anbieter verbinden.

Außerdem wurde im Test von Cloud Spectator nur die Leistung von Servern analysiert, die sich im OVH Rechenzentrum in Straßburg befinden. Die OVH Public Cloud ist jedoch in verschiedenen Rechenzentren in Gravelines (Nordfrankreich) und Beauharnois (Kanada) erhältlich und wird bald auch an weiteren Standorten wie Polen, Singapur und Australien verfügbar sein (weitere Informationen zu neuen Rechenzentren unter https://www.ovh.de/discover/). Dies verbessert auch die Performance Ihrer Infrastruktur, da diese sich je nach Standort näher bei Ihren Kunden befindet und so Latenzzeiten optimiert werden.

Welche OVH Public Cloud Instanzen wurden von Cloud Spectator getestet?
Cloud Spectator hat für jeden der zehn Anbieter virtuelle Maschinen in vier verschiedenen Größen überprüft: small VM, medium VM, large VM und extra-large VM.

Die für OVH getesteten Instanzen sind die Modelle B2-7, B2-15, B2-30 und B2-60 mit High Availability Storage. Die Server befinden sich alle im OVH Rechenzentrum in Straßburg (SBG 3) und sind somit ideal für Benutzer in Mittel- und Osteuropa.

Mit rund 260.000 Servern ist OVH europäischer Marktführer und einer der führenden Anbieter von IT-Infrastrukturen weltweit.* Das nach ISO/IEC 27001 und SOC zertifizierte Unternehmen betreibt 20 hochmoderne Rechenzentren in Europa und Nordamerika sowie ein eigenes Glasfasernetzwerk mit einer Gesamtbandbreite von 7,5 TB/s und 32 Präsenzpunkten auf drei Kontinenten. Außerdem unterhält OVH eine eigenständige Server-Produktion. OVH wurde 1999 in Frankreich von Octave Klaba gegründet. Das inhabergeführte Familienunternehmen ist in 19 Ländern weltweit vertreten und beschäftigt derzeit rund 1.500 Mitarbeiter. In Deutschland ist OVH seit 2006 am Markt. Sitz der deutschen Niederlassung ist Saarbrücken. *Quelle: Netcraft

Firmenkontakt
OVH GmbH
Jens Zeyer
Dudweiler Landstraße 5
66123 Saarbrücken
+49 (681) 90673216
jens.zeyer@corp.ovh.de
http://www.ovh.de

Pressekontakt
Alpha & Omega PR
Michael Hatemo
Schloßstraße 86
51429 Bergisch Gladbach
+49 (2204) 9879930
+49 (2204) 9879938
m.hatemo@aopr.de
http://www.aopr.de

Mrz 30 2017

Mehr Transparenz im IT-Hosting-Markt

ama (Waghäusel) präsentiert das Vertriebstool „amawebPLUS“ mit erweiterter Analyse-Funktion für Managed Hosting-Anbieter

IT-Anbieter und Anbieter von Hosting-Dienstleistungen erhalten mit dem ab sofort verfügbaren Vertriebstool „amawebPLUS – IT-Hosting“ mehr Einblick in den Markt für IT-Hosting-Dienstleistungen: Detaillierte Informationen zur installierten ITK-Infrastruktur von rund 3.600 Anwenderunternehmen sowie deren Hosting-Dienstleister.

ITK-Informationsdienstleister ama adressiert mit seinem webbasierten Vertriebstool amawebPlus – IT-Hosting zwei Zielgruppen. Zum einen die IT-Hosting-Anbieter selbst. Und zum anderen die deutlich größere Gruppe der IT-Anbieter, die mit dem verfügbaren Marktwissen über das Hosting-Verhalten von deutschen Unternehmen das gegebene Neukundenpotenzial deutlich effektiver ausschöpfen können.

Axel Hegel, Geschäftsführer der ama GmbH unterstreicht: „Für IT-Anbieter und Anbieter von Hosting-Dienstleistungen bietet unser Vertriebstool in Verbindung mit der Spezialselektion IT-Hosting einen entscheidenden Wissensvorsprung: Nutzer in Marketing und Vertrieb können sowohl die potenziellen Kunden als auch ihre Mitbewerber im Hosting-Markt bis ins Detail analysieren“, so Hegel.

Hegel verweist auf die mit amawebPLUS mögliche Dropdown-Analyse: „Diese Funktion erlaubt nicht nur das Firmenprofil des jeweiligen Hosting-Standortes genauer zu analysieren, sondern auch die geschäftliche Verbindungen des Hosting-Dienstleisters zu weiteren Kunden.“ Auf diese Weise erhalte der Nutzer einen exklusiven Überblick auch auf die jeweiligen Kunden des Hosting-Dienstleisters. Hegel weiter: „Eine weitere Verknüpfungsebene führt wiederum zu den betreffenden Firmenprofilen der Kunden und deren installierte ITK-Infrastruktur.“ Falls diese Kunden Verträge mit weiteren Hosting-Dienstleistern haben, so sei dies dank amawebPLUS ebenfalls ersichtlich. Ebenso sind geplante Investitionen in die ITK-Infrastruktur abrufbar.

Der praktische Nutzen – verdeutlicht an einem Beispiel: Das von amawebPLUS via Webbrowser bereitgestellte Firmenprofil eines größeren Handelskonzerns weist, neben dem Hauptsitz, eine Reihe weiterer Standorte in einer Übersicht aus. Ein Klick auf einen dieser Standorte zeigt die dort aktuell installierten IT-Systeme. Ebenfalls ersichtlich ist, ob und auf welche Weise diese IT-Systeme ausgelagert sind: etwa an ein konzerneigenes Rechenzentrum, an einen externen Hosting-Dienstleister oder einen Cloud-Anbieter.
Weiterführende Informationen

Mit dem von ama neu entwickelten und seit Oktober 2016 verfügbaren Vertriebstool “ amawebPlus“ gingen auch neue Datenselektionen aus der ama Database an den Start. Hierzu zählen neben IT Hosting auch die Spezialselektion Hidden Champions, Security, IT Hosting und Premium. Details zu amawebPLUS stehen in unserem Blogbeitrag

ama erhebt seit 1988 die IT-Strukturen in Anwenderunternehmen. Dabei entstand eine Basis von 41.000 Firmenprofilen. Die von IT-Anbietern genutzten ama-Firmenprofile enthalten detaillierte Informationen rund um die eingesetzte Hard- und Software von Anwenderunternehmen, die für Marketing und Vertrieb besonders relevant sind. Gleichzeitig versteht sich ama als Partner für themenspezifische Leadgenerierung und Terminvereinbarung.

Firmenkontakt
ama Adress- u. Zeitschriftenverlag GmbH
Axel Hegel
Sperberstr. 4
68753 Waghäusel
07254-9596-112
a.hegel@ama-adress.de
http://www.ama-adress.de

Pressekontakt
ama Adress- u. Zeitschriftenverlag GmbH
Axel Hegel
Sperberstr. 4
68753 Waghäusel
07254-9596-112
pr@ama-adress.de
http://www.ama-adress.de

Feb 24 2017

OVH setzt seinen weltweiten Expansionskurs fort: mit einem neuen Rechenzentrum in den USA

Der Global Player im Bereich IaaS setzt weiterhin auf Wachstum in Nordamerika und bringt innovative umweltfreundliche Rechenzentren mit

OVH setzt seinen weltweiten Expansionskurs fort: mit einem neuen Rechenzentrum in den USA

OVH, der europäische Marktführer im Cloud-Sektor, hat heute den Kauf eines Geländes für ein neues Rechenzentrum in den USA bekannt gegeben. Am Standort in Hillsboro, Oregon, soll das zweite Rechenzentrum nach dem in Vint Hill, Virginia, eröffnet werden. Ein drittes nordamerikanisches Rechenzentrum besteht bereits in Beauharnois, Kanada. Mit diesen neuen Infrastrukturen will OVH die Bedürfnisse seiner weltweit mehr als 1 Million Kunden erfüllen, die verstärkt nach globaler Präsenz und der Möglichkeit zum Outsourcing digitaler Infrastrukturen auf der ganzen Welt verlangen.

Die unabhängigen Analysten von 451 Research haben im vergangenen Jahr vorausgesagt, dass die Ausgaben für Cloud-Produkte 2016 einen Betrag von 20,8 Milliarden Euro erreichen und bis 2020 sogar auf 42 Milliarden Euro anwachsen werden. Wer die Cloud bereits verwendet, erweitert bestehende IT-Infrastrukturen, andere Unternehmen streben durch die erstmalige Migration in die Cloud eine Modernisierung ihrer IT an. Und die Experten von Global Industry Analysts schätzen, dass der Bedarf hier auf dem US-Markt am größten ist – Schätzungen belaufen sich auf mindestens 7,1 Milliarden Euro bis 2020.

OVH setzt in den unternehmenseigenen Rechenzentren eine patentierte umweltfreundliche Kühltechnologie ein und verbraucht so weit weniger Ressourcen als üblich. Die firmeneigenen Server mit Wasserkühlung sparen aber nicht nur Energie, sondern zeichnen sich dank effizienter Wärmeübertragung zugleich durch verbesserte Verfügbarkeit und Effizienz aus.

Auch in den Rechenzentren in Vint Hill und Hillsboro wird natürlich die OVH-eigene Kühltechnologie zum Einsatz kommen und dem Unternehmen einen klaren Wettbewerbsvorteil auf dem nordamerikanischen Markt bescheren. „Jahrelang haben führende Unternehmen versucht herauszufinden, wie sie ihre Rechenzentren wirkungsvoll kühlen und gleichzeitig Energie und Geld einsparen können“, sagt Pascal Jaillon, Vizepräsident für Forschung und Entwicklung bei OVH US. „Klassische Rechenzentren verwenden teure Klimaanlagen für die Kühlung der Server. OVHs neue Kühltechnologie ist nur die erste von zahlreichen Innovationen, die wir auf diesem wachsenden Markt einbringen möchten.“

Gemeinsam mit Vint Hill, dem Standort an der Ostküste, wird das neue Rechenzentrum an der Westküste der Vereinigten Staaten für Unternehmen in den USA Redundanz und Skalierbarkeit sicherstellen. Das Rechenzentrum in Hillsboro ist nur 20 Meilen von Portland entfernt und soll auf einer Fläche von gut 10.000 m² rund 80.000 Server beherbergen. Das bereits im Oktober angekündigte Rechenzentrum in Vint Hill befindet sich derzeit im Bau, und auch die Suche nach Personal läuft schon. Erste Discover-Angebote für Unternehmen, die ihre IT auf die US-amerikanischen Rechenzentren ausweiten wollen, sollen schon im Sommer 2017 in Vint Hill verfügbar sein.

Wenn die aktuellen Pläne von OVH umgesetzt sind, werden die rund 1 Million Kunden für ihre IT zwischen Rechenzentren in elf Ländern auf vier Kontinenten wählen können. Auch das neue Rechenzentrum ist verständlich an das unternehmenseigene weltweite Glasfasernetzwerk angebunden, das mit einer Kapazität von 10+ Tbit/s optimale Latenzzeiten und Sicherheit bietet. Um eine konstante Service-Qualität zu gewährleisten, verfügt OVH außerdem über 32 Points of Presence auf der ganzen Welt. Und selbstverständlich ist auch bei allen neuen Rechenzentren der bewährte OVH DDoS-Schutz inklusive.

Mit rund 260.000 Servern ist OVH europäischer Marktführer und einer der führenden Anbieter von IT-Infrastrukturen weltweit.* Das nach ISO/IEC 27001 und SOC zertifizierte Unternehmen betreibt 20 hochmoderne Rechenzentren in Europa und Nordamerika sowie ein eigenes Glasfasernetzwerk mit einer Gesamtbandbreite von 7,5 TB/s und 32 Präsenzpunkten auf drei Kontinenten. Außerdem unterhält OVH eine eigenständige Server-Produktion. OVH wurde 1999 in Frankreich von Octave Klaba gegründet. Das inhabergeführte Familienunternehmen ist in 19 Ländern weltweit vertreten und beschäftigt derzeit rund 1.500 Mitarbeiter. In Deutschland ist OVH seit 2006 am Markt. Sitz der deutschen Niederlassung ist Saarbrücken. *Quelle: Netcraft

Firmenkontakt
OVH GmbH
Jens Zeyer
Dudweiler Landstraße 5
66123 Saarbrücken
+49 (681) 90673216
jens.zeyer@corp.ovh.de
http://www.ovh.de

Pressekontakt
Alpha & Omega PR
Michael Hatemo
Schloßstraße 86
51429 Bergisch Gladbach
+49 (2204) 9879930
+49 (2204) 9879938
m.hatemo@aopr.de
http://www.aopr.de

Feb 7 2017

Bitglass erweitert seine Lösung für AWS und kundenspezifische Cloud-Apps

Erste agentenlose CASB-Lösung für jede Cloud-Anwendung

Amsterdam, 7. Februar 2017 – Bitglass, das Unternehmen für vollständige Datensicherheit, hat die Funktionalität seiner marktführenden Cloud Access Security Broker (CASB)-Lösung erweitert: Ab sofort unterstützt diese Amazon Web Services (AWS) und kundenspezifische Cloud-Anwendungen.

Die Bitglass-Lösung für AWS bietet umfassende Transparenz, Data Leakage Protection (DLP) in Echtzeit und eine granulare Zugriffssteuerung für alle S3- und EC2-Instanzen. Für die Sicherung von AWS werden die bewährten CASB-Funktionen genutzt, die auch beim Sichern von SaaS-Anwendungen zum Einsatz kommen: Integriertes Identitätsmanagement, Verhaltensanalysen und Echtzeitschutz von Inline-Daten.

Bitglass hat außerdem seine Unterstützung für SaaS-Anwendungen auf kundeneigene in-House- Anwendungen erweitert, um umfassenden Schutz für alle Daten zu bieten. Die Sicherheitslösung von Bitglass kann innerhalb von Minuten für jede Anwendung, egal ob in der Public oder in der Private Cloud, konfiguriert werden. Möglich ist dies durch die Proxy-Architektur von Bitglass, die ohne Agenten auskommt. Damit bietet bisher nur Bitglass die Sicherung des Datenverkehrs von jeder Anwendung ohne umständliche Software oder Agenten auf dem Endgerät.

„Unternehmen speichern einen Großteil ihrer Daten in kundenspezifischen SaaS-Anwendungen und auf IaaS-Plattformen wie AWS, aber oft haben sie nicht die notwendigen Sicherheitsvorkehrungen getroffen, um Datenlecks einzudämmen“, kommentiert Nat Kausik, CEO von Bitglass. „Derzeit bieten wir die einzige umfassende CASB-Lösung auf dem Markt, die für alle Cloud-Anwendungen eingesetzt werden kann.“

Weitere Informationen
Webinar zur Sicherung von IaaS mit einer CASB-Lösung: pages.bitglass.com/webinar-express-casb-for-iaas
Blogbeitrag zur AWS-Unterstützung: bitglass.com/blog/aws-support-is-here

Über Bitglass
Die Cloud Access Security Broker-Lösung (CASB) von Bitglass bietet Unternehmen End-to-End-Datenschutz von der Cloud bis zum Gerät. Die Lösung lässt sich innerhalb von Minuten bereitstellen und kann für Cloud-Apps auf jedem Gerät genutzt werden. Bitglass bietet den Schutz von Daten auf mobilen Geräten ohne den üblichen mit Mobile Device Management verbundenen Aufwand und ermöglicht Unternehmen die Durchsetzung von Datensicherheitsrichtlinien für Apps wie Office 365, Salesforce und Exchange. Bitglass, das seinen Sitz im Silicon Valley hat, wurde 2013 von einer Gruppe von Branchenveteranen gegründet, die beachtliche Erfolge im Hinblick auf Innovationen und deren Umsetzung vorweisen können.

Firmenkontakt
Bitglass
Rich Campagna
Campbell Technology Parkway 675
95008 Campbell CA
(408) 337-0190
deutschland@touchdownpr.com
http://www.bitglass.com/

Pressekontakt
Touchdown PR
Kerstin Sturm
Friedenstr. 27
82178 Puchheim
+49 89 215522788
deutschland@touchdownpr.com
http://www.touchdownpr.com

Feb 2 2017

Initiative Cloud Services Made in Germany stellt Ausgabe Januar 2017 von Band 2 ihrer Schriftenreihe vor

Initiative Cloud Services Made in Germany stellt Ausgabe Januar 2017 von Band 2 ihrer Schriftenreihe vor

Wenige Tage nach Band 1 hat die Initiative Cloud Services Made in Germany nun auch die Neuauflage von Band 2 ihrer Schriftenreihe veröffentlicht. Unter dem Titel „Cloud Services Made in Germany in der Praxis“ werden eine Auswahl von Anwenderbeispielen für den erfolgreichen Praxiseinsatz der Cloud Computing-Lösungen der in der Initiative vertretenen Unternehmen vorgestellt. Die aktualisierte Ausgabe, Stand Januar 2017, steht nun zum kostenlosen Download bereit ( http://www.cloud-services-made-in-germany.de/schriftenreihen#band2).

Frank Roth, Vorstand der AppSphere AG und Initiator der Initiative Cloud Services Made in Germany erklärt: „Die erweiterte Auswahl an Praxisbespielen in der neuen Ausgabe von Band 2 der Schriftenreihe verdeutlicht die Vielfalt an Cloud Computing-Angeboten (Infrastructure as a Service, IaaS, Platform-as-a-Service, PaaS, Software-as-a-Service, SaaS) sowie die breite Bandbreite an Einsatzszenarien, die es heute bereits für Cloud Services gibt“, erklärt
Der neue Band der Schriftenreihe der Initiative Cloud Services Made in Germany steht ab sofort in der Rubrik Schriftenreihen ( http://www.cloud-services-made-in-germany.de/schriftenreihen#band2) der Webseite der Initiative zum Download zur Verfügung.

Neu aufgenommen wurden die folgenden Anwenderberichte:

– BREKOM realisiert Kommunikationssystem für die Sanitär- Heizungs- und Klimabranche (SHK)
– BONUS Märkte profitieren von flexibler Zeiterfassung mit edtime
– Mornin Glory: Erfolgreiches Up- und Cross-Selling per E-Mail im Produktlebenszyklus
– SVG: CAS PIA sorgt für eine unternehmensweite 360° Kundenakte

Cloud Services Made in Germany – Mehr Rechtssicherheit beim Einsatz von Cloud Computing-Lösungen

Im Rahmen der Initiative Cloud Services Made in Germany haben sich in Deutschland ansässige An-bieter unterschiedlicher Cloud Services (IaaS, PaaS, SaaS) mit dem Ziel zusammengeschlossen, für mehr Rechtssicherheit beim Einsatz von Cloud Computing-Lösungen zu sorgen, in dem in Deutschland gültige gesetzliche Vorgaben wie das Bundesdatenschutzgesetz (BDSG) als Grundlage für die mit dem Kunden geschlossenen Verträge gelten.

Um möglichst auch jungen und kleinen Anbietern von Cloud Services die Möglichkeit zu geben, sich im Rahmen der Initiative zu präsentieren, wurde die finanzielle Einstiegshürde möglichst niedrig gelegt. Der Jahresbeitrag beträgt EUR 250,00 zzgl. MwSt., also gerade einmal etwas mehr als 20 Euro im Monat. „Das große Interesse von Anwender- wie von Anbieterseite zeigt, welche zentrale Rolle Themen wie Datenschutz und Rechtssicherheit in Deutschland spielen“, bestätigt Frank Roth, Vorstand AppSphere AG und Initiator der Initiative. „Viele Initiativen im IT-Umfeld bleiben aber häufig den „Großen“ vorbehalten, da die Beteiligung ein entsprechendes finanzielles Engagement voraussetzt. Der IT-Markt befindet sich allerdings derzeit im Umbruch, und da soll es auch Newcomern und Unternehmen ohne Millionen-Budget möglich sein, sich Gehör am Markt zu verschaffen.“

Weitere Informationen zur Initiative Cloud Services Made in Germany sind im Internet unter http://www.cloud-services-made-in-germany.de verfügbar.

Der Markt der Cloud Services wächst rasant und die Auswahl sicherer und rechtlich unbedenklicher OnDemand-Software-Lösungen fällt den Anwenderunternehmen zunehmend schwerer. Ziel der im Juni 2010 von der AppSphere AG mit Unterstützung des Cloud Computing Report ins Leben gerufenen Initiative Cloud Services Made in Germany ist es, für mehr Rechtssicherheit bei der Auswahl von Cloud Services zu sorgen.

Firmenkontakt
Initiative Cloud Services Made in Germany
Werner Grohmann
Ruhrallee 185
45136 Essen
0201-7495722
wgrohmann@saas-forum.net
http://www.cloud-services-made-in-germany.de

Pressekontakt
Grohmann Business Consulting
Werner Grohmann
Ruhrallee 185
45136 Essen
0201-7495722
wgrohmann@saas-forum.net
http://www.grohmann-business-consulting.de

Nov 9 2016

CANDIS, gradwerk und SEGUSOFT beteiligen sich an Initiative Cloud Services Made in Germany

CANDIS, gradwerk und SEGUSOFT beteiligen sich an Initiative Cloud Services Made in Germany

Mit CANDIS, gradwerk und SEGUSOFT haben sich drei weitere, in Deutschland ansässige Anbieter von Cloud Computing-Lösungen für eine Beteiligung an der Initiative Cloud Services Made in Germany entschieden. In der bereits 2010 von der AppSphere AG ins Leben gerufenen Initiative haben sich unterschiedlichste Anbieter von Lösungen aus den Bereichen Infrastructure-as-a-Service (IaaS), Platform-as-a-Service (PaaS) und Software-as-a-Service (SaaS) mit dem Ziel zusammengeschlossen, für mehr Rechtssicherheit beim Einsatz von Cloud Computing-Lösungen zu sorgen.

CANDIS – Automatisierte Buchhaltung

CANDIS bietet eine umfangreiche Automatisierungslösung für die Verwaltung von Eingangsrechnungen von kleinen und mittelständischen Unternehmen. CANDIS ist Gewinner des „Bankathon“ und des „KPMG Innovation Showcase“. Über CANDIS werden Rechnungs- und Transaktionsdaten automatisch extrahiert, verknüpft und vorkontiert.

gradwerk GmbH – Das CMS5 macht den Unterschied!

gradwerk ist bereits seit rund zwei Jahrzehnten die Digitalagentur, wenn es um kreative Konzepte, exzellentes Design und nachhaltige Softwareentwicklung geht. gradwerk entwickelt innovative Lösungen, mit denen Kunden individuell und erfolgreich auftreten, wie zum Beispiel Websites, Microsites, Apps, Software & Anwendungen und Internetseiten für mobile Endgeräte auf Grundlage von Responsive Webdesign. So unterscheidet gradwerk von den meisten digitalen Agenturen der klare Fokus, neue Ideen zu konzipieren und zum Leben zu erwecken. Die Entwicklung eigener Produktideen ermöglicht es den Kunden bereits heute, die Dienste und Techniken von morgen in ihren Projekten einzusetzen.

SEGUSOFT: Einfacher und sicherer Datenaustausch für Unternehmen

Die SEGUSOFT GmbH hat sich die Entwicklung sicherer Anwendungen für die tägliche Kommunikation zum Ziel gesetzt. Wir möchten die Potenziale bestehender Cloud-Infrastrukturen zugänglich machen, ohne Angst vor Datenverlust oder Datendiebstahl. Als Anbieter des Cloud Service SEGULINK verbinden wir die Funktionalität einer Managed File Transfer-Lösung mit der Sicherheit und Integrität von Ende-zu-Ende-Verschlüsselung für Dateien und Nachrichten.

Weitere Informationen zu den an der Initiative Cloud Services Made in Germany beteiligten Unternehmen stehen im Lösungskatalog der Initiative Cloud Services Made in Germany zur Verfügung.

Initiative Cloud Services Made in Germany: Mehr Rechtssicherheit beim Einsatz von Cloud Computing-Lösungen

Ziel der bereits im Jahr 2010 von der AppSphere AG ins Leben gerufenen Initiative Cloud Services Made in Germany ist es, für mehr Rechtssicherheit beim Einsatz von Cloud Services zu sorgen. Aus diesem Grund wurden die folgenden Aufnahmekriterien festgelegt:

* Das Unternehmen des Cloud Service-Betreibers wurde in Deutschland gegründet und hat dort seinen Hauptsitz.
* Das Unternehmen schließt mit seinen Cloud Service-Kunden Verträge mit Service Level Agreements (SLA) nach deutschem Recht.
* Der Gerichtsstand für alle vertraglichen und juristischen Angelegenheiten liegt in Deutschland.
* Das Unternehmen stellt für Kundenanfragen einen lokal ansässigen, deutschsprachigen Service und Support zur Verfügung.

Um möglichst auch jungen und kleinen Anbietern von Cloud Services die Möglichkeit zu geben, sich im Rahmen der Initiative zu präsentieren, wurde die finanzielle Einstiegshürde möglichst niedrig gelegt. Der Jahresbeitrag beträgt EUR 250,00 zzgl. MwSt., also gerade einmal etwas mehr als 20 Euro im Monat. „Das unverändert große Interesse von Anwender- wie von Anbieterseite an der Initiative Cloud Services Made in Germany unterstreicht die zentrale Rolle, die Themen wie Datenschutz und Rechtssicherheit im Zusammenhang mit dem Einsatz von Cloud Computing-Lösungen in Deutschland spielen“, bestätigt Frank Roth, Vorstand AppSphere AG und Initiator der Initiative. „Viele Initiativen im IT-Umfeld bleiben aber häufig den „Großen“ vorbehalten, da die Beteiligung ein entsprechendes finanzielles Engagement voraussetzt. Der IT-Markt befindet sich allerdings derzeit im Umbruch, und da soll es auch Newcomern und Unternehmen ohne Millionen-Budget möglich sein, sich Gehör am Markt zu verschaffen.“

Weitere Informationen zur Initiative Cloud Services Made in Germany stehen im Internet unter www.cloud-services-made-in-germany.dezur Verfügung.

Der Markt der Cloud Services wächst rasant und die Auswahl sicherer und rechtlich unbedenklicher OnDemand-Software-Lösungen fällt den Anwenderunternehmen zunehmend schwerer. Ziel der im Juni 2010 von der AppSphere AG mit Unterstützung des Cloud Computing Report ins Leben gerufenen Initiative Cloud Services Made in Germany ist es, für mehr Rechtssicherheit bei der Auswahl von Cloud Services zu sorgen.

Firmenkontakt
Initiative Cloud Services Made in Germany
Werner Grohmann
Ruhrallee 185
45136 Essen
0201-7495722
wgrohmann@saas-forum.net
http://www.cloud-services-made-in-germany.de

Pressekontakt
Grohmann Business Consulting
Werner Grohmann
Ruhrallee 185
45136 Essen
0201-7495722
wgrohmann@saas-forum.net
http://www.grohmann-business-consulting.de