Standort: fm4.ORF.at / Meldung: " Götterdämmerung beim Cloud-Computing"

Musik, Film, Heiteres

Erich Möchel

Netzpolitik, Datenschutz - und Spaß am Gerät.

28. 4. 2011 - 06:00

Götterdämmerung beim Cloud-Computing

Der Großausfall in der Amazon-Wolke sei nur die Spitze des Eisbergs an Problemen, die Cloud-Computing mit sich bringt, sagte Internetpionier Dave Farber zu ORF.at. Am Montag gab erneut ein Cloud-Anbieter das Geschäftsfeld auf.

"Seit Jahren warne ich in meinen Vorträgen, dass Cloud-Computing auf einer gefährlichen Vereinfachung beruht, die zwangsläufig zu Problemen führen muss. Meiner Ansicht nach sind die Probleme Amazons nur die Spitze eines Eisbergs, der in der näheren Zukunft echte Troubles bringen wird." So kommentierte Farber den Großausfall des Cloud-Computing-Systems von Amazon auf Anfrage von ORF.at.

Der Professor Emeritus für High Speed Networking an der Carnegie-Mellon-Universität und anderen akademischen Institutionen weiß, wovon er spricht. Mitte der 70er Jahre hatte ein Forscherteam um Farber an der University of California das erste hochverfügbare System für verteiltes Rechnen (Distributed Computing) zu entwickeln begonnen.

Die nebulöse Cloud: Die mittlerweile in der IT-Branche omnipräsente Wolke im schnellen Überblick von Conny Lee.

Web 2.0 ist down

Um nichts anderes handelt es sich bei allen Cloud-Computing-Systemen wie dem von Amazon, das in der vergangenen Woche in Teilen ausgefallen war. Genau genommen war nur ein kleines Segment des riesigen Systems in den USA betroffen, dafür waren die Folgen des Ausfalls dort umso nachhaltiger.

Bis zu 36 Stunden waren vor allem Web-2.0-Unternehmen wie Reddit und BigDoor unerreichbar, deren Geschäftsmodell auf ständiger Verfügbarkeit ihrer Services beruht. Daneben war eine Unzahl vorwiegend amerikanischer Start-up-Firmen von den Ausfällen betroffen, für die Cloud-Services vor allem in der Anfangsphase unerlässlich sind.

Start-ups, Hype und Wettbewerb

Gut ein Jahrzehnt nach dem Platzen der Dot.com-Blase zur Jahrtausendwende bläht sich eine weitere Blase gerade schillernd auf. Von Risikokapital befeuerte junge Unternehmen entwickeln gerade eine neue Generation von Webservices, der Wettbewerb dabei ist mörderisch - wie immer, wenn ein neuer Hype grassiert.

Eine eigene, verteilte Rechnerinfrastruktur aufzubauen ist nicht nur deutlich teurer als das Hosting bei Cloud-Anbietern wie Amazon, es dauert vor allem viel zu lange, so ein Service aus dem Boden zu stampfen, das weltweit binnen kürzester Zeit funktionieren soll.

Dave Farber wird gern als "Großvater des Netzes" bezeichnet, zumal er in den 1960er Jahren an der Entwicklung des ersten elektronischen Switches in den legendären Bell Labs beteiligt war. Später mischte Farber am Aufbau aller akademischen Vorläufernetze des Internets maßgeblich mit. Jon Postel , der mit Vint Cerf als einer der "Väter des Internets" bezeichnet wird, hatte seine Doktorarbeit 1974 bei Professor Farber absolviert.

"Gamification" over

Vom Ausfall bei Amazon war auch das erst Ende 2009 gegründete Unternehmen BigDoor betroffen, ein Dienstleister für Web-2.0-Unternehmen. BigDoor stattet bestehende Publikumswebsites mit "Gamification" aus, es integriert dort Spielelmente aller Art, die wiederum auf Rechnern von BigDoor laufen. Ist BigDoor nicht verfügbar, sind die entsprechenden Angebote dieser Kunden ebenfalls offline.

In den zehn Monaten, in denen die "Gamification"-Plattform online ist, gab es eine Milliarde Zugriffe darauf, schrieb der CEO von BigDoor, Keith Smith, vergangene Woche. Der dafür nötige Aufwand ist dementsprechend hoch: Alles in allem sind es gut 70 Server, die Datenbanken oder Applikationen hosten und rund um die Uhr verfügbar sein müssen. Ohne die Amazon-Webservices wäre das angesichts des kleinen Teams und begrenzter finanzieller Mittel in weniger als einem Jahr unmöglich zu schaffen gewesen, so Smith.

Abschuss durch Back-ups

Genau das aber ist die Crux dabei. Verteiltes Rechnen sei an sich eine gute Sache, außer es werde dabei zu wenig Wert auf Zuverlässigkeit und Sicherheit der Systeme gelegt, sagte Farber weiter, das hätten alle Erfahrungen mit Distributed Computing der vergangenen Jahrzehnte ausführlich gezeigt.

Im Fall von Amazon hatte sich am Donnerstag nach einem nicht näher erläuterten "Netzwerkzwischenfall" eines der größten Datencenter des Unternehmens verabschiedet, nicht ohne dabei auch andere Rechenzentren im Mitleidenschaft zu ziehen.

Amazons Wolke

Anders als für die reinen Cloud-Anbieter waren derartige Services für den führenden Einzelhändler Amazon von Anfang an ein Geschäft. Eine ohnehin vorhandene Infrastruktur, die auf die überbordende Belastung des Weihnachtsgeschäfts ausgelegt war, wurde im übrigen Jahr untervermietet. Im "Service Health Dashboard" von Amazon nehmen sich die Ausfälle von 21. bis 23. April als sechs rote Pünktchen in einem Meer grüner Punkte aus.

Erst wurde routinemäßig versucht, den Ausfall eines wichtigen Elements durch Back-ups wettzumachen, was einen Dominoeffekt zur Folge hatte. Immer mehr virtuelle Maschinen versuchten ebenfalls, Ad-hoc-Sicherheitskopien anzulegen, bis die Speicherkapazität des - unter Vollbetrieb stehenden - Rechenzentrums in Virginia erschöpft war. Ab dann ging nichts mehr, 36 Stunden lang.

"Alle Lehren großzügig ignoriert"

Aus Kostengründen hatten Reddit, BigDoor und zahllose andere Start-ups - so gut wie alle stammen aus den USA - darauf verzichtet, eine weiteres komplettes Abbild ihrer Unternehmens-IT in einem weiteren Datencenter anzulegen. Die Back-ups standen alle im selben Rechenzentrum, das durch zu viele parallele Back-ups vollständig abgeschossen worden war.

An Paradoxa, dass etwa die eigenen Sicherungsmaßnahmen letale Auswirkungen haben können, mangelt es in der Netzwerkerei leider überhaupt nicht. Das meinte Farber mit "gefährlichen Vereinfachungen", die komplexe, wechselseitige Vorgänge simplifiziert, aber eben falsch darstellen. "Cloud-Computing ist zwar ein Musterbeispiel eines verteilten Rechensystems - aber eines, das alle Lehren aus den Experimenten der Vergangenheit großzügig ignoriert", so Farber zu ORF.at.

Trivial, aber letal

Wem jemals der wohl häufigste und trivialste aller Back-Up-Fehler unterlaufen ist, nämlich die Daten in die "falsche Richtung" zu synchronisieren, weiß, von welchen Effekten hier die Rede ist. Statt eine Sicherungskopie anzufertigen, hat man die aktuellen mit alten Datensätzen überschrieben.

In Amazons Cloud war es bereits in der Vergangenheit immer wieder zu Problemen gekommen, doch konnten die Systeme stets verhältnismäßig rasch wiederhergestellt werden. Zumeist waren nämlich Großkunden betroffen, die ihre Daten in mindestens einem weiteren Rechenzentrum abgelegt hatten.

Im Wolkenkuckucksheim

Die Start-ups, die eben nicht über derartige Mittel verfügen, hatte der Ausfall hingegen kalt erwischt. Das Hauptproblem ist in den heutigen vernetzten Zeiten dabei längst nicht mehr, dass Datensätze unwiderruflich verloren gehen.

Die Daten selbst finden sich fast immer wieder, doch bis dahin steht das gesamte Unternehmen, denn die gesamte Firmen-IT befindet sich in einem fernen Datenwolkenkuckucksheim, das derzeit eben nicht erreichbar ist.

Start-up-Dämmerung

Der Markt für Cloud-Computing hatte am Montag noch einen weiteren schweren Dämpfer abgekriegt. Das erst im November 2010 bekanntgewordene und sofort heftig gehypte Start-up Cirtas kündigte fast alle seine Mitarbeiter. Im Jänner noch hatte eine Finanzierungsrunde 22,5 Millionen Dollar für die Firma eingebracht.

Bereits Anfang April hatte der Cloud-Anbieter Iron Mountain seine Wolkenspeicher schließen müssen, weitere zwei Mitbewerber waren noch 2010 eingegangen. Bei allen handelt es sich um Unternehmen, die sich ausschließlich über Cloud-Speicherservices finanzieren. Von dieser Sorte sind nur noch zwei der neuen, größeren Start-ups übrig geblieben, von denen eines ausgerechnet Nirvanix heißt.

In den 80er Jahren, als Farber seine Experimente mit verteiltem Rechnen durchführte, kursierte unter den akademischen Netzwerkern folgende Definition: "Distributed Computing ist ein System, an dem ich nicht arbeiten kann, weil ein Rechner, von dem ich noch nie etwas gehört habe, nicht funktioniert."

Haftungsausschluss

Die ORF.at-Foren sind allgemein zugängliche, offene und demokratische Diskursplattformen. Die Redaktion übernimmt keinerlei Verantwortung für den Inhalt der Beiträge. Wir behalten uns aber vor, Werbung, krass unsachliche, rechtswidrige oder beleidigende Beiträge zu löschen und nötigenfalls User aus der Debatte auszuschließen. Es gelten die Registrierungsbedingungen.

Forum

Zum Eingabeformular Kommentieren

  • arnonymous | vor 1280 Tagen, 1 Stunde, 18 Minuten

    hmmm

    kluger kommentar auf slashdot:
    Cloud applications hosted on Amazon survived this incident without issue, as expected. Only the regular old hosted applications had problems with the outage. They were never "the cloud" to begin with, so I'm not sure why the term even comes up in this discussion.

    The cloud represents a black box that hides the underlying network topology so that there are no single points of failure. Cloud applications are tolerant because they are spread through different datacenters across multiple points of in world. A catastrophe at one or more datacenters will have no noticeable effect on the availability of a cloud application because it continues to run in many more.

    Amazon offers a few cloud applications: S3 comes to mind. But Amzon's EC2/EBS hosting service is a plain old hosting service like any other. The EC2 topology is not hidden away from you. You have to make active decisions about where you want your EC2 instance to live. That goes against the idea of the cloud. What Amazon does offer in EC2 is the tools necessary for you to build a cloud application, but not everything hosted on EC2 is...

    Auf dieses Posting antworten
    • arnonymous | vor 1280 Tagen, 1 Stunde, 18 Minuten

      ...a cloud application by default.

  • eierbär74 | vor 1280 Tagen, 1 Stunde, 24 Minuten

    Es ist die alte Crux. Alle wollen Kosten einsparen und beschweren sich darüber, dass z.B. Mainframes so teuer sind. Aber gleichzeitig wollen Sie die Verfügbarkeit und Sicherheit der teuren Maschinen und es bricht ein großes Geheul los, wenn Systeme Offline sind.
    Es ist ganz einfach: je höher die Verfügbarkeit, desto teurer!

    Auf dieses Posting antworten
  • rotifer | vor 1280 Tagen, 23 Stunden, 34 Minuten

    John Harris' interessante (wenn auch terminologisch vielleicht ein bisschen verwirrte) Gedanken zu den politischen Implikationen der Cloud:
    http://tinyurl.com/5vh6won

    Auf dieses Posting antworten
    • tantejutta | vor 1280 Tagen, 22 Stunden, 29 Minuten

      interesting, indeed

      weil eine Stimme der Vernunft. Angesichts der milliardenschweren Hype der letzten zwei Jahre ist sowas einfach notwendig.

    • arnonymous | vor 1280 Tagen, 22 Stunden, 11 Minuten

      es tut fast schon körperlich weh, wenn an sich relevante ideologische diskussionen mit fachvokabeln und beispielen geschmückt werden, die hirnfrei sind.

      google scannt e-mails. jau. so wie jeder mailserver, jede firewall, das ganze scheiss internet. was kommt als nächste einsicht? das amazon kundendaten speichert?

      omfgbbq, jeder kann meine twitter messages lesen!?!

      das internet ist ein OFFENES, GLOBALES netzwerk. was ist daran so neu, so oarg?

      die telcos haben noch viel geilere daten, personalisiert, lokal, etc. und dann erst die banken - wer weiss denn schon, dass sein bankomat-abhebeverhalten die kreditwürdigkeit beeinflusst? immer brav nächtens geldbeträge abheben und die bist risikogruppe (spieler/säufer).

  • attingo | vor 1281 Tagen, 11 Minuten

    Spannend :-)

    Sehr informativ! Danke!

    Auf dieses Posting antworten
  • schellack | vor 1281 Tagen, 42 Minuten

    Lob!

    Sehr gute, umfassende und wirklich genaue Information!

    Auf dieses Posting antworten
  • izno73 | vor 1281 Tagen, 2 Stunden, 33 Minuten

    @Tacoron

    Also ich finde den Artikel gut und ein wenig süffisant in die Länge gezogen geschrieben. Paßt schon so. Ich kann auch nix unverständliches dran finden. Wer als Laie mit "Cloud-computing" nix anfängt, braucht ohnehin nicht weiterzulesen. Mir hats gefallen.
    lg

    Auf dieses Posting antworten
    • sülzheimer | vor 1281 Tagen, 52 Minuten

      "süffisant in die Länge gezogen"?

      also ich finde den artikel geschwätzig.

      und unnötig lang in die länge gezogen.

      zu sagen wer mit "cloud computing" nix anfängt, der soll das gar nicht lesen, der weiß offenbar nicht, dass es einen gesetzlichen bildungsauftrag für den öffentlich-rechtlichen (und finanzierten) ORF gibt.

    • tantejutta | vor 1281 Tagen, 36 Minuten

      ;)

      Der Artikel ist deshalb so lang geworden, weil versucht wurde, möglichst jeden Fachbegriff auch zu erklären. Eben dass auch Leute, die in diesem doch recht vielschichtigen und absolut nichttrivialen [aber enorm wichtigen] Gebiet nicht zu Hause sind, auch etwas davon mitkriegen können. Wenn sie denn wollen.

  • thedarktower | vor 1281 Tagen, 2 Stunden, 39 Minuten

    Ich verstehe nicht wie dieses Problem plötzlich ein Problem beim Cloud Computing aufzeigen sollte.
    Es ist ja hier nichts außergewöhnliches passiert.
    Das hätte jeder Firma mit einem eigenen Rechenzentrum genau so passieren könne.

    Die Lösung steht ja auch schon da: mehrere unabhängige, weit von einander entfernte Rechenzentren. Du da kommt schon wieder der Vorteil von Cloud Computing zum tragen.

    Im Endeffekt ist es ja nur eine Kostenfrage, die Technik dahinter ändert sich ja nicht, egal ob in der "Cloud" oder im eigenen Rechenzentrum.

    Auf dieses Posting antworten
    • fenris79 | vor 1281 Tagen, 2 Stunden, 3 Minuten

      naja

      Das Problem ist nicht das sich ein Rechenzentrum sondern die ganze Cloud verabschiedet hat und das kriegt man nur durch eine 2. Cloud für Ausfallsicherheit in den Griff.

    • tantejutta | vor 1281 Tagen, 1 Stunde, 39 Minuten

      2 mal ACK

      Natürlich, das war der eigentliche Tenor des Artikels. Seite einem Jahr wird auf KMUs eingetrommelt, ihre gesamte Infra in die Cloud zu schmeißen. Backups vor Ort? Brauch ma net, is eh alles in der Cloud. Das ist was der Professor meint.

    • tantejutta | vor 1281 Tagen, 1 Stunde, 35 Minuten

      @tower

      Das Wort Kostenfrage triffts auf den Punkt. Es wir nämlich mit fantastischen Einsparmöglichkeiten gewedelt, die völlig unrealistisch sind. Booz Allen ist allen Ernstes mit einem langfristigen Kosteneinsparungsverhältnis von ca 15:1 [virtualized : non virtualized] dahrergekommen. Das ist Propaganda, keine Marktforschung.

    • thedarktower | vor 1280 Tagen, 6 Stunden, 35 Minuten

      Ja das mag Probaganda sein

      Für ein Startup ist es aber mit Sicherheit "in die Cloud" zu gehen.

  • tacoron | vor 1281 Tagen, 2 Stunden, 51 Minuten

    viele worte ....

    lieber erich möchel,
    das ganze ließe sich wohl auch sehr viel kürzer und in allgemein verständlicher sprache ausdrücken.

    die details für die (geringe anzahl der) experten, können dann ja noch hinten angehängt werden.

    dieser artikel ist jedoch für einen nicht überdrüber-experten, der sich täglich von berufswegen mit den insider-infos beschäftigt - schlicht unlesbar und unverständlich.

    schade.

    Auf dieses Posting antworten
    • thedarktower | vor 1281 Tagen, 2 Stunden, 44 Minuten

      Du bist wahrscheinlich nicht die richtige Zielgruppe für diesen Artikle.
      Kurz hast du wohl schon davon gehört dass bei Amazon ein paar Rechner ausgefallen sind.

      Warum sollte es keine Artikle für "Experten" geben? Die haben genau so ein Recht auf Informationen im ORF.

    • harald123 | vor 1281 Tagen, 1 Stunde, 50 Minuten

      Der Autor hat eh in der Randspalte den Einführungsartikel in die "nebulöse Cloud" verlinkt.

    • qball | vor 1281 Tagen, 1 Stunde, 44 Minuten

      liebes tacoron

      so geht's mir auch mit manchem wikipedia eintrag der sich - zum beispiel - mit quantenmechanik beschäftigt.

      niemals(!) würde ich jedoch auf die idee kommen, dem autor eines solchen artikels ans herz zu legen, das niveau nach unten zu korrigieren weil ich nicht folgen kann. käme der autor der bitte nach, würde dass die restliche leserschaft wertvolle informationen kosten nur weil ich sie nicht verstehe. das wäre doch recht egoistisch, nicht wahr?

  • arnonymous | vor 1281 Tagen, 6 Stunden, 12 Minuten

    hmm

    AWS ist nicht für echte enterprise systeme gedacht. siehe die SLAs bei EBS, siehe reddit's probleme damit.

    salesforce.com (sfdc) zeigt wie cloud/PaaS zu funktionieren hat. ms azure wird um nix schlechter sein.

    sfdc zeigt mit force.com, database.com wohin die reise geht. witzigerweise läuft heroku noch auf AWS, wodurch es probleme gab.

    und "götterdämmerung"? schon mal die up-times von intern gemanagten systemen gesehen? SAP systeme, die übers wochenende einfach weg sind, in top20 unternehmen?

    Auf dieses Posting antworten