10.09.2015

HTTP 2: Die Säule des zukünftigen Internets?

Es ist schon eigenartig mit der Parallelität der Zeitläufte. Während bei der Durchdringung des Alltags durch das Internet schon lange von der Version 2.0 gesprochen wurde und vorausschauende IT-Strategen schon längst vom Web 3.0 reden sowie die zunehmende Vernetzung im Gewerbe als «Industrie 4.0» angepriesen wird, befindet sich einer der Standards des Internets schlechthin – HTTP – immer noch im Dornröschenschlaf der Version 1.1. Stellt HTTP 2 die nähere Zukunft dieser wichtigen Säule des Internets dar?

Von: Lars Behrens   Drucken Teilen   Kommentieren  

Lars Behrens, Dipl.-Paed

Lars Behrens ist Geschäftsführer der Firma MaLiWi IT. Staatlich geprüfter Netzwerkadministrator, Microsoft MCP/Linux LCP. Er hat langjährige Erfahrung in der Beratung bei Planung und Einrichtung von IT-Systemen und Netzwerken und dem Support heterogener Systeme (Apple Macintosh, Microsoft Windows, Linux). Universitätsstudium der Pädagogik, mehrere Jahre Tätigkeit im Ausland. Seminar- und Kursleiter, Referent und Fachbuchautor. Weiterhin ist er Herausgeber von dem Online-Fachportal «InformatikPraxis» bei der WEKA Business Media AG.

MaLiWi IT

 zum Portrait

Zu diesem Artikel wurden noch keine Kommentare geschrieben. Wir freuen uns, wenn Sie den ersten Kommentar zu diesem Artikel verfassen.
 
Kommentar schreiben

Bitte Wert angeben!

Bitte Wert angeben!

Bitte Wert angeben! Bitte geben Sie eine gültige E-Mail-Adresse ein!

Bitte Wert angeben!

Bitte Wert angeben!

Bitte Wert angeben!

Bitte alle fett beschrifteten Pflichtfelder ausfüllen.
Zurücksetzen
 
HTTP 2

HTTP ist bekannt, es ist bewährt, es ist immens weit verbreitet. Wenngleich die Anzahl an Webseiten in letzter Zeit offenbar rückläufig ist, ist deren absolute Zahl immens:  

«Insgesamt 876 812 660 Antworten von Websites wurden im Januar-2015-Webserver-Survey erfasst – die geringste Anzahl seit Januar 2014. Besonders Microsoft ist von diesem anhaltenden Rückgang betroffen und verliert weiter Marktanteile», heisst es auf entwickler.de (Quelle siehe unten). Blogs, Unternehmens- und private Webseiten, Newsletter, Online-Fotoalben wohin das Auge blickt – das Internet hat unseren Alltag vollständig durchdrungen, und neben Email, sozialen Plattformen wie Twitter, WhatsApp und Onlinediensten wie etwa Navigationssystemen und anderen digitalen Alltagshelfern ist das herausragende Merkmal des Internets eben nach wie vor, dass alles irgendwie immer und überall auf irgend einer Webseite zu finden ist.  

HTTP in der aktuellen Version 1.1 stellt tatsächlich bereits seit Jahrzehnten das Rückgrat der Webseiten im Internet (und so manchem Intranet) dar; es ist bewährt und gut dokumentiert. Allerdings haperte es doch immer ein wenig bei der Geschwindigkeit der Bereitstellung der Seiten. In den vergangenen eineinhalb Jahrzehnten (!) seit Veröffentlichung des HTTP-1.1-Standards hat sich nämlich überaus viel getan. Zuerst waren es die PCs, die immer zügiger Webseiten abriefen und die Inhalte auch entsprechend schnell verarbeiten konnten. Erinnern Sie sich noch an die manchmal etwas martialisch als «Browserkrieg» bezeichneten Wettläufe um den schnellsten Browser? Seinerzeit war es tatsächlich eine Frage der Ehre – und natürlich der Technik und nicht zuletzt eine von geschäftlichem Interesse –, welcher Browser Webseiten am schnellsten darstellen konnte. Heutzutage gibt es zwar nach wie vor Unterschiede in der Geschwindigkeit der führenden Browser Firefox, Chrome, Internet Explorer und Safari (auf Mac), aber der Fokus des Interesses hat sich auf die Frage nach der Sicherheit verschoben. Welcher Browser bietet am wenigsten Angriffsfläche für Schadsoftware, Attacken und Malwarescripts von Hackern?  

Parallel zu der Beschleunigung der PC-Systeme liefen natürlich die entsprechenden Fortschritte bei den Internetzugängen und den Webservern. Schnelles DSL, Standleitungen und LTE sind inzwischen Standard, die Datenleitungen könnten also Webseiten oftmals schneller bereitstellen als die Webserver (auf denen die Webseiten ja irgendwo liegen müssen) diese bereitzustellen vermögen. Ausnahmen bestätigen wie immer die Regel: so manches Bergdorf ist noch mit einer kriechend langsamen 1000-Mb-Leitung an das weltweite Netz angeschlossen, und in den Spitzenzeiten des nationalen Surfens kommt es selbst mit schnellster Technik immer wieder zu Einbrüchen. Berüchtigt und jedem geläufig dürften die Phänomene der Verzögerungen des Internets zum  morgendlichen Beginn der Büroarbeit gegen 8 Uhr, dem Pendant des Feierabendsurfens ab 20 Uhr und dem gelegentlichen Komplettversagen bei sportlichen oder sonst wie populären Grossereignissen wie Übertragungen von Olympiaden, Fussballspielen und dergleichen sein. Sie sehen: es liegt nicht immer am Standard der Internettechnik – dieser befindet sich inzwischen durchaus auf einem hohen Niveau. So hat die Entwicklung auch nicht vor der Technik der Webserver Halt gemacht, hier legen die Programmierer von Apache, Nginx, IIS und den kleineren Konkurrenten wie ltghttpd grossen Wert auf die Verbesserung der Geschwindigkeit, mit der die Server die angefragten Webseiten ausliefern; aber bei Massenaufrufen von Webseiten kann die beste Technik immer noch versagen.  

Schuld daran ist aber in der Tat zumindest teilweise das veraltete Protokoll HTTP. Es war übrigens – viele wissen es gar nicht – einer der Weggefährten bei der Grundsteinlegung des Internets. Während das Versenden der ersten Email im Jahre 1971 quasi als die Geburtsstunde des Internets gilt, war die Entwicklung von HTML und HTTP eng an das gebunden, was wir heute als WWW – das World Wide Web – bezeichnen. Der Brite Tim Berners-Lee entwickelte 1990 folgende drei Säulen eines neuartigen Konzepts:

  • das Protokoll HTTP, dass die Kommunikation zwischen Web-Clients und Web-Servern beschrieb
  • das Schema für die Adressierung von Dateien und Datenquellen, die URIs (URI = Universal Resource Identifier, universeller Quellenbezeichner)
  • und schliesslich die «Sprache», in der Web-Dokumente verfasst werden mussten, damit sie standardisiert aufrufbar waren: HTML = Hypertext Markup Language, Hypertext Auszeichnungssprache).  

Manche sagen, Berners-Lee «erfand» damit das «Web».

Wer hat´s erfunden?

Nach diesem kurzen geschichtlichen Abriss zurück zu unserem HTTP und der Frage, weshalb die bewährte Version 1.1 inzwischen reif für eine Ablösung scheint. Berners-Lee und einige Kollegen am CERN, dem europäischen Kernforschungszentrum in der Schweiz, hatten seit 1989 das Hypertext Transfer Protocol entwickelt – im weitesten Sinne haben es in diesem Fall also tatsächlich mal wieder die Schweizer erfunden, wenn gleich es auch keine Schweizer Staatsbürger waren. Über die Versionen HTTP 0.9 und 1 sind wir inzwischen also bei 1.1 angelangt. Der bisherige Standard HTTP 1.1 ist dabei – computerhistorisch gesehen – ein ganz alter Hut. Bereits 1999 wurde die derzeitige Standardversion als RFC 2616 (Request for Comment) publiziert.  

Wie eingangs bereits erwähnt, kam es aber zunehmend zu Performanceproblemen mit der Protokollversion 1.1 – vor allem bei sehr grossen und aufwendig gestalteten Webseiten. Das liegt daran, dass HTTP 1.1 nicht auf die Verarbeitung aufwendiger Webseiten mit vielen Objekten ausgelegt ist. Während die Top-1000-Webseiten der Jahrtausendwende noch aus durchschnittlich nur zehn Objekten bestanden, verdoppelte sich diese Anzahl alleine in den Jahren zwischen 2009 und 2012 von 50 auf 100. «Dadurch stieg von 2010 bis 2012 trotz höherer Bandbreite die durchschnittliche Ladezeit um 48 Prozent» (zit. n. Linux-Magazin). Entwickler versuchten, die Geschwindigkeit der Webservertechnologie zu steigern – was beispielsweise zu der Entwicklung und Popularität des schnellen Webservers Nginx führte. Letztlich führte aber natürlich auch kein Weg um eine Neu- bzw. Weiterentwicklung des Standards HTTP herum.  

Dadurch müssen beim «alten» HTTP (1.x) vor jeder Anfrage neue TCP-Verbindungen aufgebaut und nach Übertragung der Antwort vom Webserver wieder geschlossen werden, bei zehn Objekten, die in einem HTML-Dokument eingebettet sind, werden mithin auch elf TCP-Verbindungen benötigt, um die Seite darstellen zu können. HTTP 2 wird einen anderen Weg gehen und ermöglicht das parallele Laden mehrerer Ressourcen über eine einzige TCP-Verbindung.  

Eines der herausragenden Ziele der Entwicklung HTTP 2 ist also die Beschleunigung der Client-Server-Kommunikation. Neben dem parallelen Laden von Objekten soll dies unter anderem durch die Kompression der HTTP-Header-Daten erreicht werden.  

HTTP 2 ist zu seinem Vorgänger abwärtskompatibel, es müssen beispielsweise bestehende Webapplikationen nicht aufwendig umprogrammiert werden. Der Umstieg auf HTTP 2 wird sukzessive erfolgen – und wenn Sie eine Standard-Webseite auf einem eben solchen Standardwebserver betreiben, gibt es derzeit noch keinen überzeugenden Grund, auf den neuen Standard zu wechseln. Achten Sie aber am besten jetzt bereits darauf, dass und ob der Webseitendesigner Ihres Vertrauens HTTP 2 bei zukünftig anstehenden Aktualisierungen oder Neuentwicklungen berücksichtigt.

Links

www.rfc-base.org
www.entwickler.de
Kai Spichale: «Höhenflug des Turbo-Web»; Linux-Magazin 10/15. S. 76 - 79

MaLiWi IT

Produkt-Empfehlungen

  • InformatikPraxis

    InformatikPraxis

    DIE ultimative Praxislösung für IT-Entscheider!

    ab CHF 168.00

  • 10 Schritte zur Top-10-Platzierung in Suchmaschinen

    10 Schritte zur Top-10-Platzierung in Suchmaschinen

    Ihr Weg in die Top-10 der Suchmaschinen

    Mehr Infos

  • Cloud-Computing

    Cloud-Computing

    Erfahren Sie welchen Nutzen Cloud-Computing Ihnen und Ihrem Unternehmen bringen kann.

    Mehr Infos

Seminar-Empfehlung

Praxis-Seminar, 1 Tag, ZWB, Zürich

IT-Verträge entwerfen und verhandeln

Rechtssicherheit bei IT-Projekten, Outsourcing und Cloud Computing

Nächster Termin: 22. November 2018

mehr Infos

Um unsere Website laufend zu verbessern, verwenden wir Cookies. Durch die Nutzung dieser Website stimmen Sie der Verwendung von Cookies zu. Mehr Infos