In der Provider-Landschaft, in der es vor wenigen Jahren gerade eine Handvoll Firmen gab, existieren mittlerweile zahllose Anbieter. Die Geschwindigkeiten, mit der ihre Anschlüsse die gewünschten Daten liefern, unterscheiden sich jedoch genauso, wie ihre Preise. Die Unterscheidung zwischen seriösen Anbietern und jenen, die sich dank der Unkenntnis ihrer Kunden bereichern, fällt dem normalen Anwender schwer. Zu schnell verändert sich der Markt. In kürzester Zeit können Anbieter von einer Top-Position bezüglich ihrer Leistung ins Mittelfeld abrutschen, andere galten vor kurzem noch als Schlußlicht und bieten plötzlich Spitzenleistungen. Der regelmäßige Provider-Wechsel könnte sich daher zur Selbstverständlichkeit entwickeln. Nur wie ist der Provider-Dschungel zu durchschauen? Wer sagt mir, daß die verlockenden Werbebotschaften sich auch bewahrheiten werden, daß das Angebot nicht nur billig ist, sondern der Provider auch soviel leistet, daß es günstig ist?
Wichtiger Bezugspunkt für derlei Informationen sind sicherlich Freunde und Bekannte. Und auch in zahlreichen Newsgroups erhält man hilfreiche Erfahrungsberichte. Einen systematischen Test verschiedener Provider bezüglich ihrer Performance, sprich der Geschwindigkeit, mit der man über ihre Anschlüsse Daten aus dem Internet erhält, führt die Computerzeitschrift c't seit August 1997 monatlich in jeweils einer anderen Stadt durch.
C't führte Tests bezüglich der Performance von Providern bereits früher in unregelmäßigen Abständen durch und verfügt daher schon über einige Erfahrung in diesem Bereich. Entsprechend änderten sich auch die Meßmethoden im Laufe der Zeit. C't nutzt eine selbst entwickelte Software namens 'Net-Speed-Test', die sich eine Woche lang jede Stunde bei jedem Provider einwählt und von verschiedenen WWW-Servern im Internet über HTTP-Get-Requests Daten anfordert. Die aus Perl- und Shell-Scripten bestehende Software protokolliert dabei die Dauer von Nameserver-Anfrage, Verbindungsaufbau und der eigentlichen Datenübertragung. Es kommen mehrere Linux-Rechner parallel zum Einsatz, um wenigstens näherungsweise simultane Zugriffe zu ermöglichen. Beim Test analoger Zugänge werden Courier-Modems von US-Robotics verwendet, bei ISDN-Zugängen werden ELSAs ISDN/TL/pro eingesetzt.
In dem Test soll das Verhalten eines Surfers simuliert werden. Daher sind die angesprochenen Server in drei Kategorien unterteilt: Deutschland, Europa und USA. Die ca. 40 nach Standort und Prominenz handverlesenen Server sollen als Stellvertreter für die wesentlichen Reisepunkte im Internet dienen. Das Verfahren läuft nun wie beim normalen Surfen ab. Der Browser fragt beim Nameserver an, ob der in der URL angegebene Server existiert. Als Antwort erhält er die IP-Adresse des Servers und versucht eine Verbindung herzustellen. Steht die Verbindung, werden die Adresse der gewünschten Seite übermittelt und daraufhin die entsprechenden Daten übertragen. Da Webseiten heute oft über 40 eingebettete Objekte wie GIF-Grafiken enthalten, müßten bei der Abfrage ganzer Seiten erneut Verbindungen vom Browser initiiert werden, da diese Objekte bei HTTP 1.0 nur sukzessive angefordert werden können. Erst die bis heute kaum verbreitete HTTP Version 1.1 enthält Vorkehrungen, mit denen sich der mehrmalige Verbindungsaufbau vermeiden läßt. Die Testsoftware arbeitet daher mit einer Vereinfachung. Es werden keine ganzen Seiten, sondern lediglich eine große komprimierte GIF- oder JPEG-Datei angefordert. Die damit gemessenen Datenraten entsprechen somit also nicht dem heutigen reinen Surf-Betrieb, sondern eher einer ftp-Sitzung. Beim normalen Surfen dürfen sie hingegen erst nach Einführung von HTTP 1.1 bei Server und Browser erwartet werden.
Für jeden Provider werden sowohl für den analogen wie auch für den ISDN-Zugang in jeder der drei Kategorien Deutschland, Europa, USA zwei Werte ermittelt. Der Gesamtmittelwert soll die zu erwartende kontinuierliche Leistung eines Zugangs widerspiegeln, während der Mittelwert aus jeweils den drei besten Tageswerten die Spannweite nach oben zeigen soll. Dabei werden auch schlechte Verbindungen mit Timeouts eingerechnet, jedoch keine fehlgeschlagene Verbindungen, etwa wegen Nichterreichbarkeit oder Unpäßlichkeit eines Servers.
Im Vergleich zu früheren Test wurde das Verfahren bereits deutlich verbessert. Ursprünglich war zum Beispiel nur ein einziger Linux-Recher im Einsatz und noch im November 1996 waren es gerade zwei. Doch auch heute kann noch nicht von einem simultanen Zugriff gesprochen werden. Ebenso wurden früher 30 Sekunden fix vorgegeben und die dabei eingegangene Datenrate erfaßt, was weder dem Verhalten eines Nutzers entsprach, noch bei Timeouts zu repräsentativen Werten führte. Heute wird die Zeit zur Datenübertragung der gesamten Datei gemessen. Hauptkritikpunkt ist nach wie vor die viel zu kurzfristige Betrachtungsweise. Zum einen ist eine Testphase von nur einer Woche sehr gering, wenn man bedenkt, daß auch einmal Störungen oder Reparaturen an einem PoP die Leistung schmälern können, oder vielleicht eine zufällig hohe Inanspruchnahme erfolgen kann. Zum anderen müßte aufgrund der schnellen Veränderungen immer wieder getestet werden, was c't jetzt zwar macht, aber eben jedesmal an einem anderen Ort. Schließlich sind die regionalen Unterschiede so groß, daß die Tests für Nutzer außerhalb der Testregion einen eher geringen Aussagewert haben.