Zehn Jahre später

Überlegungen zum Internet in Zehnjahresschritten

Eduard Heindl Tübingen 2004 für die Festschrift 10 Jahre SPIQ

 

1995, niemand, außer einige IT Profis und Studenten, kennt das Internet. Für mich als Student eine klare Mission, Internetdienste, insbesondere Webseiten zu verkaufen. Hier soll aber nicht über die Probleme berichtet werden, wie man Webseiten verkauft, wenn niemand weiß, was eine Website ist und BTX noch in frischer, unerfreulicher Erinnerung ist.

 

Als studentisches Hightech Unternehmen hatten wir das brandneue Betriebssystem Windows 95, das es sogar auf die Titelseite der New York Times gebracht hatte. Ein Betriebssystem, das optimal mit dem Microsoft-Network kooperierte, aber kaum etwas von Internet gehört hatte. Unsere kleine Aufgabe bei der Gründung des Internetunternehmens war es, das lokale Netz über eine ISDN Karte an den nächsten Provider mit einer Wählleitung anzubinden.

 

Alle erdenklichen Fehler wurden gemacht, aber erschwerend kam hinzu, dass die Norm ISDN jenseits des Atlantiks damals praktisch unbekannt war. Es galt also Treiber im Netz zu finden, ohne Internetzugang nicht einfach, also Modem, Suchen ohne Google, und wieder alles umstöpseln. Es zeigte sich nach mehreren Nächten, die wir zusammen unter dem Schreibtisch und mit wunden Fingern am PC Gehäuse verbracht hatten, dass das superschnelle ISDN Internet der Telekom noch nicht sonderlich endkundenfreundlich war.

 

Klar, Pioniere zahlen einen hohen Preis, in wenigen Monaten oder doch in ein bis in zwei Jahren wird es solche Probleme nicht mehr geben.

 

Die ganze Geschichte wäre nicht so spannend, wenn ich nicht im August 2004, fast genau das gleiche erlebt hätte. Inzwischen hat man im Wohnzimmer DSL, an der Wand hängt eine Batterie verschiedener Telekom-Installationen, der Rechner ist ein Laptop mit soviel Hauptspeicher wie dereinst Plattenplatz im Unternehmen vorhanden war. Der WLAN-Router hat sich, wenige Tage nach Ablauf der Garantiezeit wirklich am einem Freitag den 13., verabschiedet. Zunächst unauffällig, eine übliche Verbindungsstörung, aber dann doch hartnäckig.

 

Aber es gibt inzwischen Supermärkte nur für Elektronik, eine langes Regal nur mit Funktechnik, Bluetooth, WLAN mit den verschiedensten Geschwindigkeiten. Aus der Vergangenheit habe ich gelernt, am besten ein etwas weniger leading edge Produkt zu erwerben. Zuhause ausgepackt, gleiches Fabrikat, aber weniger als halb so groß als das alte, lang gediente Gerät. Wenige Seiten Manual, diese allerdings in zehn Sprachen. Nach kurzer Zeit ist auch eine Verbindung über LAN Kabel zum Internet aufgebaut, die Signalstärke zum WLAN steht, aber an einer kleinen Stelle hackt es. Nach fünf Stunden steht der Beschluss, dass morgen der Sohn des Nachbarn dieses residierende Problem lösen soll. Dieser, schwer Motiviert dem IT Professor zu zeigen, was eine Harke ist, arbeitet sich tief in die Einstellungen.

 

Verschiedenste Sicherheitsprotokolle, die für WLAN sehr angesagt sind, werden um, ein und Auskonfiguriert, mehrere DSL Verbindungen auf und abgebaut. Inzwischen steht sogar das „Rechenzentrum“ des IT Jünglings im Wohnzimmer, unendliche Ressourcen an Tools, Newsgroups, Googlefundstellen und Patches sind Bereit die Kommunikation zu erleichtern. Tief in der dritten Nacht ohne WLAN, wird das Unternehmen abgebrochen und am nächsten Tag ein neuer WLAN Router gekauft. Der Händler meint, unser Gerät, das er problemlos zurücknimmt, mache manchmal etwas Probleme.

 

Neue WLAN Power, deutsche Nutzerführung, Empfehlungen verschiedenster Institutionen der IT Welt lassen uns zuversichtlich die Installation beginnen und tatsächlich, wenige Stunden später hat der erste Laptop WLAN Zugang, der andere Laptop braucht einige Zeit länger aber nach etwa fünfzehn Arbeitsstunden ist die Onlinewelt wieder heil.

 

Wo liegt das Problem? Computer können immer noch nicht kommunizieren!

 

Ein fundamentales Problem der modernen IT Welt ist das selbstständige Kommunizieren zwischen den unterschiedlichsten Komponenten der digitalen Welt. Solange der Nutzer oder dessen Administrator, die tiefen der Schichtmodelle und Schnittstellen verstehen muss um alltägliche Verbindungen herzustellen, ist das Austauschen von Informationen über Netzwerke frustrierend und unproduktiv. Zum anderen stellt sich die Frage, wie es möglich ist, dass ein bestimmter Schaltkreis im Rechner durchschnittlich bis zum Ende aller Tage keinen Fehler macht, aber ein scheinbar simples System wie in diesem Fall der WLAN Router nicht in der Lage ist mit 99,999 Prozent Zuverlässigkeit seine Aufgaben zu erledigen.

 

Sicherlich gibt es Systeme, die dazu in der Lage sind, aber nicht zu Preisen, die dem Endverbraucher, und das ist heute der normale Nutzer, finanzieren kann. Das große Ziel der Entwicklung im Bereich der EDV muss lauten: Selbstständig, ohne Hintergrundwissen des  Anwenders zu arbeiten und gleichzeitig derart zuverlässig sein, dass ein Ausfall eher eine Sensation als eine Regel darstellt.

Um dieses Ziel zu erreichen, benötigen wir Systeme, die nicht Hilfefunktionen in Megabyte großen Dateien abspeichern, sondern Systeme, die selbstständig Probleme beheben. Probleme, die mit der wachsenden Komplexität selbst für professionelle Administratoren unüberschaubar werden. Dazu wird es notwendig, das EDV Wissen der Experten zu digitalisieren und über genormte Schnittstellen an die Systeme anzubinden. So wie heute die Stromversorgung an den Rechner mit einem simplen Stecker angebunden wird, so einfach muss jedes System an den elektronischen Experten anschließbar sein.

 

Bewusst beschreibe ich nicht, wie dieses System im Detail realisiert ist, aber es muss realisiert werden. So wie es heute gelungen ist, durch das Eintippen weniger Begriffe in die Suchmaschine Google eine umfassende Zusammenschau zu einem bestimmten Thema zu erhalten, so muss ein universelles Expertensystem auf verteilter Basis im Internet operieren. Jedes Problem das Auftritt geht automatisch an den Hersteller, dieser oder ein entsprechender Serviceanbieter codieren die Lösung. Dabei können die bereits bestehenden Foren im Internet sicher wichtige Hilfe leisten, schön wäre es wenn entsprechende Agenten diese Informationen derart kompilieren, dass es vom virtuellen Experten direkt angesprochen werden kann.

 

Das andere Problem, die Zuverlässigkeit, erfordert Ansätze, die dazu nicht ganz unähnlich sind. Wiederum sollten die Systeme erkennen, wenn sie Probleme haben, diese selbstständig Lösen und, falls erforderlich, den Nutzer klare Hinweise geben, dass es Schwierigkeiten in der Hardware gibt oder besser geben wird, die nur durch äußere Eingriffe zu lösen sind. Jeder Laptop informiert heute rechtzeitig, wenn die Batterie leer wird, warum können das die anderen Elemente nicht auch. Sicherlich ist dazu die Verwendung von Redundanz auch in einfachen Systemen eine Voraussetzung, aber die einzelnen Bauelemente sind heute nicht so teuer, dass dies ein ernsthaftes Problem wäre. Wenn Geräte mit einer entsprechenden Ausfallsicherheit angeboten würden, das bedeutet, der Hersteller garantiert nicht nur eine Reparatur innerhalb der Garantiezeit sondern eine Zuverlässigkeit mit entsprechenden Schadenersatzgarantien für den Fehlerfall, dann kann dafür auch ein entsprechender fairer Preis realisiert werden.

 

Vor zehn Jahren waren viele der Funktionen moderner Systeme aus schlichten technischen Gründen nicht verfügbar, heute sind faszinierende Funktionen verfügbar aber nicht zuverlässig und nicht einfach zu Nutzen, in zehn Jahren werden die gleichen Leistungsmerkmal selbstverständlich sein aber auch die Verfügbarkeit sowohl praktisch als auch technisch garantiert sein.

 

Erst dann gilt: Anywhere, Anytime, Anyone hat Zugang zu Anything. 

   

[zurück]