Dieser Text ist vollständig in „Telekommunikation 2001, Das Jahrbuch für Unternehmens-Management“ erschienen

Das Medium Internet

Internet, Wege der Kommunikation

Die Menschheit hat sich von Anbeginn durch erfolgreiche Kommunikation von ihren Mitbewerbern abgehoben. Dabei wurde sicher immer mehr gesprochen, als scheinbar für die pure Übermittlung von Nachrichten  erforderlich war, das gesamte Sozialgefüge beruht zu einem großen Teil auf diesem „additiven“ Teil der Nachrichtenübermittlung. Wir verstehen auch heute noch nicht vollständig alle Details der sprachlichen Übermittlung, und trotzdem können wir uns innerhalb der verschiedenen Bedeutungsebenen mit großer Sicherheit verständigen. Es ist geradezu das Geheimnis der gesellschaftlich Bedeutenden, auf allen Ebenen intuitiv die richtigen Worte zu finden und die Konnotation richtig zu setzen.

Zufällig fällt nun der Beginn des neuen Milleniums mit der Etablierung eines neuartigen Kommunikationsmittels zusammen, damit steht jeder vor der Aufgabe, sich auch dort systemgerecht mitzuteilen und die Signale aus dem Netz richtig zu verstehen. Damit dies etwas leichter fällt, sollen hier einige Aspekte des Internets beleuchtet werden und Hintergründe des Mitteilungssystems betrachtet werden.  

Die Richtung der Mitteilung

Auch ohne den Einsatz technischer Methoden findet Kommunikation auf höchst unterschiedliche Weise statt. Jeder, der einem Redner gebannt folgt, hat dabei ein völlig anderes Erleben als in einem Zwiegespräch von Verliebten. Eine wissenschaftlichen Diskurs unterscheidet sich hoffentlich von einer Diskussion am Stammtisch und ein Hilferuf hört sich anders an als eine Laudatio. Neben dem instinktiv gewählten Ton unterscheiden sich die Formen der Kommunikation aber auch durch die Zahl der Beteiligten und die Richtung des Informationstransports. Solange aber keine technischen Hilfsmittel dazukommen, gibt es zumindest theoretisch immer Rückkanäle, und die Zahl der Beteiligten ist auf die begrenzte Zahl der Anwesenden beschränkt. Dies hat sich durch die Einführung von technischen Hilfsmitteln, beginnend mit der Schrift, prinzipiell geändert. Daher soll zunächst der Blick auf die verschiedenen bekannten Techniken und ihre Entsprechung im Internet gerichtet werden, Abbildung 1.

Eins-zu-eins Kommunikation

Damit Kommunikation möglich wird, sind mindestens zwei Teilnehmer erforderlich, einen Extremfall stellt des Tagebuchs dar, die Kommunikation des Schreibers mit seinem zukünftigen Ich.

Die Form des Gesprächs zwischen zwei Menschen war es auch, die erstmals eine elektronische Umsetzung in Form des Telefons erfuhr. Bemerkenswert ist, daß diesem Medium zunächst kein großer Erfolg vorausgesagt wurde, was vor allem an technischen Mängeln und an der geringen Teilnehmerzahl lag. Es gab zunächst schlicht niemanden, den man anrufen konnte und es gab keinen Grund, jemanden anzurufen. Alle mit denen man normalerweise sprach, waren ja aus dem näheren Umfeld und diesem konnte man sich viel besser in einem Gespräch unter vier Augen mitteilen. Erst die räumliche Mobilität zog dann „sinnvolle“ Ferngespräche nach sich, ein Phänomen, das uns auch bei der Bedeutung des Internets beschäftigen wird.

Das Gespräch zwischen zwei Menschen unterliegt einer komplexen Dynamik. Wann läßt man den Anderen zu Wort kommen? Wie hört man zu und was teilt uns das Gesprächsumfeld mit? Dennis Morris spricht in diesem Zusammenhang von der Symmetrie der Gesprächsteilnehmer. Bis hin zu gleich vollen Trinkgläsern versucht jeder, den Anderen unbewußt seine Sympathie oder auch Antipathie mitzuteilen. Das Telefon ist dabei ein spartanisches Abbild, und es bedarf viel Erfahrung mit dem Medium, es erfolgreich einzusetzen, die Botschaften richtig zu übermitteln. Bei regelmäßiger Benutzung des Mediums wird es schnell Teil des Alltags. Der Versuch, sich auf den Gesprächspartner einzustellen, führt aber zu neuen, unkonventionellen Sprach- und Verhaltensformen, die nicht zuletzt bei den unbeteiligten Zuhörern Unbehagen hervorrufen. Dies ist besonders bei der Benutzung des Mobiltelefons so offensichtlich, daß es an Plätzen intensiver Gespräche, wie in Restaurants, häufig nur eingeschränkt zugelassen wird.

Will man die Bedeutung des Telefons verstehen, ist es also weniger wichtig, sich mit den Details der technischen Realisierung zu beschäftigen als vielmehr mit der Situation der Kommunizierenden und den vorhandenen oder fehlenden Elementen der Mitteilung. Es wäre sicher reizvoll, diese Problematik hier weiter zu verfolgen, führt aber vom Thema dieses Aufsatzes weg.

 

<kommunikation.bmp>

Abbildung 1: Jede bisherige technische Umsetzung von menschlicher Kommunikation hatte eine bevorzugte Sender - Empfänger Struktur. Das Internet kann alle Kombinationen von Sender und Empfängerzahl befriedigend abdecken.

Ein Sender erreicht viele

Wie man sich in Hinblick auf die zukünftige Anwendung eines Mediums irren kann, zeigt das nächste Medium, das Radio. Zunächst wurde die notwendige Funktechnik als ein nützliches Verfahren betrachtet, damit sich zwei Personen über große Entfernungen austauschen können. Obgleich es heute wieder aktuell ist, die Funktechnik im Handy für die eins-zu-eins Kommunikation zu nutzen. Das Handy verbindet hohe Mobilität und Erreichbarkeit, aber nur durch einen hohen technischen Aufwand, der mit analoger Funktechnik nie möglich gewesen wäre. Die Funktechnik war zuerst nicht für den Zweck der Massenkommunikation gedacht. Diese Rolle hatte erstaunlicherweise der Drahtfunk bereits inne, wie etwa in Budapest, wo um die Jahrhundertwende Konzerte über Telefon verfolgt werden konnten.

Mit dem Durchbruch der elektronischen Verstärkung und der Verbreitung von Endgeräten, die 1923 schneller erfolgte als die Zahl der Internetteilnehmer je wuchs,  entstand ein asymmetrisches Massenmedium.

Einer spricht und alle hören zu. Und zunächst glaubten auch alle, was sie hörten. Es mangelt an dem notwendigen Kontext und geeigneten Rückkanälen, die bis dahin bei der ursprünglichen Form, der Rede, immer vorhanden waren. Weder Applaus noch Unwillensbekundungen der abwesenden Zuhörer, die bei einer realen Rede notwendig dazugehören, wurden übertragen. Man konnte nicht wahrnehmen, wie groß das Auditorium ist, noch konnte man es direkt ansprechen. Möglicherweise ist dieses extrem schnell gewachsene Medium auch Mitursache der Jahrhundertkatastrophe totalitärer Systeme.

Die Erweiterung der Medienlandschaft durch das Fernsehen hat die Situation durch eine Verbreiterung der Kommunikationskanäle entschärft. Und vielleicht sogar die Verbreitung der modernen demokratischen Gesellschaft beschleunigt. Es ist möglich, dem Sprecher in die Augen zu sehen, das Setting wahrzunehmen und mit der kritischen Distanz, die aus der vorherigen Gewöhnung an das Radio entstanden ist, besser zu beurteilen.

Beide Medien haben zu völlig neuen Kunstformen der Mitteilung geführt und während ihrer Existenz einen grundlegenden Wandel durchschritten. Niemand sah das Autoradio als akustisches Hintergrundgemälde vorher, und keiner hat die Daily Soap oder Talkrunden als typische Fernsehunterhaltung mit Werbeunterbrechung und Produktplacement prophezeit.

Medien entwickeln ihre Inhalte aus ihren Defiziten und den Urinteressen der Menschen nach Unterhaltung und Geborgenheit in ihrer vertrauten Umgebung. 

Alle sprechen mit allen, wer wird gehört?

Das Internet mit seiner ungeheuren Dynamik bringt eine weitere Form der Kommunikation. Es gilt nicht mehr das Gesetz des Redakteurs, jeder kann einem beliebig großem Publikum alles anbieten. Davonies wird im Internet reger Gebrauch gemacht, so daß es immer mehr Dokumente als Leser im Internet gab. Noch werden aber fast alle Dokumente früher oder später wahrgenommen, da jeder Benutzer mehr als nur ein Dokument aufruft. Dies wird sich aber mit der Zeit ändern, da die Zahl der Dokumente kontinuierlich zunimmt und nur ein kleiner Teil der Dokumente endgültig aus dem Netz verschwindet. Diese Entwicklung führt auf Dauer zu vielen Dokumenten, die niemand jemals wahrnimmt, insbesondere wenn man bedenkt, daß bereits heute ein Großteil der Dokumente halbautomatisch als Auszug aus einer Datenbank entsteht.

 

<audience.bmp>

Abbildung 2: Wenige Suchmaschinen und Verzeichnisse bestimmen für die Internetnutzer welche Dokumente Sie im Netz finden. Unter den Top 5 ist kein deutsches System.

 

Durch diese Flut an Äußerungen erscheinen Retrievaltechniken weiter an Bedeutung zu gewinnen. Eine Tatsache, die vor allem in den USA intensiv wahrgenommen wird. Alle bedeutenden Suchsysteme wurden dort entwickelt und arbeiten dort auf entsprechend leistungsfähigen Rechnern, Abbildung 2. So kann die Suchmaschine „Altavista“, entwickelt von Digital Equipment (www.altavista.com), bis zu 300.000 Suchanfragen pro Sekunde abarbeiten. Die meistbesuchte Website, „Yahoo.com“, liefert den Internetnutzern redaktionell sortierte Information. Damit wird nicht mehr direkt wahrgenommen, was im Netz steht, sondern was von den Maschinen und somit letztendlich von diesen Unternehmen für das Publikum bereitgehalten wird.

Die Weiterentwicklung der Systeme erfolgt dabei immer mit dem Blick auf ein breites Publikum, womit eine Verschiebung zu populären Inhalten entsteht, eine Beobachtung, die aus den klassischen Medien bekannt ist. Inwieweit es durch geeignete Mechanismen möglich wird, diesen Trend zu beeinflussen sei dahingestellt, hier wäre eine exakte wissenschaftliche Analyse notwendig.

Zwei Netze: Technik und Content im Web

Internet und World Wide Web werden zumeist als Synonym benutzt, was für die Alltagssprache sicherlich zulässig ist, für das Verstehen der Mechanismen aber Probleme aufwirft. Daher sollen jetzt die beiden, im Prinzip völlig getrennten Netze, näher betrachtet werden, um Missverständnissen vorzubeugen.

Das Internet als technisches Netzwerk

Das Internet im engen Sinn ist ein Computernetz mit einem einheitlichem technisches Transportprotokoll. Das zugrundeliegende TCP/IP wurde bewußt so angelegt, daß es durch hohe Redundanz gegen Störungen von außen relativ immun ist, es sollte in seiner ursprünglichen Form die zuverlässige Kommunikation der amerikanischen Militärs in einem Nuklearkrieg ermöglichen. Deshalb hat das Internet eine Netzstruktur: Fällt eine Datenleitung oder ein Netzknoten aus, werden die Informationen einfach über die noch verbleibenden Leitungen versendet. Diese Topologie, die in deutlichem Gegensatz zu sternförmigen Systemen steht, hat sich auch im Normalbetrieb hervorragend bewährt, da sie die Systemverfügbarkeit auch bei den technisch üblichen Systemausfällen sehr hoch hält. In den letzten Jahren kam es daher nie zu einem Totalausfall des Internets, ein Ereignis, das inzwischen schwere wirtschaftliche Schäden nach sich ziehen würde.

Leider ist die Netzstruktur in Deutschland aber nur theoretisch realisiert. In der Praxis werden nahezu alle Daten, die in Deutschland das Computernetz der verschiedenen Betreiber wechseln müssen, am zentralen Umschaltknoten des CIX in Frankfurt ausgetauscht. Dies mag für Nachrichtendienste sehr nützlich sein, gefährdet aber auf Dauer die Systemverfügbarkeit des Internets in Deutschland.

Der Netzwerkcharakter ist in den USA wesentlich besser verwirklicht, weil einerseits die einzelnen Betreiber der Telekommunikations-Infrastruktur weitgehend unabhängige Datenleitungen und Funkverbindungen besitzen, die sich über das ganze Land erstrecken, aber auch weil die Größe des Landes aus ökonomischen Gründen viele einzelne Umschaltpunkte fordert.

Das WWW als Informationsnetz

Zu Beginn der 50er Jahre hat Vanden Busch die Idee des Hypertexts entwickelt. Unter einem Hypertext versteht er dabei ein Dokument, in dem man Zitate direkt aus dem Usprungsdokument über einen technischen Mechanismus aus ihrer Quelle abrufen kann. In der Frühphase der Computerentwicklung war natürlich nicht an eine elektronische Umsetzung zu denken, man glaubte das Problem mit Mikrofilmen und geschickter Mechanik lösen zu können, was illusionär war. Erst die Entwicklung leistungsfähiger digitaler Speichermedien erlaubte es, einen so großen Satz an Dokumenten auf einer Maschine bereitzuhalten, daß sich die Verknüpfung durch Hypertexte, wie sie zuerst in Hilfesystemen eingesetzt wurden, lohnt.

Die grundlegende Beschränkung liegt hier aber immer in der Größe des vorhandenen Hauptspeichers und in der Verfügbarkeit der zu verlinkenden Quellen.

Hyperlinksysteme

Viele Quellen unterliegen normalerweise dem Copyright und können nicht mit dem Hauptdokument an die Endnutzer geliefert werden. Die Folge war, daß Hypertextsysteme in den achtziger Jahren, obwohl bereits eine gute Verfügbarkeit von Speichersystemen existierte (CD-ROM), eine Ausnahme blieben.

Erstaunlicherweise wurde der Internetdienst World Wide Web aber nicht aus dieser Motivation heraus geboren, sondern aus der Problematik, unüberschaubare Datenmengen in Großforschungsprojekten, speziell dem CERN-Beschleunigerlabor, leichter zugänglich zu machen. Es existierten hier bereits viele hochwertige Dokumente und Datenbestände innerhalb der vernetzten Workstations, der erfolgreiche Zugriff war jedoch durch unangepaßte Protokolle nicht gewährleistet. Tim Berner-Lee erkannte diese Problematik und schlug den Ausweg vor, ein Hypertext-System zur Verknüpfung der Dokumente zu entwickeln. Er realisierte zusammen mit Marc Anderson die ersten Prototyp-Systeme. Damit wurden logische Beziehungen zwischen vorhandenen Dokumenten aufgebaut, dies stellt ein Informationsnetz dar. Die Knoten des Netzes sind dabei die einzelnen Dokumente, die vielfältigen Verbindungen zwischen den Knoten werden durch Hyperlinks, anklickbare Worte, die das referierte Dokument liefern, verwirklicht.

Im Modell des World Wide Webs sind diese Verbindungen aus technischen Gründen asymmetrisch, das bedeutet, der Hyperlink eines Dokuments weist auf das Zieldokument, die umgekehrte Richtung eine Rückwärtsverfolgung vom Zieldokument auf das referenzierende Dokument, ist jedoch normalerweise nicht möglich. Dies führt in der Praxis zu erheblichen Schwierigkeiten bei der Erstellung konsistenter Hypertextsysteme im World Wide Web, da niemand direkt erschließen kann, wer auf sein Dokument deutet, andererseits die Entfernung eines Dokuments hunderte, sogar tausende fehlerhafter Verknüpfungen verursachen kann.

Bedeutung der Hyperlinks

Die Bedeutung der Links liegt aber nicht nur in der logischen Verknüpfung, sondern sie führt ganz ähnlich wie im wissenschaftlichen Zitat-Index auf die Bedeutung eines Dokuments. Steht ein Dokument völlig isoliert oder deuten nur wenige Links dorthin, ist das Dokument zumeist unbedeutend. Ähnlich wie bei wissenschaftlichen Fachartikeln, werden bei wichtigen Webseiten viele Autoren diese Information in ihre eigenen Webseiten zitieren und eine entsprechende Verknüpfung dorthin legen.

Im Gegensatz zu wissenschaftlichen Artikeln ist die Verknüpfungsstruktur im WWW jedoch anders. Bestehen im ersten Fall die Dokumente aus einem Inhalt und einem anschließenden mehr oder weniger umfangreichen Literaturverzeichnis, so trennen sich diese Komponenten häufig im Web. Dies führt zu sogenannten Linklisten, auf denen, meist gut sortiert, thematisch verwandte Dokumente verlinkt sind. Daneben gibt es Dokumente, in denen Wissen ausführlich beschrieben wird, sogenannte Content-Dokumente, die aber nicht zwangsläufig eine längere Literaturliste haben müssen.

Für den Besucher im WWW ist diese Struktur zunächst sehr verwirrend, da zudem viele, sehr unterschiedlich qualifizierte Autoren sowohl Linklisten als auch Content-Dokumente erstellen. Den Ausweg bieten Suchsysteme, die in diesem Netzwerk der verlinkten Dokumente nach inhaltlicher Relevanz suchen, dabei nutzen Retrieval-Systeme der zweiten Generation die Linkstruktur des WWW.

Suchsysteme

Da im WWW bei der Erstellung von Content-Dokumenten und Linklisten keinerlei Koordination zwischen den Kommunizierenden stattfindet, müssen die Informationen nachträglich für die Besucher zugänglich gemacht werden. Es gibt dabei mehrere für die jeweilige Fragestellung interessante Ansätze. Den größten Erfolg verbucht zur Zeit ein Suchsystem, das sich auf die redaktionelle Analyse des Inhalts verläßt und die Informationen in etwa 20 000 Kategorien eingliedert. Dieses „Inhaltsverzeichnis des Internets“ ist unter dem Namen Yahoo bekannt. Andere Unternehmen haben ähnliche Ansätze: teilweise auf bestimmte Länder, Sprachräume oder Themen begrenzt realisiert, allerdings mit geringerem Erfolg, da ihnen die Universalität und die notwendigen Mittel fehlen. Die Benutzer sind nämlich erstaunlich sensibel für die Qualität der Informationsaufbereitung. Gelingt es einem Unternehmen nicht, alle wesentlichen Quellen zu erschließen und korrekt zu kategorisieren, bemerken dies die Nutzer relativ bald und bleiben den entsprechenden Systemen fern. Weniger Besucher bedeuten weniger Werbeeinnahmen, damit stehen geringere Mittel für die personalintensive Erschließung zur Verfügung, womit sich die Verzeichnisstruktur weiter verschlechtert und eine rasche Abwärtsspirale in die Bedeutungslosigkeit eingeleitet wird. Ein Phänomen, das im Internet an verschiedenen Stellen zu beobachten ist.

Suchmaschinen

Eine Alternative zur redaktionellen Sortierung der Inhalte besteht in der automatisierten Erfassung der Dokumente durch „Webcrawler“, Maschinen, die das Internet Seite für Seite, den Links folgend, durchlesen und in einer Datenbank ablegen. Obwohl der Aufwand für die vollständige Erfassung des Internets erheblich ist, kann dies durch vollautomatische Systeme innerhalb weniger Tage durchgeführt werden, Abbildung 3. Die Kosten dieser Aktion sind fest.

In einem zweiten Schritt kann diese Datenbank von Nutzern im Internet abgerufen werden, dabei geschieht die Abfrage zumeist durch unstrukturierte Eingabe weniger Stichworte. Die Aufgabe der Retrieval-Software liegt in der optimalen Platzierung der gewünschten Suchergebnisse in einer kurzen Liste. Gelingt es hier, den Suchenden das wichtigste Dokument an erster Stelle zu liefern, wird das Suchsystem sicher viele Nutzer finden und durch die begleitende Werbung auch wirtschaftlich erfolgreich sein.

 

<die suchmaschine.bmp>

Abbildung 3: Suchmaschinen erfassen den Inhalt der Webseiten, indem sie systematisch allen Links im Internet folgen und die gefundenen Dokumente im Volltext erfassen. Der Datenbestand wird dann in einer über den Browser abfragbaren Form jedem kostenlos zur Verfügung gestellt.

 

Für die Platzierung der relevanten Dokumente wurde in der ersten Generation der Suchsysteme sehr auf den tatsächlichen Inhalt des Dokuments geachtet, insbesondere auf das Vorkommen häufiger Stichworte, bestimmter Überschriften oder die Dokumentgröße. Da es für den geübten Internetautor aus der Werbewirtschaft relativ einfach ist, dieses Schema zu durchschauen, erscheinen häufig speziell optimierte Dokumente, die inhaltlich jedoch nicht überzeugen können, auf den vorderen Plätzen.

An dieser Stelle setzen nun die modernen Verfahren der Relevanzmessung an, welche die Publikumserfolge der Dokumente mit berücksichtigen. Als Maßzahl eignen sich dabei vor allem die referierenden Links auf ein Webdokument, da diese einerseits von Webautoren mit gewisser Sorgfalt erstellt wurden, andererseits aber auch bereits automatisch im ersten Schritt der Datenerfassung durch die Suchmaschine aufgezeichnet werden können. Ein System, das sehr intensiv auf diese Analyse setzt, ist www.google.com. Dort werden die Links durch ein mathematisch und rechnerisch sehr aufwendiges Verfahren analysiert, das den Suchenden aber auch sehr hochwertige Informationen liefert.

Andere Ansätze liegen in der Auswertung der Popularität der Seiten beim Publikum. Hier wird erfaßt, wie häufig ein bestimmtes Dokument aufgerufen wird. Obwohl dies sehr demokratisch ist, kann es nur zu begrenztem Erfolg führen. Das liegt an den erheblichen Problemen bei der Erfassung der Rohdaten: Es ist nahezu unmöglich, einen repräsentativen Querschnitt der Webseitenbenutzung zu erhalten, da die durchschnittliche Webseite nur sehr wenig Besucher pro Tag hat und nur ein kleiner Prozentsatz der Besucher statistisch erfaßt werden kann. Die Problematik der Websites ähnelt den Spartenkanälen im Fernsehen, deren Marktbedeutung auch schwer zu erfassen ist. Weiterhin haben selbstverständlich auch neue, hochwertige Dokumente zunächst wenig Besucher, da sie weder gut verlinkt sind noch häufig gefunden werden.

Ein Beispiel für ein relativ erfolgreiches Erfassungskonzept liegt bei dem Unternehmen www.alexa.com vor, das bei vielen Webbrowsern das Nutzerverhalten aufzeichnet und dabei, zumindest im amerikanischen Sprachraum, statistisch aussagekräftige Ergebnisse liefert, mit deren Hilfe Benutzer über ähnliche Webseiten informiert werden.

Ergänzung oder Grund

Hypertextsysteme sind nicht auf das Internet beschränkt und das Internet funktionierte über zwanzig Jahre ohne Hypertextsysteme. Trotzdem soll hier betrachtet werden, ob es einen tieferen Grund für den phänomenalen Erfolg des Hypertextsystems www in der Netzstruktur des Internets gibt.

Hypertextsysteme, die von einem Autor oder einer kleinen Gruppe von Autoren erstellt werden, sind naturgemäß im Umfang ihrer Dokumente sehr beschränkt. Eine einfache Betrachtung verdeutlicht diese Problematik: Sind auf der ersten Seite nur zehn Hyperlinks und auf den folgenden Dokumenten ebenfalls so viele, so besteht die zweite Generation an Dokumenten - man muß zweimal klicken um sie zu erreichen - aus hundert Seiten.

Die vierte Generation besteht dann aus zehntausend Seiten, ein Umfang, der nur von wenigen Enzyklopädien erreicht wird.

Dieses Dilemma läßt sich nur vermeiden, wenn die Zahl der Autoren extrem erweitert wird und die Zahl der Rechnerressourcen analog wächst. Es spricht daher sehr viel für ein Informationssystem, das durch ein Netzwerk verknüpft ist. Zusätzlich ist auch das Abrufen der Dokumente aus einem sehr großen Hypertextsystem nur durch verteilte Rechnerkapazitäten einfach zu bewerkstelligen. Es ist allerdings im Lauf des letzten Jahrzehnts gelungen, die Leistungen der einzelnen Rechner derart in die Höhe zu treiben, daß es auch möglich wäre, das gesamte www von einem zentralen Server aus zu bedienen. Dies wird in der Realität in Teilaspekten auch so praktiziert, so bedient die Suchmaschine Altavista ca. 30% der globalen Stichwortabfragen oder archiviert das System www.alexa.com nahezu alle Webseiten in einem zwanzig Terabyte großen elektronischen Speichersystem.

Das Netzwerk ist eher durch seine Offenheit und hohe Redundanz für das globale Hypertextsystem von Vorteil, neue Ideen und Formate können an relativ kleinen Webservern realisiert und im praktischen Einsatz erprobt werden. Das Vorgängersystem Btx kannte diesen einfachen Zugang nicht, alle Daten wurden auf einem zentralen Server gehalten und verteilt. Die Folge war, daß die Informationen zwar sehr stabil in Inhalt und Form waren, aber kaum weiterentwickelt wurden.

Vermutlich sind für die rasche Verbreitung des www zwei weitere Faktoren von ausschlaggebender Bedeutung. Dies ist einerseits die Verfügbarkeit von schnellen, netzwerk- und grafikfähigen Endgeräten und zum anderen die Verfügbarkeit grafischer Ausgabegeräte, Monitore, Flachdisplays, die das Lesen am Bildschirm erträglich machen.

Das Gesetz des großen Netzes

Der Nutzen von Computernetzwerken wächst mit ihrer Größe, siehe Abbildung 4, sehr rasch. Der Erfinder des Ethernets, Robert M. Metcalfe, geht davon aus, daß der Nutzen eines Netzwerkes quadratisch mit der Anzahl der angeschlossenen Computer und Endgeräte wächst. Dieses Gesetz gilt sicherlich auch für das Internet. Zudem erklärt diese Regel auch, warum sich nur ein Computernetz weltweit durchsetzen konnte, da durch die quadratische Zunahme des Nutzens ein nichtlineares Hervorheben des größten verfügbaren Netzwerkes entsteht. Obwohl zu Beginn der 90er Jahre mehrere ähnlich große, properitäre Netzwerke wie das Netz von AOL, Compuserve, T-Online, Microsoft Network existierten, hatten diese kaum eine Chance, mit dem zu diesem Zeitpunkt bereits weit verbreitetem Internet zu konkurrieren.

 

<anzahlrechner.bmp>

Abbildung 4: Seit 1980 wächst die Zahl der Rechner im Internet exponentiell an, was überraschend ist, da sich seit dieser Zeit das Internet mehrmals grundlegend gewandelt hat.

 

Im Internet gibt es den Dienst des www als Hypertextsystem und dieses besteht in Analogie zu einem Computernetz aus verknüpften Dokumenten. Gilt auch für das www das „Metcalfe Law“, d.h. eine Verdoppelung der Dokumente im www vervierfacht seinen Nutzen, so ist leicht verständlich, daß sich ebenfalls sehr rasch ein spezielles Hypertextsystem durchgesetzt hat. Konkurrierende Systeme wie Gopher, Newsgroups und Wais, die zu Beginn der 90er Jahre erheblich mehr Bedeutung hatten, sind, bis auf die Newsgroups, nahezu verschwunden. Berücksichtigt man zudem, daß beide Netzwerksysteme voneinander abhängen - zur großen Zahl der Dokumente kommt die große Zahl der Netzwerkteilnehmer als Leser und Nutzer der Dokumente - so wächst das Internetsystem mit der vierten Potenz seiner Knoten.

Somit führt das rasche Wachstum des www zu einem weit überproportionalen Wachstum seiner Brauchbarkeit und damit wirtschaftlichen Bedeutung für den Anwender. Diese Tatsache wird leicht übersehen, wenn man „nur“ die absoluten Zahlen des Internetwachstums betrachtet. Die Verdopplung der Teilnehmerzahl, Webseitenzahl, Serverzahl, Anbieterzahl innerhalb von ca. 18 Monaten führt nämlich auf eine Versechzehnfachung der Bedeutung. Neben dem bereits jetzt zu beobachtenden raschen Wachstum kommt möglicherweise noch ein weiterer Faktor hinzu, der die Intensität der Netznutzung beschreibt. Jeder Anwender durchläuft etwa drei Phasen der Internetnutzung, zunächst wird das Internet spielerisch betrachtet und ausprobiert, in der zweiten Phase werden die Dienste erlernt und der Anwender kann erfolgreich nach seinen Bedürfnissen suchen und finden. In der dritten Phase integriert er das Internet in sein Alltagsleben, indem er wie selbstverständlich dort nach notwendigen Informationen und Produkten sucht.

Viele Informationen

Im Internet ist sehr viel Information abgelegt. Diese Information wird, wie alle Information, erst durch den geübten Leser zu Wissen. Die reine Menge der Information in einer Bibliothek hat keinerlei Einfluß auf Produktivität und Wissenschaft, wenn die Schlüssel zu ihr fehlen. Das Wissen in einer Bibliothek erschließt sich in mehrstufiger Weise, ersteinmal durch den Katalog und zusätzlich den Bibliothekar, der dem Nutzer weitere Aspekte vermitteln kann. Erst an letzter Stelle steht der Text im jeweiligen Buch.

Im Internet liegt zum einen keine wirkliche Bibliothek vor dem Besucher, sondern immer noch ein kleiner Ausschnitt des Wissens, welcher von den Autoren zumeist kostenlos ins Netz eingespielt wird. Zum anderen existiert weder ein vollständiger Katalog, noch ein Bibliothekar, der dem Endanwender helfen kann. Das schwerwiegendste Problem stellt aber die oft geringe Qualität der Dokumente im Internet dar. Auch hier gilt die alte Regel: „You get what you pay for.“

Finanzierung von Information

Da für das Internet noch kein einheitlicher Zahlungsmodus für Information gefunden wurde, ist es für Autoren sehr schwer, die Investition der Informationsniederlegung zu refinanzieren. Diese Problematik liegt tief in der Technologie des Internets. Da alle Information dort digital und unverschlüsselt vorliegt, kann ein Dokument zwar gegen Entgeld abgegeben werden, danach aber sofort beliebig in gleicher Qualität dupliziert werden, ein Mechanismus, der bei Büchern, obwohl Fotokopien möglich sind, keinerlei Entsprechung findet. Die Verfügbarkeit von Fotokopien ist räumlich begrenzt, ihr Inhalt nicht automatisch auffindbar.

Das www behilft sich zur Zeit im wesentlichen durch den begleitenden Verkauf von Aufmerksamkeit für Werbung, ein Vorgehen, das dem System eher gerecht wird als bisherige Ansätze des Mikropayments, allerdings in seiner langfristigen Bedeutung und technischen Umsetzung noch wenig verstanden wird. So gibt es Software, die automatisch Werbung filtert, zum anderen wird der Effekt schlichter Bannerwerbung zunehmend durch „Bannerblindness“ verwässert. Daneben gibt es allerdings den großen Vorteil punktgenauer Platzierung begleitender Werbeinformationen, es muß aber die Frage im Raum stehenbleiben,  warum bisher nur periodische Druckerzeugnisse Werbung aufnahmen, nicht jedoch Bücher.

Hier stellt sich die Frage, ob langfristig Webseiten mit Periodika vergleichbar sind und sich über die klassische Begleitwerbung finanzieren, was bereits heute bei einigen Medienprodukten im Ansatz der Fall ist, oder ob hochwertige Information weiterhin nur in Büchern zu finden sein wird. Eine Alternative stellt das Verkaufen von Information nach ihrem digitalen Auffinden dar. Dazu müßten die Inhalte der Bücher digital dokumentiert werden, jedoch der direkte Zugriff durch das Publikum gesperrt werden. Nutzer der Eingangssuchmaschine können dann kostenlos im Gesamtbestand dieser digitalen Bibliothek suchen und den Volltext einer Fundstelle gegen (geringe) Gebühr abrufen.

Ein derartiges System ist relativ gut gegen Mißbrauch geschützt, da nur der Besitzer des gesamten Volltextes einen vergleichbaren Service anbieten könnte. Publiziert hingegen jemand Teildokumente, die er abgerufen hat, entsteht kaum wirtschaftlicher Schaden, da niemand an dieser Stelle die hohe Qualität des Dokuments erkennen kann. Zudem sind Copyrightverletzungen leicht auffindbar, wenn sie durch einfache Internetsuchmaschinen gefunden werden. Dieses System würde eine gewisse Grundinvestition in die Erstellung dieser vollständigen Bibliothek erfordern, danach aber den Zugriff zum Wissen der Welt erheblich vereinfachen und wirtschaftliche Bedeutung erlangen, da mit höchster Geschwindigkeit qualitativ hochwertige Dokumente genutzt werden können.

Auch an dieser Stelle zeigt sich, daß das Auffinden von Information der kritische Prozeß ist. Dieser Suchvorgang kann heute nur noch von Maschinen geleistet werden, da einerseits der Umfang der auszuwertenden Information sehr groß und zudem sehr schnell gewachsen ist, daneben aber auch die Kosten für entsprechende Mitarbeiter zum Erstellen perfekter Kataloge kaum getragen werden können. Gelingt es auf Dauer, die Informationen durch Maschinen perfekt zu erschließen, wird sich allerdings zeigen, daß viele Berufe, die auf dem Auffinden und Verteilen von Information basieren, Bibliothekare, Buchhändler, aber auch Experten und Lehrer verschiedenster Fachgebiete in ihrer Zukunft gefährdet sind. Möglicherweise führt also gerade diese unbewusste Angst dazu, daß noch immer keine breite Verfügbarkeit des in Büchern gespeicherten Wissens im Internet zur Verfügung steht.

Erfolg mit dem Medium Internet

Einkaufen im Netz

Das Traumziel aller Unternehmen ist es, ihren gesamten Umsatz kostengünstig über das Internet zu tätigen, zumindest wird dies von vielen Internetpromotern so suggeriert. Die Umsatzzahlen kennen dabei praktisch keine Grenzen. Bis zu dreistellige Milliardenbeträge sollen in den nächsten zwei bis drei Jahren dort erreicht werden. Daß dies vermutlich nicht so leicht zu realisieren ist, soll durch Betrachtung einiger Randbedingungen näher erläutert werden.

Der Kunde

Damit überhaupt eine Bestellung über das Internet denkbar ist, müssen die potentiellen Kunden einen Internetzugang besitzen. Dies ist zumindest in Deutschland erst in einer Minderheit der Haushalte gewährleistet, weil für den Zugang erheblicher technischer Aufwand und technisches Know-How notwendig sind. Es genügt nämlich nicht, einfach den Computer einzustecken und loszusurfen, vielmehr benötigt man Zugangssoftware und geeignete Hardware bis die Verbindung klappt. Selbst die scheinbar so einfach zu bedienende Set-top-box für den Internetzugang über das Fernsehgerät, benötigt nach der Bedienungsanleitung nicht weniger als 38 Schritte, bis die erste Page im Internet erscheint. Unterläuft dem Bediener auch nur ein Fehler, wird es sehr schwierig, das Internet zu erreichen. Dies wird auf absehbare Zeit die Verbreitung des Internets auf besonders interessierte, technisch aufgeschlossene Gruppen beschränken.

Marketinguntersuchungen zeigen: Erst nach fünf Kontakten mit dem Zielunternehmen wird ein Interessent zum Kunden. Das bedeutet, nur sehr wenige werden beim ersten Besuch oder Kontakt ein Produkt kaufen. Dies gilt auch für den konventionellen Verkauf. Befindet sich der Besucher nun zum wiederholten Male auf der Website, die ihm einen Kauf anbietet, gerät der Nutzer zumindest in Deutschland in einen unangenehmen Zeitdruck.

„Für das Lesen dieser Buchseite geben Sie bitte zwanzig Pfennig ab, wollen Sie die nächste Seite auch lesen, zahlen Sie nochmals zwanzig Pfennig.“ So klein dieser Betrag im fiktivem Beispiel erscheint, er schreckt doch davon ab, umzublättern. Nur die Tatsache, daß Sie bereits den vollen Betrag für ein Buch bezahlt haben, läßt Sie ungehemmt weiterlesen. Im Internet befinden sich die Benutzer aber in dieser Konfliktsituation. Jede Minute, die beim gemütlichen Einkauf verstreicht, kostet den Nutzer bares Geld. Die Größe des Betrags ist psychologisch nur von untergeordneter Bedeutung, wie viele Experimente gezeigt haben. Kein Kaufhaus würde von den Besuchern eine Gebühr für die Verweildauer verlangen, und selbst Verkaufsmessen, die Eintritt verlangen, berechnen eine Pauschale, die nicht von der tatsächlichen Besuchszeit abhängt. Dieses fundamentale Problem läßt sich auf Dauer nur durch eine monatliche Abogebühr für die Internetnutzung oder den kostenlosen Zugriff auf das Internet lösen. Die Sensibilität gegenüber solchen Gebühren ist in Deutschland möglicherweise höher als in anderen Ländern, was sich auch in der zurückhaltenden Nutzung von Pay-TV-Kanälen wiederspiegelt.

Qualität der Präsentation

Wer ein höherwertiges Produkt erwerben will, erwartet zumindest eine optisch aufwendige Präsentation des Produkts. Hersteller von Versandkatalogen achten daher auf beste fotografische Wiedergabe und geglückte Produktbeschreibung im Umfeld eines schön aufgemachten Katalogs. Dies gelingt im Internet heute noch nicht, da die Kanalbreite zu Endknoten zumeist auf ISDN beschränkt ist, was auch unter Nutzung ausgeklügelter Kompressionsalgorithmen nicht genügend Information in Echtzeit zum Endkunden transportiert.

Auf Dauer wird daher die Bestellung von Produkten, die einer optischen Erklärung bedürfen, wie Kleider, Möbel, Kunstgegenstände erst nach Realisierung schneller Internetzugänge mit DSL-Technologie (ca 100-fache ISDN-Geschwindigkeit) größeren Zuspruch finden. Zudem besitzen nicht alle Haushalte die notwendigen Ausgabegeräte, hochauflösende Monitore, die nötig wären, um die entsprechenden Produkte in hinreichender Qualität zu betrachten. Auch dies wird sich in den nächsten Jahren nur sehr langsam ändern.

Vertrauen in den Verkäufer

Problem: Geringe Zuverlässigkeit

Viele, die das erste Mal mutig im Internet bestellen, machen leider die unerfreuliche Erfahrung, daß die Geschäftsabwicklung nicht in gewohnter Qualität abläuft. Obwohl die Bestellung online und damit sehr schnell erfolgen sollte, wird unerwartet spät geliefert, manchmal überhaupt nicht. Und weil es sich hier um die erste Erfahrung handelt, verliert das Einkaufen über Internet sofort seinen guten Ruf.

Der Kunde projiziert diesen mangelhaften Service aber nicht nur auf das spezielle Unternehmen, sondern auch auf den Vorgang „Bestellung über Internet“. Viel Geduld und wesentliche Qualitätsverbesserungen bis hin zu Gütesiegeln werden notwendig sein, damit Vertrauen gewonnen wird.

Problem: Geringe Professionalität

Die Ursache für die geringe Qualität der Shops liegt nicht bei den großen Unternehmen, sondern bei der Vielzahl kleiner Shops, die praktisch ohne jede Investition starten und für den Besucher zunächst kaum von einem professionellen Geschäft zu unterscheiden sind - ganz im Gegensatz zu realen Ladengeschäften, die von Anfang an hohe Miet- und Einrichtungskosten haben, anhand denen der Kunde sehr wohl die Seriosität und Kompetenz des Unternehmens beurteilen kann. Ähnlich gestaltet es sich für Versandhäuser, die mit gedruckten Katalogen arbeiten, diese Unternehmen sind zumeist über Jahrzehnte gewachsen und haben dabei das Vertrauen der Kunden gewonnen.

Problem: Schwierige Zahlung

Ein weiteres schwerwiegendes Vertrauensproblem stellt die Bezahlung für Internetartikel dar. Zum einen kann man versuchen, die klassische Inkassostellung per Nachnahme für den Internethandel umzusetzen. Dies ist jedoch umständlich, teuer und widerspricht dem vollelektronischen Internetgeschäft. Die klassische Alternative im Internet ist daher die Bestellung mit Kreditkarte, ein Verfahren, das technisch ausgereift ist, jedoch auf zwei große Probleme stößt: Zum einen ist die Verbreitung von Kreditkarten innerhalb Deutschlands mit 19% relativ niedrig und für den wirklichen Massenmarkt zu gering. Daneben besteht die teilweise berechtigte Sorge, daß es zum Mißbrauch der Kartendaten kommen kann. Obwohl die Kreditkartenunternehmen den Kartennehmer vor Mißbrauch schützen wollen, ist dies in der Praxis nur dann gegeben, wenn der Kartennutzer den Mißbrauch entdeckt. Dies ist jedoch nicht der Fall, wenn relativ kleine Beträge innerhalb der Abrechnung auftauchen, deren Bedeutung dem Kartennehmer nicht auffällt. Zum anderen besteht die Angst, zumindest kurzfristig, große Summen erst nach erheblichem bürokratischen Aufwand zurückzugewinnen. Diese zum großen Teil unbegründete Angst ist aber aufgrund einschlägiger Pressemeldungen so weit verbreitet, daß nur ein sehr geringer Prozentsatz uneingeschränkt die Kreditkarte im Internet nutzt.

Die notwendige Abhilfe sind hier technische Verfahren zur geschützten Datenübertragung, die bereits existieren.

Für die sichere Übermittlung zwischen Browser und Webserver dient das Secure Socket Layer Protocol (SSL), mit dem nicht nur die Daten verschlüsselt im Internet transportiert werden, sondern auch der Nutzer die Möglichkeit hat, festzustellen, mit welchem Webserver er verbunden ist. Die dazu notwendigen Signaturen werden mit den Browsern von Microsoft und Netscape geliefert. Weiterhin garantiert dieses Verfahren, daß Dokumente nicht auf dem Weg durchs Netz unerkannt verändert werden. Diskussionen über die Schlüssellänge und die damit zusammenhängenden Mißbrauchsmöglichkeiten sind im Bereich des Kreditkartenaustausches eher theoretischer Natur, im Bereich Industriespionage und Innerbanktransaktionen jedoch ernster Natur. Zusätzlich zu dieser Verschlüsselung gewährleistet das Verfahren „Secure Electronic Transaction“ (SET), das von den großen Kreditkartenunternehmen (American Express, VISA, Mastercard, Diners Club usw.) eingesetzt wird, daß der Händler nicht in den Besitz der Kreditkartennummer kommt. Im Gegensatz zum konventionellen Einsatz, bei dem die Kreditkartennummer offen auf dem Abrechnungsbeleg erscheint. Damit ist dem Mißbrauch so weitreichend vorgebeugt, daß die Kreditkartenunternehmen sowohl dem Käufer als auch dem Händler das Risiko für die Transaktion abnehmen. Für den Händler ist es manchmal von großem Interesse, auch den Kunden eindeutig zu identifizieren, insbesondere bei Banktransaktionen. Die dazu erforderlichen digitalen Unterschriften besitzen aber nur sehr wenige Endkunden, obgleich die Webbrowser alle dafür vorbereitet sind.

Aufklärung der Kunden

Wesentlich wichtiger ist aber die Aufklärung der Nutzer. Was hilft es, wenn ein Kaufhaus mit SET, dem zur Zeit besten Verfahren für Kreditkartenzahlungen im Internet, arbeitet, der Kunde aber nicht versteht, worin sein Schutz liegt. Es ist nämlich bei diesem Verfahren weder ein Abhören im Internet möglich, noch kann der Händler die Kreditkartennummer des Kunden erfahren.

Weiterhin besteht für die Kunden die Frage, ob sie überhaupt mit dem Unternehmen verbunden sind, das ihnen der Browser präsentiert. Ein Großteil der Betrugsansätze beruht im Vorgauklen der Verbindung zu einem seriösen Unternehmen, in Wahrheit besucht der User jedoch eine Website, die betrügen will. Der Besucher hat zwei Möglichkeiten, sich von der Identität dieser Website zu überzeugen. Zuerst wird er auf die Internetadresse im Browser achten, dort kann er zumeist den Firmennamen direkt ablesen, etwa www.bahn.de für die Deutsche Bahn AG. Besteht der Verdacht auf einen gefälschten Namen, kann der Benutzer zusätzlich bei gesicherten Websites das Zertifikat des Unternehmens im Browser testen. Entspricht dies seinen Vorstellungen, so ist die Website nach den Regeln des deutschen Signaturgesetzes vertrauenswürdig. Damit die Zertifikate für den Nutzer Sinn machen, sollten diese von ihm bekannten Agenturen oder Institutionen stammen, andernfalls ist die Signatur für ihn nicht wertvoller als die Auskunft, daß er sich auf irgendeiner Website befindet.

 

<bahn.bmp>

Abbildung 5: Will ein Benutzer beim Fahrkartenbestellen auf Sicherheit achten, wird er durch die Kombination unbekannte Domain und unbekannte Signaturinstitution mehr verwirrt, als geführt.

 

Wie problematisch dies in der Praxis ist, soll die Bestellung einer Fahrkarte bei der Deutschen Bahn AG verdeutlichen: Der Verbraucher beginnt seine Suche nach einer Reiseverbindung bei www.bahn.de, dem Server der Deutschen Bahn AG. Hat er sich für eine bestimmte Verbindung entschieden und bestellt eine Fahrkarte mit Kreditkarte, so wechselt der Browser wunschgemäß auf einen gesicherten Webserver. Der Benutzer wird jetzt aber überrascht feststellen, daß er nicht mehr mit der Domain der Bahn verbunden ist, sondern mit dem Server der HACOM GmbH , die ein Sicherheitszertifikat einer südafrikanischen Signaturbehörde besitzt (Stand November 99) Abbildung 5.

Obwohl die betreffenden Unternehmen seriös arbeiten, ist dies für den Normalkunden praktisch nicht verständlich. Gerade in diesem Fall ist aber eine Internetbestellung sehr attraktiv, da einerseits der elektronische Fahrplan sinnvoll arbeitet, andererseits die Wartezeit beim Fahrkartenkauf entfällt. Hier wäre es für die Vertrauensbildung von grundlegender Bedeutung, daß staatliche Stellen oder öffentliche Institutionen für die Qualität des Service bürgen, zumindest solange bis eine privatwirtschaftlich anerkannte Infrastruktur vorhanden ist.

Informieren im Datennetz

Für viele Unternehmen bedeutet der Internetauftritt in erster Linie, Informationen über die eigenen Dienstleistungen und Produkte für Kunden bereitzuhalten. Dies gilt besonders, solange es noch keinen einfachen Weg zum Verkaufen über das Internet gibt.

Das noch immer ungewohnte Medium verhält sich hier aber völlig anders als die klassischen Printmedien. Zum einen wird die Information nicht auf eigenen Träger wiedergegeben, das bedeutet, nicht das gewohnte Hochglanzpapier, die spezielle Prägung oder das Format kann für die Identifikation des Kunden mit den eigenen Firmenansprüchen verwendet werden. Ganz im Gegenteil, das Ausgabegerät liegt weitgehend im Dunkeln, einfache Fragen wie Farbdarstellung, Seitenverhältnis, Kontraste, selbst die Frage, ob das Dokument später auf Papier ausgedruckt wird oder am Laptop gelesen wird, bleiben für die Präsentation offen.

Zum anderen sind die mannigfaltigen Möglichkeiten der Wiedergabe von Grafiken und Fotografien nur sehr eingeschränkt umsetzbar, da der Empfänger nur über geringe Bandbreite und Geduld beim Betrachten der Internetseiten verfügt.

Grundregeln für Autoren

Für den Autor ist es daher notwendig, sich ausführlich mit den Möglichkeiten und Grenzen des Mediums vertraut zu machen, insbesondere sollte die Implementierung der Information durch qualifiziertes Personal erfolgen. Dies ist aber leider in Deutschland praktisch nicht verfügbar, da es noch immer keine Ausbildung zum Screen-Designer gibt. Die bekannte Ausbildung zum Digitalpublisher besteht zu 50% im Erlernen der Präsentation auf Papier. Fertigkeiten, die für Internetpräsentationen nahezu nutzlos sind.

Die wichtigste Regel für die Gestaltung der Information besteht darin, daß der Besucher des Webauftritts nicht die Geduld verliert und die Präsentation verläßt. Dazu ist es zunächst erforderlich, daß die technischen Einrichtungen (Webserverhard- und Software, Anbindung an die Informationsinfrastuktur) nicht den Flaschenhals bei der Datenübertragung darstellen. Dies läßt sich heute durch moderate Investitionen gewährleisten. Die zu übertragenden Daten sollten so strukturiert sein, daß keine zu langen Wartezeiten entstehen, da erfahrungsgemäß 50% der Besucher nach 8 Sekunden gelangweilter Wartezeit die Sitzung verlassen. Dies wird in der Praxis durch Dokumente erreicht, die einen schnellen Textanteil und mehrere kleinere Bilder besitzen. Problematisch bleibt allerdings die Präsentation der Dokumente, da das Layout der Texte nicht vollständig kontrolliert werden kann, was einige Grafiker dazu verleitet, viele Textstellen als Bilder zu übertragen. Ein Vorgehen, das sowohl lange Wartezeiten als auch schlechte Auffindbarkeit der Dokumente durch Suchsysteme verursacht.

Umfang der Präsentation

Präsentiert ein Unternehmen nicht nur Basisinformationen, sondern stellt es ein umfangreiches Informationssystem ins Netz, wird der Aufwand für die Gestaltung der Navigation und die permanente Weiterentwicklung des Inhalts erheblich komplexer. Ähnlich zum Phänomen, daß große Netze sehr produktiv sind, sind große Dokumentenstrukturen aber auch sehr schwer zu managen. Abhilfe bieten Datenbank- und Redaktionssysteme, mit denen die Struktur, das Layout und die Navigation in den Dokumenten geregelt werden. Da diese Systeme, jünger als geeignete HTML-Editoren, noch fehlerhaft und schwer zu bedienen sind, bedürfen sie eines erheblichen Entwicklungsaufwandes, bis sie zu anwendergerechten Software-Paketen reifen.

Für die Präsentation von Texten gelten am Bildschirm völlig andere Regeln wie in Büchern und Zeitschriften. Werden in letzteren umfangreiche Textargumente vom Leser als durchgängiger Gedankengang aufgenommen, so findet man bei der Nutzung von Bildschirminformationen die Tendenz zum schnellen Weiterklicken. Bei den durchschnittlichen Lesern am Bildschirm endet bei der achten Zeile die Aufmerksamkeit. Dies erfordert vom Autor die Zerlegung des Dokuments in geraffte Informationshäppchen, die durch Überschriften klar strukturiert sind. Beim Nutzer besteht zudem der erstaunliche Wunsch, regelmäßig das Dokument zu wechseln, dies mag einerseits im anstrengenden Lesen am Bildschirm begründet sein, kann aber auch durch die geringe Zahl von Textzeilen am Bildschirm verursacht werden. Der Leser klickt lieber weiter, als daß er durch das Dokument scrollt. Dies entspricht etwa dem kulturellen Übergang von den Schriftrollen zu Büchern mit einzelnen Seiten.

Zuhörer finden

Obwohl ein Webauftritt theoretisch 150 Millionen Leser finden könnte, bemerken Unternehmen rasch, daß sie nur ein wesentlich kleineres Publikum erreichen. Dies liegt an der Schwierigkeit, die Information dem Zielpublikum zugänglich zu machen. Der Werbetreibende ist es gewohnt, Anzeigen in publikumswirksamen Zeitschriften zu schalten und kennt aus den genauen Mediadaten die Zahl der erreichten Leser. Es ist dann im Detail die Aufgabe des geschickten Grafikers, die Information so zu präsentieren, daß eine vertiefte Aufnahme durch den Leser erfolgt. Ähnliches gilt auch für die klassischen elektronischen Medien. Völlig anders stellt sich das Erreichen der Zielgruppe im Internet dar. Dort kann entweder die Information als solche durch begleitende Werbung Aufmerksamkeit erregen oder es gelingt, die Information so zu präsentieren, daß bei gezielter Suche die Information gefunden wird.

 

 

Aktives Vermarkten des Internetangebots

Eine Möglichkeit besteht in der Veröffentlichung der eigenen Internetadresse in konventionellen Medien als Teil der Adresse, die analog einer Telefonnummer erscheint. Ist der Internetauftritt von zentraler Bedeutung für das Unternehmen, so kann die Adresse explizit hervorgehoben werden. Als Motivation diese Adresse wirklich aufzurufen, werden häufig begleitende Anreize wie Preisausschreiben geschaffen.

Daneben kann innerhalb des Internets durch Bannerwerbung auf das Webangebot hingewiesen werden. Bannerwerbung hat sich zu einer sehr komplexen Technologie entwickelt, die hohe Anforderungen an das grafische Design dieser kurzen Werbebotschaften stellt. Dabei unterscheidet man zwischen Bannern, die Branding-Funktion übernehmen, d.h. bei denen der Nutzer sich direkt an das beworbene Produkt erinnert und Bannern, die zum aktiven Anklicken animieren und somit auf die ausführliche Internetpräsentation leiten.

Damit die Banner das richtige Zielpublikum erreichen, können sie entweder auf Websites geschaltet werden, die thematisch passen oder die Bannerwerbung wird automatisch zu vorgewählten Stichworten bei Suchmaschinen präsentiert. Damit erreicht man teilweise wesentlich geringere Streuverluste als bei klassischer Zeitschriftenwerbung, allerdings nimmt die Wahrnehmung von Werbebannern zunehmend ab, es kommt zur „Bannerblindness“. Die Bereitschaft, Banner anzuklicken liegt im Schnitt bei etwa 1 Prozent, kann aber je nach Qualität um den Faktor Zehn nach oben und unten, schwanken. Soll der Massenmarkt mit Informationen über die eigene Website versorgt werden, eignen sich dazu am besten „Portalseiten“, das sind Internetverzeichnisse mit sehr hohem Publikumsverkehr oder die Internetauftritte der konventionellen Massenmedien. Die Preisgestaltung richtet sich hier nach der Anzahl der tatsächlich abgerufenen Banner und liegt in der Größenordnung von etwa DM 100 pro Tausend Pageimpressions.

Optimieren der Inhalte für Suchmaschinen

Ein zentrales Element, damit Webseiten beim Zielpublikum ankommen, liegt in der guten Platzierung bei den Suchmaschinen. Dies ist allerdings inzwischen ein sehr schwieriges Unterfangen, da bei der Eingabe typischer Suchworte wesentlich mehr Seiten gefunden werden, als anschließend von der Suchmaschine in Kurzform dargestellt werden. So führt die Eingabe des Begriffs BMW bei der Suchmaschine Altavista zu 1 Million Fundstellen, es werden jedoch nur zehn dieser Fundstellen im ersten Durchgang präsentiert. Selbst bei optimierten Seiten wird es hier nicht gelingen, regelmäßig unter den Top Ten zu erscheinen. Eine wichtige Technik, trotzdem mit dem Angebot Erfolg zu haben, liegt in der Spezialisierung. Will ein Händler in einem bestimmten Ort gefunden werden, so kann er auf die Eingabe des Städtnamens in Kombination mit Automarke hoffen. Damit begrenzt auch der Benutzer die Ergebnisse auf eine Region. Der Seitengestalter muß hier die Information auf geeignete Wortpaare optimieren. Es gibt inzwischen im Internet umfangreiche Vorschläge, wie Dokumente optimiert werden können. Wesentlich bleibt, daß die entscheidenden Stichworte im Titel und Text des Dokuments erscheinen. Da die Hersteller regelmäßig ihre Algorithmen der Suchmaschinen optimieren, läßt sich aber keine auf Dauer optimale Strategie angeben.

Wie bereits erwähnt, versuchen moderne Suchmaschinen nicht nur den Inhalt der Dokumente zu analysieren, sondern auch die Popularität innerhalb des Internets anhand der Verlinkung der Dokumente festzustellen. Offensichtlich sind Dokumente mit vielen Verknüpfungen im Internet von größerem Interesse. Damit die eigenen Seiten durch solche Verknüpfungen gut im Internet verankert werden, ist es erforderlich, daß hochwertige Information angeboten wird. Dies erfordert neben dem guten grafischen Layout erhebliche Anstrengungen bei der Gestaltung der Texte und Inhalte. Es bietet sich an, bestimmte Informationsnischen mit dem eigenen Internetauftritt zu besetzen, die dann  langfristig betreut werden, so könnte z.B. der Autohändler ein Kompendium zur Autopflege im Internet präsentieren. Besonders nützlich bei solchen Werken ist, daß Suchmaschinen bei passenden Fachbegriffen dann auf dieses Dokument verweisen.


Abschließende Betrachtung

Noch ist das Internet ein viel zu junges Medium, um es in seinen ganzen Implikationen für die zukünftige Kommunikationsgesellschaft zu verstehen. Es zeichnet sich bereits ab, daß sich das Internet endgültig etabliert und von den anderen Medien erhebliche Teile absorbiert. Dies liegt am enormen Nutzen einer großen Teilnehmerzahl in einem vernetzten Computersystem. Zudem spielt die permanente Kumulation der ins Netz eingebrachten Information bei der Zunahme der Nützlich eine erhebliche Rolle. Die Kommunikation im Internet wird noch komplexer sein als in den bisher bekannten elektronischen Medien, weil sowohl auf Anbieterseite als auch auf Anwenderseite ein breiteres Spektrum das Medium nutzt.

Eine der wirklich neuen Eigenschaften des Mediums ist der Zugang über Suchsysteme, die wesentlich grundlegender den Nutzer bei der Informationsauswahl beeinflussen können, als dies bei bisherigen Begleitmedien wie z.B. Fernsehzeitungen möglich war. Sie müssen nämlich aus einer völlig unüberschaubaren Menge an Dokumenten einen winzigen Bruchteil anbieten, was immer die Gefahr einer manipulierten Entscheidung für den Benutzer mit sich bringt.

Die alten Grundregeln für gelungenen Informationstransport werden aber weiter gelten, das bedeutet stetige Präsenz, exakte und ansprechende Information, aber auch ein dem Medium gerechtes Marketing, um eine breite Zuhörerschaft zu gewinnen.

Die Geschäftswelt wird sicherlich das Internet als Transportmedium für Businessinformationen nutzen. Es bleibt aber immer noch offen, ob in der breiten Bevölkerung die Bedeutung für den täglichen Einkauf wesentlich über das bereits bestehende, klassische Versandhandelsgeschäft hinausgehen wird, da auf absehbare Zeit hin das Medium zu sehr beschränkt ist, um bei hochwertigen Kaufentscheidungen eine zuverlässige Basis zu bilden.

Fragen der technischen Sicherheit in den Bereichen Zahlung und Datenschutz sind im wesentlichen gelöst, jedoch ist es für den Verbraucher entscheidender, sich in einem geklärten Rechtsraum zu bewegen, wenn finanzielle Transaktionen bevorstehen. Das dafür notwendige Umfeld kann sich erst nach einer gründlichen gesellschaftlichen Diskussion, die zudem noch weltweit geführt werden muß, entwickeln, bei der die neuen Spielregeln für die elektronische Welt reifen.


Zum Autor

Dr. Eduard Heindl (Tübingen) beschäftigt sich als Diplom-Physiker und Diplom-Ingenieur seit 1994 intensiv mit dem Internet und hat für die Unilog Integrata Training AG inzwischen sieben verschiedene Seminare zu Themen aus dem  Bereich Internet entwickelt, u.a. zu Marketing und Sicherheitsfragen. Er hat für die Ausbildung von Webmastern das Buch „Der Webmaster“, erschienen bei Addison-Wesley 1999, geschrieben.

Seine Firma, Heindl – Internet, hat die Präsentation mehrerer namhafter Unternehmen im WWW entwickelt, daneben betreibt sie die redaktionell betreute Internet-Plattform zur Solarenergie in Deutschland, www.solarserver.de.

Homepage des Autors: www.heindl.de/eduard-heindl/

Literaturliste

Simson Garfinkel, Web Security & Commerce, O´Reilly & Associations 1997

Die Bücher von O´Reilly zum Internetthemen sind alle sehr fundiert und damit empfehlenswert.

Jörg Krause, Praxishandbuch Electronic Commerce, Hanser 1999

Sehr präzise Beschreibung was zum Aufbau eines Webshops nötig ist, allerdings kein Buch für Einsteiger

Andrew S. Tannenbaum, Computer Networks, Prentice-Hall International 1996

Der Klassiker zu Fragen moderner Computernetze. Ein exaktes wissenschaftliches Werk, das durch seine Vollständigkeit glänzt.