< Inhalt < Kapitel 2 < > Kapitel 4 > Literatur >

...erstmal'n link:
Publikumszeitschriften Online
PZ Online - ein Service des VDZ, u.a. mit aktuellen IVW-Daten...


3 Nutzungspotential des technischen Mediums Internet

In den tatsächlichen Formen der Nutzung wird deutlich, wie das Internet zu einem Kommunikationsmedium wird. Das Potential für eine solche Nutzung wird jedoch maßgeblich durch die technologischen Funktionsprinzipien des Internet bestimmt. Der Umfang von technischen Fach- oder an den reinen Anwender gerichteten Handbüchern, in denen versucht wird, diese Prinzipien umfassend darzustellen, übersteigt zumeist 500, zum Teil sogar 1.000 Seiten. [ Ein Fachbuch nur zur Funktionsweise und Bedeutung der in Kapitel 3.1 dieser Arbeit erläuterten Transmission Control Protocol/Internet Protocol (TCP/IP) Protokoll-Familie sowie der geplanten IP-Weiterentwicklung Internet Protocol Next Generation (IPng) umfaßt 544 Seiten. Vgl. Thomas, Stephen A.: IPng and the TCP/IP Protocols. Implementing the Next Generation Protocol. New York 1996. Rost und Schack haben 1995 das mit 1009 Seiten bisher umfangreichste deutschsprachige Handbuch zum Thema Internet veröffentlicht. Vgl. Rost, Martin/Schack, Michael.: Der Internet-Praktiker. Referenz und Programme. Hannover 1995.] Im Rahmen dieser Arbeit muß eine Analyse der komplexen technischen Zusammenhänge auf drei relevante Fragen beschränkt bleiben: [ Eine notwendigerweise verkürzte Erläuterung technischer Zusammenhänge kann immer zu Unklarheiten oder Mißverständnissen führen. Einen detaillierten Überblick verschaffen jedoch vor allem die in diesem Kapitel genannten Quellen.]

  • Wie läßt sich aus den grundlegenden technischen Funktionsprinzipien eine Einheit des Internet ableiten, der sich die verschiedenen Medienanwendungen unterordnen lassen?
  • Wie beeinflussen Organisationsstrukturen die Möglichkeiten der Nutzung?
  • Welche Kommunikationskonstellationen werden durch die einzelnen Medienanwendungen ermöglicht und welches Nutzungspotential ergibt sich daraus?

Eine Beschränkung auf technische Aspekte ist dabei jedoch kaum möglich: „Das Internet ist dem Stadium, da es noch einigermaßen technisch beschreibbar war, inzwischen entwachsen. Selbst Intel-Chef Andrew Grove stellte kürzlich lapidar fest, das Internet sei ‘ein soziologisches Phänomen, kein technologisches.’" [ Recke, Martin: Der Umbruch der Medienpolitik im digitalen Zeitalter. Zur Regulierung der Medien und der Telekommunikation in Deutschland. 1996. Online in Internet. a.a.O..]

3.1 Entwicklung und Funktionsprinzipien des Internet

Die Ursprünge des Internet reichen zurück bis in die 50er und 60er Jahre. Zu dieser Zeit war eine massenhafte Verbreitung von Computern bis in die privaten Haushalte hinein noch kaum absehbar: Erst mit der Einführung erschwinglicher Personal Computer (PC) in den 80er Jahren entstand eine Basis für die aktuell zu beobachtende große Beteiligung von Privatanwendern an Computer-Netzwerken. Die bis heute grundlegenden Funktionsprinzipien des Internet wurden jedoch zu einer Zeit erdacht, als Computer-Nutzung angesichts der damit verbundenen enormen Kosten noch staatlichen und kommerziellen Organisationen vorbehalten war. [ Vgl. Kneer, Volker: Computernetze und Kommunikation. 1994. Online in Internet. a.a.O..] Das Internet, wie es sich heute darstellt, ist niemals in dieser Form geplant worden. [ In bezug auf seine Überlegungen zur Entwicklung der Adressierung im Internet, erklärt Jaeger beispielsweise die ursprüngliche verwendete Länge von 8 bit damit, daß sich 1969 noch niemand vorstellen konnte, „(...) daß einmal mehr als 255 Rechner in einem Netz zusammenarbeiten würden." Jaeger, Kurt: Anmerkungen zur zukünftigen Technik des Internet. In: Rost, Martin (Hrsg.): Die Netzrevolution. a.a.O.. S. 181.] Es hat sich über viele Jahre in kleinen Schritten entwickelt. Von Beginn an waren dabei Kommunikationsbedürfnisse der Nutzer eine wichtige Antriebsfeder:

„Die wesentlichen Elemente dessen, was das Netz sein sollte, wurden von Leuten geschaffen, die daran glaubten, Computer würden die Möglichkeiten der Menschen zu denken und zu kommunizieren erweitern. (...) Wieder und wieder entstanden die wichtigsten Teile des Netzes aus Technologien, die für ganz andere Zwecke entwickelt worden waren." [ Rheingold, Howard: Virtuelle Gemeinschaft: Soziale Beziehungen im Zeitalter des Computers. Bonn/Paris/Reading, Mass. 1994. S. 89.]

3.1.1 Paketvermittlung und dezentrale Strukturen

Ein indirekter, jedoch häufig zitierter, militärischer Ursprung des Internet ist vor allem mit zwei Faktoren verbunden: dem Rüstungswettlauf der Supermächte und der denkbaren Möglichkeit eines atomaren Erstschlages. Nach dem erfolgreichen Start des Sputnik-Satelliten durch die Sowjetunion im Jahre 1957 beschloß die Regierung der Vereinigten Staaten von Amerika (USA), Schritte einzuleiten, um in der Militärtechnologie wieder eine führende Position einzunehmen. Als eine Unterabteilung des Verteidigungsministeriums wurde 1958 die Advanced Research Projects Agency (ARPA) gegründet, deren Aufgabe es war, innovative technologische Entwicklungen aufzuspüren und gegebenenfalls zu fördern. [ Vgl. Kyas, Othmar: Internet. Zugang, Utilities, Nutzung. a.a.O.. S. 30.] J.C.R. Licklider, ehemaliger Professor am Massachusetts Institute of Technology (MIT) und ab 1962 Forschungsdirektor der ARPA, erkannte bald, daß vor allem neue Wege der Nutzung von Computern für alle Forschungsarbeiten der Behörde von Vorteil sein könnten. In den 60er Jahren subventionierte die ARPA daher über das ganze Land verteilte Projekte aus dem Bereich der elektronischen Datenverarbeitung. Ein Schwerpunkt der Arbeiten betraf dabei die Vernetzung von Computern. [ Vgl. Rheingold, Howard: Virtuelle Gemeinschaft: Soziale Beziehungen im Zeitalter des Computers. a.a.O.. S. 89.]

Zu Beginn der 60er Jahre verschärften sich die Spannungen zwischen den Machtblöcken. Der Kalte Krieg näherte sich einem Höhepunkt: der Cuba-Krise im Jahre 1962. Zu dieser Zeit wurde in der RAND Corporation [ Die RAND Corporation , eine Tochter der Douglas Aircraft und Denkfabrik in Kalifornien, kooperierte seit 1948 eng mit dem us-amerikanischen Verteidigungsministerium.] in streng geheimen Studien diskutiert, wie im Falle eines Atomkrieges die Kommunikationsinfrastruktur zwischen den einzelnen Truppenteilen und dem Verteidigungsministerium aufrecht erhalten werden könnte. [ Vgl. Kneer, Volker: Computernetze und Kommunikation. 1994. Online in Internet. a.a.O..] Ein das Internet bis zum jetzigen Zeitpunkt prägender und vom Prinzip her sehr einfacher Lösungsvorschlag stammt von dem RAND-Mitarbeiter Paul Baran: Um keine Ziele für folgenschwere militärische Angriffe zu bieten, sollte ein Kommunikationsnetzwerk ohne zentrale Steuerung funktionieren; ein dezentrales Netz von über das ganze Land verteilten Knoten sowie paketorientierte Datenübertragung könnten dies ermöglichen. [ Vgl. Rheingold, Howard: Virtuelle Gemeinschaft: Soziale Beziehungen im Zeitalter des Computers. a.a.O.. S. 98.]

Den Unterschied der Paketvermittlung zur bis dahin üblichen Leitungsvermittlung verdeutlicht ein Beispiel: Bei einem Telefongespräch wird eine direkte Verbindung zwischen den Gesprächspartnern aufgebaut. Sofern sie nicht über einen Doppel-Anschluß verfügen, sind sie in dieser Zeit telefonisch nicht erreichbar: Ihre Leitung ist besetzt. Wird die Leitung unterbrochen, so endet auch das Gespräch. Dies wird als Leitungsvermittlung bezeichnet und stellte bis zu Barans Vorschlag auch das Grundprinzip der Datenübertragung zwischen vernetzten Computern dar. Im Gegensatz dazu werden bei Paketvermittlung die Daten eines Medienangebotes (z.B. ein elektronischer Brief oder eine Graphik) in kleine Datenpakete mit eigener Empfänger- und Absenderadresse sowie einer Frequenznummer aufgeteilt. Diese Pakete werden dann einzeln und unabhängig voneinander verschickt. Damit wird die parallele Nutzung einer Leitung durch eine Vielzahl von Teilnehmern möglich. [ Vgl. Ishii, Kei: Regularien im Internet. Über Strukturen eines Computervermittelten Kommunikationsmediums. 1995. Online in Internet. URL: http://ig.cs.tu-berlin.de/DA/IR/index.html (Stand 13.03.1996).] Barans Hauptinteresse galt jedoch der Übertragungssicherheit. Die Route, über die Datenpakete von einem Punkt A zu einem Punkt B vermittelt werden sollten, durfte daher nicht fest vorgegeben sein. Alle Netzknoten sollten gleichberechtigt sein, so daß bei einzelnen Ausfällen Fehler durch Korrekturmechanismen erkannt und die Vermittlung über andere Knoten erfolgen könnte.

Die Grundidee Barans wurde in den folgenden Jahren mit Unterstützung der ARPA weiterentwickelt, erprobt und schließlich in die Tat umgesetzt: 1969 wurde das erste auf Paketvermittlung basierende Wide Area Network (WAN) zwischen der University of California at Los Angeles (UCLA), der University of Utah, University of California at Santa Barbara (UCSB) und dem Stanford Research Institute (SRI) at Menlo Park in Betrieb genommen: das ARPAnet. [ Vgl. Kyas, Othmar: Internet. Zugang, Utilities, Nutzung. a.a.O.. S. 32.] Bis 1971 erhöhte sich die Zahl der angeschlossenen Netzknoten bereits von vier auf über dreißig.

3.1.2 Protokolle: Vermittlung, Transport und Anwendung

„Ein Protokoll ist ein einfacher Satz von Vereinbarungen, der festlegt wie Daten von einem Programm zum anderen übertragen werden. Protokolle legen fest, wie das Netzwerk Nachrichten übermittelt und Fehler behandelt; durch deren Verwendung können unabhängig von einem bestimmten Hardware-System Standards gesetzt werden." [ Gilster, Paul: Der Internet Navigator. München/Wien 1994. S. 17.]

Das seit 1969 stetig wachsende ARPAnet arbeitete zwar wie das heutige Internet mit paketorientierter Datenübertragung, das dazu verwendete Protokoll stellte jedoch noch keinen verbindenden Standard dar: Bald existierten auch andere paketorientierte Netzwerke mit eigenen Protokollen. Im Xerox Palo Alto Research Center (PARC) entstand beispielsweise unter Mitarbeit vieler ehemaliger ARPA-Mitarbeiter Anfang der 70er Jahre das bis in die Gegenwart für den Aufbau lokaler Netze bedeutsame Ethernet. [ Vgl. Rheingold, Howard: Virtuelle Gemeinschaft: Soziale Beziehungen im Zeitalter des Computers. a.a.O.. S. 103.] Die Entwicklung eines neuen leistungsfähigen Protokollsystems stellte 1974 den entscheidenden Schritt zur Entstehung eines Internet, eines Netzes von Netzen, dar: Das von Robert Kahn und Vinton G. Cerf entwickelte Transmission Control Protocol (TCP) sowie das Internet Protocol (IP) erlaubten die dezentrale und paketorientierte Vernetzung ganz unterschiedlicher Computer-Netzwerke. Das Internet ist somit eine Art Metanetzwerk. [ Vgl. Gilster, Paul: Der Internet Navigator. a.a.O.. S. 17.] In einem experimentellen Ur-Internet wurden 1977 das ARPAnet, ein paketorientiertes Satelliten-Netzwerk, ein paketorientiertes Funk-Netzwerk sowie ein lokales Ethernet-Netz über TCP/IP miteinander verbunden. 1983 wurde auch das interne Protokoll für alle Knoten des ARPAnet auf TCP/IP umgestellt. [ Vgl. Kyas, Othmar: Internet. Zugang, Utilities, Nutzung. a.a.O.. S. 35.] Gleichzeitig erfolgte eine Auslagerung des militärischen Teils des ARPAnet in ein eigenes Netz (MILnet).

Das dem Laien in seinen technischen Details nur oberflächlich zugängliche TCP/IP Protokollsystem wird an dieser Stelle stark hervorgehoben, da es offensichtlich ein zentrales Bindeglied darstellt: Das Internet ist weder von der verwendeten Hardware oder dem Betriebssystem noch von der Telekommunikationsstruktur abhängig, „(...) d.h. es ist gleich, ob die TCP/IP-Daten über LAN-, Telefon-, spezielle Daten- oder Satellitenverbindungen übertragen werden." [ Ishii, Kei: Regularien im Internet. Über Strukturen eines Computervermittelten Kommunikationsmediums. 1995. Online in Internet. a.a.O..]

Die Protokolle für die Datenübertragung in Computer-Netzwerken lassen sich einzelnen Modulen mit unterschiedlichen Aufgaben zuordnen: Welche physikalische Übertragungsform wird verwendet? Wie erfolgt die Vermittlung vom Sender zum Empfänger? Wie ist der Transport der Daten geregelt? Wie werden konkrete Anwendungsformen eingebunden? Das Zusammenspiel der einzelnen Module wird häufig in sogenannten Schichten-Modellen beschrieben. [ Einen einführenden Überblick zu Netzwerktechnologien liefern Hennekeuser und Peter. Zur Theorie der Schichtenmodelle vgl. dabei Hennekeuser, Johannes/Peter, Gerhard: Rechner-Kommunikation für Anwender. Grundlagen, Übersicht, Praxis. a.a.O.. S. 37ff.] Die unterste Schicht ist dabei die physikalische Bitübertragungsebene. Das TCP/IP Protokollsystem ermöglicht in bezug auf diese Schicht enorme Flexibilität, da es auf allen Netzwerk-Technologien aufsetzen kann.

Das Internet Protocol (IP) ist der sogenannten Vermittlungsschicht zuzuordnen. Es stellt das Basis-Kommunikationsprotokoll im Internet dar. [ Vgl. Kyas, Othmar: Internet. Zugang, Utilities, Nutzung. a.a.O.. S. 64.] Seine Hauptaufgabe ist es, zu regeln, wie ein Datenpaket von Punkt A zu Punkt B gelangt. Unterstützend existieren dazu im ganzen Internet sogenannte Router und Gateways, also Vermittlungscomputer, die die jeweiligen IP Informationen interpretieren und über eine Art Tabellensystem dann mehr oder weniger effizient den nächsten Routenabschnitt für das Datenpaket bestimmen. Die Vermittlung erfolgt dabei immer auf Netzwerk- und nicht auf Computerebene: „Dieser hohe Grad der Abstraktion von der tatsächlichen Infrastruktur der verschiedenen Teilnetze ist ein Hauptgrund für die Flexibilität und Zuverlässigkeit des Internet." [ Ebd.. S. 72.] Per IP werden die Datenpakete verbindungslos übertragen, d.h. es spielt keine Rolle, ob es sich z.B. um einen Teil einer Email oder einer Graphik handelt. Weiterhin führt eine Art Selbstzerstörungsmechanismus (Time To Live bzw. TTF) dazu, daß ein Paket nach einer bestimmten Verweildauer im Internet, in der das Ziel noch nicht erreicht wurde, verworfen wird.

Das Transmission Control Protocol (TCP) ist der sogenannten Transportschicht zuzuordnen und setzt auf dem Internet Protocol auf. Es regelt vor allem die Zerlegung der Daten eines Medienangebotes (z.B. einer World Wide Web Seite) in kleine Datenpakete. [ Vgl. Hennekeuser, Johannes/Peter, Gerhard: Rechner-Kommunikation für Anwender. Grundlagen, Übersicht, Praxis. a.a.O.. S. 133.] Zusätzlich kontrolliert es über spezielle Mechanismen, ob alle Datenpakete, z.B. eine Graphik, beim Empfänger eintreffen. Aufgrund von Netzknotenausfällen verworfene Pakete werden so lange neu verschickt, bis sie über irgendeine Route ihr Ziel erreichen.

Die Protokolle der obersten Schicht bestimmen die technischen Funktionen der Medienanwendungen und setzen auf dem TCP/IP Protokollsystem auf. Die verschiedenen Möglichkeiten der praktischen Nutzung des Internet haben damit auf technischer Ebene eine gemeinsame Basis: ein System, das auch unter widrigsten Umständen seine Grundfunktionalität nicht verliert. Durch die stark vereinfachte Darstellung des wichtigsten Verbindungsgliedes im Internet soll nicht der Eindruck vermittelt werden, es gäbe in diesem Netz keine Machtstrukturen, die der Nutzung in unterschiedlicher Form zum Teil bedenkliche Grenzen setzen. [ Köhntopp schildert in einigen Beispielen, wie z.B. Regularien der Betreiber von im Internet verbundenen Netzwerken zu Grenzen der Nutzung führen können. Vgl. Köhntopp, Kristian: Wer beherrscht das Internet? In: Rost, Martin (Hrsg.): Die Netzrevolution. Auf dem Weg in die Weltgesellschaft. a.a.O.. S. 63ff.] Das im TCP/IP Protokollsystem geregelte grundlegende Funktionsprinzip des Internet setzt jedoch von allen technischen Medien den Möglichkeiten vermittelter Kommunikation auf technischer Ebene die geringsten Grenzen.

In den 80er Jahren wuchs das Interesse vieler Universitäten an einer Anbindung an das Internet. Als eine Alternative zum vom Verteidigungsministerium kontrollierten und 1981 bereits 200 Rechner verbindenden [ Vgl. Kneer, Volker: Computernetze und Kommunikation. 1994. Online in Internet. a.a.O..] ARPAnet richtete die National Science Foundation (NSF) mit dem CSNET ein weiteres wissenschaftsorientiertes Netz innerhalb des Internet ein. [ Vgl. Rheingold, Howard: Virtuelle Gemeinschaft: Soziale Beziehungen im Zeitalter des Computers. a.a.O.. S. 109.] Parallel dazu wurde das TCP/IP Protokoll in das an Hochschulen stark verbreitete und mit ausgezeichneten Netzwerkeigenschaften ausgestattete Betriebssystem UNIX implementiert und ermöglichte so eine einfache direkte Internet-Anbindung.

Ein weiteres Projekt der NSF neben dem CSNnet bestand in der Vernetzung einiger im ganzen Land verteilter Supercomputerzentren. 1986 wurde das NSFnet, ein Hochgeschwindigkeitsnetz in dem Datenübertragungsraten bis zu 56 kbit/s möglich waren, in Betrieb genommen. [ Zum Vergleich: Über das Integrated Services Digital Network (ISDN) sind in der Bundesrepublik Deutschland gegenwärtig bei Kanalbündelung bereits Datenübertragungsraten von 128 kbit/s über das Telefonnetz möglich.] Dieses Netz bildete bald das zentrale Rückgrat des Internet. [ Vgl. Gilster, Paul: Der Internet Navigator. a.a.O.. S. 19.] Mit aufgrund steigender Nutzerzahlen zunehmendem Datenaufkommen wurde die Übertragungskapazität dieses wie auch anderer zentraler Netze seitdem stetig ausgebaut. Über Glasfasertechnik sind gegenwärtig in experimentellen Forschungsnetzen bereits Bandbreiten von 1.000.000 kbit/s möglich. [ Vgl. Jaeger, Kurt: Anmerkungen zur zukünftigen Technik des Internet. In: Rost, Martin (Hrsg.): Die Netzrevolution. Auf dem Weg in die Weltgesellschaft. a.a.O.. S. 183.] Das Potential dieser Übertragungstechnik ist damit jedoch noch bei weitem nicht ausgeschöpft. Die Übertragung digitalisierter Bibliotheksbestände in wenigen Sekunden über Hunderte von Kilometern erscheint nicht ausgeschlossen: „Wenn einem Bürger heute Kommunikationsleistungen zur Verfügung stehen, die sich 20 Jahre zuvor nur das Pentagon leisten konnte, welche Möglichkeiten der Telekommunikation werden ihn dann in der Zukunft, in fünf oder zehn Jahren erwarten?" [ Rheingold, Howard: Virtuelle Gemeinschaft: Soziale Beziehungen im Zeitalter des Computers. a.a.O.. S. 104.]

Die lange Zeit von staatlichen Stellen verwalteten und aus Steuergeldern finanzierten zentralen Teilnetze im Internet gehen seit Ende der 80er Jahre zunehmend in die Hände der Privatindustrie über. Die damit verbundenen Probleme und Gefahren können an dieser Stelle nur angedeutet werden. Howard Rheingold stellt die richtigen Fragen für eine Situation, in der mehr und mehr Teilnetze im Internet von Großkonzernen kontrolliert werden:

„Wer wird Zugang haben, was wird dies kosten, und wie werden die Streitigkeiten über Zugang, Kosten und Inhalte geregelt werden? Die Schlüsselfragen über Zugang, Preis, Zensur und die Beseitigung von Mißständen werden in den nächsten fünf Jahren ihre Antwort in der Praxis finden, im Gesetz, in der Vollstreckung oder Gesetzgebung, und so die politische und ökonomische Struktur des Netzes für die kommenden Jahrzehnte festlegen." [ Ebd.. S. 116.]

3.1.3 Adressierung

Neben den bereits dargestellten strukturellen Veränderungen kann auch der im ersten Kapitel beschriebene exponentielle Anstieg der Nutzerzahlen mittelfristig zu Problemen führen, die jedoch zum Teil technischer Art sind: Die Möglichkeiten der Adressierung von Datenpaketen im Rahmen des TCP/IP Protokollsystems waren nicht für eine unbegrenzte Anzahl im Internet verbundener Netzwerke (damit letztlich auch Computer) ausgelegt. Eine kurze Erläuterung des Adressierungssystems verdeutlicht dies.

Jedem der in den verschiedenen Teilnetzen des Internet über TCP/IP fest verbundenen Computer wird eine eindeutige und einmalige Internet-Adresse zugeordnet. Die Vergabe der Adressen erfolgt weltweit zentral über den sogenannten Internic Registration Service in den USA. [ Vgl. Ishii, Kei: Regularien im Internet. Über Strukturen eines Computervermittelten Kommunikationsmediums. 1995. Online in Internet. a.a.O..] Für zahlreiche Länder außerhalb der USA wird diese Aufgabe jedoch an nationale Network Information Center (NIC) delegiert. In Deutschland erfolgt die Vergabe seit 1996 direkt über die im DE-NIC zusammengeschlossenen großen Anbieter von Internet-Zugängen. [ Informationen zum DE-NIC sind im Internet erhältlich. Online in Internet. URL: http://www.nic.de (Stand 02.04.1996). ] Seit 1982 [ 1969 betrug die Adressenlänge zunächst 8 bit, wurde dann jedoch 1973 auf 16 bit erhöht. Damit konnten maximal 65.536 verschiedene Computer adressiert werden. Vgl. Jaeger, Kurt: Anmerkungen zur zukünftigen Technik des Internet. In: Rost, Martin (Hrsg.): Die Netzrevolution. Auf dem Weg in die Weltgesellschaft. Frankfurt a.M. 1996. S. 185.] haben die sogenannten IP-Adressen eine Länge von 32 Bit (4 Bytes) und werden üblicherweise für jedes Byte als Dezimalzahl (von 0 bis 255) dargestellt, wobei die Nachbar-Bytes durch einen Punkt getrennt werden (z.B. 193.174.4.13). [ Vgl. Kyas, Othmar: Internet. Zugang, Utilities, Nutzung. a.a.O.. S. 73.] Um die Verwaltung zu vereinfachen, werden den Teilnetzen im Internet eigene Adreßräume unterschiedlicher Größe zugeteilt. So darf beispielsweise die Universität Stuttgart den an ihr Netz angeschlossenen Computern Adressen zwischen 129.69.0.0 und 129.69.255.255 zuordnen. [ Vgl. Jaeger, Kurt: Anmerkungen zur zukünftigen Technik des Internet. In: Rost, Martin (Hrsg.): Die Netzrevolution. Auf dem Weg in die Weltgesellschaft. a.a.O.. S. 185.] Der damit sehr großen Zahl adressierbarer Rechner steht in der Praxis eine weit geringere Zahl tatsächlich angeschlossener Computer gegenüber. Die lange Zeit sehr großzügige Adreßraumvergabe führt dazu, daß gegenwärtig an einem Nachfolger für das TCP/IP Protokollsystem gearbeitet wird. Dieses sogenannte Internet Protocol - The Next Generation (IPng) soll neben einer erheblichen Ausweitung des Adreßraumes auch Funktionen für eine bessere Implementierung breitbandiger Anwendungsformen enthalten. [ Vgl. ebd.. S. 191.]

Ein eher den Nutzungskomfort betreffendes Problem der Adressierung im Internet ist dagegen bereits in den 80er Jahren gelöst worden: Internet-Adressen sind in numerischer Schreibweise schwer zu merken. U.a. aus diesem Grund wurde 1986 das sogenannte Domain Name System (DNS) eingeführt. [ Vgl. Kyas, Othmar: Internet. Zugang, Utilities, Nutzung. a.a.O.. S. 77.] Einer numerischen IP-Adresse kann damit ein verständlicher Name, z.B. ‘asterix.uni-muenster.de’ zugeordnet werden. Die durch Punkte getrennten Teile des Namens sind von rechts nach links hierarchisch aufgebaut und enthalten die sogenannte Top-Level-Domain (z.B. ‘de’ für Deutschland), eine Identifikation, die jedoch zunehmend nicht mehr das Netzwerk (z.B. ‘uni-muenster’ oder ‘bertelsmann’), sondern Inhalte (z.B. ‘windows95’ oder ‘spiegel’) bezeichnet und gegebenenfalls einen Namen des Computers. Über ihre Benutzerkennung in einem Netzwerk können so auch leicht einzelne Teilnehmer direkt adressiert werden, z.B. ‘kurti@wiwi8.uni-muenster.de’. Mit dem Zeichen ‘@’ werden dabei Benutzer und Netzwerkidentifikation voneinander getrennt. Das hier verkürzt dargestellte System besteht im Prinzip aus im ganzen Internet in einer hierarchischen Struktur verteilten Datenbanken, über die, wann immer es notwendig ist, eine Zuordnung von IP-Adresse und Domain Name erfolgt. Auch die Domains müssen angemeldet werden. Das Verfahren entspricht dem der IP-Adressen. [ Vgl. Ishii, Kei: Regularien im Internet. Über Strukturen eines Computervermittelten Kommunikationsmediums. 1995. Online in Internet. a.a.O..]

3.1.4 Organisationsstrukturen

„’Es gibt keine zentrale Koordination des Internet, die einzelnen Teilnehmern oder Teilnehmerorganisationen Weisungen erteilen, oder bei der man sich über Fehlverhalten anderer beschweren kann.’ So oder ähnlich liest man es wahrscheinlich in jeder Einführung in die Besonderheiten des Internet. (...) Herrscht im Internet die totale Anarchie? Die Antwort lautet ‘Nein’. Die Begründung dafür ist ziemlich lang." [ Köhntopp, Kristian: Wer beherrscht das Internet? In: Rost, Martin (Hrsg.): Die Netzrevolution. Auf dem Weg in die Weltgesellschaft. a.a.O.. S. 63.]

Es ist Köhntopp zuzustimmen, daß im Internet keineswegs anarchische Zustände herrschen. Es existieren eine Reihe von zum Teil eng miteinander verflochtenen Organisationsstrukturen, die jedoch durch eine mehrdimensionale Vielschichtigkeit in puncto Technologie und Inhalte gekennzeichnet sind. Aus den bisher angedeuteten Funktionsprinzipien des Internet ist dies bereits ansatzweise ableitbar: Wie entstehen in einem dezentralen Netz aus sehr unterschiedlichen und weltweit verteilten Einzelnetzwerken die technischen Übereinkünfte auf Vermittlungs-, Transport- und Anwendungsebene? Wer koordiniert die getroffenen Übereinkünfte, z.B. durch Vergabe von Adressen oder Namen? Wer hat die Möglichkeit, Endanwendern, z.B. Studierenden an einer Universität, Grenzen der Nutzung zu diktieren? Die gesamte Komplexität der Zusammenhänge und die Vielfalt der daran beteiligten Interessengruppen kann an dieser Stelle nicht detailliert dargestellt werden. Grundsätzlich soll jedoch zwischen eher technischen, somit Nutzung ermöglichenden, und inhaltlichen, zum Teil durch Nutzung entstehenden, Strukturen unterschieden werden.

Wie bereits mehrfach angeklungen, besteht das Internet aus miteinander über TCP/IP verbundenen Einzelnetzwerken. Aus einer Nutzerperspektive eröffnet sich ein Zugang zum Internet damit in dem Moment, sobald eine Verbindung zu einem dieser Einzelnetzwerke besteht. Wie dabei bereits qualitative Unterschiede der Zugangsformen die Möglichkeiten der Nutzung beeinflussen, wird im weiteren Verlauf der Arbeit noch erörtert. Jedes der im Internet verbundenen Teilnetze hat einen Betreiber. Dabei kann es sich um staatliche Institutionen, Wirtschaftsunternehmen, aber auch Privatpersonen sowie Vereine oder andere Allianzen der genannten Gruppen handeln. Die Universität Münster ist beispielsweise Betreiber eines lokalen Netzes, über das Mitarbeiter und Studierende Zugang zum Internet erhalten können. Dieses Netz wird vom Rechenzentrum und zum Teil von den einzelnen Instituten verwaltet.

Neben den bereits erwähnten Routern sind in einem Teilnetz des Internet, z.B. dem der Hochschule, eine Reihe weiterer, mit sogenannter Server Software betriebener Computer notwendig, die den Betrieb dieses Netzes und auch die Nutzung bestimmter Medienanwendungen erst möglich machen. So können Studierende eigene Medienangebote im World Wide Web nur dann über die Hochschule anbieten, wenn diese über einen WWW-Server verfügt und den Studierenden auch Zugriffsrechte für diesen Server einräumt. Für manche Medienanwendungen, z.B. Internet Relay Chat (IRC), muß ein entsprechender Server nicht in jedem Teilnetz vorhanden sein. Der Zugriff kann problemlos über irgendeinen geeigneten Rechner im Internet erfolgen.

Grundsätzlich führt die Nutzung von Medienanwendungen im Internet zumeist über speziell dafür eingerichtete Server. Diese Computer sind in der Regel Teil eines der Einzelnetze und unterliegen damit der administrativen Kontrolle des jeweiligen Netzwerkbetreibers. Es steht jedoch jedem Nutzer offen, sofern er die dabei anfallenden Kosten nicht scheut, einen Zugang zum Internet zu wählen, der den Betrieb eigener Server erlaubt. Ein Vor- und Nachteil dieser Strukturen besteht darin, daß die für die Produktion und Selektion von Medienangeboten im Rahmen der einzelnen Medienanwendungen notwendigen Server in sehr vielen der Tausenden von Einzelnetzwerken vorhanden sind. Beschränkt ein Netzwerkbetreiber die Möglichkeiten der Nutzung, indem er z.B. bestimmte Diskussionsforen auf seinem News-Server nicht anbietet oder die Publikation bestimmter Inhalte, z.B. ein kritisches Studierenden-Magazin im World Wide Web, zensiert, so gibt es in der Regel einen anderen Netzwerkbetreiber, der diese Restriktionen ablehnt. [ Als ein konkretes Beispiel sei hier das Wechselspiel von Regulationsbemühungen und Gegenreaktionen im Zusammenhang mit Scientology genannt. Als Hintergrundinformation vgl. z.B. Donnerhacke, Lutz: Mythos Selbstregulierung. In: Rost, Martin (Hrsg.): Die Netzrevolution. Auf dem Weg in die Weltgesellschaft. a.a.O.. S. 76ff. / Spaink, Karin: Judgement Day. In: Planet. Das Internet-Magazin. Heft 5+6/1996. S. 62-66. ] „Damit ist das Internet bei einer gesunden Anbieterstruktur effektiv resistent gegen jede Form inhaltlicher Kontrolle." [ Köhntopp, Kristian: Wer beherrscht das Internet? In: Rost, Martin (Hrsg.): Die Netzrevolution. Auf dem Weg in die Weltgesellschaft. a.a.O.. S. 65.] Dem häufig vorgetragenen Argument, damit seien der Verbreitung in Deutschland gesetzwidriger Schriften, z.B. nationalsozialistischer Propaganda, keine Grenzen gesetzt, entgegnet Köhntopp, daß nicht Zensur, sondern Diskussion notwendig ist:

„Erfahrene Internet-Nutzer haben mit solchen Dingen weniger Probleme. Sie wissen, daß ein Verbot solcher Seiten nur die Symptome bekämpfen würde, aber am eigentlichen Problem, der Überzeugung der Anbieter, nichts ändern würde. Entscheidend ist nicht, unliebsame Informationen zu unterdrücken, sondern die Freiheit zu haben, Gegenmeinungen im gleichen Forum und an gleicher Stelle zu diskutieren." [ Ebd.. S. 66.]

Die in diesen Standpunkten polarisierte Diskussion um administrative Möglichkeiten der Regulation wird anhalten. In welcher Form dabei durch medienpolitische Entscheidungen die Möglichkeiten einer studiumbezogenen Nutzung des Internet in der einen oder anderen Weise beeinflußt werden, bleibt abzuwarten. [ Eine Diskussion der auch für studiumbezogene Internet-Nutzung relevanten medienpolitischen Pläne in bezug auf Rundfunk und Telekommunikation würde an dieser Stelle den Rahmen der Arbeit sprengen. Es soll daher auf eine Diplomarbeit von Martin Recke verwiesen werden, der sich darin ausführlich mit diesen Fragen auseinandersetzt. Vgl. Recke, Martin: Der Umbruch der Medienpolitik im digitalen Zeitalter. Zur Regulierung der Medien und der Telekommunikation in Deutschland. 1996. Online in Internet. a.a.O.. ]

Die Teilnetzwerke, über die der Endanwender Verbindung zum Internet erhält, sind in der Regel wiederum Teil eines übergeordneten Einzelnetzes. So ist z.B. das Netz der Universität Münster Teil des WissenschaftsNetzes (WIN), das als ein integraler Bestandteil des Deutschen Forschungsnetzes (DFN) vom Verein zur Förderung des Deutschen Forschungsnetzes e.V. (DFN-Verein) betrieben wird. [ Weitere Informationen zum WIN, zum DFN und DFN-Verein sind im Internet erhältlich. Online in Internet. URL: http//www.dfn.de (Stand 15.05.1996).] Diesem Netz sind nahezu alle bedeutenden deutschen Forschungsinstitutionen angeschlossen. [ Auch eine Liste der Mitglieder im DFN-Verein ist im Internet erhältlich. Online in Internet. URL: http://www.dfn.de/dfn/mitglieder.html (Stand 15.05.1996).] In Deutschland existieren zahlreiche in ähnlicher Form strukturierte und größtenteils kommerzielle Verbundsysteme kleiner Einzel- und diesen übergeordneter Teilnetze. Diese sind zum Teil weitgehend nach außen abgeschlossen und nur über wenige Übergänge mit internationalen Netzstrukturen verbunden. Einer dieser Übergänge für nationale Verbindungen untereinander, aber vor allem auch in das europäische Ausland und nach Übersee erfolgt derzeit über das European Computer-Industry Research Centre (ECRC) [ Informationen über ECRC sind im Internet verfügbar. Online in Internet. URL: http://www.ecrc.de/ (Stand 20.06.1996).] , einem Mitglied des EBONE Internet Backbone Consortium. [ Informationen zu EBONE sind im Internet verfügbar. Online in Internet. URL: http://www.ebone.net (Stand 20.06.1996).] Das EBONE-Projekt entstand 1992 auf Initiative des Réseaux Associés pour la Rechcherche Européen (RARE) [ Die Nachfolgeorganisation von RARE ist seit 1994 die Trans-European Research and Education Networking Association (TERENA). Informationen zu TERENA sind im Internet verfügbar. Online in Internet. URL: http://www.earn.net (Stand 02.06.96).] , einer Art Dachorganisation aller europäischen Datennetzaktivitäten, mit dem Ziel, eine effiziente Internet-Verbindung der in einzelnen Ländern betriebenen Teilnetze sowie eine Bündelung der Weitverkehrsverbindungen nach Übersee zu gewährleisten. [ Vgl. Kyas, Othmar: Internet. Zugang, Utilities, Nutzung. a.a.O.. S. 42.]

Die Relevanz dieser in anderen Kontinenten in vergleichbarer Form aufgebauten Strukturen für die einzelnen Studierenden, die das Internet für ihr Studium nutzen möchten, ist nicht offensichtlich. Möglicherweise können die Studierenden die Auswirkungen dieser Zusammenhänge schon bald in der täglichen Praxis erleben: Die maßgeblichen Faktoren sind dabei Kosten, Bandbreiten und Beschränkungen durch einzelne Netzbetreiber. Der Betrieb der Einzelnetze und die Verbindung untereinander ist mit hohem Verwaltungs- und Kostenaufwand verbunden. Steigende Nutzerzahlen und ein von der Wirtschaft erhofftes Marktpotential, verbunden mit einem Konkurrenzkampf kommerzieller Netzbetreiber und dem Wunsch nach Erprobung breitbandiger Anwendungsformen (Video, Audio etc.), führen zu einem stetigen Ausbau der Infrastruktur. Die Bedeutung großer Wirtschaftskonzerne innerhalb des Internet steigt, da diese größtenteils die immer leistungsfähigeren Verbindungen finanzieren. Eine der wichtigsten administrativen Verwaltungsfunktionen, die Pflege der Verzeichnisse und Datenbanken der IP-Adressen und Domain-Names, liegt gegenwärtig in der Hand der amerikanischen AT&T, dem weltweit größten Telekommunikationskonzern. [ Informationen zu der entsprechenden Organisation INTERNIC sind im Internet verfügbar. Online in Internet. URL: http://www.internic.net/ (Stand 20.06.96).] Zunehmende Herausbildung von Machtstrukturen mit Netzbetreibern erster und zweiter Klasse sind nicht auszuschließen:

„Die Preisliste regelt den Zugang. Was werden die Großunternehmen, die heute danach streben, die Hauptvertragsnehmer zu werden, künftig mit dieser Verfügungsgewalt anfangen? Wie hoch wird der faire Preis sein, den sie für Netzdienste verlangen? Und werden diese dominierenden Mitspieler nicht in Versuchung geraten, diejenigen die gleich ihnen Informationen anbieten, in Ihrer Wettbewerbsfähigkeit zu beschränken?" [ Rheingold, Howard: Virtuelle Gemeinschaft: Soziale Beziehungen im Zeitalter des Computers. a.a.O.. S. 114.]

Angesichts der notwendigen Investitionen gibt es kaum eine Alternative zu einer im wesentlichen privatwirtschaftlichen und damit gewinnorientierten Struktur des technischen Mediums Internet. In Hinsicht auf das Mediensystem in der Bundesrepublik Deutschland erkennt Recke in diesem Zusammenhang neue Anforderungen an die Politik: „Medienregulierung wird daher flexibel auf stetig sich ändernde Machtkonstellationen einwirken und zu diesem Zweck schnelle Lern- und Reaktionsfähigkeit erwerben müssen." [ Recke, Martin: Der Umbruch der Medienpolitik im digitalen Zeitalter. Zur Regulierung der Medien und der Telekommunikation in Deutschland. 1996. Online in Internet. a.a.O..] In Deutschland sind Kompetenzstreitigkeiten zwischen Bund und Ländern durch die bislang aufrechterhaltene Trennung von Rundfunk und Telekommunikation vorhersehbar: „Medienpolitik muß künftig - falls die normativen Implikationen der bisherigen Medienpolitik fortgelten sollten - daran arbeiten, den Zugang zu den Infrastrukturen offenzuhalten, der im digitalen Zeitalter zur entscheidenden Hürde wird, wichtiger als der Zugang zu speziellen Angeboten." [ Ebd..]

Die Nutzung eines Kommunikationsmediums Internet im Kontext der Hochschule stellt zusätzliche Anforderungen auf einer anderen qualitativen Ebene: „In den pädagogischen Institutionen und nicht im Netz ist das Wissen um komplexe Lernprozesse und um den Sinn des Lernens aufgehoben. Nicht Zerstreuung, sondern Konzentration, Problemorientierung, Individualität und Kreativität wären in virtuellen Lernumwelten zu realisieren." [ Koring, Bernhard: Virtuelle Seminare. Geht die Universität ins Internet? Unveröffentlichtes Manuskript. Beta-Version 1.0. a.a.O.. S. 15.] Zwischen wirtschaftlichen und pädagogischen Erwägungen besteht an der Universität und im Rahmen bildungspolitischer Entscheidungen die Chance einer Weichenstellung. Eine Aussage Reckes muß dabei auch in bezug auf die Diskussion an den Hochschulen als zutreffend bezeichnet werden:

„Dabei leidet die aktuelle Debatte an einem doppelten Defizit: Zum einen werden die ’neuen’ technischen Möglichkeiten und Realitäten meist nur sehr vage bestimmt, wird kaum zwischen Technik und Anwendung unterschieden. Zum anderen wird so getan, als fielen mit der neuen Technik auch die neuen Medien gleichsam vom Himmel. Die Herausbildung eines Mediums ist jedoch nicht nur technisch, sondern auch ökonomisch und sozial ein höchst komplexer Prozeß - der gleichwohl, wie hier behauptet und gezeigt werden soll, politischen Entscheidungen nicht verschlossen bleibt." [ Recke, Martin: Der Umbruch der Medienpolitik im digitalen Zeitalter. Zur Regulierung der Medien und der Telekommunikation in Deutschland. 1996. Online in Internet. a.a.O..]

Ein konkretes Beispiel bestätigt dies. In einem Artikel der Münsterschen Universitätszeitung (MUZ) zum Thema Internet-Anbindung der Universität Münster wird zunächst Dr. Hans Ulrich Prokosch vom Institut für medizinische Informatik und Biomathematik damit zitiert, daß selbst wenn eine hochmoderne technische Infrastruktur vorhanden ist, „(...) dann fehlt es doch noch immer an den Menschen, die mit den neuen Medien umgehen können. Da kommt ein ständiger Schulungsbedarf auf uns zu." [ Peter, Hans-Joachim: Münster wird an neuem Hochleistungsnetz beteiligt. Mit Vollgas auf die Daten-Autobahn. In: Münstersche Universitätszeitung. Heft 3/96. Online in Internet. URL: http://www.uni-muenster.de/Dezernat2/muz/muz63-1a.htm (Stand 20.06.1996). ] Im weiteren Verlauf des Artikels zitierte Aussagen des Kanzlers der Universität Münster Dr. Klaus Anderbrügges deuten dagegen andere Prioritäten an:

„Zur Verfügung gestellt wird das Netz vom Verein Deutsches Forschungsnetz (DFN). Rund neuneinhalb Millionen Mark kostet die Nutzung für alle nordrhein-westfälischen Universitäten, davon zahlt das Land voraussichtlich um die viereinhalb Millionen Mark. Uni-Kanzler Dr. Klaus Anderbrügge hofft darauf, daß es zumindest in 1996 keine Steigerung des WWU-Anteils von 400000 Mark im Jahr geben wird. (...)

Münster wird künftig gemeinsam mit Dortmund, Bochum und Hagen einen 155 MBit/sec-Anschluß nutzen. Daß der derzeit noch überdimensioniert ist, schreckt Anderbrügge nicht: ‘Die Kapazitäten werden nach meiner Einschätzung sehr schnell genutzt werden, wenn die Möglichkeit erst einmal angeboten wird. Der Appetit kommt beim Essen.’ Den haben vor allem Studierende entwickelt. Ob für sie der Zugang zum Netz kostenfrei bleibt, wird ‘Gegenstand von Überlegungen der ADV-Kommission in naher Zukunft sein’, so der WWU-Kanzler. Es könne nicht die Lösung der Zukunft sein, daß jeder zu allen Diensten uneingeschränkt Zugang bekäme." [ Ebd..]

Auch wenn es sich hier nur um ein Einzelbeispiel handelt, so wird vor allem in der letzten Aussage Anderbrügges deutlich, daß die Möglichkeiten der Internet-Nutzung, bestimmt durch die globalen Strukturen, bereits in einschneidender Form durch die Organisationsstrukturen der Universität und die dort getroffenen Entscheidungen beeinflußt werden. Eine zunehmende wissenschaftliche Auseinandersetzung mit dem Internet, vor allem auch mit den Möglichkeiten der Einbindung in den universitären Kontext, erscheint daher dringend notwendig. Im Rahmen dieser Arbeit wird aus einer kommunikationswissenschaftlichen Perspektive vor allem die von Anderbrügge hinsichtlich ihrer Notwendigkeit bezweifelte Nutzung des Gesamtspektrums aller Medienanwendungen untersucht.

Neben den bereits genannten Organisationen und Gremien (TERENA, DFN-Verein, INTERNIC etc.) existieren eine Reihe weiterer nationaler [ Zwei Beispiele sollen hier genannt werden: 1. das als DIGI e.V. im November 1995 gegründete und am 5. März 1996 von der Internet Society offiziell anerkannte German Chapter der Internet Society (ISOC.DE) (Online in Internet. URL: http://www.digi.de) und 2. der Interessenverbund Deutsches Network Information Center (IV-DENIC), der 1993 mit dem Ziel gegründet wurde, den Betrieb des DENIC zu gewährleisten (Online in Internet. URL: http://www.nic.de/iv-denic.html).] und internationaler [ Über allen internationalen Internet-Organisationen steht die 1991 gegründete Internet Society (ISOC), deren Ziel es ist, die internationale Weiterentwicklung des Internet zu koordinieren (Online in Internet. URL: http://www.isoc.org). Auch Einzelpersonen (gegenwärtig sind es etwa 5000), wie z.B. Studierende, können hier gegen einen jährlichen Beitrag von 25,- $ Mitglied werden. Eine Liste der angeschlossenen Organisationen ist im Internet verfügbar (Online in Internet. URL: http://www.isoc.org/orgmemb/organization-members.html).] Koordinationsinstanzen, von denen im folgenden nur die Internet Engineering Task Force (IETF) [ Informationen zur IETF sind im Internet verfügbar. Online in Internet. URL: http://www.ietf.cnri.reston.va.us/home.html (Stand 20.06.1996).] hervorgehoben werden soll. Die IETF ist ein weitgehend offener [ Theoretisch besteht für jede interessierte Person die Möglichkeit, in einer der Arbeitsgruppen mitzuarbeiten. ] Verbund von Arbeitsgruppen, in denen im Rahmen eines für Normierungsgremien ungewöhnlichen Verfahrens die technischen Standards, vor allem die Protokolle, entwickelt werden: [ Recke verweist jedoch zu Recht darauf, daß die technischen Strukturen im Internet es auch erlauben, neue Anwendungen ohne Koordination mit der IETF oder anderen Gremien zu etablieren. Vgl. Recke, Martin: Der Umbruch der Medienpolitik im digitalen Zeitalter. Zur Regulierung der Medien und der Telekommunikation in Deutschland. 1996. Online in Internet. a.a.O..] Eine neue Norm wird nicht von einer zentralen Instanz spezifiziert und dann in der Praxis angewandt, sondern eine Idee wird vorgeschlagen, diskutiert, in mindestens zwei Teilnetzwerken erprobt, dann weiterentwickelt, weiter diskutiert, in größerem Umfang erprobt und, häufig nach jahrelanger Anwendung in der Praxis, schließlich als Standard beschrieben. [ Köhntopp stellt diese Vorgehensweise anschaulich dar. Vgl. Köhntopp, Kristian: Wer beherrscht das Internet? In: Rost, Martin (Hrsg.): Die Netzrevolution. Auf dem Weg in die Weltgesellschaft. a.a.O.. S. 66ff. Tiefergehende Informationen sind im Internet über die bereits genannte Homepage der IETF im WWW erhältlich.] Die Kommunikation in und zwischen den Arbeitsgruppen erfolgt dabei weitgehend über das Internet selbst: „There is no membership in the IETF. Anyone may register for and attend any meeting. The closest thing there is to being an IETF member is being on the IETF or working group mailing lists (see the IETF Mailing Lists section). This is where the best information about current IETF activities and focus can be found." [ Malkin, Gary Scott/IETF Secretariat: The Tao of IETF -- A Guide for New Attendees of the Internet Engineering Task Force. RFC 1718. 1994. Online in Internet. URL: http://www.ietf.cnri.reston.va.us/tao.html (Stand 20.06.1996). Den informellen Charakter der mehrmals jährlich veranstalteten IETF-Konferenzen verdeutlicht an gleicher Stelle der Passus zur Kleiderordnung: „Since attendees must wear their name tags, they must also wear shirts or blouses. Pants or skirts are also highly recommended. Seriously though, many newcomers are often embarrassed when they show up Monday morning in suits, to discover that everybody else is wearing t- shirts, jeans (shorts, if weather permits) and sandals. There are those in the IETF who refuse to wear anything other than suits. Fortunately, they are well known (for other reasons) so they are forgiven this particular idiosyncrasy. The general rule is "dress for the weather" (unless you plan to work so hard that you won't go outside, in which case, "dress for comfort" is the rule!)." Der bereits genannte DIGI e.V. als German Chapter der ISOC beabsichtigt, solche IETF-Konferenzen in Zukunft auch in Deutschland zu veranstalten. ] Die IETF Arbeitsgruppen, in denen dem Laien kryptisch erscheinende Teilgebiete wie Integrated Services over Specific Link Layers (issll) oder Open Shortest Path First IGP (ospf) behandelt werden, umfassen neun Bereiche: Neben einer Applications Area oder Transport Area gibt es hier auch die sogenannte User Services Area, in der in Arbeitsgruppen wie Humanities and Arts (harts) oder Internet School Networking (isn) auch eine nicht rein technologisch orientierte Weiterentwicklung diskutiert und koordiniert wird. [ Weitere Informationen zu den Bereichen und Arbeitsgruppen der IETF sind im Internet verfügbar. Online in Internet. URL: http://www.ietf.cnri.reston.va.us/html.charters/wg-dir.html (Stand 20.06.1996). ]

Die bisher dargestellten Strukturen im Internet bestimmen in entscheidender Form die Voraussetzungen für die Nutzung. Die praktischen Beteiligungsmöglichkeiten normaler Endanwender, z.B. Studierende eines geisteswissenschaftlichen Faches, erscheinen dabei begrenzt: Der Betrieb eines eigenen kleinen Teilnetzes wird in der Regel an den Kosten, die Mitarbeit z.B. in IETF-Arbeitsgruppen an den fehlenden Fachkenntnissen [ Die Existenz von IETF-Arbeitsgruppen wie ‘Internet School Networking (isn)’ läßt es jedoch vorstellbar erscheinen, daß durch eine individuelle Eigeninitiative möglicherweise die Einrichtung einer Arbeitsgruppe z.B. zu virtuellen Seminaren an Hochschulen angeregt wird. Eine Koordination soziologischer, kommunikationswissenschaftlicher, pädagogischer Ideen, praktischer Projekte und den notwendigen technologischen Bedingungen könnte damit auf internationaler Ebene erfolgen.] scheitern. Das Hauptpotential aller Nutzer ist inhaltlicher Art. Durch Aktivität in der Form von Produktion hat jeder Anwender, wenn auch individuell begrenzte, [ An dieser Stelle soll noch einmal auf die bisher dargestellten Grenzen der Nutzung, vor allem den finanzierbaren Zugang als Grundvoraussetzung, hingewiesen werden. Wer keinen Zugang hat, kann nicht mitgestalten.] Möglichkeiten der Mitgestaltung. In stärkerem Maße als bei jedem anderen technischen Medium kann er frei entscheiden, seine Mediennutzung nicht auf die Selektion vorgefundener Medienangebote zu beschränken. Dies wird im Rahmen der Darstellung des Nutzungspotentials ausgewählter Medienanwendungen an konkreten Beispielen näher erläutert.

3.1.5 Zugangsformen

Aus einer Nutzerperspektive erfolgt der Zugang zum Internet über ein in der beschriebenen Form in die globalen Strukturen eingebundenes Einzelnetzwerk. Technische wie inhaltliche Restriktionen des Betreibers des für diese Primärverbindung genutzten Netzes beeinflussen bereits in vielfältiger Form, unabhängig von den globalen Strukturen, die Möglichkeiten der Nutzung. Dies gilt vor allem in bezug auf drei Kriterien:

  • Anzahl der theoretisch nutzbaren Medienanwendungen sowie qualitative Möglichkeiten ihrer Verwendung im Hinblick auf Produktion und Selektion sowie Benutzerfreundlichkeit,
  • Geschwindigkeit der Datenübertragung und
  • anfallende Kosten.

In Deutschland war ein Zugang zum Internet über die lokalen Netzwerke der Universitäten lange Zeit nur umgrenzten Nutzergruppen vorbehalten. An der Universität Münster wurde 1991 im Rahmen des Projektes Datenkommunikation für Studierende im WIssenschaftsNetz (DaWIN) erstmals auch Studierenden ein solcher Zugang auf breiter Ebene ermöglicht. [ Vgl. DaWIN: Die DaWIN-Story. O.J. Online in Internet. URL: http://www.uni-muenster.de/DaWIN/geschi.html (Stand 20.06.1996).] In den vergangenen Jahren sind daraufhin mehr und mehr Universitäten diesem Vorbild gefolgt. [ Da weder umfassende Statistiken noch bundesweit einheitliche Regelungen in bezug auf Internet-Zugang für Studierende an deutschen Universitäten existieren, wurden über eine Vorabbefragung einige grobe Eckdaten zu dieser Frage ermittelt. Siehe dazu Kapitel 4.3 dieser Arbeit.] Am Beispiel des für Studierende bedeutsamen, da gegenwärtig (noch [ Siehe dazu Kapitel 3.1.4 dieser Arbeit.] ) kostenlosen, Zuganges über die Hochschule werden im folgenden drei Formen der Internet-Anbindung veranschaulicht: permanente IP-Verbindung, Remote Login und Dial-Up-IP.

Die lokalen Netzwerke der Universitäten sind in der Regel über das WIN permanent in das Internet eingebunden. In universitären Einrichtungen wie z.B. den Rechenzentren, Bibliotheken oder EDV-Abteilungen der einzelnen Institute können Studierende größtenteils Arbeitsplatzrechner nutzen, an denen TCP/IP Datenpakete direkt verschickt und empfangen werden. Dies ist mit Vor- und Nachteilen verbunden:

Vorteile: Nachteile:
  • Die zur Internet-Nutzung notwendige Hardware wird zur Verfügung gestellt.
  • Die zur Verfügung gestellte Hardware kann in puncto Performance und Ergonomie die Nutzung beeinträchtigen.
  • Solange Universitäten keine Gebühren für die Internet-Nutzung erheben, fallen bei den Studierenden keinerlei Kosten an.
  • Nutzung ist an den Standort sowie Öffnungszeiten der jeweiligen universitären Einrichtung gebunden: Es existiert keine zeitliche und räumliche Unabhängigkeit; damit ist auch keine spontane Nutzung aus dem laufenden Arbeitsprozeß am heimischen Schreibtisch möglich.
  • Bei TCP/IP-Anbindung des Arbeitsplatzrechners ist eine Nutzung der verschieden Medienanwendungen mit einer auch für Anfänger leicht zu bedienenden Client-Software mit graphischer Benutzeroberfläche (z.B. WWW-Browser wie Netscape) möglich.
  • Je nach Vorinstallation muß am Arbeitsplatzrechner textbasierte Software (z.B. UNIX-Programme wie tin, elm oder lynx) verwendet werden. Fortgeschrittene Anwender können dabei möglicherweise von erweiterten Funktionen profitieren, dem Anfänger wird jedoch die Nutzung erschwert.
  • Die Geschwindigkeit der Datenübertragung kann, in Abhängigkeit von den globalen Strukturen, unter den jeweiligen lokalen Bedingungen optimal sein.
  • Falls am Arbeitsplatzrechner keine eigene Software installiert werden darf, muß eventuell auf die Nutzung bestimmter Features einzelner Medienanwendungen (z.B. WWW-Erweiterungen zur Anzeige von Präsentationsgrafiken) verzichtet werden.
  • Elektronische und andere in der Universität verfügbare Medien, (z.B. Bücher in der Bibliothek) können kombiniert genutzt werden.
  • Die Archivierung oder Weiterverarbeitung selektierter Medienangebote (z.B. sehr lange Texte) kann bei fehlendem Internet-Zugang von zu Hause durch Transportprobleme (wegen. Speicherkapazität von Disketten) erschwert werden.
  • Durch den Aufenthalt an der Universität sind positiv gewertete soziale Kontakte möglich.
  • Bei hohem Andrang können alle Arbeitsplätze besetzt sein.

Tabelle 1: Vor- und Nachteile einer permanenten IP-Verbindung in einer universitären Einrichtung

Einen bisher nur in einzelnen Pilotprojekten verwirklichten Sonderfall der permanenten IP-Verbindung über die Universität stellt die Vernetzung von Wohnheimen dar. Als ein Beispiel kann ein Projekt an der Technischen Universität (TU) Clausthal genannt werden: „Die beispielhafte Kooperation aller Beteiligten - Studentenwerk, Rechenzentrum und Studenten - hat dazu geführt, daß Studenten der TU Clausthal in ihrem Wohnheim eine leistungsfähige Netzinfrastruktur aufbauen konnten, die sie online mit dem Hochschulnetz verbindet." [ Kiel, Hans-Ulrich: Wohnheime am Netz. Pilotprojekt ermöglicht Studenten Zugang zur Datenkommunikation. 1995. Online in Internet. URL: http://rtb-www.rrzn.uni-hannover.de/dfn/mitteilungen/html/heft37/wohnheim/wohnheim.html (Stand 20.06.1996).] Die direkte Anbindung eines Wohnheimes an das Netz der Universität verbindet Kostenfreiheit und potentiell hohe Geschwindigkeit der Datenübertragung mit den im folgenden dargestellten Vorteilen von Dial-Up-IP Verbindungen. [ Ähnliche Pilotprojekte existieren z.B. in Ulm und Chemnitz. Über die DFN Nutzergruppe Studierende stehen die Teilnehmer der drei Pilotprojekte in Kontakt. Dazu kommen einige Studierende aus anderen Hochschulen, die über ähnliche Projekte nachdenken. Informationen zur DFN Nutzergruppe Studierende sind im Internet verfügbar. Online in Internet. URL: http://131.246.89.1/~ngs/ (Stand 20.02.1996).]

Neben der Nutzung aus einer Einrichtung der Hochschule haben Studierende an vielen deutschen Universitäten auch die Möglichkeit, von einem Ort ihrer Wahl aus über das Telefonnetz [ An dieser Stelle muß nochmals auf die laufenden Diskussionen um eine Regulierung der Telekommunikation in der Bundesrepublik Deutschland verwiesen werden, die in dieser Arbeit nicht umfassend dargestellt werden können. Gegenwärtig beeinflußt die aufgrund ihrer Monopolstellung mögliche Gebührenpolitik der Telekom AG generell Möglichkeiten der Nutzung von Online-Diensten über Einwahlverbindungen. Heftige Auseinandersetzungen um die Tariferhöhung zum 01.01.1996 haben dies gezeigt. In diesem Zusammenhang soll noch einmal auf die Arbeit von Martin Recke verwiesen werden. Vgl. Recke, Martin: Der Umbruch der Medienpolitik im digitalen Zeitalter. Zur Regulierung der Medien und der Telekommunikation in Deutschland. 1996. Online in Internet. a.a.O..] eine Verbindung von ihrem privaten Computer zum lokalen Netz der Universität aufzubauen. Die Anwahl kann analog über ein Modem oder digital über einen Adapter für das Integrated Services Digital Network (ISDN) erfolgen. Grundsätzlich muß zwischen Remote Login und Dial-Up-IP unterschieden werden.

Das zentrale Merkmal einer Remote Login Verbindung besteht darin, daß die TCP/IP Datenpakete nicht bis zu dem von dem Nutzer verwendeten Computer gelangen. Vereinfacht ausgedrückt können über eine sogenannte Terminal-Emulation lediglich die an der Hochschule installierten textbasierten Anwendungsprogramme gestartet, angezeigt und fernbedient werden. Eine Speicherung von selektierten Medienangeboten auf dem privaten Computer ist nur sehr umständlich möglich. Die Nutzung ist somit weitgehend nur bei bestehender Einwahlverbindung möglich, was zu erhöhten Telefonkosten führt. Graphische Elemente können nicht dargestellt werden.

Im Gegensatz zur Remote Login gelangen bei einer Dial-Up-IP Verbindung die TCP-IP Datenpakete direkt bis zum Computer des Anwenders. Voraussetzung dazu ist die Implementierung des TCP/IP Protokollsystems auf dem eigenen Computersystem. [ Vgl. Kyas, Othmar: Internet. Zugang, Utilities, Nutzung. a.a.O.. S. 123.] Die für die Nutzung von Telefon- und anderen seriellen Datenwählleitungen verwendeten Protokolle sind das Serial Line Internet Protocol (SLIP) und das Point to Point Protocol (PPP). [ Vgl. Ebd.. S. 68ff.] Für die Dauer der Einwahlverbindung erhält der genutzte Computer damit eine eigene IP-Adresse und wird temporär zu einem vollwertigen Teil des Internet. [ Auch wenn dies praktisch gesehen wenig Sinn macht (in der Regel kurze Verbindungsdauer und dynamische Vergabe der IP-Adressen), kann bei dieser Form der Verbindung eigene Server-Software (z.B. WWW-Server ) gestartet werden. Für die Dauer der Verbindung kann dann über die IP-Adresse (statt eines Domain Name ) auf Medienangebote auf diesem Server zugegriffen werden. ] Auch diese Form der Anbindung ist mit einigen Vor- und Nachteilen verbunden:

Vorteile: Nachteile:
  • Zur Internet-Nutzung kann beliebig leistungsfähige Hardware verwendet werden. Dies bietet gegebenenfalls Vorteile in bezug auf Performance und Ergonomie.
  • Die verwendete Hardware muß selbst bezahlt werden.
  • Eine Nutzung ist theoretisch von jedem beliebigen Ort und zu jeder Zeit möglich. In der Regel wird die Nutzung jedoch sicherlich von zu Hause erfolgen.
  • Durch die Einwahl über das Telefonnetz der Telekom AG fallen in Abhängigkeit von der Nutzungsdauer und -zeit Kosten an.
  • Die zur Nutzung der Medienanwendungen verwendete Software kann weitgehend frei gewählt werden. Eine Verwendung von Offline-Readern (z.B. für Email) ist möglich.
  • Die Beschaffung der notwendigen Software muß der Nutzer selbst übernehmen. Bei ausreichender Erfahrung des Anwenders bietet das Internet selbst dazu jedoch weitreichende Möglichkeiten.
  • Viele Features einzelner Medienanwendungen können durch die Möglichkeit, beliebige Software auf dem eigenen Computer zu installieren, im Rahmen der globalen Strukturen genutzt werden.
  • Die Geschwindigkeit der Datenübertragung ist, in Abhängigkeit von den globalen Strukturen, durch die maximale Datenübertragungsrate der Wahlverbindung nach oben begrenzt (bei Modems in der Regel 14,4 kbit/s bzw. 28,8 kbit/s und bei ISDN 64 kbit/s).
  • Bei Nutzung von zu Hause können alle dort verfügbaren Medien (z.B. Bücher) parallel genutzt werden. Archivierung und Weiterverarbeitung selektierter Medienangebote sind in komfortabler Form jederzeit möglich.
  • Die in der Universität verfügbaren Medien (z.B. Bücher in der Bibliothek) können nicht parallel genutzt werden.
  • Die Nutzung erfolgt in der gewohnten privaten Atmosphäre.
  • Je nach Zahl der Einwahlknoten können zu bestimmten Zeiten alle Leitungen besetzt sein. Zusätzlich kann es aus technischen Gründen immer wieder zu Schwierigkeiten beim Verbindungsaufbau kommen.

Tabelle 2: Vor- und Nachteile einer Dial-Up-IP Verbindung

Die Nutzung eines Internet-Zuganges über die Universität wird neben den Vor- und Nachteilen der verschiedenen Verbindungsarten zusätzlich über die bereits dargestellten Restriktionsmöglichkeiten eines Netzwerk-Betreibers auf Server-Ebene (z.B. Vergabe von Zugriffsrechten auf den WWW-Server) beeinflußt.

Neben den Universitäten hat sich in den vergangenen vier Jahren in Deutschland eine vielfältige Struktur von sonstigen Anbietern entwickelt, die Privatanwendern, also auch Studierenden, in unterschiedlicher Form einen Zugang zum Internet anbieten. Anders als bei den Universitäten wird bei diesen Providern jedoch eine, wenn auch zum Teil geringe, Gebühr für die Bereitstellung des Zuganges erhoben. Spätestens seit 1995 wird in der Regel Dial-Up-IP als Verbindungsform angeboten. [ Die Bedeutung des Unix-to-Unix Copy Protocol (UUCP) als Zugangsform zum Internet wird im Rahmen der Darstellung des Interaktivitätspotentials der Medienanwendung Newsgroups erläutert. Siehe dazu Kapitel 3.2.3 dieser Arbeit.] Dabei bestehen zum Teil erhebliche Unterschiede im Hinblick auf Einbindung in das Internet und Restriktionen der Betreiber. [ Eine detaillierte Darstellung würde hier den Rahmen der Arbeit sprengen. Der Schwerpunkt wurde daher auf die Situation an den Universitäten gelegt. Für eine ausführliche, aktuell möglicherweise jedoch bereits veraltete Darstellung der Internet-Anbieter-Struktur in Deutschland (Stand 1995) kann auf einen Text von Kuschke verwiesen werden. Vgl. Kuschke, Michael: Bunt gemischt. Marktübersicht: Internet-Anbieter in Deutschland. 1995. Online in Internet. URL: http://www.ix.de/ix/artikel/9510/InternetProvider.html (Stand 20.06.1996). ]

3.2 Nutzungspotential ausgewählter Medienanwendungen

Die bisher erläuterten Entwicklungen, Strukturen und Funktionsprinzipien des technischen Mediums Internet stellen Rahmenbedingungen der Nutzung dar. Die Vielfalt relevanter Faktoren (globale und lokale Netzwerkstrukturen, Zugangsformen, verwendete Hard- und Software etc.) führt bei den einzelnen Nutzern zu sehr unterschiedlichen Grundvoraussetzungen. Eine auf diesen Strukturen aufsetzende, konkrete Anwendungsebene muß in bezug auf technologische und inhaltliche Faktoren betrachtet werden: Während technische Übereinkünfte (z.B. Protokolle der Anwendungsschicht) auch auf dieser Ebene Grundvoraussetzungen für die Nutzung bestimmen, charakterisieren inhaltliche Aspekte bei der tatsächlichen Verwendung der einzelnen Medienanwendungen das Kommunikationsmedium Internet und führen dabei zum Teil auch zu sozialen Übereinkünften des Gebrauchs. Dies geschieht im Wechselspiel der Produktion und Selektion von Medienangeboten. Im folgenden werden vor allem vier wichtige Medienanwendungen im Internet ausführlich erläutert. [ Eine Fülle weiterer, in Abhängikeit von einer konkreten Motivation im Einzelfall nicht weniger bedeutsamen Medienanwendungen kann an dieser Stelle aus praktischen Gründen (Umfang der Arbeit) nur kurz hinsichtlich der jeweiligen Grundfunktion dargestellt werden.] Neben einer Darstellung der Entwicklungsgeschichte werden aus kommunikationswissenschaftlicher Sicht relevante Unterschiede vor allem anhand von drei Faktoren herausgearbeitet:

  • Welche Kommunikationskonstellationen ermöglicht die Medienanwendung?
  • Welche statischen und dynamischen Medientypen können integriert werden?
  • In welcher Form ist Aktivität in der Form von Produktion bzw. Selektion möglich?

3.2.1 Medienanwendungen auf der Basis von Electronic Mail (Email)

Electronic Mail (Email) ist eine der ältesten Anwendungsformen im Internet und läßt sich bis in die Entstehungsphase des ARPAnet Ende der 60er Jahre zurückverfolgen. [ Vgl. Rheingold, Howard: Virtuelle Gemeinschaft. a.a.O.. S. 101.] Allgemein ausgedrückt handelt es sich dabei um einen Telekommunikationsdienst, der in der Regel textbasierte Medienangebote von einem Absender an einen Empfänger über ein Computer-Netzwerk übermittelt. Email ist somit weder, wie teilweise behauptet, [ Vgl. Piening, Raimund: Ein neues Medium in seinem Verhältnis zum Brief. 1995. Online in Internet. URL: http://www.uni-essen.de/fb3/linse/emailhs.htm (Stand 18.03.1996).] eine neue noch eine speziell mit dem Internet verbundene Medienanwendung. [ Als Beispiel können hier lokale Netzwerke von Institutionen oder Unternehmen genannt werden. ] Neuartig ist nur die Qualität der Nutzungsmöglichkeiten, da vor allem mit der zunehmenden Popularität des Internet die Zahl der über eine persönliche Email-Adresse potentiell weltweit erreichbaren Menschen stark ansteigt. Angesichts völlig unterschiedlicher Kommunikationskonstellationen muß bei Persönlicher Email und über Mailing-Listen verteilter Email von zwei eigenständigen Email-basierten Medienanwendungen gesprochen werden.

Persönliche Email

Die bereits dargestellten grundlegenden Funktionsprinzipien im Internet erlauben die eindeutige Adressierung eines Nutzers über das Netzwerk des von ihm verwendeten Internet-Zuganges. Über Gateways und Router sind darüber hinaus auch Teilnehmer von nicht zum Internet zählenden Netzen erreichbar.

Die Grundfunktion Persönlicher Email ist es, einer anderen Person, deren Email-Adresse man kennt, einen elektronischen Brief zu schicken: es handelt sich damit um eine one-to-one bzw. one-to-few Kommunikationskonstellation. [ Ein produziertes Medienangebot kann auch problemlos zeitgleich an mehrere unterschiedliche Empfänger verschickt werden. Darüber hinaus besteht die Möglichkeit, selektierte Email in erweiterter aber auch in unveränderter Form an dritte weiterzuleiten.] Der in der Regel dazu verwendete Medientyp ist Text. Moderne Email Client-Software bietet jedoch fast immer auch die Möglichkeit, beliebige Binärdateien (z.B. Audio-Dateien) anzuhängen. Die Hauptunterschiede von Email zu auf dem herkömmlichen Postweg verschickten Briefen lassen sich in folgender Weise zusammenfassen:

  • Die Übermittlung einer Email vom Absender zum Postfach des Empfängers geschieht in der Regel binnen weniger Minuten.
  • Die Produktion einer Email ist problemlos in laufende Arbeitsprozesse integrierbar (keine Suche nach Briefmarken und kein Gang zum Briefkasten).
  • Bei der Selektion einer Email liegt das Medienangebot in maschinenlesbarer Form vor und kann ohne Wechsel des technischen Mediums weiterverarbeitet werden.
  • Bei der Entsorgung einer Email (Löschung) verbleiben keinerlei Altlasten.

Die Möglichkeiten kreativer Gestaltung (selbstgebastelte Briefumschläge, bemaltes Briefpapier etc.) sind jedoch beschränkt. [ Es wäre grundsätzlich interessant zu erfahren, ob emotionale Aspekte (‘der Gang zum Briefkasten’, ‘die Gestaltung des Briefes’ etc.) angesichts der pragmatischen Vorteile zu geschlechtsspezifischen Unterschieden bei der Bewertung von Email führen.]

Grundsätzlich gilt eine Aussage für alle Medienanwendungen: Das technische Medium wird nur immer dann zu einem Kommunikationsmedium, wenn ein einmal produziertes Medienangebot auch selektiert wird, und es kann nur das selektiert werden, was irgendjemand produziert hat. In bezug auf Email bedeutet dies, daß z.B. die schnelle Übermittlung zum Postfach des Empfängers solange keinen Vorteil gegenüber herkömmlicher Post bietet, wie dieser das verschickte Medienangebot nicht selektiert. Gerade das Ignorieren von Email ist sehr einfach, da der Brief zunächst nur als eine Zeile mit einem Absendernamen und einem kurzen beschreibenden Titel (dem Subject) in der Email Client-Software des Empfängers erscheint. In einer Vorabselektion kann so entschieden werden, was gelöscht und was gelesen wird.

Mailing-Listen

Email bietet grundsätzlich die Funktion, ein einmal produziertes Medienangebot nicht nur an eine einzelne, sondern gleichzeitig an eine Vielzahl unterschiedlicher Email-Adressen zu versenden. Email Client-Software bietet dazu häufig komfortable Adreßbuchfunktionen, über die auch beliebig umfangreiche Empfängergruppen zusammengestellt werden können. Aus dieser Grundfunktion entwickelte sich bereits in der Gründerphase des ARPAnet die erste Form der sogenannten Mailing-Listen: „Erhalten Sie eine Nachricht von jemandem, der auf ihrer Adressenliste steht, dann können Sie ausschließlich dieser Person antworten oder die Antwort automatisch an jeden schicken, der auf der Liste steht. Und plötzlich wird die Korrespondenz zum Gruppengespräch." [ Rheingold, Howard: Virtuelle Gemeinschaften. a.a.O.. S. 101.] Dieses Grundprinzip kann problemlos ohne jeden zusätzlichen Aufwand auch im universitären Kontext privat umgesetzt werden: Jeder der fünf Teilnehmer einer Arbeitsgruppe könnte in seiner Email Client-Software z.B. eine Adreßgruppe ‘Referat’ anlegen, in die er die Email-Adressen der vier Kommilitonen einträgt. Jedes an ‘Referat’ adressierte Medienangebot würde damit alle erreichen, ebenso wie wiederum jede Reaktion darauf. Während die Koordination und Diskussion zwischen fünf Teilnehmern, die an einem Ort wohnen, ebenso und möglicherweise sogar einfacher auf anderen Wegen (z.B. persönliche Referatsgruppentreffen) stattfinden kann, erscheint dies bei Hunderten räumlich weit entfernter Teilnehmer unmöglich. Der kreative Einsatz von Email bietet damit gegenüber klassischer Briefpost Vorteile, die nicht nur auf eine höhere Geschwindigkeit der Übermittlung beschränkt sind.

Der zentrale formale Aspekt von Mailing-Listen ist somit eine Adressenliste. In der privat initiierten Form müssen alle Teilnehmer über eine vollständige und aktuelle Liste der Email-Adressen verfügen. Gerade bei Neuzugängen und wenn jemand aussteigen will, kann dies zu Koordinationsschwierigkeiten führen. Aus diesem Grund wurden Programme entwickelt, um die Verwaltung der Adressenliste und die Verteilung von Medienangeboten an alle Teilnehmer über einen einzigen Server weitgehend zu automatisieren. [ Die bekanntesten Programme sind dabei Listserv und Majordomo .] Ein Nutzer schickt sein Medienangebot damit nicht mehr selbst an alle anderen Teilnehmer, sondern überläßt dies dem Programm. Auch Neueinträge, Abrufe von archivierten Beiträgen oder Aufstellungen aller Listenteilnehmer etc. können in der Regel automatisch per Email vorgenommen werden.

Da Mailing-Listen zumeist durch entsprechende Konfigurationen eines Verteilungsprogrammes auf einem bestimmten Server entstehen, können solche Listen theoretisch in unbegrenzter Zahl zu beliebigen Themen eingerichtet werden. [ Im Rahmen dieser Arbeit wurden eine Reihe von Mailing-Listen intensiv (vorrangig jedoch durch Aktivität in der Form von Selektion) genutzt. Konkret handelt es sich dabei um Informationsgesellschaft - Medien - Demokratie , German Internet Research List , Netzforum , Luhmann , Deutsche Soziologie Mailing-Liste u.a..] Anders als bei Newsgroups ist nur die Unterstützung eines einzigen Server-Bertreibers notwendig. In Zusammenarbeit mit Hochschulmitarbeitern haben auch Studierende an vielen deutschen Universitäten theoretisch die Möglichkeit, ein neues Forum zu einem bestimmten Interessengebiet zu initiieren. [ Für die Universität Münster bestätigte dies auf persönliche Nachfrage der Web- und Newsmaster des Universitätsrechenzentrums Rainer Perske.] Diese Art von Aktivität in der Form von Produktion eines neuen Aktivitätsrahmens [ Aktivitätsrahmen soll in diesem Zusammenhang eine Art inhaltliche Spartenbenennung bezeichnen, die zwar gegebenenfalls produziert und selektiert werden kann, selbst jedoch weder eine Medienanwendung noch ein Medienangebot darstellt und z.B. ohne die Produktion letzterer ähnlich sinnlos wäre, wie die Jugend-Seite einer Zeitung auf der kein einziger Artikel erscheint.] führt jedoch praktisch gesehen zunächst nur zur Entstehung einer leeren Adressenliste. Erst wenn Nutzer von dem neu gebildeten Rahmen erfahren, sich in die Liste eintragen und selbst Medienangebote produzieren, wird Selektion und damit Diskussion möglich. Die Kenntnis von Aktivitätsrahmen stellt somit (neben vielen anderen, z.B. der grundsätzlichen Kenntnis der unterschiedlichen Medienanwendungen) eine Barriere zur Produktion und Selektion von Medienangeboten im Internet dar.

Anders als bei Newsgroups existieren keine weitgehend vollständigen Aufstellungen aller vorhandenen Mailing-Listen. Studierende können jedoch auf entsprechende Hinweise in thematisch strukturierten Medienanwendungen (z.B. durch Selektion von Artikeln in der Newsgroup ‘news.list’) aufmerksam werden. Auch Medienangebote im World Wide Web enthalten häufig hilfreiche Verweise. Sobald ein Nutzer von der Existenz einer Mailing-Liste erfahren hat, muß er sich zunächst per Email in die Liste eintragen, um hier selektieren und produzieren zu können. Damit wird er eindeutig als Listenteilnehmer identifizierbar: Sowohl die Identität (Email-Adresse und eventuell Name) als auch die Zahl der Nutzer einer konkreten Mailing-Liste sind frei zugänglich. [ Eine Aufstellung aller Listenteilnehmer kann über den die Liste verwaltenden Server mit speziellen Kommandos per Email abgerufen werden.]

Der in Mailing-Listen üblicherweise verwendete Medientyp ist Text. [ Da Mailing-Listen über Email abgewickelt werden, könnten theoretisch auch Binärdateien in dieser Form verteilt werden. Dies ist jedoch unüblich.] In der gängigsten Form als Diskussionsforum handelt es sich um eine many-to-many Kommunikationskonstellation. [ In der Praxis haben Mailing-Listen jedoch selten mehr als wenige Hundert Teilnehmer, so daß eher von einer few-to-few Konstellation gesprochen werden kann.] Darüber hinaus kann das Verteilsystem von Mailing-Listen auch in einer one-to-many Konstellation eingesetzt werden. Dabei dient die Eintragung in die Liste lediglich dazu, in regelmäßigen Abständen Medienangebote eines einzigen Nutzers zu erhalten: sogenannte Newsletter. So kann beispielsweise über eine Mailing-Liste jeden Mittwoch per Email eine Zusammenfassung der am folgenden Tag erscheinenden Printausgabe der Zeitschrift Stern erhalten werden. [ Nähere Informationen dazu sind im Internet über die Homepage des Stern erhältlich. Online in Internet. URL: http://www.stern.de (Stand 04.06.1996).]

Einmal in einer als Diskussionsforum angelegten Mailing-Liste eingetragene Nutzer haben die freie Entscheidung zwischen Aktivität in der Form von Produktion oder Selektion in ihren Ausprägungen als Aktion und Reaktion. In welchem Maße die Teilnehmer dieses Potential in unterschiedlichen Mailing-Listen nutzen und wo die Gründe dafür liegen, ist noch nicht hinreichend untersucht worden. Einzelbeispiele deuten jedoch darauf hin, daß in der Praxis einer kleinen Zahl von Nutzern, die sich intensiv durch Aktivität in der Form von Produktion beteiligen, eine größere Zahl von Teilnehmern gegenübersteht, die überwiegend in der Form von Selektion die Diskussionen anderer verfolgen. [ Siehe dazu Kapitel 5.1.1 dieser Arbeit.]

3.2.2 Usenet Newsgroups

Beschreibungen des Wesens der über das Internet zugänglichen und zum Teil in verwirrender Form sowohl als USENET Newsgroups, Netnews oder auch Internet Newsgroups bezeichneten Diskussionsforen sind häufig widersprüchlich und müssen daher mit Vorsicht betrachtet werden: [ Grundsätzlich sind für eine erste Orientierung zum USENET die in der Newsgroup ‘news.answers’ veröffentlichten Artikel geeignet.]

„The first thing to understand about Usenet is that it is big. Really big. Netnews (and netnews-like things) have percolated into many more places than are even known about by people who track such things. There is no grand unified list of everything that's out there, no way to know beforehand who is going to read what you post, and no history books to guide you that would let you know even a small piece of any of the in jokes that pop up in most newsgroups. Distrust any grand sweeping statements about ‘Usenet’, because you can always find a counterexample." [ Vielmetti, Edward: What is Usenet? A second opinion. 26.12.1995. Online in Internet. Newsgroups: news.misc; news.admin.misc; news.answers (Dieser Artikel wird regelmäßig von Mark Moraes wieder an ‘news.answers’ geschickt).]

Um diese Foren ranken sich Mythen, die eng mit einer vom Internet weitgehend unabhängigen Entwicklungsgeschichte verbunden sind. [ Vgl. z.B. Donnerhacke, Lutz: USENET - Die Einrichtung von Diskussionsforen. In: Rost, Martin (Hrsg.): Die Netzrevolution. Auf dem Weg in die Weltgesellschaft. a.a.O.. S. 70ff..] Selbstorganisation, Selbstregulierung und Anarchie sind nur einige dieser Legenden. Grundsätzlich handelt es sich um ein bestimmtes Konzept, wie Diskussionsbeiträge in Computer-Netzwerken verwaltet und ausgetauscht werden. Zwei Gruppen von Akteuren prägen das Erscheinungsbild der aus diesem Konzept entstandenen Medienanwendung: 1.) alle Nutzer, die Zugriff auf einen die Diskussionsbeiträge weiterleitenden Computer (News-Server) haben und durch Aktivität in der Form von Produktion eigene Beiträge (Articles) in das System einleiten; 2.) alle Betreiber eines News-Servers, da sie bestimmen können, wer Beiträge in welcher Form auf ihrem System selektieren und produzieren darf und mit welchen anderen (in der Regel räumlich benachbarten) News-Servern von den Nutzern produzierte Beiträge ausgetauscht werden. Die Weiterleitung von Diskussionsbeiträgen erfolgt gegenwärtig zu einem großen Teil über das Internet, aber auch auf anderen Wegen, so daß die Zahl der theoretisch möglichen Teilnehmer die der Nutzer eines direkten Zuganges zum Internet [ Gemeint ist der Zugang zu einem Internet Host mit IP-Adresse über ein LAN, Dial-Up-IP oder Remote Login .] übersteigt. Diese und einige weitere Besonderheiten werden aus der Entwicklungsgeschichte und Funktionsweise dieser Medienanwendung verständlich. [ In das an Hochschulen verbreitete Betriebssystem UNIX wurde bereits 1977 das sogenannte Unix-to-Unix Copy Protocol (UUCP) integriert, das einen problemlosen Austausch von Dateien zwischen mit diesem System betriebenen Computern über eine Modem -Verbindung ermöglichte. Da Ende der 70er Jahre bei weitem nicht alle Hochschulen und Forschungseinrichtungen einen Anschluß an das ARPAnet erhalten konnten, entwickelten 1979 zwei graduierte Studenten in North Carolina ein auf einer erweiterten Version von UUCP basierendes Dienst-Programm, mit dem strukturierte Nachrichten ausgetauscht und dabei verschiedenen Themenbereichen zugeordnet werden konnten. Vgl z.B. Rheingold, Howard: Virtuelle Gemeinschaften. a.a.O.. S. 149. Damit wurde ein Netz von räumlich entfernten UNIX-Computern ermöglicht, die nicht (wie im Internet) permanent über kostenintensive Standleitungen verbunden sein mußten. Dieses Konzept fand nach der ersten Vorstellung auf einer Konferenz der UNIX-Benutzer ( Usenix ) 1980 in den folgenden Jahren weltweit mehr und mehr Akzeptanz: Das sogenannte USENET ( Usenix Network - wobei umstritten ist, ob es sich hier wirklich um diese Abkürzung oder eine Wortschöpfung handelt) entstand ursprünglich als ein System von als News-Server eingerichteten UNIX-Computern, die in bestimmten Abständen über die Telefonleitung eine Verbindung zu räumlich benachbarten News-Servern aufnahmen und per UUCP Diskussionsbeiträge austauschten. Vgl. z.B. Gilster, Paul: Der Internet Navigator. a.a.O.. S. 298f.. In einer Art Schneeballsystem konnten so auch große räumliche Distanzen überbrückt werden, ohne daß der einzelne Betreiber mehr als die Telefonkosten zum nächstgelegenen Rechner im USENET ( Host ) tragen mußte. UUCP ermöglichte damit auch für finanzschwache Institutionen und Einzelpersonen den Anschluß an ein weltweites Kommunikationsnetz, daß jedoch im Gegensatz zum Internet auf asynchrone Anwendungsformen beschränkt war. In den 80er Jahren wurden neue Protokolle entwickelt, mit denen die USENET Diskussionsbeiträge auch über das paketorientierte Internet verteilt werden konnten. USENET bezeichnet heute das beschriebene Konzept; USENET Hosts sind alle Computer, über die Newsgroup Articles im Sinne des vorläufigen Internet-Standards RFC 1036 und seiner Nachfolger ausgetauscht sowie Email im Sinne des RFC 822 und seiner Folgeversionen verschickt und empfangen werden kann. Vgl. Donnerhacke, Lutz: USENET - Die Einrichtung von Diskussionsforen. In: Rost, Martin (Hrsg.): Die Netzrevolution. Auf dem Weg in die Weltgesellschaft. a.a.O.. S. 71. Dies erfolgt weitgehend im IP-basierten Internet und im UUCP-Netz. Die Grenzen sind dabei transparent. Das UUCP-Netz ermöglichte somit einen indirekten und vergleichsweise kostengünstigen Teil-Zugang (Beschränkung auf Email und Newsgroups ) zum Internet. In Deutschland erfolgte die Internet-Anbindung bis 1990 beispielsweise auschließlich auf diesem Weg. Vgl. Kuschke, Michael: Bunt gemischt. Marktübersicht: Internet-Anbieter in Deutschland. 1995. Online in Internet. URL: http://www.ix.de/ix/artikel/9510/InternetProvider.html (Stand 20.06.1996).]

Aus einer Nutzerperspektive handelt es sich bei den USENET Newsgroups um eine von den Kommunikationskonstellationen her entfernt mit Mailing-Listen vergleichbare Medienanwendung: In einer many-to-many Konstellation können die Nutzer in asynchroner Form weitgehend textbasierte [ Binärdateien (z.B. Graphiken) müssen bei der Produktion von Medienangeboten in Newsgroups mit speziellen Hilfsprogrammen oder Hilfsfunktionen der verwendeten Client-Software in Textzeichen umgewandelt und bei der Selektion wieder decodiert werden. Dies entspricht zum Teil dem Verfahren beim Anhängen von Dateien an Emails. ] Diskussionen in mittlerweile deutlich mehr als 10.000 hierarchisch und thematisch geordneten, zum Teil nur regional oder lokal, [ Der Betreiber eines News-Servers hat die Möglichkeit, an bestimmte Newsgroups adressierte Medienangebote nur lokal abzuspeichern und nicht an andere News-Server weiterzuleiten. ] überwiegend jedoch weltweit verteilten Foren (Newsgroups) führen. [ Im Juni 1996 sind über den News-Server der Universität Münster und den des im Münsterland ansässigen Provider UNI-X GmbH zusammengenommen etwa 16.000 Newsgroups verfügbar. Die Zahl der in den einzelnen Foren selektierbaren Medienangebote schwankt dabei jedoch stark. (Selektiert werden kann nur, was ein anderer Nutzer produziert hat.)]

In der Entstehungsphase des USENET wurde eine Struktur der Namensgebung von Newsgroups entwickelt, um sowohl die Verwaltung als auch die inhaltliche Orientierung zu erleichtern. Der Name einer Newsgroup besteht aus einem oder mehreren durch Punkte getrennten Ausdrücken. Jeder dieser Begriffe kann aus bis zu 14 Buchstaben bestehen. Die Ausdrücke sind in der Regel sinntragend und beschreiben von links nach rechts eine Hierarchie. Die Hauptvertreter der obersten Hierarchiestufe sind ‘comp’ (computer related), ‘news’ (netnews-administratives), ‘soc’ (societal), ‘sci’ (science related), ‘rec’ (recreational), ‘humanities’ und ‘talk’. [ Vgl. Ishii, Kei: Regularien im Internet. Über Strukturen eines Computervermittelten Kommunikationsmediums. 1995. Online in Internet. a.a.O..] Weitere Ausdrücke wie ‘de’, ‘nl’, ‘it’, ‘dk’, ‘fr’, ‘uk’ ‘chinese’, ‘israel’ etc. bezeichnen nationalsprachliche Hierarchien, die zwar weltweit verteilt, in der Praxis jedoch nicht unbedingt global zugänglich gemacht werden. [ Für den Nutzer sind nur die Newsgroups verfügbar, die der Betreiber des verwendeten News-Servers zugänglich macht. Fast überall in der Welt gibt es jedoch Betreiber, die auch externen Nutzern Zugriff auf ihr System ermöglichen. Bei intensiver Suche können damit auch Beiträge in sehr exotischen Newsgroups selektiert und produziert werden.] Andere Begriffe beschreiben Hierarchien von Teilnetzen des USENET in (z.B. ‘eunet’) und außerhalb des Internet (z.B. ‘fido’).

Inhaltlich decken die Themen der Newsgroups einen großen Teil aller Bereiche des menschlichen Lebens ab. Einige wahllose deutschsprachige Beispiele sind ‘de.alt.tv’, ‘de.markt.arbeit.gesuche’, ‘de.rec.motorrad’ oder ‘de.soc.recht’. Die meisten Newsgroups haben eine Charta, in der grob umrissen wird, worüber in diesem Forum gesprochen werden soll. In der Praxis wird dies von den Nutzern jedoch nur bedingt befolgt. „Das wohl größte Problem der Newsgroup-Diskussionen besteht darin, daß es für einen Leser schwierig ist, relevante Beiträge von weniger relevanten Beiträgen zu unterscheiden." [ Rost, Martin/Schack, Michael: DFÜ - Ein Handbuch. Recherchen in weltweiten Netzen. a.a.O.. S. 16.] Deutschsprachige, explizit geisteswissenschaftliche Newsgroups existieren derzeit zu den Bereichen Theologie, Soziologie, Psychologie, Politologie und Pädagogik. Als eine besondere Form der Aktivität in der Form von Produktion eines neuen Aktivitätsrahmens haben jedoch auch Studierende z.B. der Germanistik oder der Kunstgeschichte als Einzelperson die Möglichkeit, die Einrichtung einer entsprechenden fachbezogenen Newsgroup anzuregen. Dabei sind sie jedoch auf die Unterstützung anderer Nutzer angewiesen. [ Die Einrichtung eines neuen Forums ist technisch unproblematisch. Theoretisch reicht dazu die Produktion eines einzigen Medienangebotes aus, das bestimmte formale Kriterien erfüllt. Da jedoch eine Newsgroup nur aus den Teilnehmerbeiträgen besteht und diese nur produziert und selektiert werden können, wenn der Betreiber des verwendeten News-Servers diese Newsgroup in seinem System anbietet, hat sich in Diskussionen im USENET selbst ein formales Verfahren entwickelt, wie Newsgroups eingerichtet werden, die national oder auch global eine möglichst große Verbreitung finden. Dieses läuft über bestimmte Foren im USENET und besteht aus Vorschlag, Diskussionen, gegebenenfalls Vorschlagsänderungen und Abstimmungen.]

Abgesehen von dem sehr seltenen und aufwendigen Verfahren der Initiierung einer Newsgroup-Neubildung beschränkt sich z.B. für Studierende die Nutzung in der Regel in dieser Reihenfolge auf die Selektion eines News-Servers, [ In der Regel sollte der lokale News-Server verwendet werden, um keine unnötige Netzbelastung zu verursachen. Studierende können jederzeit den Newsmaster ihrer Universität bitten, bisher nicht verfügbare Newsgroups wenn möglich auch lokal anzubieten.] einer oder mehrerer Newsgroups und schließlich die Selektion oder auch Produktion von Medienangeboten in einer der bestehenden Newsgroups. Anders als bei Mailing-Listen ist die Zugangsschwelle gering: Über eine entsprechende Client-Software (den News-Reader) wird eine Verbindung zum News-Server aufgebaut, über den dann eine Liste aller in diesem System verfügbaren Newsgroups erhalten werden kann. Solange Beiträge in verschiedenen Foren nur selektiert und gelesen werden, hat dies, abgesehen davon, daß möglicherweise keine relevanten Beiträge gefunden werden, keine negativen Konsequenzen. Bei der Produktion eigener Beiträge kann jedoch die Mißachtung der sogenannten Netiquette (durch Kommunikation über Jahre gewachsene soziale Übereinkünfte) zu unerwünschten Reaktionen (sogenannten Flames) führen. [ Eine detaillierte Darstellung der Entstehung sozialer Verhaltensweisen und möglicher Sanktionsformen bei Zuwiderhandlungen würde an dieser Stelle den Rahmen der Arbeit sprengen. Es soll daher auf die Überlegungen von Ishi zu Regularien im Internet verwiesen werden. Vgl. Ishii, Kei: Regularien im Internet. Über Strukturen eines Computervermittelten Kommunikationsmediums. 1995. Online in Internet. a.a.O..]

Grundsätzlich bieten die USENET Newsgroups im Vergleich zu Mailing-Listen sowohl Vor- als auch Nachteile. Ein Vorteil ist sicherlich darin zu sehen, daß die quantitative Größe der potentiellen Selektionen eines produzierten Medienangebotes die von Mailing-Listen leicht übersteigen kann. Dies hängt maßgeblich mit der geringeren Zugangsschwelle zu und der gröberen thematischen Festlegung von Newsgroups zusammen. Vor allem bei eigenen Produktionen bleibt in hohem Maße ungewiß, welche und wie viele Nutzer dieses Medienangebot tatsächlich selektieren und möglicherweise darauf in einer erhofften Form reagieren. Bei Mailing-Listen ist dagegen durch die häufig engere thematische Bindung und die Form der Verteilung über Email eine genauere Selektionswahrscheinlichkeit abschätzbar.

3.2.3 Internet Relay Chat (IRC)

Der 1989 in Finnland von Jarkko Oikarinen entwickelte Internet Relay Chat (IRC) wird häufig mit dem CB-Funk verglichen. [ In wenig differenzierter Form äußert dies z.B. der Fernseh-Moderator Friedrich Küppersbusch in einem Interview zu seinen Erfahrungen bei einer online durchgeführten Diskussion: „Mich erinnert Internet-Kommunikation sehr an CB-Funk: Man teilt sich mit, daß man sich jetzt was mitteilen kann. Und beim CB-Funk sind auch nur die Brummi-Fahrer übriggeblieben, weil die das Ding tatsächlich gebrauchen können. Die Brummifahrer des Internets werden wahrscheinlich die Wissenschaftler sein." Buschek, Oliver: ‘Völlig überschätzt’ - ZAK-Moderator Friedrich Küppersbusch über seine Erfahrungen mit dem Internet. In: Planet. Das Internet Magazin. a.a.O.. S. 11.] Das klassische Grundprinzip läßt sich als synchrone Textkommunikation auf bi- und multilateraler Ebene beschreiben. Der Nutzer stellt dabei mit Hilfe einer entsprechenden Anwendungs-Software eine Verbindung zu einem speziell für diesen Zweck eingerichteten Computer im Internet her. Die etwa 100 sogenannten IRC-Server sind weltweit [ In Deutschland gibt es gegenwärtig neun IRC-Server . ] untereinander über stabile Datenverbindungen miteinander verbunden, so daß Texteingaben häufig ohne große Zeitverzögerungen an andere Teilnehmer übermittelt werden können. [ Bei hoher Auslastung der IRC-Server kann es jedoch zu längeren zeitlichen Verzögerungen bei der Übermittlung der Texteingaben kommen (sogenannte lags oder netlags ).] Theoretisch kann der Nutzer damit nahezu in Echtzeit mit jeder anderen Person kommunizieren, die zu diesem Zeitpunkt irgendwo in der Welt am IRC teilnimmt. [ In der Praxis sind internationale Verbindungen aus Deutschland heraus jedoch häufig durch technische Störungen unterbrochen.]

Ein besonderes Merkmal des Internet Relay Chat sind die vielfältigen Möglichkeiten der Gesprächsgruppenbildung. So kann jeder Nutzer einen Gesprächskanal mit einem bestimmten Titel eröffnen (z.B. ‘#muenster’). Über eine Liste der verfügbaren Kanäle oder über spezielle Suchoperationen können andere Teilnehmer von dem neu eröffneten Kanal erfahren und bei Interesse daran teilnehmen. Der Gründer eines Kanals, der sogenannte Channel Operator, verfügt jedoch über eine Reihe von Möglichkeiten, die Gruppenbildung zu beeinflussen, z.B. indem er nur gezielt ausgewählten Teilnehmern Zugang zu dem Kanal gewährt. Neben der multilateralen ist auch rein bilaterale, ungestörte Kommunikation mit nur einem bestimmten Gesprächspartner möglich. [ Einen einführenden Überblick der Vielzahl von IRC-Kommandos gibt z.B. der IRC-Primer von Nicholas Pioch. Vgl. Pioch, Nicholas: IRC-Primer. 1992. Online in Internet. URL: http://wwwcip.informatik.uni-erlangen.de/org/irc/ircprimer.html (Stand 25.01.1996). ]

In der mehrseitigen Form kann IRC statt many-to-many als eine Art few-to-few Konstellation beschrieben werden, da Gespräche bei einer Zahl von mehr als 40 Teilnehmern in einem Kanal kaum noch möglich erscheinen: Mehrere gleichzeitige Reaktionen auf unterschiedliche Aussagen, verbunden mit zeitlichen Verzögerungen bei der Übermittlung, können schnell zu Verwirrung und Unübersichtlichkeit führen. Praktisch gesehen ist die Teilnehmerzahl somit begrenzt.

Der im klassischen IRC verwendete Medientyp ist Text. Um die im Vergleich zu face-to-face Konstellationen geringere Dynamik (Notwendigkeit der Eingabe von Text über die Tastatur) und die fehlenden Möglichkeiten der Körpersprache auszugleichen, haben sich eine Reihe von sprachlichen Besonderheiten entwickelt: Abkürzungen wie z.B. ‘c u l8er’ steht für ‘see you later’; ein über Textzeichen realisiertes Symbol (ein sogenanntes smiley oder emoticon) wie z.B. : - ) bedeutet ‘Ich bin fröhlich. Ich habe gute Laune. Meine Aussage ist freundlich gemeint.’. [ Vgl. dazu z.B. Kneer, Volker: Computernetze und Kommunikation. 1994. Online in Internet. a.a.O..] Es gibt mittlerweile eine Vielzahl vergleichbarer Abkürzungen und nonverbale Kommunikation simulierender Symbole, die zum Teil auch in anderen Medienanwendungen (z.B. Email) als Ausdrucksform verwendet werden.

Im IRC hat jeder Nutzer des Internet die Möglichkeit zur Aktivität in der Form von Produktion. Dies kann als Produktion eines neuen Aktivitätsrahmens (durch Gründung eines neuen Gesprächskanals) oder als Produktion von Medienangeboten (durch eigene Texteingaben in einem zuvor selektierten Kanal) erfolgen. Grundsätzlich ist jedoch auch Aktivität als reine Selektion möglich: Dieser Nutzer (ein sogenannter Lurker) wählt aus der Vielzahl der Möglichkeiten einen Kanal und verfolgt lediglich das Gespräch der anderen Teilnehmer. IRC eignet sich zudem für die kombinierte synchrone Nutzung mit anderen Medienanwendungen. So können die Teilnehmer z.B. ein Medienangebot im World Wide Web selektieren und gleichzeitig per IRC darüber diskutieren.

Inhaltlich charakterisieren die deutschen Übersetzungen von chat als plaudern oder schwatzen die Mehrzahl der Unterhaltungen im IRC treffend. [ Chat als Synonym für bilaterale und multilaterale Kommunikation in einem Computer-Netzwerk ist jedoch nicht auf das Internet beschränkt. Sowohl in lokalen als auch in geschlossenen (z.B. Compuserve ) Netzwerken bestehen entsprechende Möglichkeiten. Aktivität in der Form von Produktion (als Gründung eines eigenen Gesprächskanals) ist dabei jedoch nicht unbeding möglich. Auch die geringere Zahl der potentiellen Teilnehmer beschränkt hier das Nutzungspotential.] Das Potential dieser Medienanwendung wird damit jedoch nicht vollständig erfaßt. In einer der Kernthesen ihrer Dissertation zum Thema IRC betont Reid vor allem die experimentellen Möglichkeiten des Dienstes:

„Interaction on IRC involves a deconstruction of traditional assumptions about the dynamics of communication, and the construction of alternative systems. IRC is essentially a playground. Within its domain people are free to experiment with different forms of communication and self-representation." [ Vgl. Reid, Elisabeth M.: Electropolis: Communication and Community On Internet Relay Chat. 1991. Online in Internet. URL: http://www.ee.mu.oz.au/papers/emr/electropolis.html (Stand 18.03.1996).]

Zwei Faktoren begünstigen den spielerischen Charakter des IRC: Zum einen kann sich jeder Teilnehmer durch die Verwendung eines Spitznamens statt seines realen Namens eine künstliche Identität erschaffen und damit experimentieren; zum anderen besteht in der Beschränkung auf reine Textkommunikation eine Herausforderung, mit Worten einen sozialen Kontext zu kreieren. Emotionen, Handlungen und Beschreibungen werden dabei typographisch von Aussagen getrennt. Im IRC hat sich in den Jahren seit seiner Entstehung im Rahmen der beschriebenen Möglichkeiten ein Gefüge von Kontroll- und Regelungsmechanismen entwickelt. [ Hinner gibt eine ausführliche Beschreibung der Hierachien und Machtstrukturen, der besonderen Verhaltensweisen oder der Schreibweise im IRC. Vgl. Hinner, Kajetan: Gesellschaftliche Auswirkungen moderner Kommunikationstechnologien am Beispiel des Internet. 1995. Online in Internet. URL: http://www.lrz-muenchen.de/%7Euf341ea/ (Stand 18.03.1996).] Rheingold spricht in Anlehnung an den Kulturbegriff des Ethnologen Clifford Geerts von der Konstituierung kultureller Gemeinschaften, deren mögliche soziale Folgen, positiver wie negativer Art, einer weiteren wissenschaftlichen Untersuchung bedürfen. [ Vgl. Rheingold, Howard: Virtuelle Gemeinschaften. a.a.O.. S. 227.]

Das Funktionsprinzip des IRC läßt jedoch auch Anwendungsformen für eine sinnvolle Nutzung in einem universitären Umfeld denkbar erscheinen. [ Ein häufig zitiertes Beispiel für die Tatsache, daß im IRC nicht nur belanglose Plaudereien stattfinden, ist der Kanal ‘#report’. In Krisensituationen, wie z.B. zur Zeit des Golfkriegs (1991) oder des Putschversuchs in Moskau (1992), berichteten hier Augenzeugen schneller als Nachrichtenagenturen über die aktuellen Ereignisse. Vgl. Seidler, Kai: Computerfreaks like 2 party. O.J.. Online in Internet. URL: http://duplox.wz-berlin.de/rps/ (Stand 18.03.1996).] Einen ersten Ansatz stellen IRC-Diskussionen mit Bundestagsabgeordneten im Rahmen des Pilotprojektes ‘Abgeordnete im Internet’ am Fachbereich Politische Wissenschaft der Freien Universität Berlin dar. [ Hinweise zu Organisation, Ablauf und Themen der Diskussion finden sich auf der Homepage des Projektes (Online in Internet. URL: http://www.fu-berlin.de/POLWISS/mdb-projekt/ (Stand 20.03.1996).] Zwischen dem 06.12.1995 und dem 04.03.1996 diskutierte hier in sechs Veranstaltungen jeweils ein Abgeordneter des Bundestages mit den IRC-Teilnehmern. Ein Moderator sicherte einen geordneten Verlauf des Gespräches. Es fällt auf, daß z.B. in der Diskussion mit dem Abgeordneten Tauss zum Thema ‘Krypthographie und elektronische Signaturen’ Mechanismen der Kontextbildung nicht von denen in den belanglosen Plaudereien abweichen. Dies wird an Handlungsbeschreibungen wie „action: tauss grübelt..." [ N.N.: Transcript der Live-Diskussion im Internet mit dem MdB Jörg Tauss zum Thema Kryptographie vom 06.12.1995 im Rahmen des Pilotprojektes "Abgeordnete im Internet" am FB Politische Wissenschaft der FU Berlin. 1995. Online in Internet. a.a.O..] deutlich. [ Eine Erklärung für die reibungslose Adaption der Verhaltensmuster im IRC in diesem Kontext kann im Zwischenschalten eines Projektmitarbeiters für die Tastaturein gabe der Antworten des Abgeordneten gesehen werden.]

Möglichkeiten für einen sinnvollen Einsatz des IRC im Hochschulbereich sind aus den genannten Beispielen ableitbar. Als Anwendungen sind Expertengespräche, interkulturelle Diskussionen zu einem speziellen Thema, aber auch Interviews in einer one-to-one Konstellation vorstellbar. Rheingold erkennt dabei im IRC das Potential, sich zu einem ernsthaften Kommunikationsmedium zu entwickeln:

„In dem Moment, in dem akademische und kommerzielle Arbeitsgruppen die MUDs und IRC als Kommunikationsmedien verwenden, so wie in den siebziger Jahren Textverarbeitung und in den achtziger Jahren EMail aufgegriffen wurde, verwandeln sich diese CMC-Spielplätze in eine Disziplin, die den Namen computer-supported cooperative work (CSCW) erhalten hat." [ Rheingold, Howard: Virtuelle Gemeinschaften. a.a.O.. S. 232.]

Bei der hier angesprochenen CSCW wird das Grundkonzept des Chat aufgegriffen und erweitert. Ein Beispiel für eine aktuell verfügbare Anwendungssoftware verdeutlicht dies: Das Programm Netmeeting der Firma Microsoft [ Informationen zu diesem Programm sind über die Homepage der Firma Microsoft verfügbar. Online in Internet. URL: http://www.microsoft.com (Stand 18.06.1996).] ermöglicht neben der bilateralen synchronen Kommunikation über Text auch Sprachübertragung sowie die gemeinsame Nutzung einer lokal installierten Anwendungs-Software, z.B. einer Textverarbeitung oder eines Präsentations-Programmes. Bei diesem sogenannten Application Sharing kann beispielsweise der Entwurf eines Charts gemeinsam diskutiert, markiert und verändert werden. [ Es ist jedoch noch unklar, in welcher Form solche Anwendungsformen Studierenden tatsächlich einen Nutzen bringen können.] Aufgrund der vor allem bei Sprachübertragung erhöhten Netzbelastung lehnen viele Netzwerkbetreiber die Verwendung solcher Anwendungen beim gegenwärtigen Ausbaustand der Netzinfrastruktur in Deutschland jedoch noch ab.

3.2.4 World Wide Web (WWW)

Der in den vergangenen Jahren zu beobachtende Popularitätsschub des Internet wird häufig mit der Entstehung des World Wide Web (WWW) in Verbindung gebracht. [ Hoffmann, Ute: ‘Request for Comments’ - Das Internet und seine Gemeinde. O.J.. Online in Internet. a.a.O.. Eine Darstellung aller in Zusammenhang mit einer zunehmenden Kommerzialisierung des Internet, speziell des WWW, verbundenen Aspekte würde den Rahmen dieser Arbeit bei weitem sprengen. Da die Problemstellung dieser Arbeit aus den beschriebenen Gründen jedoch auf Internet-Nutzung in einem universitären Kontext beschränkt wurde, sind diese Aspekte jedoch auch weitgehend zweitrangig. Für die weitere generelle wissenschaftliche Auseinandersetzung mit dem Internet sind sie jedoch natürlich von großer Bedeutung.] Es handelt sich dabei um eine Medienanwendung, die weniger der Diskussion, sondern vornehmlich der Publikation dient. Zentrale Merkmale sind eine besonders einfache Form der Selektion von Medienangeboten, eine große Vielfalt integrierbarer Medientypen sowie eine über Hypertext- bzw. Hypermedia-Verweise (Links) durchführbare nonlineare Verknüpfungsmöglichkeit von Elementen eines oder mehrerer Medienangebote. Definiert man eine Medienanwendung im Internet über das durch sie ermöglichte Aktivitätspotential der Nutzer (in der Form von Produktion und Selektion), die möglichen Kommunikationskonstellationen sowie integrierbaren Medientypen, so ist das World Wide Web als Medienanwendung im Sinne dieser Arbeit möglicherweise nicht deckungsgleich mit einer Vorstellung vieler Nutzer: Durch zunehmende Möglichkeiten der Integration von Funktionen anderer Medienanwendungen (z.B. von Email, Chat etc.) verschwimmen scheinbar Grenzen; es kann der Eindruck entstehen, als ließe sich das Nutzungspotential des Internet auf das Spektrum der Möglichkeiten im World Wide Web reduzieren. [ Ein Beispiel für den Versuchs einer solchen Integration stellt das publikom - Stadtnetz Münster dar. Online in Internet. URL: http://www.muenster.de (Stand 16.07.1996). Die dort integrierte Chat Funktion ist jedoch in puncto Dynamik nicht mit IRC zu vergleichen. Die Funktion zur Produktion eines eigenen Medienangebotes im World Wide Web ist präzise vorgegebenen Grenzen unterworfen.] Das ist jedoch gegenwärtig nicht der Fall, da zum Beispiel für Studierende ein unausgewogenes Verhältnis von Möglichkeiten der Produktion und Selektion von Medienangeboten im WWW besteht. [ Siehe dazu auch die Darstellung der Ergebnisse einer Vorabbefragung zu Zugangsformen zum Internet an deutschen Universitäten in Kapitel 4.3 dieser Arbeit.]

Das Grundkonzept des World Wide Web entstand 1989 am Centre Européen de Recherches Nucléaires (CERN) in Genf. Um verfügbare Berichte, Listen, Dokumentationen und Datenbanken weltweit verstreuten Mitarbeitern und Partnern in einfacher Form zugänglich machen zu können, wurde in einer Arbeitsgruppe um Tim Berners-Lee ein neuartiges Informationssystem erdacht, daß durch zwei zentrale Merkmale gekennzeichnet sein sollte: [ Vgl. Berners-Lee, Tim: WorldWideWeb: Proposal for a HyperText Project. 1990. Online in Internet. URL: http://unix1.sncc.lsu.edu/internet/guides/www-docs/WWW/Proposal.html (Stand 02.07.1996).]

  1. Die in den verschiedenen Abteilungen von CERN verfügbaren Ressourcen sollten in einem plattformunabhängigen Dokumentformat auf speziellen Servern abgespeichert werden und mittels einer Client-Software (Browser) von jedem beliebigen Computersystem aus angezeigt werden können.
  2. Das neue System sollte es dem Nutzer ermöglichen, in einem vom Browser angezeigten Dokument über optisch hervorgehobene Worte oder Textstellen zu jeder beliebigen Stelle desselben oder eines anderen Dokumentes zu gelangen, daß auf irgend einem der Server gespeichert war; das sich durch die Gesamtheit der verschiedenen Verweise (der sogenannten Hypertext-Links) ergebende Geflecht nonlinear verknüpfter Inhalte erhielt aufgrund der möglicherweise weltweiten Verbreitung des Konzeptes den Namen World Wide Web.

Das Projekt wurde zunächst mit mäßigem Erfolg umgesetzt: Da in den ersten Jahren nur ein über die Tastatur zu bedienender und rein textbasierter Browser zur Verfügung stand, gab es bis Ende 1992 nur etwa 20 World Wide Web Server weltweit. Der Durchbruch dieser Medienanwendung begann Mitte 1993 mit der kostenlosen Verteilung einer ersten Version der Software Mosaic über das Internet. Dieser am National Center for Supercomputing Applications (NCSA) entwickelte Browser mit graphischer Benutzeroberfläche ermöglichte dem Nutzer die Aktivierung von Hypertext-Links mit Hilfe der Computermaus sowie die Anzeige von in die Hypertext-Dokumente integrierten Graphiken. Bis Dezember 1994 stieg die Zahl der weltweit installierten WWW-Server daraufhin bereits auf über 11.000 an. [ Vgl. Ramm, Frederik: Recherchieren und Publizieren im World Wide Web . a.a.O.. 1995. S. 9.]

Bei den über das World Wide Web selektierbaren Dokumenten handelt es sich formal um einfache ASCII-Textdateien, die auf jedem Computersystem mit gängigen Editoren erzeugt werden können. Über eine Seitenbeschreibungssprache, die sogenannte Hypertext Markup Language (HTML), können einzelne Elemente des Medienangebotes mit einfachen Steuerbefehlen (sogenannten Tags) als Links definiert werden und ermöglichen damit eine inhaltliche Verknüpfung mit anderen Elementen bzw. Medienangeboten in der beschriebenen Hypertext-Form. [ Grundsätzlich können alle optisch darstellbaren Elemente eines Medienangebotes im WWW als Link definiert werden (also auch Graphiken etc.), so daß mittlerweile eigentlich von Hypermedia gesprochen werden muß.] Darüber hinaus fungieren die Tags in ihrer Grundfunktion dazu, einen groben Rahmen für das optische Erscheinungsbild bei der Anzeige von selektierten Medienangeboten vorzugeben. Ursprünglich diente HTML dabei vorrangig dazu, inhaltliche Elemente hervorzuheben bzw. voneinander abzusetzen: Mit einem Tag wie ‘<strong>’ sollte zum Beispiel die Betonung eines Wortes oder einer Textstelle bewirkt werden. [ Vgl. Berners-Lee, Tim/ Connolly , Daniel: Hypertext Markup Language (HTML). Internet Draft. 1993. Online in Internet. URL: http://www-usa.partner.digital.com/www-swdev/pages/Home/TECH/software/csw/doc/httpspec.txt (Stand 05.01.96).] Ob ein Browser dabei das entsprechende Wort bei der Anzeige durch Fett- oder Kursivdarstellung interpretierte, sollte zweitrangig sein.

Der Funktionsumfang von HTML hat seit Beginn der 90er Jahre eine rasante Entwicklung erfahren: Die Beschreibungssprache hat sich in einzelnen Schritten [ Neben den über die IETF zugänglichen Quasi Spezifikationen einer HTML Version 1.0, 2.0 und 3.0 haben auch immer wieder die Hersteller einzelner Browser neue Quasi-Standards gesetzt, allen voran die Firmen Microsoft und Netscape . Nähere Informationen dazu sind im Internet in unzähliger Form vorhanden. Als ein Einstieg können z.B. die Homepage des HyperText Markup Language (html) Charter der IETF (Online in Internet. URL: http://www.ietf.cnri.reston.va.us/html.charters/html-charter.html) sowie eine umfassende Einführung von Justin Hall (Online in Internet. URL: http://www.links.net/webpub/) dienen.] mehr und mehr auch zu einer Formatierungssprache entwickelt, mit der gegenwärtig z.B. dezidierte Vorgaben zu Spalten, Tabellen, Farben, Fenstergrößen- und anordnung etc. vorgenommen werden können. Die Browser haben sich vielfach zu einer multifunktionalen Client-Software entwickelt, die zahlreiche Protokolle der Anwendungsschicht unterstützen und so die Integration anderer Medienanwendungen begünstigen. Spezielle Erweiterungen (sogenannte Plugins) ermöglichen darüber hinaus eine Einbindung nahezu aller denkbaren Medientypen (verschiedene Graphikformate, Video bis zu synchroner Audio-Übertragung etc.).

Eine anfangs im von Berners-Lee erdachten Konzept beabsichtigte Einheitlichkeit [ In seinem frühen Konzept beschrieb Berners-Lee z.B. was das System nicht leisten soll: „(...) to do research into fancy multimedia facilities such as sound and video (...)" Berners-Lee, Tim: WorldWideWeb: Proposal for a HyperText Project. 1990. Online in Internet. a.a.O.. ] weicht zunehmend einer Diversifizierung: Das verwendete Betriebssystem, der jeweilige Browser und dessen Erweiterungen beeinflussen die Möglichkeiten der Selektion. Die Integration von durch umfangreiche Datenmengen gekennzeichneten Medientypen führt zudem zu erhöhter Netzbelastung. Neue Konzepte wie Java [ Bei Java handelt es sich um eine von der Firma Sun Microsystems entwickelte, objektorientierte Programmiersprache. Das Konzept, das theoretisch die modulare Verteilung von Applikationen über ein Netzwerk erlaubt, wird derzeit hauptsächlich zur Erweiterung von Medienangeboten im World Wide Web verwendet (z.B. Integration von über Java realisierten Animationen etc.). Informationen zu Java sind in vielfacher Form über das Internet erhältlich, z.B. über die entsprechende Homepage der Firma Sun Microsystems . Online in Internet. URL: http://www.java.sun (Stand 01.07.1996).] sind zwar wieder plattformübergreifend angelegt, gelten jedoch gegenwärtig als sicherheitstechnisch umstritten [ Vgl. z.B. Martins, Filipe P.: Wie sicher ist die Arbeit mit Java? In: PC Intern. Heft 6/96. S. 42f.. Die angesprochenen Probleme sind möglicherweise zeitpunktabhängig und können sich ent- oder verschärfen.] und stellen im Vergleich zu HTML auf programmiertechnischer Ebene erhöhte Anforderungen in bezug auf die Produktion.

Medienangebote im World Wide Web sind in ihrer formalen Grundgestalt als auf einem WWW-Server gespeicherte HTML-Dokumente nicht ohne Wechsel der Medienanwendung für eine kognitiv begründete Reaktion anderer Nutzer durch Produktion eines eigenen Medienangebotes ausgelegt. Grundsätzlich handelt es sich damit um eine potentielle einseitige one-to-many Konstellation. [ Z.B. über das im folgenden noch erläuterte Common Gateway Interface ist theoretisch über ein Medienangebot im World Wide Web die Generierung neuer Angebote möglich. Es handelt sich dabei jedoch nicht um eine Grundfunktion der Medienanwendung WWW, sondern die Integration einer entsprechenden Funktionalität obliegt der Entscheidung eines Erstproduzenten. Außerdem soll an dieser Stelle kurz auf das experimentelle und bisher noch wenig verbreitete Hypermedia -System Hyper-G hingewiesen werden, das theoretisch eine Weiterentwicklung des World Wide Web Konzeptes darstellt. Dieses System arbeitet (anders als das World Wide Web ) mit bidirektionalen Link -Verbindungen und ermöglicht auch kooperative Produktion von Medienangeboten mittels einer Hyper-G Client-Software . Eine Praktikabilität bei größerer Verbreitung ist bisher jedoch noch ungeklärt. Vgl. dazu z.B. Ramm, Frederik: Recherchieren und Publizieren im World Wide Web . a.a.O.. 1995. S. 11ff..] Die reine Produktion eines Medienangebotes sagt noch nichts über die Zahl tatsächlicher Selektionen aus. [ Die Darstellung der im Zusammenhang mit der Hauptbefragung durchgeführten Bekanntmachungsmaßnahmen verdeutlicht diese Problematik. Siehe dazu Kapitel 4 dieser Arbeit.] Ein wichtiger Unterschied zu klassischen Massenmedien besteht (neben vielen anderen Gegensätzen, wie z.B. den durch das Hypertext- bzw. Hypermedia-Konzept erweiterten Selektionsmöglichkeiten) darin, daß ein Feedback ohne Wechsel des technischen Mediums durch Integration anderer Medienanwendungen (z.B. durch Angabe einer Email-Adresse) theoretisch möglich ist. Es steht jedoch jedem Produzenten frei, dieses Integrationspotential auszuschöpfen.

Für Studierende stellt sich das World Wide Web entweder als Selektions- oder Produktions-Medienanwendung dar. Eine grundsätzliche Zugangsschwelle für Selektion kann bereits durch den Zugang zum Internet überwunden werden. [ Z.B. über eine Remote Login Verbindung ist lediglich die Verwendung eines textbasierten Browsers möglich. Eine reine Offline-Nutzung (z.B. bei Verteilung über CD-ROM) soll hier unberücksichtigt bleiben, da dabei z.B. Links nur in vorgegebenem Maße weiterverfolgt werden können.] Je nach Gestalt des selektierten Medienangebotes fallen jedoch in unterschiedlichem Maße die beschriebenen Diversifizierungsaspekte ins Gewicht und verhindern gegebenenfalls eine Selektion. [ Wenn beispielsweise der Browser bestimmte HTML Tags (z.B. die Frame -Funktion, die die gleichzeitige Darstellung mehrerer HTML-Dateien in einem Fenster ermöglicht) nicht interpretieren kann, so kann das Medienangebot nicht bzw. nicht in vollem Umfang selektiert werden. ]

Für die Produktion eigener Medienangebote stellt der Schreibzugriff auf einen WWW-Server eine Grundvoraussetzung dar. Dabei muß jedoch weiter differenziert werden: Wer z.B. eine Befragung über das WWW durchführen will, benötigt je nach Vorgehensweise Funktionen, die über HTML nicht realisiert werden können. Die Einbindung externer Programme über eine spezielle Schnittstelle, das sogenannte Common Gateway Inderface (CGI), [ Für nähere Erläuterungen vgl. dazu z.B. Ramm, Frederik: Recherchieren und Publizieren im World Wide Web . a.a.O.. 1995. S. 209ff..] wird gegebenenfalls notwendig, z.B. um über HTML realisierte Formulare Nutzereingaben in einer Ergebnisdatei auf dem Server abzuspeichern. Die Verwendung von CGI-Programmen erfordert jedoch erweiterte Zugriffsrechte auf den Server. Die von kommerziellen Mehrwertdienst-Providern wie AOL oder Compuserve gegenwärtig ermöglichten Zugriffsrechte erlauben dies beispielsweise nicht. Formale Bedingungen für die Produktion und Selektion von Medienangeboten unterliegen damit im Vergleich zu Email, Newsgroups oder Mailing-Listen, einer wesentlich größeren Vielfalt von Einflußfaktoren, die an dieser Stelle nur ausschnittweise angedeutet werden konnten.

  • Inhaltlich gilt für Medienangebote im World Wide Web der bereits genannte Grundsatz aller Medienanwendungen: Es kann nur selektiert werden, was produziert wurde. Da im World Wide Web keine hierarchische Struktur vorhanden ist, stehen Studierende in bezug auf Selektion vor einem grundsätzlichen Problem: es muß gefunden werden, was produziert wurde. Dazu können über das technische Medium Internet mehrere Strategien verfolgt werden:
  • Durch Aktivität in der Form von Produktion kann über andere Medienanwendungen (z.B. Mailing-Listen; Newsgroups) nach Hinweisen gefragt werden.
  • Durch Aktivität in der Form von Selektion in anderen Medienanwendungen können Hinweise mit erhöhter Wahrscheinlichkeit (durch interessengebundene Selektion oder Produktion eines Aktivitätsrahmens, z.B. eine Mailing-Liste zu Marktforschung im Internet) wahrgenommen werden.
  • Von einem einmal wahrgenommenen Medienangebot im World Wide Web ausgehend, können dort integrierte Links weiterverfolgt werden.

Häufig unter Verwendung sogenannter Robots [ Bei Robots handelt es sich um Programme, die weitgehend automatisiert Medienangebote im WWW abrufen und sie in Datenbanken katalogisieren. Dies geschieht in der Regel unabhängig von Inhalten.] angelegte und z.B. über CGI im WWW abfragbare Datenbanken können nach Stichworten durchsucht werden.

Im World Wide Web produzierte Medienangebote unterliegen im Höchstfall einer freiwilligen, in der Regel jedoch keiner grundsätzlichen inhaltlichen Vorabselektion. Studierende wie Lehrende sind dadurch mit veränderten Bewertungsanforderungen konfrontiert. Es ist gegenwärtig noch weitgehend offen, wie hier die weitere Entwicklung verlaufen wird und zu welchen Veränderungen des Medien-, wie auch des Wissenschaftssystems dies führen kann. Die tatsächliche Akzeptanz von durch das technische Medium Internet formal begrenzten Produktions- und Selektionsmöglichkeiten wird die relevanten Fragen diktieren.

3.2.8 Sonstige Anwendungsformen

Die bisherigen Ausführungen zu Medienanwendungen im Internet verdeutlichen bereits ansatzweise die Fülle potentieller Nutzungsformen und diese formal bestimmender Einflußfaktoren. In verkürzter Form [ Die verkürzte Darstellung geschieht aus praktischen Gründen. Je nach konkreter Motivation können auch diese Anwendungsformen einen wichtigen bzw. den einzigen möglichen Beitrag zum Erhalt der gewünschten Gratifikation leisten.] werden im folgenden weitere Möglichkeiten dargestellt. Den Schwerpunkt bildet eine knappe Erläuterung der konkreten Funktionsweise.

File Transfer Protocol (FTP) und Archie

Das File Transfer Protocol (FTP) stellt im Internet eine Basisfunktion der Datenfernübertragung zur Verfügung: die optimierte Übertragung beliebiger Dateien von und zu entsprechenden Servern. Im Internet existieren zahlreiche öffentlich zugängliche Server, [ Diese Form des Zugriffes auf einen FTP- Server wird als anonymous FTP bezeichnet. Zugriffsrechte beschränken sich dabei jedoch auf bestimmte Verzeichnisse mit unterschiedlichen Schreib- und Leserechten.] über die vor allem Software-Programme, aber auch Texte, Graphiken etc. abgerufen werden können. Schreib- und Lesezugriffe hängen von jeweils vergebenen Zugriffsrechten ab. Die Übertragung ist technisch gesehen von Formaten und sich dahinter verbergenden Inhalten unabhängig. Zahlreiche der zur Nutzung des Internet notwendigen Programme sind kostenlos per FTP erhältlich.

Um die Suche nach einzelnen Dateien zu vereinfachen, kann man im Internet sogenannte Archie-Server nutzen. Dahinter verbergen sich Datenbanken der Verzeichnisstrukturen vieler unterschiedlicher FTP-Server. Diese Datenbanken können über entsprechende Archie Client-Software, aber auch per Email oder über das WWW abgefragt werden.

Gopher

Das Gopher-Protokoll der Anwendungsschicht und die gleichnamige Medienanwendung können als ein Vorläufer des WWW bezeichnet werden. Über entsprechende Browser ist jedoch nur eine Selektion von Texten mittels einer hierarchisch aufgebauten Menüstruktur sowie deren Anzeige möglich. Dieses Konzept ist mittlerweile veraltet.

Telnet

Telnet ist eine Terminal-Emulation, bei der ähnlich wie beim Remote Login als Internet-Zugang, eine Verbindung zu einem anderen Computer aufgebaut und dort installierte textbasierte Programme fernbedient und angezeigt werden können. Telnet eignet sich damit theoretisch zur textbasierten Nutzung ganz unterschiedlicher Medienanwendungen (z.B. Email oder auch WWW über textbasierte Browser). Eine häufige Art der Nutzung ist jedoch die Abfrage von datenbankbasierten Medienangeboten wie Bibliothekskatalogen. [ Vgl. dazu z.B. Gilster, Paul: Der Internet Navigator. München/Wien 1994. S. 136ff..] Diese Anwendungsform wird gegenwärtig aber zunehmend über das WWW, z.B. mittels CGI, realisiert. Um sich über Telnet auf einem anderen Computer im Internet einzuloggen, sind in der Regel die Eingabe einer Nutzerkennung sowie eines Passwortes notwendig.

Ping, Traceroute, Finger

Über das Hilfsprogramm Ping kann getestet werden, ob und in welcher Zeit ein bestimmter Computer im Internet erreichbar ist. Über Traceroute kann zudem verfolgt werden, über welche Route Datenpakete an ihr Ziel gelangen. Finger ermöglicht es gegebenenfalls, [ Dies funktioniert nur, wenn der Betreiber des entsprechenden Teilnetzes dies zuläßt.] Informationen über Personen zu erhalten, die gerade an einem bestimmten Computer arbeiten.

Die Darstellung des Nutzungspotentials des technischen Mediums Internet muß unvollständig, die Erläuterung der technischen Funktionen oberflächlich bleiben. Das Internet ist in jeder Hinsicht einem stetigen Wandel unterworfen. Fast täglich können durch neue technische Entwicklungen theoretisch neue Anwendungsformen entstehen. Aktuelle Statistiken veralten nach kurzer Zeit. Bleiben werden Medienangebote, deren Produktion und Selektion durch sich wandelnde Einflußfaktoren bestimmt werden. Die dargestellten Zusammenhänge sollten einen groben Eindruck des technischen Mediums Internet vermitteln, wie es sich zum Zeitpunkt der im folgenden Kapitel beschriebenen Befragungsdurchführung darstellte.

1996 Ralf Taprogge.
Letzte Änderung am 31.12.1996.
Kommentare und Anregungen an: taprogg@uni-muenster.de
Verweise auf diese Arbeit bitte nur unter URL:
http://www.uni-muenster.de/Publizistik/MAG3/ifp/taprogg/

Vielen Dank an Andreas von MAG3 und Rainer vom URZ.


...und nochmal der link:
Publikumszeitschriften Online
PZ Online - ein Service des VDZ, u.a. mit aktuellen IVW-Daten...

< Inhalt < Kapitel 2 < > Kapitel 4 > Literatur >