A B C D E F H I K M P R S U W Z

Internet

Das Internet (von englisch internetwork, zusammengesetzt aus dem Präfix inter und network
‚Netz‘ oder kurz net ‚Netz‘), umgangssprachlich auch Netz, ist ein weltweiter Verbund von
Rechnernetzwerken, den autonomen Systemen. Es ermöglicht die Nutzung von Internetdiensten
wie WWW, E-Mail, Telnet, SSH, XMPP, MQTT und FTP. Dabei kann sich jeder Rechner mit jedem
anderen Rechner verbinden. Der Datenaustausch zwischen den über das Internet verbundenen
Rechnern erfolgt über die technisch normierten Internetprotokolle. Die Technik des Internets
wird durch die RFCs der Internet Engineering Task Force (IETF) beschrieben.
Die Verbreitung des Internets hat zu umfassenden Umwälzungen in vielen Lebensbereichen
geführt. Es trug zu einem Modernisierungsschub in vielen Wirtschaftsbereichen sowie zur
Entstehung neuer Wirtschaftszweige bei und hat zu einem grundlegenden Wandel des
Kommunikationsverhaltens und der Mediennutzung im beruflichen und privaten Bereich geführt.
Die kulturelle Bedeutung dieser Entwicklung wird manchmal mit der Erfindung des Buchdrucks
gleichgesetzt.

Der Ausdruck Internet ist ein Anglizismus. Er entstand als Kurzform des Fachausdrucks
internetwork, unter dem in den 1970er und 1980er Jahren die Entwicklung eines Systems zur
Vernetzung von bestehenden, kleineren Rechnernetzen diskutiert wurde. Aus der allgemeinen
englischen Fachbezeichnung für ein internetwork oder internet verbreitete sich das seit 1996 auch
in den Duden aufgenommene Wort „Internet“ als Eigenname für das größte Netzwerk dieser Art,
das aus dem Arpanet entstand. Mit der gesellschaftlichen Durchdringung des Internets etablierten
sich die Bezeichnungen „Internet“ und umgangssprachlich „Netz“ auch in der Alltagssprache.
„Netz“ bezeichnet aber in der Informatik nicht zwingend das Internet, sondern es gibt auch diverse
andere Netzwerk-Infrastrukturen.

1969–1983 Vorläufer Arpanet
Das Arpanet

Das Internet begann am 29. Oktober 1969 als Arpanet. Es wurde zur Vernetzung der Großrechner von Universitäten und Forschungseinrichtungen genutzt. Das Ziel war zunächst, die Rechenleistungen dieser Großrechner effizienter zu nutzen, zuerst nur in den USA, später weltweit.

Diese Großrechner waren untereinander über Interface Message Processors verbunden, die die Netzwerkkommunikation mittels Paketvermittlung übernahmen. Die verwendeten Protokolle waren in heterogenen Umgebungen unzuverlässig, weil sie für ein bestimmtes Übertragungsmedium optimiert waren.

Vinton G. Cerf und Robert E. Kahn entwickelten 1973 und 1974 eine frühe Version von TCP, um andersartige Netze miteinander zu verbinden. Nach Weiterentwicklungen in den folgenden Jahren wurde es als TCP/IP bekannt.

Nach einer weit verbreiteten Legende bestand das ursprüngliche Ziel des Projektes vor dem Hintergrund des Kalten Krieges in der Schaffung eines verteilten Kommunikationssystems, um im Falle eines Atomkriegs eine störungsfreie Kommunikation zu ermöglichen. Tatsächlich wurden hauptsächlich zivile Projekte gefördert, obwohl die ersten Knoten von der DARPA finanziert wurden.

Die wichtigste Anwendung in der Anfangszeit war die E-Mail. In dem Jahr 1971 betrug die Datenmenge des E-Mail-Verkehrs mehr als die Datenmenge, die mit den anderen Protokollen des Arpanet, nämlich Telnet und FTP, übertragen wurde. Damit wurde das Ziel, Rechenarbeit nach Angebot und Nachfrage auszulagern, verfehlt.
1981–1993 TCP/IP, DNS und Usenet

1981 wurden mit RFC 790-793 IPv4, ICMP und TCP spezifiziert, die bis heute die Grundlage der meisten Verbindungen im Internet sind. Diese sollten nach einer knapp zweijährigen Ankündigungszeit am 1. Januar 1983 auf allen Hosts aktiv sein. Mit der Umstellung von den Arpanet-Protokollen auf das Internet Protocol begann sich auch der Name „Internet“ durchzusetzen. Dies stellt die erste globale Protokollumstellung in der Geschichte des Internets dar und dauerte laut Kahn fast sechs Monate. Die anfängliche Verbreitung des Internets ist eng mit der Entwicklung des Betriebssystems Unix verbunden.

Mit dem 1984 entwickelten DNS wurde es möglich, auf der ganzen Welt Rechner mit von Menschen merkbaren Namen anzusprechen.

Das Internet verbreitete sich über immer mehr Universitäten und weitete sich auch über die Grenzen der USA aus. Dort fand das Usenet weite Verbreitung und wurde zeitweise zu der dominanten Anwendung des Internets. Es bildeten sich erste Verhaltensregeln (Netiquette) und damit erste Anzeichen einer „Netzkultur“.
Ab 1989 Kommerzialisierung und das WWW

Im Jahr 1990 beschloss die National Science Foundation der USA, das Internet für kommerzielle Zwecke nutzbar zu machen, wodurch es über die Universitäten hinaus öffentlich zugänglich wurde. Tim Berners-Lee entwickelte um das Jahr 1989 am CERN die Grundlagen des World Wide Web. Am 6. August 1991 machte er dieses Projekt eines Hypertext-Dienstes via Usenet mit einem Beitrag zur Newsgroup alt.hypertext öffentlich und weltweit verfügbar.[11]
Erster Web-Server am CERN

Rasanten Auftrieb erhielt das Internet ab 1993, als der erste grafikfähige Webbrowser namens Mosaic veröffentlicht und zum kostenlosen Download angeboten wurde, der die Darstellung von Inhalten des WWW ermöglichte. Insbesondere durch AOL und dessen Software-Suite kam es zu einer wachsenden Zahl von Nutzern und vielen kommerziellen Angeboten im Internet. Da der Webbrowser fast alles andere verdrängte, wird er auch als die „Killerapplikation“ des Internets bezeichnet. Das Internet ist ein wesentlicher Katalysator der Digitalen Revolution.

Mit der Verbesserung der Datenübertragungsraten und der Einführung normierter Protokolle wurde die Nutzung der Internet-Infrastruktur für die Telefonie attraktiv. Ende 2016 nutzten in Deutschland rund 25,2 Millionen Menschen die Voice-over-IP-Technologie (VoIP).
Als sich eine Verknappung des noch freien IP-Adressraums abzeichnete, begann die Entwicklung eines Nachfolgeprotokolls. Im Dezember 1995 wurde die erste Spezifikation von IPv6 veröffentlicht[13] und fortan in Pilotprojekten getestet, etwa im globalen Testnetzwerk 6Bone und im deutschsprachigen Raum im JOIN-Projekt. Im Februar 2011 wies die ICANN die letzten IPv4-Adressblöcke an die Regional Internet Registries zur Weiterverteilung zu. Je nach Registry werden die restlichen IPv4-Adressblöcke noch zugeteilt oder sind bereits aufgebraucht. Infolge des World IPv6 Day und World IPv6 Launch Day im Juni 2011 und Juni 2012 stieg der Anteil von IPv6 am Internetverkehr, betrug insgesamt jedoch weniger als ein Prozent.
2003 bis heute: Web 2.0 und die Cloud

Mit Social-Media-Plattformen wie Facebook, Twitter oder YouTube trat das bidirektionale Austauschen von Inhalten unter den Nutzern (sogenanntem user-generated content) in den Vordergrund, allerdings jetzt auf zentralen, abgeschlossenen Plattformen und praktisch ausschließlich durch Nutzung eines Webbrowsers. Das Schlagwort Web 2.0 verweist auf die zunehmende Interaktivität, auch durch Audio- und Videoeinbindung, des Internets.

Mit der zunehmenden Verbreitung von verschiedenen mobilen Endgeräten entwickeln sich über Webseiten ausgelieferte JavaScript-Programme in Kombination mit zentral gehosteten Serveranwendungen und deren Speicher zunehmend zur interoperablen Alternative zu herkömmlichen Anwendungen.

Unter dem Sammelbegriff „Internet der Dinge“ wurden Technologien etabliert, die den direkten Anschluss von Geräten, Maschinen, Anlagen, mobilen Systemen usw. an das Internet erlauben. Sie dienten der Interaktion dieser „Dinge“ untereinander bzw. dem Fernzugriff auf sie durch den menschlichen Bediener. Diese Anschlusstechnologien umfassten einerseits Cloud-basierte Dienste, andererseits geräteseitige Anbindungstechnologien.

Gesellschaftliche Aspekte und Staatliche Eingriffe
Das Internet gilt bei vielen Experten als eine der größten Veränderungen des Informationswesens seit der Erfindung des Buchdrucks mit großen Auswirkungen auf das alltägliche Leben. Im Jahr 2013 hat der Bundesgerichtshof erklärt, dass das Internet zur Lebensgrundlage von Privatpersonen gehört.

Eine zunehmende Bedeutung erhält auch der Online-Journalismus, der heute zu einem großen Konkurrenten der klassischen Medienlandschaft geworden ist. Aktuell sehen Beobachter zudem einen Wandel des Nutzers vom „surfenden“ (passiven) Medienkonsumenten zum aktiven User-generated content-Autor, der sich zu vielerlei Themen in Online-Communitys mit Gleichgesinnten vernetzt, die die klassische, bisher eher techniklastige Netzkultur ergänzt. Räumliche Grenzen sind durch das Internet aufgehoben und werden durch themenbezogene Gruppen ersetzt. Durch die Vielzahl der Informationsquellen stellt der sinnvolle Umgang mit dem Internet andere Anforderungen an die Medienkompetenz der Benutzer als klassische Medien.

Das Internet wird häufig in politischen Kontexten als rechtsfreier Raum bezeichnet, da nationale Gesetze durch die internationale Struktur des Internets und durch Anonymität als schwer durchsetzbar angesehen werden. Bei Anwendungen wie E-Mail zeigt sich, dass die Technik auf das Phänomen des Spam überhaupt nicht vorbereitet ist. Dienste wie Myspace oder Facebook sollen den Aufbau Sozialer Netzwerke ermöglichen; Funktionen wie Instant Messaging erlauben online nahezu verzögerungsfreie Kommunikation. Mit der steigenden Verbreitung des Internets wird in den Medien der Begriff Internetsucht immer wieder thematisiert, der wissenschaftlich jedoch umstritten ist. Ob und wann die exzessive Nutzung des Internets einen „schädlichen Gebrauch“ oder Missbrauch darstellt und zur Abhängigkeit führt, wird in verschiedenen Studien aktuell untersucht. Staatliche Stellen hatten lange Zeit von der Funktion des Internets wenig Kenntnisse und wenig Erfahrung mit der Anwendung der Gesetze. Bis zur New Economy ab dem Jahr 1998 war zudem die Bedeutung des Internets seitens der Politik unterschätzt worden. Dies änderte sich erst infolge der New-Economy-Entwicklung, Gesetze wurden angepasst und die Rechtsprechung hat eine Reihe von Unsicherheiten zumindest de jure beseitigt. Der zunehmende Einfluss des Staates wird dabei teils als Steigerung der Rechtssicherheit begrüßt, teils als Fortschreiten in Richtung auf einen Überwachungsstaat („Netokratie“) kritisiert, etwa durch das am 1. Januar 2008 in Kraft getretene Gesetz zur Vorratsdatenspeicherung, das am 3. März 2010 vom Bundesverfassungsgericht als verfassungswidrig eingestuft wurde.

International wird das Internet durch verschiedene Staaten überwacht, kontrolliert und teilweise gesperrt, so etwa beim in Teilen gesperrten Internet in der Volksrepublik China oder Aufbau eines vom Staat kontrollierbaren Internets in Russland.[16] Eine fallweise Sperre des Internets ist aus der Türkei oder Iran bekannt; dort wird das Internet während Demonstrationen ausgeschaltet.

Digitale Kluft

Der Begriff digitale Kluft beschreibt Unterschiede im Zugang zu und der Nutzung von Informations- und Kommunikationstechnologie, insbesondere dem Internet, zwischen Volkswirtschaften bzw. verschiedenen Bevölkerungsgruppen aufgrund von technischen und sozioökonomischen Faktoren.

Schon Anfang der 1980er Jahre waren Mailbox-Netze entstanden, basierend auf Datenfernübertragung über das Telefonnetz oder auf Netzen wie Datex-P. Diese Technik blieb aber Experten vorbehalten, wie auch der Zugang zu weltweiten TCP/IP-Netzen lange Zeit zunächst nur über Universitäten möglich war. Erst mit der kommerziellen Verbreitung der Internet-E-Mail Anfang der 1990er und durchgreifend dann mit dem World Wide Web etablierte sich das Internet seit Mitte der 1990er Jahre zunehmend als Standard für die Verbreitung von Informationen jeder Art.

Waren dies in der Anfangszeit vor allem Kommunikation per E-Mail und die Selbstdarstellung von Personen und Firmen, folgte im Zuge der New Economy zum Ende des letzten Jahrtausends der Online-Handel. Mit steigenden Datenübertragungsraten und sinkenden Preisen und nicht zuletzt begünstigt durch die Verfügbarkeit von DSL-Flatrates dient es auch der Verbreitung größerer Datenmengen. Hiermit verbunden sind allerdings massenhafte Urheberrechtsverletzungen, deren Bekämpfung heute einen Großteil der Internet-Gesetzgebung ausmachen.

Infrastruktur

Das Internet besteht aus Netzwerken unterschiedlicher administrativer Verwaltung, die zusammengeschaltet sind. Darunter sind hauptsächlich

Providernetzwerke, an die die Rechner der Kunden eines Internetproviders angeschlossen sind,
Firmennetzwerke (Intranets), die die Computer einer Firma verbinden, sowie
Universitäts- und Forschungsnetzwerke.

Typische Verbindung zum Internet
Verbindungen mit dem Internet Home User.jpg
bei Heimanwendern
Verbindungen mit dem Internet Business User.jpg
bei Firmen

Physikalisch besteht das Internet im Kernbereich, also bei Verbindungen zwischen den oben genannten Netzwerken und in den Backbones großer Netzwerke, kontinental und interkontinental hauptsächlich aus Glasfaserkabeln, die durch Router zu einem Netz verbunden sind. Glasfaserkabel bieten eine enorme Übertragungskapazität und wurden vor einigen Jahren zahlreich sowohl als Land- als auch als Seekabel in Erwartung sehr großen Datenverkehr-Wachstums verlegt. Da sich die physikalisch mögliche Übertragungsrate pro Faserpaar mit fortschrittlicher Lichteinspeisetechnik (DWDM) aber immens vergrößerte, besitzt das Internet hier zurzeit teilweise Überkapazitäten. Schätzungen zufolge wurden im Jahr 2005 nur drei Prozent der zwischen europäischen oder US-amerikanischen Städten verlegten Glasfasern benutzt.[18] Auch Satelliten und Richtfunkstrecken sind in die globale Internet-Struktur eingebunden, haben jedoch einen geringen Anteil.

Auf der sogenannten letzten Meile, also bei den Hausanschlüssen, werden die Daten oft auf Kupferleitungen von Telefon- oder Fernsehanschlüssen und vermehrt auch über Funk, mittels WLAN oder UMTS, übertragen. Glasfasern bis zum Haus (FTTH) sind in Deutschland noch nicht sehr weit verbreitet. Privatpersonen greifen auf das Internet entweder über einen Schmalbandanschluss, zum Beispiel per Modem oder ISDN (siehe auch Internet by Call), oder über einen Breitbandzugang, zum Beispiel mit DSL, Kabelmodem oder UMTS, eines Internetproviders zu. Firmen oder staatliche Einrichtungen sind häufig per Standleitung auf Kupfer- oder Glasfaserbasis mit dem Internet verbunden, wobei Techniken wie Kanalbündelung, ATM, SDH oder – immer häufiger – Ethernet in allen Geschwindigkeitsvarianten zum Einsatz kommen.

In privaten Haushalten werden oft Computer zum Abrufen von Diensten ans Internet angeschlossen, die selbst wenige oder keine solche Dienste für andere Teilnehmer bereitstellen und nicht dauerhaft erreichbar sind. Solche Rechner werden als Client-Rechner bezeichnet. Server dagegen sind Rechner, die in erster Linie Internetdienste anbieten. Sie stehen meistens in sogenannten Rechenzentren, sind dort schnell angebunden und in klimatisierten Räumlichkeiten gegen Strom- und Netzwerkausfall sowie Einbruch und Brand gesichert. Peer-to-Peer-Anwendungen versetzen auch obige Client-Rechner in die Lage, zeitweilig selbst Dienste anzubieten, die sie bei anderen Rechnern dieses Verbunds abrufen. So wird hier die strenge Unterscheidung des Client-Server-Modells aufgelöst.

An Internet-Knoten werden viele verschiedene Backbone-Netzwerke über leistungsstarke Verbindungen und Geräte (Router und Switches) miteinander verbunden. Darauf wird der Austausch von Erreichbarkeitsinformationen zwischen jeweils zwei Netzen vertraglich und technisch als Peering, also auf der Basis von Gegenseitigkeit organisiert und somit der Datenaustausch ermöglicht. Am DE-CIX in Frankfurt am Main, dem größten Austauschpunkt dieser Art, sind beispielsweise mehr als hundert Netzwerke zusammengeschaltet. Eine solche Übergabe von Datenverkehr zwischen getrennten administrativen Bereichen, sogenannten autonomen Systemen, kann auch an jedem anderen Ort geschaltet werden, es ist meist jedoch wirtschaftlich sinnvoller, dies gebündelt an verschiedenen Internet-Knoten vorzunehmen. Da in der Regel ein autonomes System, wie ein Internetprovider, nicht alle anderen auf diese Art erreichen kann, benötigt es selbst mindestens einen Provider, der den verbleibenden Datenverkehr gegen Bezahlung zustellt. Dieser Vorgang ist technisch dem Peering ähnlich, nur stellt der sog. Upstream- oder Transitprovider dem Kundenprovider alle via Internet verfügbaren Erreichbarkeitsinformationen zur Verfügung, auch diejenigen, bei denen er selbst für die Zustellung des zu ihnen führenden Datenverkehrs bezahlen muss. Es gibt derzeit neun sehr große, sogenannte Tier-1-Provider, die ihren gesamten Datenverkehr auf Gegenseitigkeit abwickeln oder an ihre Kunden zustellen können, ohne einen Upstreamprovider zu benötigen.

Da das Arpanet als dezentrales Netzwerk möglichst ausfallsicher sein sollte, wurde schon bei der Planung beachtet, dass es keinen Zentralrechner geben soll, also keinen Ort, an dem alle Verbindungen zusammenlaufen. Diese Dezentralität wurde jedoch auf der politischen Ebene des Internets nicht eingehalten. Die Internet Corporation for Assigned Names and Numbers (ICANN) ist als hierarchisch höchste Organisation zuständig für die Vergabe von IP-Adressbereichen, die Koordination des Domain Name Systems (DNS) und der dafür nötigen Root-Nameserver-Infrastruktur sowie für die Festlegung anderer Parameter der Internetprotokollfamilie, die weltweite Eindeutigkeit verlangen. Sie untersteht formal dem US-Handelsministerium.[19]

Die netzartige Struktur sowie die Heterogenität des Internets tragen zu einer hohen Ausfallsicherheit bei. Für die Kommunikation zwischen zwei Nutzern existieren meistens mehrere mögliche Wege über Router mit verschiedenen Betriebssystemen, und erst bei der tatsächlichen Datenübertragung wird entschieden, welcher benutzt wird. Dabei können zwei hintereinander versandte Datenpakete beziehungsweise eine Anfrage und die Antwort je nach Auslastung und Verfügbarkeit verschiedene Pfade durchlaufen. Deshalb hat der Ausfall einer physikalischen Verbindung im Kernbereich des Internets meistens keine schwerwiegenden Auswirkungen; nur ein Ausfall der einzigen Verbindung auf der letzten Meile lässt sich nicht ausgleichen.
Internetprotokoll und Domain Name System

Das Internet basiert auf der Internetprotokollfamilie, die die Adressierung und den Datenaustausch zwischen verschiedenen Computern und Netzwerken in Form von offenen Standards regelt. Das Protokoll, in dem die weltweit eindeutige Adressierung von angebundenen Rechnern festgelegt und benutzt wird, heißt Internetprotokoll (IP). Die Kommunikation damit geschieht nicht verbindungsorientiert, wie beim Telefon, sondern paketorientiert. Das heißt, dass die zu übertragenden Daten in IP-Paketen einer Größe von bis zu ca. 65.000 Byte, meist aber nur 1500 Byte, übermittelt werden, die jeweils IP-Adressen als Absende- und Zielinformation beinhalten. Der Empfänger setzt die Daten aus den Paketinhalten, auch Nutzdaten genannt, in festgelegter Reihenfolge wieder zusammen.

Die Netzwerkprotokolle sind je nach Aufgabe verschiedenen Schichten zugeordnet, wobei Protokolle höherer Schicht samt Nutzdaten in den Nutzdaten niederer Schichten transportiert werden. Die Standards und Protokolle des Internets werden in RFCs beschrieben und festgelegt. Ein großer Vorteil des Internetprotokolls ist, dass die Paketübertragung unabhängig von der Wahl der verwendeten Betriebssysteme und unabhängig von den Netzwerktechniken der Protokollschichten unterhalb von IP geschehen kann, ähnlich wie ein ISO-Container im Güterverkehr nacheinander per Schiff, Bahn und Lastwagen transportiert werden kann, um an sein Ziel zu gelangen.

Um einen bestimmten Computer ansprechen zu können, identifiziert ihn das Internetprotokoll mit einer eindeutigen IP-Adresse. Dabei handelt es sich bei der Version IPv4 um vier Byte (32 Bit), die als vier Dezimalzahlen im Bereich von 0 bis 255 durch einen Punkt getrennt angegeben werden, beispielsweise 66.230.200.100. Bei der neuen Version IPv6 sind dies 16 Byte (128 Bit), die als acht durch Doppelpunkt getrennte Blöcke aus je vier hexadezimalen Ziffern angegeben werden, z. B. 2001:0db8:85a3:08d3:1319:8a2e:0370:7344. Man kann sich diese Adressen wie Telefonnummern für Computer mit dem Domain Name System (DNS) als automatischem Telefonbuch vorstellen.

Das DNS ist ein wichtiger Teil der Internet-Infrastruktur. Es ist eine über viele administrative Bereiche verteilte, hierarchisch strukturierte Datenbank, die einen Übersetzungsmechanismus zur Verfügung stellt: Ein für Menschen gut merkbarer Domänenname (zum Beispiel „wikipedia.de“) kann in eine IP-Adresse übersetzt werden und umgekehrt. Dies geschieht – vom Nutzer unbemerkt – immer dann, wenn er etwa im Webbrowser auf einen neuen Hyperlink klickt oder direkt eine Webadresse eingibt. Der Browser fragt dann zuerst mittels IP-Paket einen ihm bekannten DNS-Server nach der IP-Adresse des fremden Namens und tauscht dann IP-Pakete mit dieser Adresse aus, um die Inhalte der dort angebotenen Dienste wie beispielsweise Webseiten abzurufen. Zum Ermitteln der IP-Adresse befragt oft der DNS-Server selbst der Hierarchie folgend andere DNS-Server. Die Wurzel der Hierarchie, die in den Namen durch die Punkte erkennbar wird, bilden die Root-Nameserver. So wird also das Erreichen der erwähnten Dienste mit IP-Paketen ermöglicht, durch die den Anwendern erst ein Nutzen aus dem Internet entsteht. Auch das DNS selbst ist genau genommen schon ein solcher, wenn auch sehr grundlegender Dienst, ohne den die Nutzer zum Verbinden mit anderen Rechnern IP-Adressen statt Namen angeben müssten.

Im Kernbereich des Internets müssen die IP-Pakete durch ein weit verzweigtes Netz. Die Verzweigungsstellen sind Router, die über den kürzesten Weg zur Ziel-IP-Adresse des Paketes entscheiden. Sie verwenden dazu Routingtabellen, die über Routingprotokolle automatisch erstellt und aktuell gehalten werden; so wird automatisch auf ausgefallene Verbindungen reagiert. In Routingtabellen werden mehrere mögliche Ziel-IP-Adressen mit Hilfe von Netzmasken – bei IPv6 spricht man von Präfixlängen – zu Zielnetzen zusammengefasst, und diesen wird jeweils ein Ausgang des Routers, zum Beispiel in Form der Sprungadresse zum nächsten Router (Next Hop IP Address), zum Weiterleiten zugeordnet. Zwischen autonomen Systemen geschieht der Austausch dieser Erreichbarkeitsinformationen heute ausschließlich über das Border Gateway Protocol, innerhalb eines autonomen Systems stehen viele andere Routingprotokolle zu Verfügung. Für Computer und Router, die nicht im Kernbereich des Internets stehen, reicht eine statische, nicht durch Routingprotokolle erzeugte, Routingtabelle aus. Diese enthält dann eine Default-Route, oft auch Standard- oder Default-Gateway genannt, die für alle Zielnetze, die nicht anders eingetragen sind, in Richtung des Kernbereichs des Internets weist, ähnlich einem Wegweiser „Alle Richtungen“ im Straßenverkehr. Die Router im Kernbereich verwalten zurzeit Routingtabellen mit bis zu 540.000 Zielnetzen für IPv4 und 21.000 für IPv6.[20]

In den Nutzdaten des Internetprotokolls werden abhängig vom verwendeten Dienst immer noch Protokolle höherer Schichten (wie TCP oder UDP) übertragen, so wie ein ISO-Container im Güterverkehr Postpakete beinhalten kann, in denen wiederum Güter eingepackt sind. Die meisten Webseiten benutzen, aufbauend auf TCP, das Hypertext Transfer Protocol (HTTP) und für verschlüsselte Seiten das Hypertext Transfer Protocol Secure (HTTPS). E-Mails benutzen das Simple Mail Transfer Protocol (SMTP), ebenfalls aufbauend auf TCP, das DNS wird dagegen weitgehend mittels UDP abgewickelt.

Bei IPv4 erhalten oft viele Arbeitsplatzrechner in dem Netzwerk einer Firma oder Organisation private IP-Adressen, die bei nach außen gerichteter Kommunikation per Network Address Translation (NAT) auf wenige öffentliche, global eindeutige IP-Adressen übersetzt werden. Auf diese Rechner kann aus dem Internet nicht direkt zugegriffen werden, was meistens zwar aus Sicherheitsgründen erwünscht ist (siehe auch: Firewall), aber auch offensichtliche Nachteile hat. Für IPv6 stehen erheblich mehr öffentliche Adressen zur Verfügung, so kann laut RFC 4864 auf NAT verzichtet werden und die Filterung des Datenverkehrs hat mehr Möglichkeiten.

https://de.wikipedia.org/wiki/Internet

Auch sehr anschaulich ist der folgende Beitrag aus der Sendung mit der Maus, in der toll erklärt wird, wie das Internet funktioniert.