World Wide Web

Das World Wide Web (abgekürzt als WWW oder W3, und allgemein bekannt als das Web) ist ein System von verketteten über das Internet zugegriffenen Hypertext-Dokumenten. Mit einem WWW-Browser kann man Webseiten ansehen, die Text, Images, Videos und andere Multimedia enthalten, und zwischen ihnen über Hypertext-Links schiffen können.

Das Verwenden von Konzepten von seinen früheren Hypertexten mag FRAGEN, britischer Ingenieur und Computerwissenschaftler Herr Tim Berners-Lee, jetzt Direktor des Konsortiums des World Wide Web (W3C), haben einen Vorschlag im März 1989 dafür geschrieben, was schließlich das World Wide Web werden würde. An CERN hat eine europäische Forschungsorganisation in der Nähe von Genf, das auf schweizerischem und französischem Boden, Berners-Lee und belgischem Computerwissenschaftler Robert Cailliau gelegen ist, 1990 vorgehabt, Hypertext zu verwenden, "..., um Information von verschiedenen Arten als ein Web von Knoten zu verbinden und auf sie zuzugreifen, in denen der Benutzer nach Wunsch durchsuchen kann", und sie öffentlich das Projekt im Dezember eingeführt haben.

Geschichte

Im Problem im Mai 1970 der Zeitschrift Popular Science, wie man berichtete, hatte Arthur C. Clarke vorausgesagt, dass Satelliten eines Tages die angesammelten Kenntnisse der Welt zu Ihren Fingerspitzen" das Verwenden einer Konsole "bringen würden, die die Funktionalität von Xerox, Telefon, Fernsehen und einem kleinen Computer verbinden würde, Datenübertragung und Videokonferenzführung um den Erdball erlaubend.

Im März 1989 hat Tim Berners-Lee einen Vorschlag geschrieben, der Verweise angebracht hat, FRAGEN, eine Datenbank und Software planen, dass er 1980 gebaut, und ein mehr wohl durchdachtes Informationsverwaltungssystem beschrieben hatte.

Mit der Hilfe von Robert Cailliau hat er einen mehr formellen Vorschlag (am 12. November 1990) veröffentlicht, um ein "Hypertext-Projekt" zu bauen, hat "WorldWideWeb" (ein Wort, auch "W3") als ein "Web" von "Hypertext-Dokumenten" genannt, um durch "Browser" mit einer Client/Server-Architektur angesehen zu werden. Dieser Vorschlag hat eingeschätzt, dass ein Read-Only-Web innerhalb von drei Monaten entwickelt würde, und dass man sechs Monate brauchen würde, um "die Entwicklung von neuen Verbindungen und neuem Material durch Leser zu erreichen, [so dass] Autorschaft universal" sowie "die automatische Ankündigung eines Lesers wird, als das neue Material von Interesse zu ihm/ihrem verfügbar geworden ist." Während die Read-Only-Absicht entsprochen wurde, hat die zugängliche Autorschaft des Webinhalts länger genommen, um, mit dem wiki Konzept, blogs, Web 2.0 und RSS/Atom reif zu werden.

Der Vorschlag wurde nach dem Dynatext SGML Leser durch die Elektronische Buchtechnologie, ein Nebenprodukt vom Institut für die Forschung in der Information und Gelehrsamkeit an der Braunen Universität modelliert. Das Dynatext System, das durch CERN lizenziert ist, war technisch hoch entwickelt und war ein Schlüsselspieler in der Erweiterung von SGML ISO 8879:1986 zu Hypermedien innerhalb von HyTime, aber es wurde zu teuer betrachtet und hatte eine unpassende Genehmigen-Politik für den Gebrauch in der allgemeinen hohen Energiephysik-Gemeinschaft, nämlich eine Gebühr für jedes Dokument und jede Dokumentenmodifizierung.

Ein Computer von NeXT wurde von Berners-Lee als der erste Webserver in der Welt verwendet und auch den ersten WWW-Browser, WorldWideWeb 1990 zu schreiben. Durch Weihnachten 1990 hatte Berners-Lee alle für ein Arbeitsweb notwendigen Werkzeuge gebaut: Der erste WWW-Browser (der ein Webredakteur ebenso war); der erste Webserver; und die ersten Webseiten, die das Projekt selbst beschrieben haben. Am 6. August 1991 hat er eine kurze Zusammenfassung des Projektes des World Wide Web über den newsgroup angeschlagen. Dieses Datum hat auch das Debüt des Webs als ein öffentlich verfügbarer Dienst im Internet gekennzeichnet. Das erste Foto im Web wurde von Berners-Lee 1992, einem Image des CERN Hausbandes Les Horribles Cernettes geladen.

Der erste Server außerhalb Europas wurde an SLAC aufgestellt, um die Datenbank der SPITZEN-HEP zu veranstalten. Rechnungen unterscheiden sich wesentlich betreffs des Datums dieses Ereignisses. Das Konsortium des World Wide Web sagt Dezember 1992, wohingegen SLAC selbst 1991 fordert. Das wird durch ein W3C Dokument genannt Wenig Geschichte des World Wide Web unterstützt.

Das entscheidende zu Grunde liegende Konzept des Hypertextes ist mit älteren Projekten von den 1960er Jahren, wie Hypertext Editing System (HES) an der Braunen Universität, das Projekt von Ted Nelson Xanadu und das Online-System von Douglas Engelbart (NLS) entstanden. Sowohl Nelson als auch Engelbart wurden der Reihe nach von Vannevar Bush begeistert hat "memex" mikrofilmgestützt, der im 1945-Aufsatz beschrieben wurde, "Wie Wir Denken Können".

Der Durchbruch von Berners-Lee sollte Hypertext mit dem Internet heiraten. In seinem Buch erklärt er, dass er wiederholt vorgeschlagen hatte, dass eine Ehe zwischen den zwei Technologien Mitgliedern von beiden technischen Gemeinschaften möglich war, aber als keiner seine Einladung aufgenommen hat, hat er schließlich das Projekt selbst angepackt. Dabei hat er drei wesentliche Technologien entwickelt:

  1. ein System von allgemein einzigartigen Bezeichnern für Mittel im Web und anderswohin, Universal Document Identifier (UDI), der später als Internetadresse (URL) und Uniform Resource Identifier (URI) bekannt ist;
  2. die Veröffentlichen-Sprache Preiserhöhungssprache von HyperText (HTML);
  3. das Hypertext-Übertragungsprotokoll (HTTP).

Das World Wide Web hatte mehrere Unterschiede zu anderen Hypertexten, die dann verfügbar waren. Das Web hat nur Einrichtungsverbindungen aber nicht bidirektionale verlangt. Das hat es möglich für jemanden gemacht, sich zu einer anderen Quelle ohne Handlung durch den Eigentümer dieser Quelle zu verbinden. Es hat auch bedeutsam die Schwierigkeit reduziert, Webserver und Browser (im Vergleich mit früheren Systemen) durchzuführen, aber hat der Reihe nach das chronische Problem der Verbindungsfäule aufgeworfen. Verschieden von Vorgängern wie HyperCard war das World Wide Web Nichteigentums-, es möglich machend, Server und Kunden unabhängig zu entwickeln und Erweiterungen hinzuzufügen, ohne Beschränkungen zu lizenzieren. Am 30. April 1993 hat CERN bekannt gegeben, dass das World Wide Web zu jedem ohne erwartete Gebühren frei sein würde. Zwei Monate nach der Ansage kommend, dass die Server-Durchführung des Backenhörnchen-Protokolls nicht mehr frei war zu verwenden, hat das eine schnelle Verschiebung weg vom Backenhörnchen und zum Web erzeugt. Ein früher populärer WWW-Browser war ViolaWWW für Unix und das X Fenstertechnik-System.

Gelehrte geben allgemein zu, dass ein Wendepunkt für das World Wide Web mit der Einführung des Mosaik-WWW-Browsers 1993, ein grafischer Browser begonnen hat, der von einer Mannschaft am Nationalen Zentrum entwickelt ist, um Anwendungen auf die Universität Illinois an Urbana-Champaign (NCSA-UIUC) Superzuschätzen, geführt von Marc Andreessen. Die Finanzierung für das Mosaik ist aus der amerikanischen Hochleistungscomputerwissenschaft und Kommunikationsinitiative und dem Hohen Leistungsrechen- und Nachrichtengesetz von 1991, einer von mehreren vom amerikanischen Senator Al Gore begonnenen Rechenentwicklungen gekommen. Vor der Ausgabe des Mosaiks wurde Grafik mit dem Text in Webseiten nicht allgemein gemischt, und die Beliebtheit des Webs war weniger als ältere Protokolle im Gebrauch über das Internet, wie Backenhörnchen und Wide Area Information Servers (WAIS). Die grafische Benutzerschnittstelle des Mosaiks hat dem Web erlaubt, bei weitem, das populärste Internetprotokoll zu werden.

Das Konsortium des World Wide Web (W3C) wurde von Tim Berners-Lee gegründet, nachdem er die europäische Organisation für die Kernforschung (CERN) im Oktober 1994 verlassen hat. Es wurde am Institut von Massachusetts für das Technologielaboratorium für die Informatik (MIT/LCS) mit der Unterstützung von Defense Advanced Research Projects Agency (DARPA) gegründet, die für das Internet den Weg gebahnt hatte; ein Jahr später wurde eine zweite Seite an INRIA (ein französisches nationales Computerforschungslaboratorium) mit der Unterstützung von der Europäischen Kommission DG InfSo gegründet; und 1996 wurde eine dritte Kontinentalseite in Japan an der Keio Universität geschaffen. Am Ende von 1994, während die Gesamtzahl von Websites noch Minute im Vergleich zu gegenwärtigen Standards war, war die ganze Anzahl von bemerkenswerten Websites bereits aktiv, von denen viele die Vorgänger oder Inspiration für heutige populärste Dienstleistungen sind.

Verbunden durch das vorhandene Internet wurden andere Websites um die Welt geschaffen, internationale Standards für Domainnamen und HTML hinzufügend. Seitdem hat Berners-Lee eine aktive Rolle im Führen der Entwicklung von Webstandards gespielt (wie die Preiserhöhungssprachen, auf denen Webseiten zusammengesetzt werden), und in den letzten Jahren seine Vision eines Semantischen Webs verteidigt hat. Das World Wide Web hat die Ausbreitung der Information über das Internet durch ein gebrauchsfreundliches und flexibles Format ermöglicht. Es hat so eine wichtige Rolle im Popularisieren des Gebrauches des Internets gespielt. Obwohl die zwei Begriffe manchmal im populären Gebrauch verschmelzt werden, ist World Wide Web mit dem Internet nicht synonymisch. Das Web ist eine Sammlung von Dokumenten und sowohl Kunde als auch Server-Software mit Internetprotokollen wie TCP/IP und HTTP.

Funktion

Die Begriffe Internet und World Wide Web werden häufig in der Alltagssprache ohne viel Unterscheidung gebraucht. Jedoch sind das Internet und das World Wide Web nicht ein und dasselbe. Das Internet ist ein globales System von miteinander verbundenen Computernetzen. Im Gegensatz ist das Web eine der Dienstleistungen, die im Internet läuft. Es ist eine Sammlung von Textdokumenten und anderen Mitteln, die durch Hypertext-Links und URL-ADRESSEN gewöhnlich verbunden sind, die durch WWW-Browser von Webservern zugegriffen sind. Kurz gesagt, vom Web kann als eine Anwendung gedacht werden, die im Internet "läuft".

Die Betrachtung einer Webseite im World Wide Web beginnt normalerweise entweder durch das Schreiben der URL-ADRESSE der Seite in einen WWW-Browser oder durch den folgenden ein Hypertext-Link zu dieser Seite oder Quelle. Der WWW-Browser beginnt dann eine Reihe von Nachrichtennachrichten hinter den Kulissen, um ihn herbeizuholen und zu zeigen. Als ein Beispiel, denken Sie, auf eine Seite mit der URL-ADRESSE zuzugreifen.

Erstens löst der Browser den Servername-Teil der URL-ADRESSE (example.org) in eine Internetprotokoll-Adresse mit der allgemein verteilten als Domain Name System (DNS) bekannten Datenbank auf; dieser lookup gibt eine IP-Adresse solcher als 208.80.152.2 zurück. Der Browser bittet dann um die Quelle durch das Senden einer HTTP-Bitte über das Internet zum Computer an dieser besonderen Adresse. Es macht die Bitte zu einem besonderen Anwendungshafen im zu Grunde liegenden Internetprotokoll-Gefolge, so dass der Computer, der die Bitte erhält, eine HTTP-Bitte aus anderen Netzprotokollen unterscheiden kann, die es wie E-Mail-Übergabe bedienen kann; das HTTP-Protokoll verwendet normalerweise Hafen 80. Der Inhalt der HTTP-Bitte kann so einfach sein wie die zwei Linien des Textes

BEKOMMEN SIE/wiki/world_wide_web HTTP/1.1

Gastgeber: example.org

Der Computer, der die HTTP-Bitte erhält, liefert es an die Webserver-Software, die auf Bitten auf dem Hafen 80 horcht. Wenn der Webserver die Bitte erfüllen kann, sendet es eine HTTP Antwort an den Browser-Anzeigen-Erfolg zurück, der so einfach sein kann wie

HTTP/1.0 200, OK

,

Zufriedener Typ: Text/HTML; charset=UTF-8

gefolgt vom Inhalt der gebetenen Seite. Die Hypertext-Preiserhöhungssprache für eine grundlegende Webseite sieht wie aus

</Kopf>

</Körper>

</HTML> </nowiki>

Der WWW-Browser analysiert das HTML grammatisch, die Preiserhöhung interpretierend (

Viele Webseiten verwenden HTML, um in den URL-ADRESSEN anderer Mittel wie Images, anderer eingebetteter Medien, Schriften Verweise anzubringen, die Seitenverhalten und Fallende Formatvorlagen betreffen, die Seitenlay-Out betreffen. Der Browser wird zusätzliche HTTP-Bitten zum Webserver für diese anderen Internetsektorformate machen. Da es ihren Inhalt vom Webserver erhält, macht der Browser progressiv die Seite auf den Schirm, wie angegeben, durch sein HTML und diese zusätzlichen Mittel.

Verbindung

Die meisten Webseiten enthalten Hypertext-Links zu anderen zusammenhängenden Seiten und vielleicht zu herunterladbaren Dateien, Quelldokumenten, Definitionen und anderen Webmitteln. Im zu Grunde liegenden HTML sieht ein Hypertext-Link wie aus

Solch eine Sammlung von nützlichen, zusammenhängenden Mitteln, die über Hypertext-Verbindungen miteinander verbunden sind, wird ein Web der Information synchronisiert. Die Veröffentlichung im Internet hat geschaffen, was Tim Berners-Lee zuerst WorldWideWeb genannt hat (in seinem ursprünglichen CamelCase, der nachher verworfen wurde) im November 1990.

Die Hypertext-Link-Struktur des WWW wird durch den webgraph beschrieben: Die Knoten des webgraph entsprechen den Webseiten (oder URL-ADRESSEN) die geleiteten Ränder zwischen ihnen zu den Hypertext-Links.

Mit der Zeit haben viele Webmittel zu durch Hypertext-Links hingewiesen verschwinden, ziehen um, oder werden durch den verschiedenen Inhalt ersetzt. Das macht Hypertext-Links veraltet, ein Phänomen verwiesen auf in einigen Kreisen als Verbindungsfäule, und die dadurch betroffenen Hypertext-Links werden häufig tote Verbindungen genannt. Die ephemere Natur des Webs hat viele Anstrengungen veranlasst, Websites zu archivieren. Das Internetarchiv, aktiv seit 1996, ist eine der am besten bekannten Anstrengungen.

Dynamische Aktualisierungen von Webseiten

JavaScript ist eine scripting Sprache, die 1995 von Brendan Eich dann Netscape für den Gebrauch innerhalb von Webseiten am Anfang entwickelt wurde. Die standardisierte Version ist ECMAScript. Um einige der Beschränkungen des Modells der Seite-durch-seitig zu überwinden, das oben beschrieben ist, verwenden einige Webanwendungen auch Ajax (asynchroner JavaScript und XML). JavaScript wird mit der Seite geliefert, die zusätzliche HTTP-Bitten zum Server, entweder als Antwort auf Benutzerhandlungen wie Maus-Klicks oder gestützt auf der abtrünnigen Zeit machen kann. Die Antworten des Servers werden verwendet, um die aktuelle Seite zu modifizieren, anstatt eine neue Seite mit jeder Antwort zu schaffen. So muss der Server nur beschränkte, zusätzliche Auskunft geben. Da vielfache Bitten von Ajax zur gleichen Zeit behandelt werden können, können Benutzer mit einer Seite sogar aufeinander wirken, während Daten wiederbekommen werden. Einige Webanwendungen befragen regelmäßig den Server, um zu fragen, ob neue Information verfügbar ist.

WWW Präfix

Viele für das World Wide Web verwendete Domainnamen beginnen mit www wegen der langjährigen Praxis, Internetgastgeber-(Server) gemäß den Dienstleistungen zu nennen, die sie zur Verfügung stellen. Der hostname für einen Webserver ist häufig www ebenso, dass es ftp für einen FTP Server, und Nachrichten oder nntp für einen USENET-Nachrichtenserver sein kann. Diese Hostnamen erscheinen als Domainname-System oder [Domainname-Server] (DNS) Subdomainnamen, als darin. Der Gebrauch von 'www' als ein Subdomainname ist durch keinen technischen Standard oder Politikstandard erforderlich; tatsächlich wurde der allererste Webserver genannt, und viele Websites bestehen ohne ihn. Gemäß Paolo Palazzi, der an CERN zusammen mit Tim Berners-Lee gearbeitet hat, war der populäre Gebrauch 'des www' Subgebiets zufällig; die Projektseite des World Wide Web war beabsichtigt, um an www.cern.ch veröffentlicht zu werden, während info.cern.ch beabsichtigt war, um der CERN Hausseite zu sein, jedoch wurden die Dns-Aufzeichnungen nie geschaltet, und die Praxis von prepending 'www' zu einem Website-Domainnamen einer Einrichtung wurde nachher kopiert. Viele feststehende Websites verwenden noch 'www', oder sie erfinden andere Subdomainnamen wie 'www2', 'sicher' usw. Viele solche Webserver werden solch aufgestellt, dass sich beide die Bereichswurzel (z.B, example.com) und das www Subgebiet (z.B, www.example.com) auf dieselbe Seite beziehen; andere verlangen eine Form oder den anderen, oder sie können zu verschiedenen Websites kartografisch darstellen.

Der Gebrauch eines Subdomainnamens ist für die Last nützlich, die eingehenden Webverkehr durch das Schaffen einer CNAME-Aufzeichnung erwägt, die zu einer Traube von Webservern hinweist. Seitdem, zurzeit, kann nur ein Subgebiet in einem CNAME verwendet werden, dasselbe Ergebnis kann durch das Verwenden der bloßen Bereichswurzel nicht erreicht werden.

Wenn ein Benutzer einen unvollständigen Domainnamen einem WWW-Browser in seinem Adressbar-Eingangsfeld vorlegt, versuchen einige WWW-Browser automatisch, das Präfix "www" zum Anfang davon und vielleicht ".com", ".org" und ".net" am Ende, abhängig davon hinzuzufügen, was vermisst werden könnte. Zum Beispiel kann das Hereingehen '' in und 'openoffice' dazu umgestaltet werden. Diese Eigenschaft hat angefangen, in frühen Versionen von Mozilla Firefox zu erscheinen, als es noch den Arbeitstitel 'Firebird' Anfang 2003 von einer früheren Praxis in Browsern wie Luchs hatte. Es wird berichtet, dass Microsoft ein US-Patent für dieselbe Idee 2008, aber nur für bewegliche Geräte gewährt wurde.

In Englisch wird www durch das individuelle Aussprechen des Namens von Charakteren (doppelt-u doppelt-u doppelt-u) oder durch den Ausspruch des Ausdrucks "dreifach doppelt-u" ausgesprochen. Obwohl einige technische Benutzer aussprechen, dass es "synchronisiert, synchronisieren synchronisieren", das ist nicht weit verbreitet (obwohl von der breiten Öffentlichkeit in Neuseeland allgemein verwendet wird). Der englische Schriftsteller Douglas Adams hat einmal in The Independent am Sonntag (1999) gewitzelt: "Das World Wide Web ist das einzige Ding, das ich weiß, wessen verkürzte Form dreimal länger nimmt, um zu sagen, als, was es für," mit Stephen Fry das spätere Aussprechen davon in seiner "Podgrammes" Reihe von podcasts als "wuh wuh wuh kurz ist." Im Mandarine-Chinesen wird World Wide Web über ein phono-semantisches Zusammenbringen zu wàn wéi wǎng allgemein übersetzt , der www befriedigt und wörtlich "unzähliges dimensionales Netz bedeutet", eine Übersetzung, die sehr passend das Designkonzept und die Proliferation des World Wide Web widerspiegelt. Der Webraum von Tim Berners-Lee stellt fest, dass World Wide Web als drei getrennte Wörter, jeder kapitalisiert ohne vorläufige Bindestriche offiziell buchstabiert wird.

Der Gebrauch des www Präfixes neigt sich als Web 2.0 Webanwendungen bemühen sich, ihre Domainnamen zu brandmarken und sie leicht aussprechbar zu machen. Weil das bewegliche Web in der Beliebtheit, den Dienstleistungen wie Gmail.com MySpace.com Facebook.com wächst und meistenteils Twitter.com besprochen wird, ohne den www zum Gebiet (oder der.com) hinzuzufügen.

Specifiers: http und https

Das Schema specifiers (oder) in URIs bezieht sich auf das Hypertext-Übertragungsprotokoll und auf HTTP Sicher beziehungsweise, und so definieren Sie das Nachrichtenprotokoll, das für die Bitte und Antwort zu verwenden ist. Das HTTP-Protokoll ist für die Operation des World Wide Web grundsätzlich; die zusätzliche Verschlüsselungsschicht in HTTPS ist notwendig, wenn vertrauliche Information wie Kennwörter oder Bankverkehrsinformation über das öffentliche Internet ausgetauscht werden soll. WWW-Browser gewöhnlich prepend das Schema zu URL-ADRESSEN auch, wenn weggelassen.

Webserver

Die primäre Funktion eines Webservers ist, Webseiten auf der Bitte Kunden zu liefern. Das bedeutet Übergabe von HTML-Dokumenten und jedem zusätzlichen Inhalt, der durch ein Dokument, wie Images, Formatvorlagen und Schriften eingeschlossen werden kann.

Gemütlichkeit

Es ist möglich, dass durchschnittliche Computerbenutzer, die das World Wide Web hauptsächlich für Dinge wie Unterhaltung verwenden, ihr Recht auf die Gemütlichkeit als Entgelt für das Verwenden mehrerer im World Wide Web verfügbarer Dienstleistungen übergeben haben können. Zum Beispiel: Mehr als eine halbe Milliarde Menschen weltweit haben einen sozialen Netzdienst, und der Generationen von Leuten innerhalb der Vereinigten Staaten verwendet, die Zugang zum Internet von einem jungen Alter gehabt haben, Hälfte haben eine Form der Sozialen Netzwerkanschlussanwesenheit. und sind ein Teil einer Generational-Verschiebung, die Normen ändern konnte. Sozialer Netzfacebook ist von amerikanischen Universitätsstudenten zu einem nichtuS-amerikanischen 70-%-Publikum fortgeschritten, aber 2009 hat eingeschätzt, dass nur 20 % seiner Mitglieder Gemütlichkeitseinstellungen verwenden. 2010 (sechs Jahre nach der Co-Gründung die Gesellschaft) hat Mark Zuckerberg geschrieben, "wir werden Gemütlichkeitssteuerungen hinzufügen, die viel einfacher sind zu verwenden".

Gemütlichkeitsvertreter von 60 Ländern haben sich entschlossen, um Gesetze zu bitten, um Industrieselbstregulierung, für die Ausbildung für Kinder und andere Minderjährige zu ergänzen, die das Web, und für den Verzug-Schutz für Benutzer von sozialen Netzen verwenden. Sie glauben auch Datenschutz für das persönlich identifizierbare Informationszulagegeschäft mehr als der Verkauf dieser Information. Benutzer können sich - in zu Eigenschaften in Browsern dafür entscheiden, ihre persönlichen Geschichten lokal zu klären und einige Plätzchen und Werbenetze zu blockieren, aber sie werden noch im Server-Klotz von Websites, und in besonderen Webleuchtfeuern verfolgt. Berners-Lee und Kollegen sehen Hoffnung in der Verantwortlichkeit und verwenden erreichten Gebrauch, indem sie die Architektur des Webs zum Politikbewusstsein, vielleicht mit der Bilanzprotokollierung, den logischen Geisten und den Geräten erweitern.

Als Entgelt für die Versorgung freien Inhalts stellen Verkäufer Inserenten an, die Webbenutzern spionieren und ihr Geschäftsmodell auf dem Verfolgen von ihnen stützen. Seit 2009 kaufen sie und verkaufen Verbraucherdaten auf dem Austausch (an einigen Details Mangel habend, die es möglich zu de-anonymize machen konnten, oder eine Person erkennen). Hunderte von Millionen von Zeiten pro Tag, Lotame Solutions gewinnt, was Benutzer in Realtime tippen, und diesen Text an OpenAmplify sendet, der dann versucht, einen Schriftsteller am Wall Street Journal, "zu bestimmen, zu zitieren, welche Themen besprochen werden, wie sich der Autor über jene Themen fühlt, und was die Person dabei ist, über sie zu tun".

Microsoft hat sich weg 2008 aus seinen Plänen für starke Gemütlichkeitseigenschaften in Internet Explorer rückwärts bewegt, seine Benutzer (50 % der Webbenutzer in der Welt) offen für Inserenten verlassend, die Annahmen über sie gestützt auf nur einem Klick machen können, wenn sie eine Website besuchen. Unter Dienstleistungen, die für durch die Werbung, Yahoo bezahlt sind! konnte die meisten Daten über Benutzer von kommerziellen Websites, ungefähr 2,500 Bit der Information pro Monat über jeden typischen Benutzer seiner Seite und seiner aufgenommenen Werbenetzseiten sammeln. Yahoo! wurde von MySpace mit der ungefähr Hälfte dieses Potenzials und dann von AOL-TimeWarner, Google, Facebook, Microsoft und eBay gefolgt.

Sicherheit

Das Web ist der bevorzugte Pfad von Verbrechern geworden, um malware auszubreiten. Im Web ausgeführtes Kyberverbrechen kann Identitätsdiebstahl, Schwindel, Spionage und das Nachrichtendienstsammeln einschließen. Webbasierte Verwundbarkeit ist jetzt traditionellen Computersicherheitssorgen, und wie gemessen, durch Google zahlenmäßig überlegen, ungefähr kann jede zehnte Webseite böswilligen Code enthalten. Die meisten Webbasierten Angriffe finden auf legitimen Websites statt, und die meisten, wie gemessen, durch Sophos, wird in den Vereinigten Staaten, China und Russland veranstaltet. Die allgemeinste von allen malware Drohungen ist SQL Spritzenangriffe gegen Websites. Durch das HTML und URIs war das Web für Angriffe wie Quer-Seite scripting (XSS) verwundbar, der mit der Einführung von JavaScript gekommen ist und zu einem gewissen Grad durch das Web 2.0 und Webdesign von Ajax verschlimmert wurde, das den Gebrauch von Schriften bevorzugt. Heute durch eine Schätzung sind 70 % aller Websites für XSS-Angriffe auf ihre Benutzer offen.

Vorgeschlagene Lösungen ändern sich zu Extremen. Große Sicherheitsverkäufer wie McAfee entwerfen bereits Regierungsgewalt und Gehorsam-Gefolge, um post-9/11 Regulierungen zu entsprechen, und einige, wie Finjan haben aktive Echtzeitinspektion des Codes und des ganzen Inhalts unabhängig von seiner Quelle empfohlen. Einige haben behauptet, dass für das Unternehmen, um Sicherheit als eine Geschäftsgelegenheit aber nicht eine Kostenstelle zu sehen, "allgegenwärtig, immer - auf dem Digitalrecht-Management, das" in der Infrastruktur durch eine Hand voll Organisationen beachtet ist, muss die Hunderte von Gesellschaften ersetzen, die heute Daten und Netze sichern. Jonathan Zittrain hat gesagt, dass Benutzer, die Verantwortung teilen, Sicherheit zu schätzen, weit der Blockierung unten des Internets vorzuziehend sind.

Standards

Viele formelle Standards und andere technische Spezifizierungen und Software definieren die Operation von verschiedenen Aspekten des World Wide Web, des Internets und Computerinformationsaustausches. Viele der Dokumente sind die Arbeit des Konsortiums des World Wide Web (W3C), der von Berners-Lee angeführt ist, aber einige werden von Internet Engineering Task Force (IETF) und anderen Organisationen erzeugt.

Gewöhnlich, wenn Webstandards besprochen werden, werden die folgenden Veröffentlichungen als foundational gesehen:

Zusätzliche Veröffentlichungen stellen Definitionen anderer wesentlicher Technologien für das World Wide Web, einschließlich, aber nicht beschränkt auf, der folgende zur Verfügung:

  • Uniform Resource Identifier (URI), der ein universales System ist, um in Mitteln im Internet, wie Hypertext-Dokumente und Images Verweise anzubringen. URIs, häufig genannt URL-ADRESSEN, werden durch den RFC des IETF 3986 / STD 66 definiert: Uniform Resource Identifier (URI): Allgemeine Syntax, sowie seine Vorgänger und zahlreicher URI Schema definierender RFCs;
  • Übertragungsprotokoll von HyperText (HTTP), besonders wenn definiert durch RFC 2616: HTTP/1.1 und RFC 2617: HTTP Beglaubigung, die angeben, wie der Browser und Server einander beglaubigen.

Zugänglichkeit

Der Zugang zum Web ist für jeden unabhängig von der Unfähigkeit — einschließlich visuellen, Gehör-, physischen, Rede, kognitiv, und neurologisch. Zugänglichkeitseigenschaften helfen auch anderen mit vorläufigen Körperbehinderungen wie ein gebrochener Arm oder die Altersbevölkerung, als sich ihre geistigen Anlagen ändern. Das Web wird verwendet, um Information zu erhalten sowie Auskunft zu geben und mit Gesellschaft aufeinander zu wirken, es notwendig machend, dass das Web, zugänglich sein, um gleichen Zugang und Chancengleichheit Leuten mit Körperbehinderungen zur Verfügung zu stellen. Tim Berners-Lee hat einmal bemerkt, "Die Macht des Webs ist in seiner Allgemeinheit. Der Zugang durch jeden unabhängig von der Unfähigkeit ist ein wesentlicher Aspekt." Viele Länder regeln Webzugänglichkeit als eine Voraussetzung für Websites. Die internationale Zusammenarbeit in der W3C Webzugänglichkeitsinitiative hat zu einfachen Richtlinien geführt, die Webinhalt-Autoren sowie Softwareentwickler verwenden können, um das Web zugänglich für Personen zu machen, die können oder assistive Technologie nicht verwenden können.

Internationalisierung

Die W3C Internationalisierungstätigkeit versichert, dass Webtechnologie auf allen Sprachen, Schriften und Kulturen arbeiten wird. 2004 oder 2005 beginnend, hat Unicode Boden und schließlich im Dezember 2007 übertroffen sowohl ASCII als auch Westeuropäer als die am häufigsten verwendete Charakter-Verschlüsselung des Webs gewonnen. Ursprünglich RFC 3986 erlaubte Mittel, durch URI in einer Teilmenge von US-ASCII identifiziert zu werden. RFC 3987 erlaubt mehr Charaktere — jeden Charakter in der Universalen Codierung — und jetzt kann eine Quelle durch IRI auf jeder Sprache identifiziert werden.

Statistik

Zwischen 2005 und 2010 hat sich die Zahl von Webbenutzern verdoppelt und wurde erwartet, zwei Milliarden 2010 zu übertreffen. Frühe Studien 1998 und 1999, die Größe des Webs mit Methoden der Festnahme/Wiedererlangung schätzend, haben gezeigt, dass viel vom Web durch Suchmotoren nicht mit einem Inhaltsverzeichnis versehen wurde und das Web viel größer war als erwartet. Gemäß einer 2001-Studie gab es eine massive Zahl, mehr als 550 Milliarden, Dokumente im Web, größtenteils im unsichtbaren Web oder Tiefem Web. Ein 2002-Überblick über 2,024 Millionen Webseiten hat beschlossen, dass bei weitem der grösste Teil des Webinhalts in Englisch war: 56.4 %; als nächstes waren Seiten in deutschen (7.7 %), Französisch (5.6 %) und Japanisch (4.9 %). Eine neuere Studie, die Websuchen auf 75 verschiedenen Sprachen zur Probe das Web verwendet hat, hat beschlossen, dass es mehr als 11.5 Milliarden Webseiten in öffentlich indexable Web bezüglich des Endes des Januars 2005 gab., das indexable Web enthält mindestens 25.21 Milliarden Seiten. Am 25. Juli 2008 haben Softwareingenieure von Google Jesse Alpert und Nissan Hajaj bekannt gegeben, dass Google Search eine Trillion einzigartige URL-ADRESSEN entdeckt hatte., mehr als 109.5 Millionen Gebiete haben funktioniert. Dieser 74 % waren kommerzielle oder andere Seiten, die im allgemeinen Gebiet auf höchster Ebene funktionieren.

Statistiken, die eine Beliebtheit einer Website messen, basieren gewöhnlich entweder auf der Zahl von Seitenansichten oder auf dem verbundenen Server 'Erfolge' (Dateibitten), dass es erhält.

Geschwindigkeitsprobleme

Die Frustration über die Verkehrsstauung kommt in der Internetinfrastruktur und die hohe Latenz heraus, die auf das langsame Durchsuchen hinausläuft, hat zu einem abschätzigen Namen für das World Wide Web geführt: Weltweit Warten. Das Beschleunigen des Internets ist eine andauernde Diskussion über den Gebrauch des Spähens und der Technologien von QoS. Andere Lösungen, die Verkehrsstauung zu reduzieren, können an W3C gefunden werden. Richtlinien seit Webansprechzeiten sind:

  • 0.1 zweit (ein Zehntel einer Sekunde). Ideale Ansprechzeit. Der Benutzer fühlt keine Unterbrechung.
  • 1 Sekunde. Höchste annehmbare Ansprechzeit. Download-Zeiten über der 1 zweiten Unterbrechung die Benutzererfahrung.
  • 10 Sekunden. Unannehmbare Ansprechzeit. Die Benutzererfahrung wird unterbrochen, und der Benutzer wird wahrscheinlich die Seite oder das System verlassen.

Das Verstecken

Wenn ein Benutzer eine Webseite wieder besucht, nachdem nur ein kurze Zwischenraum, die Seitendaten eventuell beim Quellwebserver nicht wiedererhalten werden müssen. Fast das ganze geheime WWW-Browser-Lager hat kürzlich Daten gewöhnlich auf der lokalen Festplatte erhalten. HTTP durch einen Browser gesandte Bitten werden gewöhnlich nur nach Daten fragen, der sich seit dem letzten Download geändert hat. Wenn die lokal versteckten Daten noch aktuell sind, wird es wiederverwendet. Das Verstecken hilft, den Betrag des Webverkehrs im Internet zu reduzieren. Die Entscheidung über den Ablauf wird unabhängig für jede heruntergeladene Datei getroffen, ob Image, stylesheet, JavaScript, HTML, oder was für anderen Inhalt die Seite zur Verfügung stellen können. So sogar auf Seiten mit dem hoch dynamischen Inhalt müssen viele der grundlegenden Mittel nur gelegentlich erfrischt werden. Website-Entwerfer finden es lohnend, Mittel wie CSS-Daten und JavaScript in einige weite Seite Dateien zu kollationieren, so dass sie effizient versteckt werden können. Das hilft, Seitendownload-Zeiten zu reduzieren, und senkt Anforderungen auf dem Webserver.

Es gibt andere Bestandteile des Internets, das Webinhalt verstecken kann. Korporative und akademische Brandmauern häufig Webmittel des geheimen Lagers von einem Benutzer zu Gunsten aller gebeten. (Siehe auch Versteckenden Proxyserver.) Einige Suchmotoren versorgen auch versteckten Inhalt von Websites. Abgesondert von den Möglichkeiten, die in Webserver eingebaut sind, die bestimmen können, als Dateien aktualisiert worden sind und so sein müssen, ärgern sich darüber, Entwerfer dynamisch erzeugter Webseiten können die HTTP an die Anforderung an Benutzer zurückgesendeten Kopfbälle kontrollieren, so dass vergängliche oder empfindliche Seiten nicht versteckt werden. Internetbankwesen und Nachrichtenseiten verwenden oft diese Möglichkeit. Mit einem HTTP gebetene Daten 'KOMMEN' wird wahrscheinlich versteckt, wenn andere Bedingungen entsprochen werden; wie man annimmt, hängen als Antwort auf einen 'POSTEN' erhaltene Daten von den Daten ab, der ANGESCHLAGEN wurde und nicht versteckt ist auch.

Siehe auch

Weiterführende Literatur

  • Niels Brügger, Hrsg.-Webgeschichte (2010) 362 Seiten; historische Perspektive auf dem World Wide Web, einschließlich Probleme der Kultur, des Inhalts und der Bewahrung.

Links


Werner Herzog / Drahtloser LAN
Impressum & Datenschutz