Loading AI tools
internetowy system informacyjny Z Wikipedii, wolnej encyklopedii
World Wide Web [ˌwɜ:ldˌwaɪdˈwɛb] (sieć ogólnoświatowa, światowa rozległa sieć komputerowa), w skrócie WWW lub Web – hipertekstowy, multimedialny, internetowy system informacyjny oparty na publicznie dostępnych, otwartych standardach IETF i W3C. WWW jest usługą internetową, która ze względu na zdobytą popularność bywa błędnie utożsamiana z całym Internetem, szczególnie przez początkujących użytkowników[potrzebny przypis].
Brytyjski inżynier i naukowiec sir Tim Berners-Lee, obecnie dyrektor World Wide Web Consortium (W3C), 12 marca 1989[1] opublikował projekt oparty na ENQUIRE (aplikacji i bazie danych, którą stworzył na własny użytek w 1980). Przedstawił w nim dużo bardziej rozbudowany system zarządzania informacjami, który stał się zalążkiem obecnej World Wide Web. Po jakimś czasie dołączył do niego belgijski naukowiec Robert Cailliau, z którym Berners-Lee współpracował w ośrodku CERN. 12 listopada 1990 opublikowali oficjalny projekt budowy systemu hipertekstowego zwanego „World Wide Web” (w skrócie: WWW, lub jeszcze krócej: W3), obsługiwanego przy pomocy przeglądarki internetowej, używającego architektury klient-serwer[2]. Użycie hipertekstu umożliwiło dostęp do różnego rodzaju informacji poprzez sieć odnośników, tzw. hiperłączy – oglądając stronę internetową, użytkownik może podążać za zamieszczonymi na niej hiperłączami, które przenoszą go do innych, udostępnionych w sieci dokumentów lub innych stron internetowych. Początkowo „World Wide Web” został oparty na SGML-owej przeglądarce o nazwie „Dynatext”, opracowanej w ramach działalności Instytutu Badań nad Informacją i Wiedzą (Institute for Research in Information and Scholarship) Uniwersytetu Browna. „Dynatext” był projektem komercyjnym, licencjonowanym przez CERN – okazał się jednak zbyt kosztowny w używaniu dla szerszej społeczności (wówczas było to środowisko fizyków wysokich energii), bowiem przewidywał opłatę za każdy nowy dokument oraz za każdorazową jego edycję[potrzebny przypis].
System informacyjny „World Wide Web” zaprojektowano, aby zbierać zasoby ludzkiej wiedzy i umożliwić współpracownikom w odległych miejscach dzielenie się swoimi pomysłami oraz zgłębianie wszystkich aspektów wspólnego projektu. W przypadku, gdy dwa projekty tworzone były niezależnie od siebie, WWW pozwalała skoordynować pracę naukowców, dzięki czemu obie prace stawały się jednym spójnym dziełem. Niniejszy projekt szacował, że służąca tylko przeglądaniu sieć rozwinie się w ciągu trzech miesięcy, a w ciągu pół roku użytkownicy będą mieli możliwość publikowania nowych materiałów i odnośników do nich, dzięki czemu system stanie się w pełni uniwersalny. Usługa została oficjalnie uruchomiona w grudniu 1990 roku[potrzebny przypis].
Jako pierwszy na świecie server WWW, Berners-Lee zastosował komputer NeXT, na którym stworzył również pierwszą przeglądarkę o nazwie WorldWideWeb (zmienionej później na Nexus). Do czasu świąt Bożego Narodzenia 1990 roku Berners-Lee zbudował wszystkie narzędzia niezbędne do działania WWW: przeglądarkę WWW (która służyła również jako edytor), pierwszy serwer WWW oraz pierwsze strony WWW, opisujące nowo powstały projekt. 6 sierpnia 1991 roku zamieścił krótkie podsumowanie projektu „WorldWideWeb” na grupie dyskusyjnej alt.hypertext. Ta data jest również uznawana za debiut publicznie dostępnych usług w Internecie. Pierwszy serwer poza Europą został uruchomiony w Centrum Liniowego Akceleratora Stanforda (SLAC) w grudniu 1992. Zasadnicza koncepcja hipertekstu pochodzi ze starszych projektów z lat 60., takich jak: Hypertext Editing System (HES) utworzony na Uniwersytecie Browna, Xanadu autorstwa Teda Nelsona i Andriesa van Dama oraz oN-Line System (NLS) Douglasa Engelbarta. Nelson i Engelbart z kolei inspirowali się mikrokomputerem Memex, który w 1945 r. został opisany esejem pt. „As We May Think” Vannevara Busha[potrzebny przypis].
Przełomem w projekcie było połączenie hipertekstu z Internetem. W swojej książce pt. „Weaving The Web” („Tkając Sieć”) Berners-Lee wyjaśnia, iż wielokrotnie sugerował możliwość połączenia tych dwóch technologii, jednakże nikt wcześniej nie podjął starań w tym kierunku, w związku z czym postanowił wziąć sprawę w swoje ręce. Na potrzeby projektu autor opracował system ogólnodostępnych, unikatowych identyfikatorów zasobów sieci: „The Universal Document Identifier” (UDI) znany później jako Uniform Resource Locator (URL) i Uniform Resource Identifier (URI), język służący projektowaniu stron – HyperText Markup Language (HTML) oraz protokół przesyłania dokumentów hipertekstowych Hypertext Transfer Protocol (HTTP)[potrzebny przypis].
World Wide Web posiadała szereg cech wyróżniających ją spośród innych systemów hipertekstowych, które były wówczas dostępne, np. używał jednokierunkowych zamiast dwukierunkowych odnośników. Umożliwiało to użytkownikowi przełączenie się z bieżącego zasobu danych do kolejnego, bez potrzeby reakcji ze strony jego właściciela. W porównaniu do poprzednich systemów ułatwiło to wdrażanie nowych serwerów i przeglądarek, ale wprowadziło chroniczny problem wygasłych odnośników (hiperłączy, linków). W odróżnieniu od poprzedników, takich jak np. HyperCard, World Wide Web nie została skomercjalizowana, umożliwiając rozwój serwerów i publikowanych na nich stron, w sposób niezależny oraz dodawanie rozszerzeń bez ograniczeń licencyjnych. 30 kwietnia 1993 CERN ogłosił, że World Wide Web będzie udostępniona bezpłatnie dla każdego. W ciągu kolejnych dwóch miesięcy, po ogłoszeniu, że protokół Gopher[3] nie będzie już dostępny bezpłatnie, odnotowano duży spadek jego popularności, na rzecz darmowej WWW. Najpopularniejszą przeglądarką internetową wówczas była ViolaWWW[potrzebny przypis].
Punktem zwrotnym w historii World Wide Web było wprowadzenie, w 1993 roku, przeglądarki Mosaic, działającej w trybie graficznym. Przeglądarka ta została opracowana przez zespół „Narodowego Centrum Zastosowań Superkomputerów” (National Center for Supercomputing Applications) na Uniwersytecie Illinois w Urbanie i Champaign (NCSA-UIUC), który kierowany był wówczas przez Marca Andreessena. Mosaic była finansowana przez „Inicjatywę Wysokowydajnych Technik Obliczeniowych i Komunikacyjnych” (High-Performance Computing and Communications Initiactive), powstałej dzięki „Ustawie o Wysokowydajnych Technikach Obliczeniowych i Komunikacyjnych” (High Performance Computing and Communication Act) z 1991 roku, będącej jednym z kilku opracowań dotyczących rozwoju informatyki, zainicjowanych przez senatora Ala Gore’a. Przed wprowadzeniem przeglądarki graficznej Mosaic, strony internetowe nie posiadały grafiki wplecionej bezpośrednio w tekst, a popularność WWW była mniejsza niż starszych protokołów używanych dotychczas w Internecie, takich jak Gopher czy WAIS – interfejs graficzny przeglądarki Mosaic uczynił WWW zdecydowanie najpopularniejszą usługą internetową[potrzebny przypis].
World Wide Web Consortium (W3C) zostało założone przez Tima Bernersa-Lee po opuszczeniu przez niego ośrodka CERN, w październiku 1994 roku. Konsorcjum zostało utworzone w Laboratorium Informatyki MIT (Massachusetts Institute of Technology, Laboratory for Computer Science, MIT/LCS), z pomocą agencji „Agencji Zaawansowanych Obronnych Projektów Badawczych” (Defense Advanced Research Projects Agency, DARPA), będącej pionierem w rozwoju Internetu, oraz Komisji Europejskiej. Do końca 1994 r., gdy całkowita liczba stron internetowych stanowiła ułamek ich obecnej liczby, wiele spośród znanych dziś stron było już uruchomionych, a część z nich mogło stanowić inspirację dla wielu współczesnych serwisów internetowych[potrzebny przypis].
Dzięki połączeniu z Internetem, na całym świecie zaczęły powstawać serwery WWW, tworząc ogólnoświatowe standardy nazewnictwa domen internetowych. Od tamtej pory Berners-Lee odegrał bardzo aktywną rolę w nadawaniu kierunku rozwoju standardów sieciowych (takich jak np. języki znaczników, w których strony internetowe są tworzone), a w ostatnich latach opowiada on o swojej wizji Semantic Web. World Wide Web, dzięki łatwemu do opanowania interfejsowi obsługi, aktywnie rozpowszechnia informacje za pośrednictwem Internetu – tym samym odgrywa istotną rolę w jego popularyzacji – mimo że te dwa pojęcia są często mylone w powszechnym użyciu: World Wide Web nie jest całym Internetem, a jedynie pewną aplikacją zbudowaną na jego bazie[potrzebny przypis].
Określenia: World Wide Web i Internet są często stosowane zamiennie w życiu codziennym. Jednak World Wide Web i Internet nie są jednym i tym samym. Internet to globalny system połączonych ze sobą sieci komputerowych. W przeciwieństwie do Web, która jest jedną z usług działających w Internecie, WWW jest zbiorem powiązanych ze sobą zasobów i dokumentów, połączonych hiperłączami i URL-ami. Krótko mówiąc, Web jest aplikacją działającą w Internecie. Przeglądanie stron internetowych WWW zwykle rozpoczyna się albo od wpisania adresu strony w przeglądarce internetowej, albo poprzez podanie linku do tej strony lub linku do konkretnego zasobu. Następnie przeglądarka wysyła do serwera WWW, na którym zlokalizowana jest strona, szereg niewidzialnych dla nas zapytań, aby później pobrać zawartość danej strony i wyświetlić ją na ekranie monitora[potrzebny przypis].
Na początku nazwa serwera (część adresu URL) jest dekodowana na adres IP za pomocą globalnej, rozproszonej bazy danych znanej jako Domain Name System (DNS). Adres IP jest niezbędny, aby móc połączyć się z danym serwerem. Przeglądarka następnie wywołuje dany zasób, wysyłając zapytanie do serwera określonego powyższym adresem. W przypadku typowej strony internetowej, przeglądarka najpierw pobiera jej kod HTML, analizuje go, a następnie wysyła zapytanie o resztę elementów wchodzących w jej skład (zdjęcia, grafika, dźwięki, video, animacje). Statystyki mierzące popularność stron zazwyczaj są oparte na liczbie odwiedzin, ale również na liczbie wysłanych na serwer zapytań, które miały miejsce[potrzebny przypis].
Podczas pobierania plików z serwera WWW, przeglądarki mogą stopniowo składać stronę na ekranie w sposób określony przez jego kod HTML, CSS lub inne języki skryptowe. Wszelkie zdjęcia i inne zasoby są włączane do strony, którą użytkownik widzi na ekranie. Większość stron internetowych zawiera hiperłącza umożliwiające bezpośrednie przechodzenie do innych stron z nimi powiązanych, gotowych plików, które można pobierać, dokumentów źródłowych, definicji oraz innych zasobów internetowych. Taki zbiór przydatnych materiałów powiązanych ze sobą za pośrednictwem łączy hipertekstowych nazwano „siecią informacji”. Udostępniając tę sieć w Internecie, Tim Berners-Lee nazwał ją w listopadzie 1990 roku „World Wide Web” (początkowo „WorldWideWeb”, jednak ten zapis został później odrzucony)[potrzebny przypis].
WWW (lub jeszcze krócej: W3) jest realizacją idei nieograniczonego świata informacji. Na jej sukces, poza samym Internetem jako fizycznym nośnikiem, składają się przede wszystkim następujące elementy:
Wiele adresów internetowych zaczyna się od „www” ze względu na długoletnią praktykę nazywania hostów internetowych (serwerów) zgodnie z usługami, które oferowały. Nazwa hosta dla serwera Web to najczęściej www, tak jak ftp dla serwera FTP czy news lub nntp dla serwerów informacyjnych Usenet. Te nazwy hostów ukazują się, jako subdomeny w Domain Name System (DNS), jak w przykładzie www.example.com. Stosowanie takich subdomen nie jest wymagane. Pierwszy na świecie serwer Web nazywał się nxoc01.cern.ch, a wiele stron internetowych istnieje bez prefiksu WWW, czy innych takich jak „www2”, „secure” itp. Prefiksy subdomen nie mają żadnego praktycznego znaczenia, są to zwykłe nazwy nadane przez administratorów. Wiele serwerów internetowych jest tak skonfigurowanych, aby korzystać z obu wersji adresu, zarówno samej domeny (example.com), jak i z subdomeną (www.example.com). W praktyce kierują one użytkownika dokładnie do tej samej strony[potrzebny przypis].
W przypadku wpisania tylko jednego specyficznego słowa w pasku adresu przeglądarki, np.: apple ↵ Enter, openoffice ↵ Enter aplikacja może sama spróbować dodać przedrostek www i końcówkę np.: „.com”, „.org” lub „.net” i przekieruje nas np. na stronę „http://www.apple.com/”, czy „http://www.openoffice.org/”. Funkcje te zostały wprowadzone we wczesnych wersjach przeglądarki Mozilla Firefox na początku roku 2003. Natomiast Microsoft otrzymał w 2008 patent na to samo rozwiązanie, z tym, że tylko w odniesieniu do urządzeń mobilnych[potrzebny przypis].
Przedrostki „http://” i „https://” należy rozróżniać. Hypertext Transfer Protocol (HTTP) i HTTP Secure wyznaczają protokół komunikacyjny, który ma zostać użyty do wysyłania i pobierania zawartości strony. Protokół HTTP jest podstawowym elementem działania struktury www, a HTTPS dodaje niezbędną warstwę ochronną w przypadku, gdy poufne informacje, takie jak hasła czy dane bankowe, mają być przesyłane w publicznej sieci Internet. Przeglądarki internetowe również automatycznie dopisują ten element (HTTPS), jeśli zostanie on pominięty. Ogólny zarys RFC 2396 ↓ określający postać adresów internetowych to: <protokół>://<host><ścieżka>?<zapytanie>#<fragment>, gdzie <host> to np. serwer internetowy (jak www.example.com), a ścieżka identyfikuje konkretna podstronę. Serwer przetwarza <zapytanie>, które może np. za pośrednictwem formularza wysłać dane do zewnętrznej wyszukiwarki, poprzez to zawartość wyświetlanej strony jest zależna od odebranych informacji zwrotnych. <fragment> nie jest wysyłany do serwera. Określa, która część strony ma być wyświetlana użytkownikowi domyślnie[potrzebny przypis].
W języku angielskim www wymawiane jest przez pojedyncze wypowiedzenie ciągu znaków double-u double-u double-u. Niektóre kręgi użytkowników wymawiają dub-dub-dub, aczkolwiek ten sposób nie jest jeszcze zbyt powszechny. Angielski pisarz Douglas Adams zażartował kiedyś w „The Independent on Sunday” (1999): „World Wide Web jest z tego, co wiem, jedynym wyrażeniem, którego skrócona forma jest trzy razy dłuższa od pełnej”. Określenie World Wide Web jest powszechnie tłumaczone na język chiński jako: wan wei wǎng, co dosłownie oznacza „mnóstwo wymiarów sieci”. Tłumaczenie to bardzo dobrze odzwierciedla koncepcję projektu i założenia WWW. Tim Berners-Lee zdefiniował, iż wyrażenie World Wide Web powinno być pisane jako 3 osobne słowa bez żadnych dodatkowych łączników[potrzebny przypis].
Użytkownicy komputerów, którzy oszczędzają czas i pieniądze, a także ci, którzy poszukują wygody i rozrywki, są narażeni na utratę prywatności w sieci. Na całym świecie ponad pół miliarda osób korzysta z serwisów społecznościowych, a młodzież dorastająca w dobie Internetu dokonuje kolejnej zmiany pokoleniowej. Z Facebooka, początkowo rozpowszechnionego pośród amerykańskich studentów, korzysta dziś ponad 70% użytkowników z innych państw niż USA. W 2009 roku na portalu uruchomiono test nowych narzędzi, umożliwiających dostosowanie ochrony prywatności, jednakże tylko 20% użytkowników rozpoczęło korzystanie z nich. Same serwisy wykorzystują część powierzonych im danych użytkowników do celów reklamowych. Osoba korzystająca z Internetu ma możliwość usunięcia historii przeglądanych stron, zablokowania niektórych ciasteczek (cookies) oraz wyskakujących okienek, jednak nie zapewnia to pełnej ochrony prywatności[potrzebny przypis].
Sieć Web stała się otwartą drogą dla przestępców rozprzestrzeniających złośliwe oprogramowanie. Cyberprzestępczość prowadzona w internecie może składać się z kradzieży tożsamości, oszustw, szpiegostwa i gromadzenia poufnych informacji. Połączenie z internetem przewyższa tradycyjne zagrożenia dla bezpieczeństwa danych przetwarzanych przy pomocy komputera, a jak szacuje Google, około jedna na dziesięć stron internetowych może zawierać złośliwy kod. Większość ataków opartych na sieci Web odbywa się z poziomu legalnych stron internetowych, a najczęściej, jak szacuje firma Sophos, producent oprogramowania antywirusowego, ataki są prowadzone w Stanach Zjednoczonych, Chinach i Rosji. Najpowszechniejszym typem zagrożeń jest SQL injection. Za pomocą języka HTML i URI sieć Web została również narażona na ataki, takie jak cross-site scripting (XSS), które pojawiły się wraz z wprowadzeniem JavaScript, następnie zostały rozszerzone do pewnego stopnia przez Web 2.0 i AJAX, używające dużych ilości skryptów. Dziś szacunkowo 70% wszystkich stron internetowych jest niezabezpieczonych przed atakami XSS[potrzebny przypis].
Z biegiem czasu wiele zasobów publikowanych w Internecie zanika, zostaje przeniesionych, zaktualizowanych lub całkowicie zmienia się ich zawartość. To sprawia, że niektóre odnośniki stają się przestarzałe. Określa się je wtedy mianem „martwych odnośników” (ang. dead links). Problem ten spowodował, że podjęto działania zaradcze, i np. Internet Archive, działające od 1996 roku, jest obecnie najbardziej znaną instytucją zajmującą się archiwizacją zasobów Internetu[potrzebny przypis].
Funkcjonowanie World Wide Web w Internecie oraz wymiana informacji pomiędzy komputerami opierają się na wielu standardach i specyfikacjach technicznych. Duża część tych dokumentów to opracowania World Wide Web Consortium (W3C), kierowanego przez Bernersa-Lee, a niektóre z nich są dziełem Internet Engineering Task Force (IETF) oraz innych organizacji[potrzebny przypis].
Gdy wspominamy o standardach internetowych, najczęściej mamy do czynienia z następującymi publikacjami[potrzebny przypis]:
Dodatkowe publikacje dostarczają definicji innych podstawowych technologii stosowanych w World Wide Web, m.in.:
Dostęp do WWW jest możliwy dla wszystkich, bez względu na to, czy użytkownik jest osobą w pełni czy niepełnosprawną. Niezależnie od rodzaju niepełnosprawności, sieć Web służy przesyłaniu, jak również pozyskiwaniu informacji oraz interakcji ze społeczeństwem, przez co niezmiernie ważne jest, aby umożliwić dostęp do sieci osobom niepełnosprawnym, często ograniczonym ruchowo. Tim Berners-Lee twierdzi, iż „potęga Internetu polega na jego uniwersalności. Dostępność dla wszystkich, bez względu na niepełnosprawność jest jej głównym aspektem”. Wiele krajów wymaga od autorów witryn stosowania ułatwień dostępu. Międzynarodowa ustalenia w ramach „Inicjatywy dostępności do sieci” W3 Consortium (Web Accessibility Initiative) doprowadziły do wystosowania pewnych prostych wytycznych, które autorzy treści internetowych, jak również twórcy oprogramowania mogą wykorzystywać, aby umożliwić „surfowanie” po sieci osobom niepełnosprawnym[potrzebny przypis].
W3C zapewnia, że usługa WWW będzie dostępna we wszystkich językach świata. Na początku 2004 r. Unicode zyskał znaczną popularność i ostatecznie w grudniu 2007 r., jako najczęściej używany system kodowania znaków w sieci Web, wyparł zarówno ASCII, jak i zestaw znaków dla Europy Zachodniej. Pierwotnie zbiór RFC 3986 ↓ zezwalał obiektom sieci na identyfikację tylko poprzez adresy składające się ze znaków z podgrupy US-ASCII. RFC 3987 ↓ uznaje rozszerzony zakres znaków i od tej pory zasoby sieci mogą być identyfikowane poprzez adresowanie w każdym z języków[potrzebny przypis].
Przeciążenie infrastruktury Internetu, wywołane przewagą popytu nad podażą, powoduje, nieraz znaczące, opóźnienia w przeglądaniu stron internetowych. Powstało nawet żartobliwe określenie dla WWW: „World Wide Wait” (czyli: „wielkie, światowe czekanie”). Przyspieszenie działania sieci jest ciągle otwartym tematem dyskusji i rozważań użytkowników, specjalistów oraz polem działania technologii QoS. Inne rozwiązania mające na celu przyspieszenie Internetu można znaleźć na stronie W3C[6].
Standardowe wytyczne dla idealnego czasu odpowiedzi z serwera to[potrzebny przypis]:
Według badań z 2001 roku, istniało wtedy więcej niż 550 miliardów dokumentów internetowych, najczęściej dostępnych w tzw. „widocznym WWW” (ang. visible Web lub surface Web), czyli skatalogowanych (zindeksowanych) przez wyszukiwarki internetowe lub w tzw. „ukrytym WWW” (ang. hidden Web lub deep Web), czyli nieskatalogowanych przez wyszukiwarki. W 2002 r. przebadano zawartość 2,024 miliarda stron WWW, dzięki czemu wiadomo, że zdecydowanie najwięcej zawartości sieci Web była w języku angielskim: 56,4%; następne były strony w języku niemieckim (7,7%), francuskim (5,6%) i japońskim (4,9%). Najnowsze badania wykorzystywały do zebrania próbek stron internetowych wyszukiwarki internetowe w 75 różnych językach. Ustalono, że od końca stycznia 2005 było ponad 11,5 miliarda publicznie indeksowanych stron internetowych. W marcu 2009 indeksowanych stron było już co najmniej 25,21 miliarda. 25 lipca 2008 inżynierowie oprogramowania Google Jesse Alpert i Nissan Hajaj ogłosili, iż wyszukiwarka odkryła bilion unikatowych adresów URL. Spośród 109,5 miliona domen działających w maju 2009 74% było komercyjne (tzn. strony działające w domenie najwyższego poziomu .com)[potrzebny przypis].
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.