Wojciech Kabaciński,Janusz Kleban - Od telegrafii do sieci transportu informacji.pdf

(698 KB) Pobierz
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01//EN" "http://www.w3.org/TR/html4/strict.dtd">
Wojciech KABACIŃSKI*, Janusz KLEBAN*
Od telegrafii
do sieci transportu informacji
75-lecie obecności Przeglądu Telekomunikacyjnego na rynku
wydawniczym to niewątpliwy powód do dumy i radości nie
tylko Zespołu Redakcyjnego, ale również całego środowiska
specjalistów związanych z telekomunikacją. Mamy bowiem cza-
sopismo, które jest pilnym obserwatorem i rzetelnym rejestrato-
rem kierunków rozwoju polskiej i światowej telekomunikacji.
W 75-letnim okresie istnienia tego tytułu, na łamach którego wy-
rażało swoje opinie wielu wysokiej klasy specjalistów, trudno
jest znaleźć problematykę telekomunikacyjną, która nie byłaby
w nim szczegółowo omawiana lub chociażby sygnalizowana.
Poszczególne numery zawierają zarówno opisy konkretnych
rozwiązań firmowych, jak i artykuły przeglądowe analizujące
przeszłość, stan obecny i przyszłość technik i technologii tele-
komunikacyjnych. Telekomunikacja rozwija się obecnie w tak
szalonym tempie, że zaglądając do poszczególnych roczników
Przeglądu Telekomunikacyjnego i Wiadomości Telekomunikacyj-
nych można prześledzić wprowadzanie na rynek nowych roz-
wiązań, które po stosunkowo krótkim czasie stają się przesta-
rzałe i są zastępowane nowszymi.
Rozwój każdej dziedziny jest z natury procesem ciągłym,
przyspieszanym skokowo przez epokowe odkrycia i nowator-
skie idee zmieniające sposób podejścia do rozwiązania proble-
mu. Autorzy niniejszego artykułu, biorąc pod uwagę cały doro-
bek informacyjny czasopisma, pragną dać wyraz subiektyw-
nemu spojrzeniu na wybrane wydarzenia. Były one swoistymi
impulsami przyspieszającymi rozwój transmisji danych począw-
szy od telegrafu, a skończywszy na zaawansowanych techni-
kach i technologiach, które będą stosowane w sieciach trans-
portu informacji.
rozwoju tej usługi doprowadziły ostatecznie do powstania jej
współczesnej wersji, popularnie zwanej telefaksem . Przełom
XIX i XX w. to wynalezienie radiotelegrafu i początki telegrafii
bezprzewodowej.
Sieć telegraficzna była prekursorem stosowanej później
w sieciach telekomunikacyjnych komutacji wiadomości. Wiado-
mość w postaci ciągu kresek i kropek była przekazywana po-
między operatorami. Operator, po odebraniu wiadomości, prze-
syłał ją następnym łączem do kolejnego operatora. Szybkość
przekazywania wiadomości była uzależniona od pracy człowie-
ka, który wykorzystywał klucze telegraficzne. Skonstruowanie
urządzeń drukujących, umieszczających na taśmach papieru
otwory reprezentujące kropki i kreski, a także automatycznych
nadajników, które przesyłały informacje zapisane na taśmie dru-
kowanej, umożliwiło lepsze wykorzystanie łączy. Wykorzystanie
łączy transmisyjnych próbowano poprawić także innymi meto-
dami, stosując między innymi zwielokrotnienie czasowe. Roz-
wiązanie takie wprowadził już w 1874 roku Baudot. Kod Morse’a
charakteryzował się nierównym czasem trwania poszczegól-
nych znaków (znaki alfabetu były kodowane różną liczbą kro-
pek i kresek). Utrudniało to realizację zwielokrotnienia czasowe-
go. Dlatego Baudot w swoim telegrafie wprowadził 5-elemento-
wy kod binarny, w którym znaki miały jednakowy czas trwania.
Warto dodać, że propozycję 5-elementowego alfabetu podał już
w 1605 roku F. Bacon. W celu szyfrowania wiadomości znaki al-
fabetu złożonego z 24 liter były kodowane za pomocą dwóch
znaków umieszczonych na pięciu pozycjach [1].
Na początku lat 30. ubiegłego wieku zaczęto wprowadzać
urządzenia zwane dalekopisami . Rozpoczęły się także prace
nad wprowadzaniem sieci teleksowej , umożliwiającej zestawia-
nie połączeń pomiędzy dalekopisami. Ważnym czynnikiem
wpływającym na upowszechnienie się usługi teleksu było
uzgodnienie wspólnego alfabetu stosowanego w dalekopisach.
Alfabet ten, zwany także alfabetem dalekopisowym, został
w 1932 roku zalecony do stosowania przez Międzynarodowy
Komitet Doradczy ds. Telegrafii CCIT jako międzynarodowy al-
fabet telegraficzny nr 2.
W latach 80. w Polsce działały trzy niezależne sieci telegra-
ficzne: sieć teleksowa zapewniająca łączność dalekopisową dla
abonentów, sieć telegramowa obsługująca telegramy krajowe
i sieć genteksowa obsługująca telegramy międzynarodowe.
W roku 2002 sieć telegramowa została wyłączona przez Teleko-
munikację Polską S. A. Sieć teleksowa nadal działa, jednakże
w dobie Internetu i poczty elektronicznej popularność tej usługi
maleje. Nadal są dostępne urządzenia końcowe, w wielu przy-
padkach oferowane w postaci odpowiednich adapterów do
komputera i specjalizowanego oprogramowania.
Następcą teleksu miał być teleteks , który zaczęto wprowa-
dzać w latach 70. ubiegłego wieku. Usługa ta umożliwia
przesyłanie znacznie bogatszego zestawu znaków niż teleks
(309 znaków graficznych przy 50 znakach w dalekopisach).
Rozpowszechniła się ona w pewnym stopniu w latach 80.
w rozwiniętych krajach zachodnich, w Polsce nie jest ona
jednak znana.
SYSTEMY ŁĄCZNOŚCI ZNAKOWEJ
I TEKSTOWEJ
Do przesyłania informacji w starożytności wykorzystywano
różne środki przekazu, od umownych znaków widocznych
z daleka, do pisanych dokumentów przenoszonych przez ludzi
lub zwierzęta. Podobno wiadomość o zdobyciu Troi przekaza-
no do Myken przy wykorzystaniu łańcucha ognisk. Pod koniec
XVIII w. C. Chappe opracował optyczny telegraf semaforowy ,
w którym litery były kodowane przez odpowiednie ustawienie
trzech ruchomych belek na maszcie. Telegraf optyczny został
wyparty przez telegraf elektryczny , który w momencie po-
wstania Przeglądu Telekomunikacyjnego był stosowany już od
ponad 75 lat, a pierwszą linię S. Morse uruchomił na trasie Wa-
szyngton – Baltimore w 1844 roku, wykorzystując urządzenie
własnej konstrukcji (choć wcześniej pojawiły się także inne roz-
wiązania telegrafu elektrycznego). W cieniu telegrafu była sto-
sowana także usługa faksymilografii , której pierwsze koncep-
cje i model aparatu przedstawiono w 1843 roku. Kolejne etapy
* Instytut Elektroniki i Telekomunikacji Politechniki Poznańskiej,
e-mail: kabacins@et.put.poznan.pl, jkleban@et.put.poznan.pl
20
PRZEGLĄD TELEKOMUNIKACYJNY
ROCZNIK LXXVI
nr 1/2003
858062908.011.png 858062908.012.png 858062908.013.png
TRANSMISJA DANYCH
DSP ( Digital Signal Processor ) oraz protokół opracowany przez
firmy Lucent i Rockwell Semiconductor Systems. Urządzenie to
zapoczątkowało proces standaryzacji modemów 56 kbit/s (Za-
lecenie ITU-T V.90) [2].
Dalszy rozwój technik dostępowych z wykorzystaniem skręt-
ki miedzianej obejmuje techniki xDSL ( Digital Subscriber Line ):
HDSL ( High data rate DSL ), SDSL ( Single-line DSL ), ADSL
( Asymmetric DSL ) i VDSL ( Very high data rate DSL ). Największą
popularnością cieszy się obecnie technika ADSL umożliwiająca
transmisję z szybkością 9 Mbit/s do abonenta i 640 kbit/s od
abonenta. Wykorzystywana jest tutaj modulacja wieloczęstotli-
wościowa DMT ( Discrete Multi-Tone ) z modulacją kwadraturo-
wą QAM w każdym podkanale. Technika HDSL umożliwia dwu-
kierunkowe przesyłanie strumieni E1 z wykorzystaniem dwóch
par skrętki miedzianej, SDSL – symetryczny ruch E1 w jednej
parze skrętki, natomiast VDSL – do 52 Mbit/s w obu kierunkach
na małe odległości (ok. 300 m) z wykorzystaniem jednej pary
skrętki.
Rozwój transmisji danych był początkowo stymulowany ko-
niecznością zapewnienia współużytkowania zasobów oblicze-
niowych systemów komputerowych. Współużytkowanie zaso-
bów na zasadzie fizycznego przekazywania programów lub da-
nych z jednej maszyny do drugiej nie dawało dobrych
rezultatów, ze względu na różnice występujące w sprzęcie i sys-
temach operacyjnych. Alternatywą był system komunikacyjny,
który umożliwiłby użytkownikom zdalny dostęp do programów
i danych tak, jak gdyby byli lokalnymi użytkownikami danego
systemu. Sieci, które powstawały na początku lat 60. były wyko-
rzystywane do połączenia pewnej liczby odległych terminali
z pojedynczym komputerem. Początkowo dokonywano takich
połączeń korzystając z łączy telegraficznych lub telefonicznych
zaopatrzonych w modulatory i demodulatory. Następnie zaczę-
to wprowadzać rozwiązania wykorzystujące modemy i sieci te-
lefoniczne powszechnego użytku. Pod koniec lat 60. wykorzy-
O Rys. 1. Linia telegrafu indoeuropejskiego biegnąca przez Polskę (wg A. Lisieckiego, Przegląd Teletechniczny zeszyt 1–2, 1928)
stywano modemy 300 bit/s z modulacją FSK ( Frequency Shift
Keying ). W drugiej połowie lat 70. pojawiły się modemy 1,2
kbit/s z modulacją PSK ( Phase Shift Keying ) oraz QPSK ( Qu-
adrature PSK ). Na początku lat 80. zaczęto wykorzystywać mo-
demy 2,4 kbit/s z modulacją 16-QAM ( Quadrature Amplitude
Modulation ) i FDM ( Frequency Division Multiplexing ). W 1984
roku dzięki metodom kompensacji echa oraz modulacji TCM
( Trellis-Coded Modulation ) i kodowaniu Viterbiego zwiększono
szybkość pracy modemu do 9,6 kbit/s, a wkrótce potem do
14,4 kbit/s. Na początku lat 90. dzięki udoskonaleniu modulacji
TCM, stała się możliwa transmisja danych w sieci telefonicz-
nej z szybkością 28,8 kbit/s, a wkrótce potem z szybkością
33,6 kbit/s. W lipcu 1997 roku firmy Lucent Technologies i Li-
vingston Enterprises Inc. ogłosiły dostępność modemu K56flex,
pracującego z szybkością 56 kbit/s, wykorzystującego procesor
Obecnie ogromne zapotrzebowanie na dużą szybkość trans-
misji jest generowane głównie przez masowe korzystanie z róż-
norodnych usług sieciowych, będących następstwem burzliwe-
go rozwoju infrastruktury i technologii internetowych. Wykorzy-
stując usługi WWW oferuje się coraz to bardziej wyrafinowane
usługi, wymagające kanałów transmisyjnych o coraz większej
przepływności.
Wchodzimy obecnie w erę społeczeństwa informacyjnego.
Nowoczesne sieci telekomunikacyjne tworzone są w taki
sposób, aby sprostać wymaganiom nakładanym na transport
szeroko pojętej informacji, w tym przekazy multimedialne,
i coraz częściej są nazywane sieciami transportu informacji.
Mają one stanowić infostrady przenoszące najbardziej cenny
towar XXI wieku – informację cyfrową – i mają sprawiać, by
była ona dla każdego człowieka w „zasięgu ręki”.
21
PRZEGLĄD TELEKOMUNIKACYJNY
ROCZNIK LXXVI
nr 1/2003
858062908.014.png 858062908.001.png
Problematykę rozwoju transmisji danych należy rozpatrywać
w trzech nurtach z jednej strony umożliwiających, z drugiej zaś
stymulujących postęp w tej dziedzinie. Pierwszy z nich to rozwój
technik transmisyjnych wynikający między innymi z gwałtowne-
go postępu w elektronice i optoelektronice. Drugi to rozwój in-
formatyki stymulujący zapotrzebowanie na szybkość transmisji.
Chodzi tutaj głównie o rozwój mechanizmów przetwarzania roz-
proszonego, zdalny dostęp do superkomputerów oraz koncep-
cję komputera sieciowego. Trzeci nurt to rozwój usług siecio-
wych i gwałtownie rosnące zapotrzebowanie na pasmo transmi-
syjne spowodowane masowym korzystaniem z tych usług.
Dzięki technikom sieciowym można dziś mówić o transformacji
biznesowych zastosowań telekomunikacji od rozmów telefo-
nicznych do wirtualnego przedsiębiorstwa.
W analogowej sieci telekomunikacyjnej medium przenoszą-
cym informację był głos, obecnie transmituje się i wymienia in-
formację w globalnej sieci telekomunikacyjnej w postaci róż-
nych środków przekazu: głosu, wideo, tekstu i obrazu. Wszyst-
kie z wymienionych środków przekazu są wykorzystywane
zarówno w kontaktach prywatnych, jak i biznesowych, a każdy
z nich ma charakterystyczne, unikatowe wymagania transmisyj-
ne. Dzięki rozwojowi technik transmisji bezprzewodowej można
również komunikować się z pominięciem kabli transmisyjnych.
Na obecny rozwój transmisji danych i kształt usług siecio-
wych decydujący wpływ miały następujące wydarzenia: opra-
cowanie koncepcji komutacji pakietów, powstanie Internetu,
stworzenie usługi WWW ( World Wide Web ), powstanie techniki
ATM ( Asynchronous Transfer Mode ), a w transportowej war-
stwie optycznej systemów DWDM ( Dense Wavelength Division
Multiplexing ).
no się rozwiązać problemy podstawowe, m.in.: jak powinny
działać węzły komutacyjne zdolne do przekazywania sygnału
w zmieniającej się pod wpływem uszkodzeń topologii sieci oraz
jak pokonać barierę pięciu węzłów komutacyjnych, przez które
mógł przechodzić sygnał w ówczesnej sieci telefonicznej.
Wszelkie próby spełnienia powyższych wymagań w sieci opar-
tej na transmisji analogowej spełzły na niczym. Jedynym roz-
wiązaniem pozwalającym na uniknięcie problemu degradacji ja-
kości sygnału i umożliwiającym dołączenie do transmitowanych
danych informacji o rutingu była transmisja cyfrowa. Kolejne
rozważane problemy to:
M synchronizacja sieci – zaproponowano buforowanie danych,
aby uniknąć przesyłania impulsów synchronizacyjnych w całej
sieci i by każde łącze mogło pracować ze swoją indywidualną
szybkością;
M szybkość komutacji w węźle – powinna być dostosowana do
transmisji 1,54 Mbit/s; w Bell Labs powstawał wówczas system
teletransmisyjny T1 – 1,54 Mbit/s;
M informacje, jakie należy dołączyć do transmitowanych da-
nych, by możliwe było trasowanie pakietów – uważano, że na-
leży przesyłać adres odbiorcy i nadawcy, wraz z licznikiem
przejść przez węzły sieciowe, informującym o liczbie ruterów,
przez które przeszedł pakiet;
M algorytm rutingu – P. Baran przedstawiał ten problem w na-
stępujący sposób: każdy pakiet powinien być traktowany tak,
jak gorący ziemniak, który jest przerzucany gołymi rękoma mię-
dzy osobami; każdy stara się taki ziemniak jak najszybciej od-
rzucić – na tym polega algorytm gorącego ziemniaka ( hot pota-
to routing algorithm );
M numer sekwencyjny nadawanych pakietów – ze względu na
to, że każdy pakiet może być transmitowany po różnych łą-
czach, jest potrzebny licznik umożliwiający ich posortowanie
w węźle odbiorczym;
M suma kontrolna CRC wykorzystywana do detekcji błędów;
M kryptografia – zaproponowano dwupoziomową hierarchię
kryptograficzną: między węzłami i między użytkownikami koń-
cowymi; biorąc pod uwagę metody kryptograficzne ustalono,
że długość pakietów powinna wynosić 1024 bity;
M budowa węzłów komutacyjnych – zaczęto rozważać budowę
węzłów multipleksujących ruch pochodzący od wielu użytkowni-
ków dysponujących urządzeniami o małej szybkości transmisji;
M separacja logicznych i fizycznych adresów – wymaganie to
stwarzało nowe możliwości w przypadku uszkodzenia węzła;
M kanały wirtualne – spełniające rolę logicznych odpowiedni-
ków łączy fizycznych.
Wszystkie powyższe rozwiązania były rozwiązaniami orygi-
nalnymi opracowanymi na potrzeby nowej filozofii transmisji da-
nych w sieci pakietowej głównie w latach 1960–1964.
Nazwę komutacja pakietów ( packet switchig ) wprowadził
w 1965 roku Donald W. Davies z National Phisical Laboratory,
który nie znając prac prowadzonych przez P. Barana również
rozważał szybkość transmisji danych 1,54 Mbit/s oraz wielkość
pakietu 1024 bity [3]. Baran używał w swoich pracach z począt-
ku lat sześćdziesiątych określenia „blok wiadomości” ( message
block ). Pojęcie komutacji pakietów zostało wprowadzone w ce-
lu odróżnienia tej metody komutacji od komutacji wiadomości
stosowanej w sieciach telegraficznych i teleksowych.
Komutacja pakietów
Jedną z fundamentalnych i nowatorskich idei zmieniających
podejście do transmisji danych jest komutacja pakietów. Kon-
cepcja komutacji pakietów i sieci pakietowych rozwinęła się
dzięki zapotrzebowaniu armii Stanów Zjednoczonych na sieć
komunikacyjną, która nie uległaby destrukcji podczas ataku ją-
drowego. Pod koniec lat pięćdziesiątych dowodzenie strate-
gicznymi siłami odbywało się z wykorzystaniem radiokomunika-
cji krótkofalowej oraz krajowego systemu telefonicznego pozo-
stającego pod kontrolą AT&T. Obie sieci były bardzo podatne
na uszkodzenia: sieć krótkofalowa – ze względu na wykorzysty-
wanie odbić od jonosfery, natomiast sieć telefoniczna – ze
względu na scentralizowaną topologię gwiaździstą. Okazało
się, że po wybuchu testowanej wówczas bomby wodorowej
łączność krótkofalowa była zakłócana na wiele godzin. Centra-
lizacja komutacji stała się piętą Achillesową systemu telekomu-
nikacyjnego, pozwalała bowiem na paraliż komunikacyjny, po-
mimo zniszczenia tylko niewielkiej części infrastruktury teleko-
munikacyjnej.
Problematyką niezawodnych sieci telekomunikacyjnych
zajmował się Paul Baran. W 1959 roku rozpoczął on pracę
w RAND Corporation, firmie utworzonej przez U. S. Air Force,
między innymi dla celów rozwiązywania problemów związanych
z bezpieczeństwem narodowym. Uważał on, że podstawowy
problem tkwi w topologii sieci. Badania symulacyjne dowiodły,
że jest możliwe zbudowanie niezawodnej sieci telekomunikacyj-
nej z wykorzystaniem zawodnych łączy, pod warunkiem wpro-
wadzenia połączeń nadmiarowych. Sieć uzyskuje wówczas
strukturę rozproszoną, podobną do sieci rybackiej i całkowicie
pozbawioną układu hierarchicznego. Jeśli węzeł nie został fi-
zycznie zniszczony podczas ataku, mógł współpracować z in-
nymi węzłami, które również nie zostały zniszczone, oczywiście
jeśli tylko istniały między nimi łącza. W latach 1960–1962 stara-
Internet
Sieć Internet rozwinęła się z sieci ARPA stworzonej w ramach
projektu finansowanego przez Departament Obrony USA. Po
nieoczekiwanym sukcesie ZSRR z wprowadzeniem na orbitę
pierwszego sztucznego satelity Ziemi powołano do życia agen-
cję ARPA ( Advanced Research Project Agency ) of U. S. Depart-
ment of Defence. Głównym celem nowej agencji było inicjowa-
22
PRZEGLĄD TELEKOMUNIKACYJNY
ROCZNIK LXXVI
nr 1/2003
858062908.002.png 858062908.003.png 858062908.004.png
Usługa WWW
nie wszelkiego rodzaju perspektywicznych prac badawczych.
Uznano, że to właśnie informatyka stwarza szanse na sukces
badań perspektywicznych, stąd w tym samym czasie w wielu
uniwersytetach USA rozpoczęto szereg prac badawczych z róż-
nych dziedzin informatyki. W 1966 roku zrealizowano pierwsze
eksperymenty sieciowe między Lincoln Laboratory (Massachu-
setts Institute of Technology) i System Development Corpora-
tion. Dały one podstawę do wysunięcia propozycji stworzenia
sieci, która połączyłaby wybrane ośrodki realizujące różne
przedsięwzięcia badawcze finansowane przez ARPA. Zamiaro-
wi temu przyświecały dwa cele: opracowanie i sprawdzenie od-
powiednich dla komputerów metod przesyłania informacji oraz
umożliwienie środowiskom związanym z ARPA współużytkowa-
nie zasobów. Brano pod uwagę około 20 ośrodków, z których
każdy posiadał jeden lub kilka dużych systemów liczących, po-
chodzących od różnych producentów: IBM, GE, XDS, DEC,
Univac i wyposażonych w różne typy komputerów: 360/65, 67,
75, 91, Sigma 7, PDP 10, 1108 itd. z różnymi systemami opera-
cyjnymi: OS, TSS/360, Multics, Tenex, Exec 8 [4].
Inicjatorem powstania sieci ARPA był Robert Taylor, nato-
miast szefem projektu – Larry Roberts, który prowadził prace
koncepcyjne; prace projektowe i implementacyjne były prowa-
dzone w firmie Bolt, Beranek and Newman, Inc.
W pierwszej fazie rozpoczętej we wrześniu 1969 roku nastą-
piło połączenie 15 ośrodków specjalizujących się w badaniach
dotyczących sieci komputerowych oraz architektury systemów
komputerowych, teorii i projektowania systemów informacyj-
nych, sterowania przepływem informacji i metod komputerowe-
go rozwiązania problemów. Faza ta została zakończona w lutym
1971 roku. W fazie drugiej zwiększono liczbę węzłów, dzięki
czemu zostały dodane nowe zastosowania oraz inne ośrodki
badawcze. Do marca 1973 r. liczba węzłów sieci wzrosła do 35,
a w czerwcu 1975 r. pracowało w sieci ARPA ponad 57 ośrod-
ków obliczeniowych, dysponujących prawie 100 komputerami.
Ważniejsze daty w ewolucji sieci ARPA do Internetu są nastę-
pujące: 1969 – uruchomienie pierwszego węzła sieci ARPA,
1972 – uruchomienie poczty elektronicznej, 1973 – dołączenie
do sieci ARPA pierwszego komputera spoza USA, 1975 – zmia-
na statusu sieci ARPA z eksperymentalnej na użytkową i prze-
kazanie pod zarząd Defence Communications Agency, 1980 –
rozpoczęcie eksperymentów z grupą protokołów TCP/IP , 1983
– wdrożenie protokołów grupy TCP/IP, podział sieci na część
wojskową – MILNET i cywilny ARPANET ; wtedy zaczęto uży-
wać nazwy Internet od nazwy protokołu IP , 1986 – utworzenie
sieci szkieletowej NSFNET ( National Science Foundation Ne-
twork ) zapewniającej dostęp do Internetu ogromnej liczbie in-
stytucji naukowych i badawczych w USA i na całym świecie,
1990 – formalna likwidacja sieci ARPA, 1991 – stworzenie syste-
mu GOPHER i usługi wyszukiwawczej ARCHIE , 1991 – stwo-
rzenie usługi WWW , 1992 – wprowadzenie przeglądarki WWW
o nazwie MOSAIC , 1995 – sprywatyzowanie szkieletu Interne-
tu , 1996 – zbudowanie szkieletu OC3 w USA.
Już od paru lat rozwój infrastruktury internetowej jest również
domeną prywatnych operatorów telekomunikacyjnych, dla któ-
rych oferowanie dostępu do usług internetowych i przenoszenie
ruchu IP staje się znaczącym źródłem dochodów, a zgodnie
z prognozami w niedalekiej przyszłości będzie głównym źró-
dłem. Wynika to z tego, że korzystanie z Internetu nie jest zwią-
zane obecnie tylko z pracą naukową, ale przede wszystkim z:
wyszukiwaniem informacji, rozrywką, komunikowaniem się z in-
nymi ludźmi, realizacją transakcji biznesowych, korzystaniem
z całkowicie wirtualnych banków itd.
W 2001 roku do Internetu było dołączonych (zgodnie z dany-
mi opublikowanymi przez ITU w 2002 roku) 141 382 198 ho-
stów, a liczba użytkowników wyniosła 500 074 300. Odpowied-
nie dane dla Polski wynoszą: 489 895 i 3 800 000.
Przełomowe znaczenie dla rozwoju Internetu miało opraco-
wanie usługi WWW, dającej dostęp do abstrakcyjnej przestrze-
ni połączonych między sobą – poprzez odnośniki hiperteksto-
we – stron zawierających: tekst, zdjęcia, rysunki, animacje,
a coraz częściej dźwięk, obrazy wideo i wirtualną rzeczywistość.
W tym przypadku udało się przełamać problem niekompatybil-
ności systemów komputerowych, co zaowocowało możliwością
nieograniczonego dostępu do zasobów informacyjnych zgro-
madzonych w sieci. Usługa WWW została stworzona w celu
wspomagania pracy grupowej nad projektami, bez żadnych
ograniczeń ze względu na wielkość grupy. Początkowo miał to
być osobisty system informacyjny umożliwiający dostęp do ma-
teriałów wszystkim członkom zespołu, jednak użytkownicy tej
usługi bardzo szybko znaleźli dla niej nowe zastosowania,
głównie ze względu na zawarty w niej potencjał zastosowań ko-
mercyjnych. Spowodowało to również wytyczenie nowych kie-
runków badań naukowych.
Spektakularny sukces tej usługi wynika głównie z łatwości
przenoszenia się między stronami za pomocą odnośników hi-
pertekstowych. Ideę hipertekstu opublikował po raz pierwszy
w 1945 roku Vannevar Bush w artykule: As We May Think . Była
ona potem rozwijana w latach 60. przez Douglasa Engelbarta,
a w 1965 roku Ted Nelson zaczął używać słowa hipertekst [5].
Nad architekturą WWW pracował, począwszy od 1989 roku,
Tim Berners Lee zatrudniony w CERN w Genewie. W tym sa-
mym roku został zaproponowany przez niego protokół HTTP
( Hypertext Transfer Protocol ), a następnie język HTML ( Hyper-
tekst Markup Language ). Pierwsze oprogramowanie do obsługi
WWW tworzył on od października do grudnia 1990 roku z wyko-
rzystaniem środowiska NeXTStep . Oprogramowanie umożli-
wiało dodawanie nowych dokumentów i nowych odnośników
hipertekstowych. W 1991 roku Nicola Pellow stworzył pierwszą
przeglądarkę realizującą dostęp do dokumentów WWW z do-
wolnej platformy sprzętowej. Pierwszy serwer WWW miał adres:
info.cern.ch. Prace nad rozwojem tej usługi trwają nadal. Głów-
ne kierunki badań to: zwiększenie funkcjonalności, efektyw-
ności, niezawodności i dostępności usługi; udoskonalenie usłu-
gi jako środka komunikacji i interakcji między ludźmi; dążenie
do gromadzenia danych w formatach zrozumiałych przez ma-
szyny, co zapewniałoby efektywną interakcję między kompute-
rami i WWW.
INTERNET W POLSCE
Rozwój Internetu w Polsce jest nierozerwalnie związany
z dążeniem środowiska akademickiego do zbudowania sieci
pakietowej łączącej ośrodki naukowe w Polsce. Prace związane
z budową tego typu sieci prowadzono w końcu lat siedemdzie-
siątych równolegle we Wrocławiu, w ramach problemu resorto-
wego RI. 14 oraz w Warszawie w ramach problemu IV. 6. Fun-
dusze przeznaczone na ten cel były jednak bardzo małe, co
uniemożliwiało osiągnięcie zadowalających wyników. Dopiero
w 1987 roku został uruchomiony Centralny Program Badawczo-
-Rozwojowy CBPR 8.13 pod nazwą Budowa Krajowej Akade-
mickiej Sieci Komputerowej KASK . W ramach tego programu
kontynuowano rozpoczęte wcześniej prace, co pozwoliło zbu-
dować zręby sieci akademickiej w Polsce. W 1990 roku urucho-
miono Jednostkowe Przedsięwzięcie Badawczo-Rozwojowe
JPBR 8.29 pod nazwą Przyłączenie polskiego środowiska aka-
demickiego i naukowego do sieci EARN ( European Academic
and Research Network ). 17 lipca 1990 roku Centrum Informa-
tyczne Uniwersytetu Warszawskiego ( CIUW ) zostaje przyłączo-
ne do sieci EARN, a za jej pośrednictwem do akademickiej sie-
23
PRZEGLĄD TELEKOMUNIKACYJNY
ROCZNIK LXXVI
nr 1/2003
858062908.005.png 858062908.006.png 858062908.007.png
ci komputerowej o zasięgu światowym – BITNET ( Because It’s
Time Network ). Od maja 1991 roku sieci akademickie i nauko-
we zaczęły funkcjonować pod wspólną nazwą Naukowa i Aka-
demicka Sieć Komputerowa NASK .
Za początek Internetu w Polsce można uznać datę 17 sierp-
nia 1991 roku, kiedy to między CIUW i Centrum Komputerowym
Uniwersytetu w Kopenhadze zostały wymienione pierwsze listy
elektroniczne. Połączenie międzynarodowe do Kopenhagi było
wówczas realizowane na liniach analogowych z prędkością
9,6 kbit/s, możliwa była łączność tylko z krajami europejskimi,
a od 15 grudnia również z USA. Wkrótce potem sieć NASK łą-
czyła się ze światowymi sieciami komputerowymi za pomocą łą-
cza satelitarnego Warszawa – Sztokholm 2 Mbit/s – do sieci
NORDUNET i łącza cyfrowego 128 kbit/s do Wiednia – do sieci
EBONE [6]. Początkowo Internet rozwijał się głównie z inicjaty-
wy środowisk akademickich. Korzystając głównie z funduszy
Komitetu Badań Naukowych, zaczęto budować w dużych
ośrodkach akademickich sieci MAN ( Metropolitan Area Ne-
tworks ), oparte na połączeniach światłowodowych. Z jednej
strony zapewniały one szybkie i niezawodne przesyłanie da-
nych między dołączonymi instytucjami, a z drugiej zapewniły
dostęp do Internetu. Większość komercyjnych użytkowników
była dołączana do Internetu przez wydzielone sieci pakietowe
POLPAK i POLPAK-T , należące do Telekomunikacji Polskiej
S.A. Dalsza rozbudowa infrastruktury transmisyjnej doprowa-
dziła do powstania pod koniec lat dziewięćdziesiątych sieci
POL-34 łączącej sieci miejskie łączami o przepływnościach:
2 Mbit/s, 34 Mbit/s, 155 Mbit/s, a nawet eksperymentalnie 1
Gbit/s. Sieć POL-34 jest podłączona do sieci TEN-155 ( Transeu-
ropean Education Network ) łączem 155 Mbit/s do Frankfurtu
nad Menem. Oprócz tego dostęp do Internetu oferują dostawcy
komercyjni mający swoje łącza do komercyjnego Internetu.
Szerszy obraz przyszłości Internetu w Polsce można znaleźć
w [7]. Działania podejmowane obecnie w polskim środowisku
internetowym zmierzają do: stworzenia zaawansowanej infra-
struktury polskiego Internetu optycznego (np. program
PIONIER ), czynnego uczestniczenia w tworzeniu europejskiej
sieci multigigabitowej (program GÉANT ), uczestnictwa w inter-
netowych inicjatywach Unii Europejskiej, połączenia polskiej
sieci z sieciami optycznymi powstającymi na terenie USA i Ka-
nady itp.
dla użytkowników. Użytkownicy z kolei wysuwają nowe żądania
co do przepływności łączy i jakości usług. Ze względu na to, że
koszty świadczenia coraz bardziej zaawansowanych usług
zmniejszają się, a wymagania wzrastają, na rynku pojawiają się
nowe systemy prezentujące coraz lepszą zawartość informacyj-
ną. W społeczeństwie informacyjnym ludzie współdziałają przez
urządzenia dołączone do sieci i jest to swoisty znak czasu. Im
więcej ludzi jest dołączonych do sieci i im dłużej pozostają do
niej dołączeni, tym większe jest zapotrzebowanie na systemy
ułatwiające i uprzyjemniające to połączenie.
ROZWÓJ INFRASTRUKTURY
TELEKOMUNIKACYJNEJ
DO TRANSMISJI DANYCH
Dokonujący się obecnie proces ewolucyjnych zmian w sieci
telekomunikacyjnej, w której zacierają się różnice między tele-
komunikacją, radiem, telewizją i informatyką, nazywamy zjawi-
skiem konwergencji, a operatorzy telekomunikacyjni budują
sieci pretendujące do miana sieci konwergentnych. Nowoczes-
na infrastruktura telekomunikacyjna powinna być przygotowa-
na do realizacji usług wymagających w wielu przypadkach
przekazów multimedialnych, co narzuca konieczność zapew-
nienia określonego poziomu QoS ( Quality of Service ). Ewolucja
usług telekomunikacyjnych zarówno w sieciach stacjonarnych,
jak i komórkowych, została trafnie ujęta przez M. Dąbrowskiego
i M. Średniawę w. [9].
Na początku lat dziewięćdziesiątych wydawało się, że kształt
sieci telekomunikacyjnej przyszłości został już dość dokładnie
zarysowany. Pojawiła się wówczas technika ATM, która miała
dawać solidne podstawy budowy szerokopasmowych sieci zin-
tegrowanych. Jednakże pod koniec lat dziewięćdziesiątych,
gdy zaczęto wprowadzać na rynek systemy DWDM zapewnia-
jące dostęp do bardzo szerokiego pasma, zmieniło się spojrze-
nie na koncepcję budowy szerokopasmowych sieci zintegrowa-
nych. Wykorzystując osiągnięcia w dziedzinie kompresji obrazu
i kompresji dźwięków, a w szczególności mowy, stworzono kon-
cepcję opracowania sieci zintegrowanej opartej na protokole IP
z pominięciem warstwy ATM, a nawet SDH . Problemy te były
rozważane przez A. Jajszczyka w [10], a w pracy [11] przedsta-
wiono metody zapewnienia QoS w sieciach IP.
Sprawna realizacja usług multimedialnych wymaga zbudo-
wania szerokopasmowej sieci dystrybucji usług, spełniającej ro-
lę sieci szkieletowej oraz sieci dostępowych. Ewolucja sieci sta-
cjonarnych została omówiona w [12], natomiast charakterysty-
ka sieci UMTS w [13].
Na rozwój sieci telekomunikacyjnych wpłynęło znacząco
wprowadzenie optycznych systemów transmisyjnych, za który-
mi muszą nadążać systemy komutacyjne. Elektroniczne syste-
my komutacyjne nie mają możliwości obsłużenia pasma trans-
misyjnego oferowanego przez transmisję światłowodową, dla-
tego też już w latach 70. XX w. pracowano nad optycznymi
systemami komutacyjnymi. W pierwszych rozwiązaniach, opar-
tych między innymi na sprzęgaczach kierunkowych wykorzy-
stujących technologię GaAs czy LiNbO 3 , istotnym problemem
były zagadnienia mocy. Stosowane rozwiązania wprowadzały
na tyle duże tłumienie sygnału, że ich wykorzystanie było moż-
liwe tylko w systemach o niewielkiej pojemności. W ciągu ostat-
nich lat osiągnięto istotny postęp w technikach komutacji sy-
gnałów optycznych. Niektóre z nich, jak technologia MEMS ( Mi-
cro-electromechanical Systems ), stwarzają obecnie możliwości
budowy systemów komutacyjnych o dużej pojemności. Prze-
łącznice ( OXC ) i krotnice optyczne ( OADM ) oparte na tych
technologiach będą dominować przez najbliższe lata w sieci
szkieletowej. Ewolucja ta doprowadzi do inteligentnych rekonfi-
SIEĆ INFORMACYJNA
JAKO NASTĘPCA INTERNETU
Internet w obecnym kształcie należy uznać za sieć transpor-
tową. Przyszłościowe sieci telekomunikacyjne spełniające zało-
żenia sieci transportu informacji wyposażone w odpowiednią in-
frastrukturę serwerowo-aplikacyjną będą spełniały rolę sieci in-
formacyjnych, tzn. będą skupiały zasoby informacyjne oraz
odpowiednią inteligencję sieciową i realizowały usługi umożli-
wiające jednolite i przezroczyste korzystanie z aplikacji [8].
Obecny rozwój sieci zmierza w kierunku sieci multimedialnych
umożliwiających realizację nowych komercyjnych aplikacji, ta-
kich jak: wirtualne przedsiębiorstwa, zdalna edukacja z wyko-
rzystaniem przekazów wideo, elektroniczny handel, wspomaga-
nie pracy grupowej, wideokonferencje itd. Sieci informacyjne
będą spełniały rolę systemów zapewniających użytkownikom
dostęp do potrzebnej im informacji o dowolnej porze i z dowol-
nego miejsca. Należy przewidywać, że ludzie będą preferowali
komunikację bogatą w środki przekazu, stąd rozwój aplikacji in-
formatycznych podąża w kierunku bogatej medialnie i interak-
tywnej zawartości, włączając w to dwukierunkowe przekazy wi-
deo. Ewolucja ta nakłada duże wymagania na sieci, które mają
obsługiwać różne urządzenia i świadczyć przezroczyste usługi
24
PRZEGLĄD TELEKOMUNIKACYJNY
ROCZNIK LXXVI
nr 1/2003
858062908.008.png 858062908.009.png 858062908.010.png
Zgłoś jeśli naruszono regulamin