otwarta sieć i jej wrogowie.doc

(84 KB) Pobierz

 

 

 

 

 



 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

             

 

 

 

 

 



 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 



 

 

 

 

 

 

 

 

 

 

Co to w ogóle jest otwarta sieć???

 

 

       - globalna sieć komputerowa oparta na tzw. protokole komunikacyjnym TCP/IP; największa sieć komputerowa na świecie, składa się z wielu tysięcy mniejszych sieci; powstała w USA z uruchomionej 1969 sieci ARPANET (przeznaczonej do celów militarnych) oraz z utworzonej 1984 sieci NSFNET (pierwotnie przeznaczonej dla ośrodków naukowych i szkolnictwa wyższego); ob. powszechnie wykorzystywana przez użytkowników komputerów, zwł. do wyszukiwania i pozyskiwania informacji i programów z zasobów dostępnych w sieci, do przesyłania poczty elektronicznej i in.; informacje tekstowe w Internecie są zwykle prezentowane w postaci hipertekstu (WWW); do ich wyszukiwania służą specjalne programy zw. przeglądarkami; Internet jest coraz częściej wykorzystywany także do przesyłania przedstawionych w postaci cyfrowej obrazów, sekwencji filmowych i zapisów dźwięku; wszelkiego rodzaju pliki mogą być w Internecie przekazywane za pomocą tzw. usługi FTP; korzystanie z Internetu wymaga uzyskania tzw. konta internetowego, tj. własnego adresu w sieci; liczba użytkowników Internetu bardzo szybko rośnie

Każdy użytkownik komputera na pewno słyszał, lub co gorsza "osobiście" miał do czynienia z wirusem. Jednak niewielu z nich zna zasadę ich działania, gdyż w tej dziedzinie, tak jak w wielu innych dziedzinach naszego życia, panują ustalone stereotypy. Są one wynikiem zarówno braku wiedzy przeciętnego użytkownika, jak i dezinformacji, lub raczej braku poprawnych i pożytecznych informacji, ze strony mediów i producentów oprogramowania antywirusowego.


Zasada działania


               Komputery połączone odpowiednim medium przenoszącym sygnały (kable galwaniczne, światłowody, radiolinie, połączenia satelitarne, wiązki laserowe itp.) tworzą sieć komputerową pozwalającą na wymianę informacji. Są one przekazywane między komputerami dołączonymi do sieci w postaci podzielonej na pakiety (datagramy) zaopatrzone w adres nadawcy i odbiorcy. Na początku nagłówka pakietu są umieszczone informacje sterujące, takie jak: całkowita długość pakietu, czas życia, suma kontrolna. Czas życia może wynosić do 255 jednostek; standardowo stosuje się wartość 32. Z chwilą przejścia pakietu przez element sieci czas życia jest zmniejszany o jedną jednostkę. Pakiety, których czas życia osiągnął wartość zerową, są usuwane z sieci. Poprawność przesłania pakietu można ocenić na podstawie sumy kontrolnej. Dalsze informacje umieszczone w nagłówku to adres nadawcy (adres źródłowy) i adres odbiorcy pakietu.
W węzłach sieci są zainstalowane specjalizowane komputery, nazywane routerami, których zadaniem jest odczytywanie adresu i odpowiednie kierowanie pakietów do odbiorcy. Routery korzystają przy tym z tzw. tablic routingu. Mogą one być tworzone ręcznie przez administratora sieci lub automatycznie przez protokoły routingu. Każdy komputer dołączony do Internetu ma niepowtarzalny adres, nazywany numerem internetowym lub adresem IP. Jest to 32-bitowa liczba zapisywana jako sekwencja czterech liczb ośmiobitowych dziesiętnych (tzn. mogących przybierać wartości od 0 do 255), rozdzielonych kropkami. W obrębie adresu wyróżnia się dwa składniki: identyfikator sieciowy oraz identyfikator komputera. Istnieją różne klasy adresowe, o różnej długości obydwu składników (klasa A to adresy o 8-bitowym identyfikatorze sieciowym i 24-bitowym identyfikatorze maszyny; klasa B — o podziale odpowiednio 16/16; klasa C — o podziale 24/8). W sieci Internet może występować 128 klas A, 14 284 klas B i 2 097 152 klas C. Istniejący obecnie system adresowania ogranicza liczbę możliwych do przyznania adresów, co wobec bardzo szybkiego rozwoju Internetu stanowi dla niego poważne zagrożenie. Od 1992 r. trwają prace nad wprowadzeniem nowego protokołu internetowego, tzw. Ipv6 (obecnie jest używana wersja Ipv4). Poza zwiększeniem przestrzeni adresowej ma on również usunąć inne niedogodności obecnego systemu, jak np. niemożność określenia kto zapoczątkował ruch w sieci, co z kolei uniemożliwia poprawne obciążanie kosztami końcowych użytkowników.

Dobrym modelem ilustrującym działanie Internetu jest system pocztowy. Odpowiednikiem pakietu jest koperta z adresem, a odpowiednikiem routera — urząd pocztowy, w którym segreguje się nadchodzące przesyłki i rozsyła do następnych urzędów. Pakiety (listy) podróżują pomiędzy routerami (urzędami), wymieszane z innymi pakietami (listami). Takie przekazywanie informacji nazywa się bezpołączeniowym, w przeciwieństwie na przykład do tradycyjnych rozmów telefonicznych. Reguły dystrybucji pakietów określa protokół IP, który dba o właściwe odczytanie adresów i zapewnia, że pakiety zostaną skierowane do odbiorcy. Przygotowaniem informacji do wysyłki zajmuje się protokół TCP. Jego zadanie polega na podzieleniu informacji na odpowiedniej wielkości pakiety, ponumerowaniu ich, tak aby u odbiorcy można było sprawdzić, czy wszystkie pakiety nadeszły, i ustawić je w odpowiedniej kolejności. Poszczególne partie informacji są wkładane do kopert TCP, które z kolei są umieszczane w kopertach IP. Po stronie odbiorcy oprogramowanie TCP zbiera wszystkie koperty i odczytuje przesłane dane. Jeżeli brakuje jakiejś koperty, żąda ponownego jej przesłania. Pakiety są wysyłane przez komputery bez sprawdzania, czy droga jest wolna. Może się więc zdarzyć, że do określonego węzła sieci, w którym znajduje się router, nadchodzi więcej pakietów, niż urządzenie jest w stanie posegregować i wysłać dalej. W każdym routerze istnieje bufor, w którym pakiety czekają na wysyłkę. Kiedy bufor całkowicie się zapełni, nowe nadchodzące pakiety są wyrzucane i bezpowrotnie giną. Protokół obsługujący kompletowanie pakietów musi więc wtedy zażądać ponownego ich przesłania. W ten sposób przy dużym obciążeniu sieci coraz więcej pakietów musi być wielokrotnie przesyłanych, co powoduje lawinowe narastanie ruchu aż do praktycznego zablokowania połączenia. Powoduje to bardzo nieefektywne wykorzystanie sieci. Dlatego przyjmuje się, że dobrze działająca sieć nie powinna być obciążana powyżej 30% nominalnej przepływności.

Historia Internetu


               W lipcu 1961 r. ukazała się pierwsza publikacja na temat teorii przełączania pakietów, opracowana przez L. Kleinrocka z Massachusetts Institute of Technology (MIT). W 1965 r. T. Merril i L.G. Roberts połączyli za pomocą linii telefonicznej dwa komputery: TX-2 w Massachusetts i Q-32 w Kalifornii. Była to pierwsza, jakkolwiek skromna, rozległa sieć komputerowa. W październiku 1967 r. Roberts przedstawił plan sieci ARPAnet (sieć Advanced Research Projects Agency). Jej budowę rozpoczęto w 1968 r. w ramach badań wojskowych, prowadzonych m.in. w celu opracowania takiej sieci komputerowej, która mogłaby wytrzymać atak atomowy. U podstaw koncepcji ARPAnetu legło założenie, że komunikacja odbywa się między nadawcą a odbiorcą, i że informacje powinny być przekazywane nawet wówczas, gdy sieć jest zawodna, a niektóre jej fragmenty mogą ulec unicestwieniu wskutek katastrof, działań militarnych itp. Sieć ARPAnet zaprojektowano tak, aby każdy komputer włączony do sieci, niezależnie od typu, mógł wymieniać informacje z każdym innym. W 1970 r. S. Crocker z zespołem opracował protokół kontroli sieciowej. Był to protokół przystosowany do obsługiwania jednej sieci, jaką w owym czasie był ARPAnet. Nie był on odpowiedni do współpracy wielu sieci. R.E. Kahn zaproponował opracowanie nowych protokołów TCP/IP, które zostały napisane w 1977 r., i ten rok można traktować jako początek eksperymentalnego Internetu. 1 I 1983 r. wymieniono protokół NCP w działającej sieci ARPAnet na TCP/IP. Była to wielka operacja wymagająca równoczesnej zmiany oprogramowania wszystkich komputerów podłączonych do sieci. Zmiana ta była przygotowywana przez kilka lat i przebiegła nadspodziewanie gładko.
Polska została przyłączona do Internetu w 2. połowie 1991 r. Pierwszym operatorem Internetu w Polsce był zespół na Uniwersytecie Warszawskim, budujący sieć p.n. Naukowa i Akademicka Sieć Komputerowa (NASK). Wzrost liczby komputerów dołączonych do Internetu zarówno na świecie, w Europie, jak i w Polsce przebiega wykładniczo w czasie. Liczba ta przekroczyła w 1998 r. w Polsce 150 tys., a na świecie — 36 mln, i dotąd nie zaobserwowano spowolnienia przyrostu.

Zastosowania Internetu


               Internet był początkowo wykorzystywany przede wszystkim w badaniach naukowych. W miarę rozwoju narzędzi ułatwiających posługiwanie się Internetem i wzrostu liczby użytkowników zaczął on odgrywać bardzo ważną rolę we wszystkich dziedzinach życia. Najistotniejsze usługi Internetu to: poczta elektroniczna umożliwiająca szybkie przesyłanie w skali globalnej informacji tekstowych i wizualnych, po cenie wielokrotnie niższej niż w innych technologiach, i do praktycznie nieograniczonej liczby adresatów, co pozwala zarówno na indywidualną korespondencję, jak i na tworzenie zespołów dyskusyjnych i czasopism elektronicznych (pierwszy polski dziennik elektroniczny „Donosy” zaczął się ukazywać w sierpniu 1989 r., jeszcze przed przyłączeniem Polski do Internetu; był on wówczas przekazywany przez linię telefoniczną za granicę do komputera połączonego z Internetem); wykorzystywanie i udostępnianie informacji za pomocą narzędzi sieciowych, z których najbardziej rozwinął się system WWW (World Wide Web — światowa pajęczyna); umożliwia on proste udostępnianie baz danych i tworzenie wirtualnych czasopism, działalność komercyjną, np. prowadzenie wirtualnych sklepów; transmisja głosu i obrazu, w tym wideokonferencje, co pozwala rozwinąć np. telemedycynę (zdalne porady lekarskie) i organizować telepracę, czyli system zatrudnienia, w którym pracownik pracuje w domu, w stałej łączności z pracodawcą; zdalna praca na komputerach w dowolnym miejscu; umożliwia to np. korzystanie z własnego komputera stacjonarnego nawet w czasie podróży.

 


 

 

 

 

 

 

 

 

 

 

 

 

Co to takiego ten wirus???
 



         jest niewielkim programem, powielającym się poprzez zarażanie zbiorów wykonywalnych, jednostek alokacji plików lub sektora startowego nośnika danych (HDD, FDD) oraz dokumentów stworzonych za pomocą pakietów biurowych takich jak MS Office. Ogólna nazwa "wirus" kryje cztery zasadnicze rodzaje programów:
1. Wirusy, których ogólna definicja pokrywa się z podaną wyżej,
2. Konie trojańskie - wirusy te ukrywają się w pożytecznym (na pozór) oprogramowaniu, jak np. program antywirusowy (!) czy przeglądarka plików graficznych. Program tego typu po jego uruchomieniu oprócz wykonywania swoich "oficjalnych" zadań dokonuje także spustoszenia w systemie,
3. Bomby logiczne - rodzaj wirusa, który może pozostać w ukryciu przez długi czas. Jego aktywacja następuje w momencie nadejścia określonej daty lub wykonania przez użytkownika określonej czynności, takiej jak np. skasowanie określonego pliku,
4. Robaki (worms) - małe, ale bardzo szkodliwe wirusy. Do prawidłowego funkcjonowania nie potrzebują nosiciela. Rozmnażają się samoistnie i w sposób ciągły, powodując w bardzo krótkim czasie wyczerpanie zasobów systemu. Wirusy tego typu są zdolne w bardzo krótkim czasie sparaliżować nawet dość rozległą sieć komputerową.

 

 

 

 

 

 

 

 


 

 

1. Wirusy plikowe (tzw. "zwykłe", file viruses):
Wirusy plikowe to najstarsza rodzina tych programów. Każdy wirus przed dokonaniem szkód najpierw ulega replikacji, dlatego rozwój "przemysłu" wirusowego wiąże się z wynajdywaniem nowych nosicieli. Początkowo na atak wirusów tego typu narażone były tylko pliki wykonywalne (*.exe, .com) oraz wsadowe (*.bat). Rozwój technologii wirusów powiększył grono zagrożonych plików o zbiory zawierające fragmenty kodu, biblioteki, sterowniki urządzeń (*.bin, *.dll, *.drv, *.lib, *.obj, *.ovl, *.sys, *.vxd).
Zasada działania:
Infekcja następuje poprzez dopisanie kodu wirusa na końcu pliku (wirusy starsze) lub modyfikację jego początku i dopisanie kodu w środku lub na końcu (wirusy nowsze, atakujące niewykonywalne pliki). Załadowanie zainfekowanego pliku do pamięci jest równoznaczne z uaktywnieniem wirusa. Wiele wirusów nie niszczy zaatakowanego pliku, dzięki czemu może po aktywacji wykonać program nosiciela, tak że użytkownik niczego nie podejrzewa.
 

 

 

 

2. Wirusy sektora startowego dysku (wirusy boot sektora, boot sector viruses):
Innym nosicielem wirusa może być sektor startowy nośnika danych, takiego jak dysk twardy (MBR - Master Boot Record) czy dyskietka (Boot sector). Wirusy tego typu są szczególnie groźne. Wynika to z faktu, iż po uruchomieniu komputer próbuje wczytać system, który jest zapisany w pierwszym sektorze dysku lub dyskietki. Należy mieć świadomość, że każda sformatowana dyskietka, nawet nie zawierająca plików systemowych, posiada boot sektor, a więc jako taka może zawierać wirusa.
Zasada działania:
Wirus tego typu może ulokować się w MBR i np. zniszczyć jego zawartość, uniemożliwiając tym samym dostęp do dysku. W innym przypadku wirus przenosi kod inicjujący system z sektora startowego w inny obszar dysku i zajmuje jego miejsce, co powoduje jego załadowanie jeszcze przed (!) startem systemu, a więc także przed uruchomieniem jakiegokolwiek oprogramowania antywirusowego. Działanie tego typu umożliwia wirusom przejęcie kontroli nad oprogramowaniem przeznaczonym do ich zwalczania.
3. Wirusy FAT (wirusy tablicy alokacji plików, link/FAT viruses):
Do replikacji wirusy mogą także wykorzystywać jednostki alokacji plików (JAP), na jakie tablica FAT dzieli DOS-ową partycję dysku twardego. W celu uzyskania dostępu do pliku DOS odszukuje w FAT numer jego pierwszej jednostki alokacji, po czym kolejno (zgodnie z FAT) wczytuje wszystkie jednostki zajmowane przez plik.
Zasada działania:
Wirusy atakujące JAP zmienia wartość pierwszej JA jednego lub wielu plików na numer wskazujący JA kodu wirusa. Wczytanie takiego pliku powoduje uruchomienie wirusa, który w dalszej kolejności może, ale nie musi, załadować właściwy program (w tym celu musi zapamiętać oryginalny numer jego pierwszej JAP).
4. Makrowirusy:
Makrowirusy należą do najmłodszej rodziny wirusów. Ich powstanie związane jest z wprowadzeniem do pakietów biurowych (np. MS Office, Lotus SmartSuite czy Corel WordPerfect)języków pozwalających na tworzenie makr, takich jak np. Visual Basic for Applications (VBA).
Zasada działania:
Większość makrowirusów Worda wykorzystuje fakt, że szablony dokumentów mogą zawierać makra. Wirus uaktywnia się w chwili otwarcia zainfekowanego dokumentu, po czym zaraża zdrowe zbiory z rozszerzeniem *.doc i zapisuje je jako szablony (dokumenty nie mogą zawierać makr). W ostatnim kroku jedno lub kilka automatycznie wykonywanych makr zostaje zastąpionych kodem wirusa.
5. Wirusy typu stealth i wirusy polimorficzne (stealth&polymorphic viruses):
W zasadzie wszystkie wymienione wcześniej wirusy mogą (choć nie muszą) należeć do tej grupy. Ich powstanie związane jest z postępem w dziedzinie ich wykrywania. W pierwszych latach obecności wirusów każdy miał swoją sygnaturę (charakterystyczny tylko dla siebie ciąg bajtów). Sytuacja zmieniła się, gdy Bułgar o pseudonimie Dark Avenger opracował metodę pozwalającą tworzyć wirusy samomutujące się.
Wirusy polimorficzne nie mają stałej sygnatury, ponieważ ich kod zmienia się samoczynnie przy każdej infekcji.
Wirusy stealth są to wirusy, które podczas próby dostępu do zarażonego pliku lub sektora dysku przez program antywirusowy potrafią "w locie", chwilowo naprawić uszkodzone dane i zatuszować swą obecność.
 

 

Skutki infekcji:

               Działalność wirusa może mieć różne skutki, zależnie od jego typu i przeznaczenia. Najbardziej "nieszkodliwe" są wirusy wypisujące na ekranie niegroźny komunikat czy wykorzystujące system tylko i wyłącznie do rozmnażania się. Znacznie gorsze skutki to uszkodzenie pojedynczych plików, zniszczenie całego dysku twardego, a nawet uszkodzenie komponentów komputera takich jak płyta główna czy karty rozszerzeń(!).
Za bardzo szkodliwe powszechnie uchodzą wirusy napisane przez niedoświadczonych programistów. Ich wirusy, z założenia mające być "nieszkodliwe", mogą wyrządzić wiele szkód spowodowanych błędami w kodzie źródłowym.

 

 

 

Jak się bronić???

               Podstawową zasadą jest posiadanie dobrego pakietu antywirusowego. Piszę "pakietu", gdyż obecnie większość tego typu programów składa się z wielu modułów o różnych funkcjach. Przy wyborze oprogramowania antywirusowego należy zwracać uwagę, czy posiada ono następujące elementy:
1. Skaner użytkownika (tzw. "ręczny", On-demand scanner) - podstawowy moduł, występujący we wszystkich typach oprogramowania. Umożliwia skanowanie plików przez użytkownika w wybranym przez niego momencie. Standardem jest kontrola zbiorów skompresowanych.
2. Skaner rezydentny - skaner, który pracuje w tle przez cały czas. Do jego zadań należy bieżąca kontrola wszystkich uruchamianych plików, otwieranych dokumentów czy wkładanych dyskietek. Powinien posiadać funkcję skanowania plików ściąganych z Internetu.
 

3. Terminarz - pozwala na zaprogramowanie pakietu tak, aby szukał wirusów o określonej porze, np. w nocy.

Dodatkowo oprogramowanie antywirusowe powinno umożliwiać generowanie raportów z bieżącej pracy. Bardzo ważne jest także, aby skaner wykorzystywał najnowsze metody wyszukiwania, takie jak np. heurystyczna metoda wykrywania wirusów (Chroni przed wirusami polimorficznymi, polega na analizie kodu pliku i symulacji jego wykonania. Pozwala na wykrycie operacji charakterystycznych dla wirusów, takich jak np. próba bezpośredniego dostępu do dysku.), czy sumy kontrolne.

 

 

 

 

 

Co nie grozi zarażeniem?

               Zamierzam tutaj obalić kilka panujących powszechnie mitów dotyczących sposobów zarażania się wirusem. Wbrew powszechnie panującej opinii, przeczytanie wiadomości e-mail nie może spowodować zarażenia. Może je spowodować dopiero otwarcie zawirusowanego pliku dołączonego do takiej wiadomości. Nie można się zarazić również poprzez przeglądanie stron w Internecie - jeśli nie ściągamy żadnych plików, to jedynymi danymi fizycznie zapisywanymi na dysku są tzw. cookies - dane o odwiedzanych stronach przeznaczone dla przeglądarki. Cookies nie mogą zawierać wirusów, nie jest więc możliwe zarażenie się w ten sposób.
Jedyną możliwością "złapania" wirusa jest otwarcie zainfekowanego pliku lub próbo dostępu do zawirusowanego sektora dysku .


Podsumowanie

               Brak rzetelnych informacji na temat wirusów prowadzi do częstych wybuchów paniki, czego przykładem są np. dwudniowy paraliż światowych systemów informatycznych na wieść o nieistniejącym wirusie Michaelangelo czy obiegające świat ostrzeżenia o rzekomych wirusach w e-mailach zatytułowanych "PENPAL GREETINGS", czy "JOIN THE CREW". Moim zdaniem należy zwalczać takie wiadomości, choćby poprzez odpowiednią edukację użytkowników komputerów, prowadzoną za pomocą czasopism o tematyce informatycznej. Myślę, że gdyby więcej czasopism podjęło działania, użytkownicy komputerów przeżywaliby znacznie mniej stresów spowodowanych swoją niewiedzą.

 

...
Zgłoś jeśli naruszono regulamin