PETy - skrypt(1).pdf

(788 KB) Pobierz
Microsoft Word - Wyklad05.doc
mgr inż. Tomasz Rutkowski
tel.: 660-83-90; Nowa Technologia pok. 215c, ul. Narbutta 85
2005 sem. zimowy
TEORIA NIEZAWODNOŚCI I BEZPIECZEŃSTWA
STUDIA ZAOCZNE INŻYNIERSKIE
PRESKRYPT DO WYKŁADU
Na prawach rękopisu
Autor uprzejmie prosi o zgłaszenie uwag, komentarzy i poprawek
dotyczących przedstawionego dalej tekstu.
1
mgr inż. Tomasz Rutkowski
tel.: 660-83-90; Nowa Technologia pok. 215c, ul. Narbutta 85
2005 sem. zimowy
Spis treści
WPROWADZENIE ……………………………………………………………………….3
POJĘCIA PODSTAWOWE ……………………………………………………………...7
Podstawowe pojęcia z zakresu probabilistyki – pobieżne
przypomnienie …………………………………………………………………..10
PODSTAWOWE CHARAKTERYSTYKI NIEZAWODNOŚCI OBIEKTÓW
NIENAPRAWIALNYCH ……………………………………………………………….14
EMPIRYCZNE OSZACOWANIE WSKAŹNIKÓW NIEZAWODNOŚCI ……...20
MODELOWANIE CZASU ZDATNOŚCI OBIEKTU PRZY UŻYCIU
ROZKŁADÓW TEORETYCZNYCH………………………………………...………..21
OBIEKTY ZŁOŻONE…………………………………………………………………...29
PODSTAWOWE STRUKTURY NIEZAWODNOŚCIOWE…………………………32
NADMIARY………………………………………………………………………………46
ANALIZOWANIE NIEZAWODNOŚCI METODĄ DRZEWA USZKODZEŃ…….54
ANALIZA RODZAJÓW I SKUTKÓW USZKODZEŃ ……………………………...61
OBIEKTY ODNAWIALNE……………………………………………………………..64
PROCES ODNOWY ……………………………………………………………...65
FUNKCJA ODNOWY… ………………………………………………………….66
ANALIZOWANIE NIEZAWODNOŚCI OBIEKTÓW ODNAWIALNYCH ……….67
ZASTOSOWANIE PROCESÓW MARKOWA DO OCENY NIEZAWODNOŚCI
OBIEKTÓW………………………………………………………………………………68
LITERATURA …………………………………………………………………………...84
2
 
mgr inż. Tomasz Rutkowski
tel.: 660-83-90; Nowa Technologia pok. 215c, ul. Narbutta 85
2005 sem. zimowy
WPROWADZENIE
Gwałtowny wzrost liczby obiektów technicznych w bezpośrednim otoczeniu
człowieka i coraz większy stopień uzależnienia się człowieka od szeroko pojętej techniki
sprawiły, że szczególnie istotne stały się zagadnienia związane ze zwiększaniem
skuteczności działania różnego rodzaju urządzeń. Każde z nich powinno pracować
bezawaryjnie, a jego ewentualne uszkodzenie nie powinno powodować następstw groźnych
dla użytkownika i otoczenia. Z wielu przykładami, w których prawidłowe funkcjonowanie
urządzenia ma bezpośredni wpływ na nasze życie spotykamy się codziennie.
Dyscyplina naukowa, zajmująca się opracowywaniem metod i sposobów
postępowania w trakcie projektowania, wytwarzania, odbioru, transportowania i
przechowywania oraz eksploatowania obiektów, mająca na celu zapewnienie skutecznego i
bezpiecznego ich zastosowania, nazwana została teorią niezawodności i bezpieczeństwa.
Teoria niezawodności zajmuje się wykrywaniem praw rządzących występowaniem
uszkodzeń, metodami ich prognozowania, opracowaniem sposobów podwyższania
niezawodności obiektów. Większość zagadnień teorii niezawodności wymaga zastosowania
metod matematycznych - w szczególności rachunku prawdopodobieństwa i statystyki
matematycznej. Wynika to nie ze specyficznych zainteresowań oderwanych od
rzeczywistości „teoretyków”, ale z samej istoty problemów. Niezależnie od tego jak
starannie dąży się do zachowania stałości procesu przemysłowego, jednorodności
stosowanych materiałów i niezmienności technologii wytwarzania, nie jest możliwe
uniknięcie pewnych wahań, których efektem będzie rozrzut wartości poszczególnych cech, z
pozoru jednakowych wyrobów. Wyroby te eksploatowane są w różnorodnych warunkach i
poddane oddziaływaniom o charakterze przypadkowym. Czas poprawnej pracy
poszczególnych wyrobów ma znaczny rozrzut i nie można precyzyjnie określić jaką wartość
przyjmie w odniesieniu do jednego, dowolnie wybranego. Jeżeli rozpatrywać będzie się
pewną zbiorowość wyrobów tego samego rodzaju, to posługując się narzędziami statystyki
matematycznej można, z wystarczającą dokładnością, przewidzieć jaki procent z nich nie
uszkodzi się w danym przedziale czasu. Wzrost stopnia złożoności urządzeń, wynikający ze
zwiększania liczby funkcji jaką mają one do spełnienia, powoduje zmniejszenie
prawdopodobieństwa ich jednoczesnego działania. Zadaniem teorii niezawodności jest
opracowanie zasad konstruowania urządzeń złożonych w taki sposób, aby były one zdolne
do działania, nawet po uszkodzeniu pewnej liczby ich elementów. Zazwyczaj straty
spowodowane zawodnością urządzeń nie ograniczają się jedynie do kosztów naprawy
samego urządzenia, ale również obejmują koszty usuwania następstw uszkodzenia w
otoczeniu, jak również „koszty utraconych szans”.
Prace zmierzające do zapewnienia odpowiedniej niezawodności urządzenia muszą
być podejmowane już na etapie projektowania i konstruowania. Należy odpowiednio określić
zadania jakie stawia się przed projektowanym urządzeniem, rozpoznać obciążenia i inne
oddziaływania środowiska, dobrać stosowne materiały, rozpoznać procesy powstawania
uszkodzeń, przeanalizować scenariusze potencjalnych uszkodzeń i ich możliwe następstwa.
Opracowane powinny zostać odpowiednie procedury badań odbiorczych, zasady
postępowania z obiektem w czasie jego eksploatowania obejmujące tzw. profilaktykę
techniczną, zasady diagnozowania. Niezawodność jako dyscyplina naukowa obejmuje wiele
koncepcji, wskaźników, narzędzi matematycznych, jak również metody pomiaru i
prognozowania wartości wykorzystywanych wskaźników.
3
mgr inż. Tomasz Rutkowski
tel.: 660-83-90; Nowa Technologia pok. 215c, ul. Narbutta 85
2005 sem. zimowy
Teoria niezawodności rozwinęła się stosunkowo późno w porównaniu z innymi
obszarami wiedzy inżynierskiej. Sam termin niezawodność, w technicznym znaczeniu tego
słowa, liczy sobie zaledwie kilkadziesiąt lat - został po raz pierwszy użyty jako pojęcie
techniczne po I Wojnie Światowej. Określono nim liczbę uszkodzeń przypadającą na godzinę
lotu, a wskaźnik ten wykorzystywano do porównywania własności samolotów jedno i
wielosilnikowych (Arnljot Hoyland, Marvin Rausand).
Trudno jest w sposób jednoznaczny wskazać pierwsze prace z zakresu
niezawodności. Post factum zaliczyć można do nich badania poświęcone trwałości łożysk dla
taboru kolejowego prowadzone już pod koniec XIX wieku. Początkowo przedmiotem
zainteresowania były systemy mechaniczne i zagadnienia związane z wydłużeniem czasu ich
działania. Istotnym czynnikiem rozwoju badań o charakterze niezawodnościowym był
gwałtowny rozwój elektrotechniki i wprowadzanie nadmiarów, w postaci np. równoległych
uzwojeń w transformatorach, do konstruowanych urządzeń. Za początki wykorzystywania
danych o charakterze statystycznym uważa się gromadzenie danych o częstości uszkodzeń
elementów samolotów, a w szczególności silników lotniczych. Posłużyły one do
doskonalenia tych elementów i określenia kierunków ich rozwoju. Ogólnie rzecz ujmując
przed latami czterdziestymi XX wieku zagadnienia związane z niezawodnością i
bezpieczeństwem obiektów technicznych były rozpatrywane w sposób intuicyjny, na ogół na
podstawie subiektywnego „doświadczenia i nosa inżynierskiego”. Metody służące
zagwarantowaniu niezawodności były bardziej wytworem sztuki niż wiedzy o charakterze
naukowym. Wzrost zainteresowania społeczeństw zagadnieniami niezawodności miał
miejsce po pojawieniu się doniesień o wielkich katastrofach z udziałem wytworów techniki
takich, jak np. zatonięcie Titanica. Pierwsi inżynierowie zajmujący się niezawodnością doszli
do wniosku, że obiekt jest tak trwały jak długo działa najsłabszy jego element. Łańcuch gdy
będzie rosła siła, z którą jest rozciągany pęknie wtedy, gdy rozerwane zostanie najsłabsze
jego ogniwo. Problem sprowadzono zatem do odnalezienia, a następnie wzmocnienia,
„najsłabszego ogniwa” Tę teorię ogłosił w 1926 r. Peirce. Na początku lat trzydziestych
Walter Shewhart, Harold F. Dodge i Harry G. Roming stworzyli teoretyczne podstawy
wykorzystania metod statystycznych do kontroli jakości wyrobów produkowanych masowo.
Szersze ich zastosowanie można jednak zaobserwować dopiero po wybuchu II Wojny
Światowej i przestawieniu gospodarek wielu krajów na wielkoseryjną produkcję
zbrojeniową.
Za pierwsze modele służące prognozowaniu niezawodności uważa się te, które
opracowano w Niemczech w czasie prac nad latającą bombą V1. Upadła teoria najsłabszego
ogniwa, która dłuższy czas opóźniała prace zespołu konstrukcyjnego. Nie sposób było
wyszukać to najsłabsze ogniwo, następujące po sobie kolejne katastrofy wywoływane były
uszkodzeniami najrozmaitszych elementów. Prowadzący prace zespół doszedł do
przekonania, ze niezawodność obiektu nie jest determinowana tylko przez najgorszy z nich,
ale w jakiś sposób zależy od wszystkich elementów składowych. Matematyczne rozwiązanie
problemu opracował Eric Pieruschka. Z jego prac wynikało, że niezawodność
rozpatrywanego urządzenia jest dramatycznie mniejsza od niezawodności jego elementów
gdyż wyraża się iloczynem niezawodności wszystkich elementów składowych tzw. prawo
Lussnera. Pocisk V1 podaje się za przykład pierwszego w pełni przemyślanego opracowania
wymagań co do niezawodności całego systemu i jego elementów składowych i pomyślnego
zweryfikowania ich w praktyce.
4
mgr inż. Tomasz Rutkowski
tel.: 660-83-90; Nowa Technologia pok. 215c, ul. Narbutta 85
2005 sem. zimowy
W USA w latach czterdziestych działania zmierzające do podniesienia niezawodności
skoncentrowano na zagadnieniach związanych z jakością projektowania i wytwarzania. Dla
przykładu firma GM dzięki tego rodzaju działaniom czterokrotnie wydłużyła trwałość
silników lokomotyw spalinowych. W tym samym okresie zastosowano metody
probabilistyczne do określenia wielkości systemów przesyłu energii elektrycznej.
Po II Wojnie Światowej nastąpił dalszy rozwój teorii niezawodności, będący
wynikiem wprowadzenia do masowej produkcji wyrobów o złożonej budowie,
zawierających wielką liczbę elementów takich jak: odbiorniki telewizyjne, maszyny liczące
itp. Do tego rozwoju przyczyniła się również automatyzacja produkcji, wymagająca
niezawodnie i bezpiecznie działających systemów sterowania.
W latach pięćdziesiątych wzrost poziomu złożoności systemów elektronicznych, w
szczególności o charakterze militarnym, zaowocował pojawieniem się problemów z
utrzymaniem odpowiedniego poziomu ich gotowości i dramatycznym wzrostem kosztów
tego utrzymania. Na przykład podaje się, że w 1937 r. na amerykańskim niszczycielu było 60
lamp elektronicznych, w 1952 było ich już 3200. Z raportów docierających do Departamentu
Obrony wynikało, że wyposażenie, zawierające wspomniane lampy nadawało się do
wykorzystania jedynie przez 30% wymaganego czasu. Wojna Koreańska dostarczyła
kolejnych niezwykle interesujących obserwacji – na jeden dolar wydany na zainstalowanie
wyposażenia elektronicznego przypadało w ciągu roku dwa dolary wydane na utrzymanie
tego wyposażenia w stanie zdatności. Powoli do powszechnej świadomości dotarło, że lepiej
jest dążyć do stworzenia niezawodnego urządzenia niż czekać na wystąpienie uszkodzenia i
być zmuszonym do jego usuwania. W USA w latach pięćdziesiątych wprowadzono pierwsze
wymagania niezawodnościowe co do elementów wytwarzanych jako produkcja masowa tzw.
American Military Standard.
W epoce rewolucji elektronicznej i miniaturyzacji obwodów elektronicznych jakość
elementów stosowanych w produkcji urządzeń nabrała podstawowego znaczenia.
Opracowano odpowiednie techniki i normy ich wytwarzania i badań, które zastosowała
między innymi NASA. W 1954 roku zorganizowano pierwsze Międzynarodowe Sympozjum
Niezawodności i Obsługiwalności.
W latach sześćdziesiątych pojawiły się nowe techniki niezawodnościowe i poszerzył
się zakres ich zastosowań. Dokonano pierwszych analiz rodzajów uszkodzeń i ich wpływu na
własności systemu oraz na bezpieczeństwo osób i mienia. W szczególności techniki te
rozwinęły się w przemyśle lotniczym i kosmicznym. Analizowanie skutków
przewidywanych uszkodzeń odgrywało istotną rolę w szczególności w zagadnieniach
związanych z systemami przenoszenia broni atomowej. Analizy prowadzono wykorzystując
metody blokowych schematów niezawodności. W 1961 w Bell Telephone Laboratories
wprowadzono koncepcję drzewa uszkodzeń, jako metodę oceny bezpieczeństwa systemu
sterowania wyrzutniami pocisków Minuteman. Koncepcję tę rozwinięto na potrzeby firmy
Boeing. Metoda analizy rodzajów i skutków uszkodzeń (FMEA) wykorzystywana przez
MacDonnell Douglas została wprowadzona do wymagań prawnych nałożonych na
amerykański przemył lotniczy w końcu lat sześćdziesiątych. Podobne prace prowadzono we
Francji w ramach projektów Concorde i Airbus. Metody prognozowania niezawodności
zustały wykorzystane przez NASA w ramach programu Apollo. W przemysłach lotniczych
wielu krajów wprowadzono probabilistyczne miary niezawodności i bezpieczeństwa oparte
na klasyfikacji uszkodzeń.
5
Zgłoś jeśli naruszono regulamin