• Nie Znaleziono Wyników

Obliczanie niezawodności konstrukcji inżynierskich metodami symulacyjnymi oraz metodą powierzchni odpowiedzi : rozprawa doktorska

N/A
N/A
Protected

Academic year: 2022

Share "Obliczanie niezawodności konstrukcji inżynierskich metodami symulacyjnymi oraz metodą powierzchni odpowiedzi : rozprawa doktorska"

Copied!
232
0
0

Pełen tekst

(1)

POLITECHNIKA GDAŃSKA

WYDZIAŁ INŻYNIERII LĄDOWEJ I ŚRODOWISKA KATEDRA MECHANIKI BUDOWLI I MOSTÓW

MGR INŻ. KAROL WINKELMANN

OBLICZANIE NIEZAWODNOŚCI KONSTRUKCJI INŻYNIERSKICH

METODAMI SYMULACYJNYMI ORAZ METODĄ

POWIERZCHNI ODPOWIEDZI

ROZPRAWA DOKTORSKA

PROMOTOR

DR HAB. INŻ. JAROSŁAW GÓRSKI, PROF. NADZW. PG

GDAŃSK 2013

(2)
(3)

PRAGNĘ SERDECZNIE PODZIĘKOWAĆ:

mojemu Promotorowi

dr hab. inż. Jarosławowi Górskiemu, prof. nadzw. PG za nieocenioną pomoc przy niniejszej pracy,

wyrażoną przekazaną wiedzą, poświęconym czasem oraz cierpliwością i wsparciem

najdroższej Rodzinie za to, że zawsze przy mnie jest

oraz Losowi

za wszystkie życzliwe Osoby, których drogi splótł On z moją

(4)
(5)

Sp S pi i s s t t r r e ś c c i i

1. Przedmiot, cel i zakres pracy 1.1. Przedmiot pracy

1.2. Cel i zakres pracy 1.3. Teza pracy

2. Metody określania niezawodności modeli konstrukcji inżynierskich 2.1. Wprowadzenie

2.2. Niezawodność w ujęciu normowym (deterministycznym)

2.3. Niezawodność według podejścia symulacyjnego (probabilistycznego) 2.3.1. Podstawowe pojęcia teorii niezawodności

2.3.2. Problem podstawowy analizy niezawodności 2.4. Wybrane miary niezawodności

2.4.1. Wskaźnik niezawodności Cornella

2.4.2. Wskaźnik niezawodności Rosenbluetha – Estevy / FOSM 2.4.3. Wskaźnik niezawodności Hasofera – Linda

2.4.4. Wskaźnik niezawodności Hasofera – Linda – Rackwitza – Fiesslera 2.5. Metoda perturbacyjna

2.6. Metody oparte na miarach funkcji prawdopodobieństwa 2.6.1. Metoda Monte Carlo

2.6.2. Metoda Monte Carlo z użyciem technik redukcyjnych 2.6.2.1. Próbkowanie warstwowe

2.6.2.2. Próbkowanie hipersześcianu łacińskiego 2.6.2.3. Próbkowanie wagowe

2.6.2.4. Próbkowanie rosyjskiej ruletki i rozdzielania

2.6.3. Ilustracja numeryczna wpływu technik redukcyjnych na obliczenia metodą Monte Carlo

2.6.3.1. Model 2-D 2.6.3.2. Model 3-D

2.7. Metoda powierzchni odpowiedzi

2.7.1. Metoda powierzchni odpowiedzi z użyciem aproksymacji wielomianem 2.7.2. Metoda powierzchni odpowiedzi z użyciem aproksymacji ilorazem

wielomianów

2.8. Wrażliwość probabilistyczna modeli konstrukcji inżynierskich

2.8.1. Techniki określania wrażliwości mające za podstawę metodę Monte Carlo 2.8.2. Techniki określania wrażliwości mające za podstawę metodę powierzchni

odpowiedzi

1 1 2 9

11 11 14 22 24 26 29 31 34 36 41 43 45 46 50 51 54 57 58 61 62 66 77 79 82 83 86 88

(6)

3. Autorski program do obliczeń wskaźników niezawodności

i prawdopodobieństwa awarii konstrukcji inżynierskich – RSM–Win 3.1. Wprowadzenie

3.2. Technika analizy wariancji metodą tabelaryczną 3.3. Techniki i algorytmy działania programu autorskiego

4. Imperfekcje geometryczne konstrukcji inżynierskich

4.1. Imperfekcje w konstrukcjach rzeczywistych w świetle podejścia normowego 4.2. Identyfikacja inżynierska pól imperfekcji geometrycznych modeli rzeczywistych

konstrukcji inżynierskich

5. Generacja dwuwymiarowych i trójwymiarowych pól losowych 5.1. Generacja pól losowych za pomocą metody warunkowej akceptacji

i odrzucania

5.2. Generacja pól losowych za pomocą rozwinięcia Karhunena – Loève’a 5.3. Przykład symulacji pola losowego za pomocą przedstawionych technik

generacji

6. Przykłady zastosowań podejścia probabilistycznego w rzeczywistych problemach inżynierskich

6.1. Proste modele prętowe

6.1.1. Dobór optymalnej powierzchni odpowiedzi do zadania początkowego 6.1.2. Kalkulacja i porównanie wskaźników niezawodności dla trójprzęsłowej

belki ciągłej Lemaitre’a

6.1.3. Pełne rozwiązanie problemu niezawodności dla kolumny Zieglera 6.1.4. Pełne rozwiązanie problemu niezawodności dla ramy Roordy 6.2. Mało wyniosła powłoka kompozytowa

6.3. Obrotowosymetryczny metalowy dźwigar powierzchniowy

7. Ocena rezultatów i wnioski z pracy

8. Literatura

91 91 93 97

103 103 107

111

111 117 119

123 123 124 128 133 141 147 165

207

211

(7)

Ro R oz z dz d z i i a ł 1 1

Przedmiot, cel i zakres pracy

1.1. Przedmiot pracy

Nigdy dotąd przed inżynierem nie stała konieczność projektowania tak bardzo restrykcyjnego oraz tak mocno balansującego na granicy wykorzystania pełni parametrów fizycznych i wytrzymałości materiału w stosunku do jego gabarytów, tak jak to ma miejsce w czasach dzisiejszych. Jednakże jakkolwiek taka konstrukcja będzie wytworzona, w jakimkolwiek polu inżynierii ma znaleźć swoje zastosowanie i jak mocno zbliżono się w niej do limitu wytrzymałości materiału, jedna rzecz musi pozostać uniwersalna. Konstrukcja taka musi bezwarunkowo zagwarantować spełnienie swojego podstawowego zadania – wypełnienia jej przeznaczenia przez całkowity czas użytkowania, założony w procesie projektowania.

To z kolei pociąga za sobą wymóg kolejny – zapewnienie całkowitego bezpieczeństwa konstrukcji inżynierskiej już w trakcie jej użytkowania.

W standardowym procesie projektowym zapewnianie bezpieczeństwa konstrukcji spełniane jest przez odpowiednie stosowanie się do normatyw technicznych charakterystycznych dla danego kraju lub środowiska. Na ich podstawie parametry materiałowe lub obciążeniowe, w rzeczywistości zmienne, obarczone pewnymi tolerancjami lub niepewnościami, przedstawia się w postaci zbioru mnożników i współczynników, zastępujących wiedzę o określonym stopniu losowości lub zmienności w czasie tychże cech. Zależnie od potrzeb – współczynniki te zwiększają wpływy zewnętrzne, jeśli niekorzystnym w sensie inżynierskim będzie narastanie danego obciążenia lub niedoskonałości materiału, albo też zmniejszają je, jeśli wpływy danego czynnika naturalnie pomagają zachować bezpieczeństwo danej konstrukcji, bądź gdy zmniejszenie obciążenia powoduje bezpośrednio zmniejszenie bezpieczeństwa konstrukcji.

Jednakże należy mieć świadomość, że nawet najdokładniejsze sterowanie rzeczonymi współczynnikami w procesie projektowym może nie być wystarczającym gwarantem bezpieczeństwa konstrukcji. Pojawić się bowiem mogą (z pewnym określonym prawdopodobieństwem) niepewności czynników większe niż te, które były brane pod uwagę przy projektowaniu zgodnie z normami czy specyfikacjami. Zatem, także z pewnym określonym prawdopodobieństwem, konstrukcja zaprojektowana z należytym zachowaniem procedur normowych, może mimo wszystko ulec awarii [Vrouwenvelder, 2002].

Jest to jeden z najistotniejszych powodów, dla których w czasach obecnych rozwija się teorie i modele probabilistyczne. We wszystkich probabilistycznych wariantach analizy, między innymi w analizie niezawodności konstrukcji, która jest przedmiotem niniejszej pracy, przyjąć można, iż wspomniane powyżej materiały, obciążenia, bądź całe konstrukcje obarczane są pewnymi niepewnościami (wymiaru, wielkości, wykonania, wytrzymałości) i niepewności te powinno się modelować za pomocą odpowiednio dobranych zmiennych losowych lub pól losowych. Wówczas awarię konstrukcji inżynierskiej definiuje się w sposób bardziej złożony,

(8)

2 Karol Winkelmann – Obliczanie niezawodności konstrukcji inżynierskich...

jako pewien stan, nazywany granicznym, w którym odpowiedź konstrukcji lub materiału na zadane obciążenie stanowić zaczyna zagrożenie bezpieczeństwa jej funkcjonowania. Zatem, awarią konstrukcji jest de facto pewne niekorzystne zdarzenie losowe, które jest zbiorem wartości założonych niepewności parametrów materiałowych bądź konstrukcji, które prowadzą do przekroczenia wspomnianego stanu niebezpiecznego. Natomiast poszczególne przekroczenia dopuszczalności odchyłek ustalonych w procesie projektowania zmiennych materiału i obciążenia można nazwać jako naruszenie obszaru granicznego bezpieczeństwa konstrukcji. Prawdopodobieństwo zaistnienia zdarzenia losowego niepożądanego w pracy konstrukcji, czyli prawdopodobieństwo awarii, wraz z wywodzącymi się z niego wartościami, są zatem miarami losowego ujęcia niezawodności danej konstrukcji.

Metody probabilistyczne cechują się jednakże znaczną złożonością, zarówno w kwestii oszacowania prawdopodobieństwa awarii, czy w ogóle stworzenia poprawnego modelu do analizy losowej. Stąd ich póki co mała popularność w codziennej praktyce inżynierskiej, mimo, iż pozwalają na bardzo racjonalną i w ogromnej mierze inwestycyjnie oszczędną ocenę bezpieczeństwa konstrukcji, jej elementu, czy pracy danego materiału [Vrouwenvelder, 2002].

Utworzeniu prawidłowego modelu zjawisk losowych, którym poddana jest konstrukcja, pomaga zazwyczaj odpowiednie przygotowanie obserwacyjne inżyniera. Wszelakie odnotowane w różnych źródłach (także we wspomnianych wyżej deterministycznych normatywach inżynierskich) informacje i dane statystyczne dotyczące zmienności obciążeń oraz parametrów wytrzymałościowych w miejscu i w czasie, dane zawierające potrzebne ilościowe i jakościowe średnie miary tych zjawisk, wiadomości o ich relacjach i kombinacjach, a także o ich charakterystykach, są niezbędne do poprawnego funkcjonowania późniejszego modelu konstrukcji obarczonej losowością jej elementów. Współczesny inżynier w prosty sposób może wszystkie te dane zastąpić za pomocą matematycznych funkcji rozkładów prawdopodobieństwa danych niepewności [Stocki, 1999].

Tutaj więc rodzi się kolejna trudność, która stoi na przeszkodzie popularyzacji metod losowych. Jest to złożoność odwzorowania wspomnianych niepewności do rozkładów prawdopodobieństwa zmiennych losowych działających na konstrukcję bądź jej elementy.

Ich określenie wymaga w najlepszym wypadku przeprowadzenia wielu testów (jeśli zmienną jest wytrzymałość), wielu symulacji numerycznych, poprowadzenia serii eksperymentów o znacznej liczbie pojedynczych prób (dla zmiennych określanych poprzez projekt eksperymentalny), lub też wielomiesięcznych, a czasem nawet wieloletnich obserwacji procesów natury (w przypadku obciążeń działaniami atmosferycznymi). Kolejno, nawet dysponując odpowiednimi bazami danych o wymienionych czynnikach, napotkać można trudności związane z właściwą ich implementacją do analizy, tj. przy opracowywaniu danych statystycznych. Procedury numeryczne służące temu celowi również mogą być działaniami o dużej złożoności, co jest kolejną niedogodnością stojącą często jako argument przeciwko stosowaniu podejścia probabilistycznego w projektowaniu [Ang i Tang, 2007].

Dalej, jeśli określona niepewność wytrzymałości materiału lub obciążenia konstrukcji, oprócz zmienności wartości, wykazuje również zmienność w czasie i/lub w przestrzeni, to musi być ona koniecznie opisana funkcją losową, bądź polem losowym. Zbiór funkcji matematycznego opisu tego typu niepewności nazywamy wówczas procesem losowym i jego opis także cechuje się wysokim stopniem trudności matematycznej. Wiele z procesów losowych nawet po dzień dzisiejszy nie ma poprawnego odwzorowania numerycznego. Stąd śmiało można stwierdzić,

(9)

Rozdział 1 – Przedmiot, cel i zakres pracy 3 iż problem zapewnienia konstrukcji bezpieczeństwa ze względu na nośność i użytkowanie nie tylko wymaga wiedzy na temat podejścia probabilistycznego potrzebnej do kalkulacji prawdopodobieństwa awarii projektowanej konstrukcji, ale także umiejętności stworzenia i kalibracji modelu do użycia w takich obliczeniach [Devroye, 1986].

Wszystkie powyższe fakty działają na niekorzyść podejścia losowego, jeżeli mowa o projektowaniu „codziennym”, o standardowym działaniu biur projektów budownictwa komunalnego. Istnieją jednakże projekty o większej złożoności, o silniej i wyraźniej stawianych kryteriach odbioru lub większych niż zazwyczaj obostrzeniach ekonomiki konstrukcji. W tychże projektach podejście normowe jest niewystarczające i stosowanie metod losowych staje się koniecznością. Pamiętać również należy, iż dzięki nieustannemu zwiększaniu się możliwości obliczeniowych komputerów i algorytmów numerycznych coraz bliżej jest tradycyjnej inżynierii do przeskoku na podejście probabilistyczne i w coraz większym procencie komercyjnego oprogramowania analizy takie są na dzień dzisiejszy możliwe do wykonania [Stocki, 1999].

W skład rodziny analiz podejścia probabilistycznego oprócz wspomnianego szacowania niezawodności wchodzą również szeroko pojęte optymalizacje niezawodnościowe oraz analizy wrażliwości konstrukcji. Optymalizacje niezawodnościowe są technikami pozwalającymi na wprowadzenie w konstrukcję szeregu ograniczeń prawdopodobieństwa jej awarii w sposób globalny (suma zmian czynników obarczonych niepewnościami lub modyfikowalnymi pod względem kubatury i przyjętego materiału), a analizy wrażliwości podchodzą do czynników podlegających niepewnościom w sposób lokalny, skupiając się na zmianach prawdopodobieństwa awarii konstrukcji na skutek wywołania określonego poziomu zmiany ustalonej wcześniej pojedynczej, konkretnej zmiennej losowej. Objęcie zasięgiem wszystkich wymienionych gałęzi analiz daje z całą pewnością najdoskonalszy obraz zachowania się konstrukcji, a połączenie lub wzbogacenie standardowej metodologii elementów skończonych o szereg procedur i algorytmów zawierających podejście losowe w wielu przypadkach prowadzi do redukcji czasu bądź rozciągłości obliczeń modelu oraz lepszej kontroli procesu kalkulacji rozwiązania, co ma swoje najbardziej wyraźne zalety w przypadku postępowania z konstrukcjami materiałowo lub geometrycznie nieliniowymi [Kolanek, 2007; Stocki, 2010].

1.2. Cel i zakres pracy

Celem niniejszej pracy jest przede wszystkim potwierdzenie zasadności i celowości wykonywania analizy niezawodności nieliniowych problemów ściśle inżynierskich, na każdym kroku procesu projektowania. Celem pracy jest także przedstawienie możliwych do zastosowania, szeroko uznawanych probabilistycznych metod szacowania bezpieczeństwa konstrukcji, teoretyczne opracowanie oraz komputerowa implementacja programu autorskiego służącego do jego obliczania, a także stworzenie ściśle zgodnej z normatywami procedury generacji pól losowych modelujących przestrzenny rozkład imperfekcji geometrycznych i materiałowych, wraz z udowodnieniem wpływu tych ostatnich na nośność konstrukcji inżynierskiej.

(10)

4 Karol Winkelmann – Obliczanie niezawodności konstrukcji inżynierskich...

Trzon niniejszej rozprawy stanowi, jak podkreślono powyżej, analiza nieliniowych (zarówno geometrycznie, jak i materiałowo) modeli konstrukcji. Rozważane są zarówno modele prętowe i powierzchniowe, co wskazać ma na uniwersalność i wszechstronność metodologii podejścia probabilistycznego w zastosowaniu do procesu projektowania i do oceny bezpieczeństwa konstrukcji już istniejącej. Podjęcie operacji na obu typach konstrukcji ma także wskazywać możliwość przełożenia zaprezentowanych w niniejszej rozprawie technik obliczeniowych na szerokie spektrum problemów inżynierskich.

W konstrukcjach tego typu, głównymi problemami są zagadnienia stateczności (zarówno lokalnej, związanej z wyboczeniem pojedynczych elementów, jak i globalnej, związanej z utratą stateczności przez całość konstrukcji) oraz problemy przekroczenia nośności granicznej konstrukcji lub jej elementu – uplastycznienia materiału, z którego jest wykonana.

Szczególna uwaga w większej części rozprawy poświęcona jest imperfekcjom geometrycznym, to w nich właśnie poszukiwana jest główna przyczyna zmienności parametrów modelu probabilistycznego. W niniejszej rozprawie podjęta została próba oszacowania ich wpływu na zachowanie rozważanych konstrukcji inżynierskich oraz zasygnalizowania wrażliwości tychże konstrukcji na zmienności wywołane wskazanymi imperfekcjami, traktowanymi jako istniejące bądź zachodzące osobno. Jest sprawą oczywistą, iż mogą one w krótkiej perspektywie czasu, w zupełnie różnym charakterze, doprowadzać konstrukcję do utraty stateczności lub nośności pod danym stanem obciążenia. Jednakże, w wielu dziedzinach inżynierii nadal sprawą otwartą pozostaje charakter tej zmiany, a w sporej grupie typów konstrukcji analiza wrażliwości nie została do tej pory przeprowadzona dostatecznie szczegółowo [Górski i Mikulski, 2005; Kamiński, 2005].

Stosowanie technik generacji losowego zestawu zmiennych wejściowych dla parametrów analizy modeli z imperfekcjami i czytanie na ich podstawie odpowiedzi konstrukcji jest zatem, jak wskazano w pracy, w pełni uzasadnione i niemalże konieczne (a przynajmniej – z całą pewnością zalecane), nawet w przypadku dość szerokiej grupy konstrukcji inżynierii komunalnej – w powłokach silosów i zbiorników, co jest też potwierdzane w samych normach.

Istotną ogniskową rozprawy są też materiały kompozytowe. W obecnej inżynierii to właśnie materiały kompozytowe są najśmielej wprowadzane do procesu projektowania. Bardzo istotnym elementem stosowania takiego materiału także jest analiza probabilistyczna wpływu imperfekcji geometrycznych i materiałowych na całość zachowania się kompozytu. Dokonanie szczegółowej stochastycznej charakterystyki kompozytów jest niezbędne do stworzenia wiarygodnych danych, które posłużą projektowaniu i realizacji obiektów inżynierskich z materiałów kompozytowych. Istotnym elementem analizy powinno być przede wszystkim zgrubne oszacowanie niezawodności konstrukcji kompozytowych w zakresie problemu materiałowo nieliniowego, zatem także jest to elementem niniejszej rozprawy [Bucinell, 1998;

Johnson, 2010].

Niniejsza praca ma w zamierzeniu charakter aplikacyjny – wnioski z niej płynące mają doprowadzić do zwiększenia świadomości o możliwym wpływie określonego gatunku losowości na niezawodność konstrukcji, a zaproponowane w niej rozwiązania – zarówno numeryczne, jak i praktyczne – mają być w prosty sposób przetłumaczalne na inżynierię

„codzienną” i przybliżające inżynierowi posługiwanie się metodologią probabilistyczną.

(11)

Rozdział 1 – Przedmiot, cel i zakres pracy 5 Praca składa się z ośmiu rozdziałów.

Rozdział 1 jest dedykowany przedstawieniu przedmiotu pracy, jej celu oraz zakresu tematyki, jakiej podejmuje się niniejsza rozprawa doktorska.

Rozdział ten nakreśla między innymi różnice pomiędzy klasycznym podejściem do projektowania, a podejściem probabilistycznym, sugerowanym przez pracę i w niej przedstawianym. Zawiera także wskazania, iż probabilistyczne szacowanie niezawodności może mieć przewagę nad podejściem normowym, co skutkuje w czasach obecnych gwałtownym rozwojem tej dyscypliny inżynierii (który to fakt stał się motywem podjęcia pracy w takim temacie i o takiej rozciągłości). Pokrótce naświetla się w nim także nieliczne wady, jakimi charakteryzuje się podejście probabilistyczne.

W drugiej części rozdziału nakreśla się szczegółowo zakres pracy. Tekst składa się z dwóch partii – ujęcia ogólnego poruszanego w pracy wycinka zbioru technik probabilistycznych i modeli konstrukcji inżynierskich, do których zostanie on zastosowany oraz ujęcia szczegółowego, odnoszącego poszczególne tematy przewodnie do ich miejsc w treści pracy.

Końcowo, dokonane jest sformułowanie tezy pracy.

Rozdział 2 jest w całości poświęcony metodom określania niezawodności konstrukcji, na każdym poziomie oceny bezpieczeństwa konstrukcji inżynierskich.

W pierwszej części rozdziału umieszcza się ścisłe przedstawienie podejścia probabilistycznego i definiuje się podział metod szacowania bezpieczeństwa konstrukcji inżynierskich na cztery odpowiednie poziomy, w zależności od stopnia zaawansowania ich odniesienia do technik probabilistycznych. Szczegółowo przedstawione zostają dwa z nich – poziom pierwszy, tj. ujęcie deterministyczne problemu niezawodności, przedstawiane w normatywach technicznych i kodach projektowych oraz poziom drugi, tj. ujęcie symulacyjne problemu niezawodności, przedstawiane w literaturze dedykowanej obliczeniom probabilistycznym i technikom stochastycznym. Dla poziomu symulacyjnego definiowane są podstawowe pojęcia matematyczne teorii niezawodności oraz formułowany jest problem podstawowy analizy niezawodności. Przedstawiane są także miary niezawodności w probabilistycznej przestrzeni realizacji zmiennych losowych problemu. Znajduje się wśród nich także nakreślenie najistotniejszego z punktu widzenia rozprawy współczynnika – wskaźnika niezawodności, stosowanego jako podstawowa miara niezawodności modelu konstrukcji inżynierskiej.

Definiowane są cztery różne koncepcje wskaźnika: liniowy Cornella, quasi – liniowy FOSM, kwadratowy Hasofera – Linda i kwadratowy ulepszony Rackwitza – Fiesslera. Opisano także wszystkie techniki pomocne przy jego kalkulacji.

W drugiej części rozdziału przedstawiono gałąź metod, dzięki którym oszacować można wszystkie miary probabilistyczne bezpieczeństwa konstrukcji inżynierskiej. Pokrótce omówiona zostaje między nimi metoda perturbacyjna, jednakże główną ogniskową rozprawy są metoda Monte Carlo oraz metoda powierzchni odpowiedzi (RSM). Metoda Monte Carlo przedstawiana jest w ujęciu podejścia bezpośredniej generacji populacji punktów obliczeniowych, jak również w ujęciu metod świadomej i bezstratnej redukcji populacji punktów obliczeniowych. Opisane są szczegółowo cztery techniki próbkowania redukcyjnego:

próbkowanie warstwowe, próbkowanie hipersześcianu łacińskiego, próbkowanie wagowe oraz próbkowanie rosyjskiej ruletki i rozdzielania. Pierwsze trzy techniki znajdują następnie szerokie zastosowanie w przykładach obliczeniowych, przedstawionych w rozprawie.

Kolejną częścią rozdziału są dwa przykłady ilustrujące wpływ wyżej wymienionych technik redukcji wariancji na obliczenia prowadzone metodą Monte Carlo. Podejmuje się w rozprawie

(12)

6 Karol Winkelmann – Obliczanie niezawodności konstrukcji inżynierskich...

analizę dwóch modeli nieskończenie sztywnego pionowego elementu prętowego (masztu) z odciągiem (odciągami) w postaci elementów sprężystych o losowych stałych sprężystości.

Wpierw analizuje się model geometrycznie dwuwymiarowy, o jednym stopniu swobody, a następnie – geometrycznie trójwymiarowy, o dwóch stopniach swobody. Zakłada się, że maszty mają pewną niezamierzoną niedoskonałość wykonania, która objawia się utratą jego pionowości. Układ geometrycznie dwuwymiarowy służy przede wszystkim do teoretycznego wprowadzenia w rozpatrywany problem nieliniowy, natomiast model geometrycznie trójwymiarowy jest użyty przede wszystkim do wykonania wyżej wspomnianej analizy porównawczej sprawności ulepszonej metody Monte Carlo.

Następny punkt rozdziału dedykowany jest przedstawieniu teoretycznych podstaw metody powierzchni odpowiedzi, będącej główną ogniskową rozprawy. Metoda ta pozwala na oszacowanie, jak określona odpowiedź konstrukcji zmienia się pod wpływem zmian poziomów współczynników analizy oraz pozwala osiągnąć zrozumienie zachowania się konstrukcji obarczonej zadanymi niepewnościami. Przede wszystkim jednak, metoda ta pozwala uzyskać kompletną wiedzę o właściwościach pracy konstrukcji na testowanym obszarze zmienności jej parametrów. Przedstawia się dwa podejścia do metody – podejście klasyczne, gdzie powierzchnię odpowiedzi aproksymuje się modelem wielomianowym, a także podejście innowacyjne, gdzie powierzchnię aproksymuje się modelem ilorazu wielomianowego.

Osobne miejsce na końcu rozdziału zostało poświęcone opisowi problemu określania wrażliwości probabilistycznej modeli konstrukcji inżynierskich. Dokonano krytycznego przeglądu technik, jakie mogą być stosowane do szacowania wrażliwości, jeśli dysponuje się wynikami analizy niezawodności metodą Monte Carlo i/lub metody powierzchni odpowiedzi.

Rozdział 3 jest poświęcony przedstawieniu autorskiego programu RSM-Win (napisanego w języku Fortran F90), służącego do analizy problemów inżynierskich za pomocą metodologii powierzchni odpowiedzi oraz do szacowania podstawowych miar niezawodności pierwszego i drugiego rzędu, dokonywanych na bazie informacji numerycznej z powierzchni odpowiedzi.

W rozdziale tym umieszcza się kolejno: przedstawienie motywacji do wykonania takiego narzędzia, naświetlenie technik matematycznych, wokół których został zbudowany (głównie standardową analizę regresji oraz analizę wariancji odpowiedzi metodą tablicową ANOVA) oraz przedstawienie głównych schematów jego działania, jakie są przez program używane do uzyskiwania wartości pożądanych przez osobę realizującą obliczenia. Rozpisane zostają między innymi używane przez program algorytmy poszukiwania wskaźników niezawodności Hasofera – Linda i Hasofera – Linda – Rackwitza – Fiesslera.

Rozdział 4 jest poświęcony imperfekcjom geometrycznym konstrukcji inżynierskich.

W pierwszej części rozdziału poruszono problem występowania imperfekcji geometrycznych, widziany z perspektywy przepisów normowych. Przedstawiono kolejno wszystkie typy imperfekcji, jakie mogą wystąpić w rzeczywistych konstrukcjach inżynierskich, a następnie przywołano fakt, iż norma nakazuje wybierać do analiz procesu projektowego jedynie niepewności geometryczne. Przywołuje się wszystkie prawomocne krajowe normatywy, jakie poruszają wspomnianą kwestię. Zgodnie z Eurokodem PN-EN 1993-1-6:2009, podaje się wstępne założenia dotyczące ich wymiarów i położenia, w odniesieniu do grubości elementu obarczonego imperfekcją lub do klasy precyzji wykonania elementu konstrukcyjnego.

W drugiej części rozdziału podano technikę identyfikacji inżynierskiej rozproszonych imperfekcji geometrycznych jako równoważną metodę dokonywania wstępnych założeń dotyczących ich wymiarów i położenia. Odwołano się do literatury podkreślającej zasadność

(13)

Rozdział 1 – Przedmiot, cel i zakres pracy 7 i użyteczność takiego działania. Na koniec rozdziału podaje się literaturę poruszającą temat transkrypcji danych doświadczalnego pomiaru imperfekcji w postać odpowiadających im symulowanych pól losowych. Formułuje się warunki, jakie narzucane są na pola losowe, aby pozostały one wiernym odwzorowaniem niedokładności geometrii konstrukcji rzeczywistych.

Rozdział 5 jest intuicyjną kontynuacją rozważań nad polami imperfekcji geometrycznych, opisującą procesy generacji dwuwymiarowych i trójwymiarowych pól losowych służących do późniejszego modelowania imperfekcji geometrycznych i materiałowych.

Przywoływane są dwie techniki generacji pól losowych. W pierwszej kolejności prezentowana jest metoda warunkowej akceptacji i odrzucania. Wpierw dokonuje się krytycznego przeglądu literatury, jaki poświęcony jest metodzie, a następnie podaje się matematyczne podstawy generacji. Na ich podstawie definiuje się obrazowo przebieg generacji, a końcowo – formułuje się jej algorytm. Ostatecznie, rozważa się zalety generacji warunkowej i przywołuje jej zastosowania. Jako druga, przedstawiana jest uniwersalnie stosowana generacja pól losowych za pomocą rozwinięcia Karhunena – Loéve’a. Podaje się wpierw, jak poprzednio, podstawy matematyczne generacji, a na ich podstawie formułuje się końcowo algorytm generacyjny.

Druga część rozdziału poświęcona jest wykonaniu przykładu obliczeniowego, wygenerowanego w programie własnym, polegającego na symulacji pola losowego za pomocą obu technik generacji i jednocześnie dokonującego porównania wyników dla obu metod. Dodatkowo, oblicza się dla przykładu globalny błąd macierzy kowariancyjnej, służący jako miara jakości otrzymanych pól losowych. Błędy owe porównuje się w końcówce rozdziału, a na ich podstawie wyciąga się wnioski sugerujące korzystniejszą dla przyszłych przykładów obliczeniowych technikę generacji.

Rozdział 6 jest w opinii autora najbardziej istotną częścią rozprawy. Rozdział ten zawiera opis przeprowadzonych obliczeń przykładów ilustrujących możliwość zastosowania podejścia probabilistycznego w rzeczywistych konstrukcjach inżynierskich do szacowania ich niezawodności. Podjęte badania numeryczne mają na celu potwierdzenie tezy rozprawy, sformułowanej w rozdziale otwierającym pracę.

Wszelakie wprowadzenie danych, obliczenia probabilistyczne oraz obróbka danych wyjściowych została wykonana przy użyciu programu autorskiego RSM–Win oraz przy użyciu autorskich procedur wspomagających, napisanych w językach Fortran F90 oraz SciLab. Obliczenia numeryczne zaawansowanych modeli konstrukcji inżynierskich zostały wykonane w komercyjnych programach obliczeniowych NX Nastran i SOFiSTiK FEA.

W pierwszej części rozdziału przedsięwzięto analizę prostych modeli prętowych, dla których rezultaty obliczeń wykonanych programem autorskim można w łatwy sposób porównać z wynikami badań numerycznych, jakie zostały przeprowadzone w literaturze światowej.

Przykłady te mają przede wszystkim na celu wskazanie poprawności działania programu autorskiego, a także naświetlenie tychże obszarów modelowania probabilistycznego wykonywanych przy użyciu programu autorskiego, w których użytkownikowi zalecana jest szczególna ostrożność przy wprowadzaniu danych wejściowych oraz przy analizie, obróbce i interpretacji wyników końcowych.

Wykonywane są kolejno: dobór optymalnej powierzchni odpowiedzi do zadania początkowego, gdzie wskazuje się wpływ ilości i rozproszenia punktów obliczeniowych zadania na poprawność aproksymacji algorytmu programu; kalkulacja i porównanie wskaźników niezawodności dla trójprzęsłowej belki ciągłej Lemaitre’a, co ma na celu wskazanie poprawności działania algorytmów programu autorskiego obliczających wskaźniki

(14)

8 Karol Winkelmann – Obliczanie niezawodności konstrukcji inżynierskich...

niezawodności Hasofera – Linda (HL) i Hasofera – Linda – Rackwitza – Fiesslera (HLRF) oraz zaproponowanie jednego z nich jako referencyjny dla reszty obliczeń; pełne rozwiązanie problemu niezawodności dla kolumny Zieglera, zawierające rozpoznanie problemu nieliniowego modelu, opis funkcji granicznej równaniem jawnym, dopasowanie powierzchni odpowiedzi zadania i na jej podstawie dokonanie obliczenia miar probabilistycznego bezpieczeństwa konstrukcji (prawdopodobieństwa awarii i wskaźnika HLRF) oraz porównanie ich z rozwiązaniem referencyjnym; a także pełne rozwiązanie problemu niezawodności dla ramy Roordy, o rozciągłości badań numerycznych identycznej, jak dla kolumny Zieglera.

W drugiej części rozdziału rozważa się model mało wyniosłej, 16–warstwowej powłoki kompozytowej z włókien węglowych w spoiwie z żywicy epoksydowej, poddanej obciążeniu ściskającemu wzdłuż tworzącej, obarczonej imperfekcjami geometrycznymi.

Celem zadania jest zbadanie wpływu wygenerowanych symulacyjnie, losowych pól imperfekcji geometrycznych na wynikowe rozkłady odpowiedzi konstrukcji oraz zbadanie niezawodności konstrukcji powłokowej obarczonej tego typu odchyłkami od geometrii idealnej. Do generacji pól modelujących imperfekcje geometryczne według sformułowanej wcześniej funkcji korelacyjnej zastosowano algorytm warunkowej akceptacji i odrzucania. Pole losowe jest nośnikiem zmiennych podstawowych problemu – pierwszą z nich jest wielkość amplitudy pola, a drugą – wartość parametrów opisujących zasięg korelacji w obu kierunkach pola.

Obliczenia realizuje się w trzech seriach, które zawierają w sumie 24 realizacji. Wynikiem pojedynczej realizacji, wykonywanej w programie NX Nastran, jest wykreślona ścieżka równowagi dla przemieszczenia osiowego. Stan graniczny zdefiniowano dwojako – jako przemieszczenie węzła środkowego krawędzi zakrzywionej dla ustalonego poziomu wypadkowej siły obciążającej oraz punkt utraty stateczności, w którym osiągnięta zostaje odpowiednia krytyczna lub graniczna wartość obciążenia.

Dla danego przykładu kalkulowane jest prawdopodobieństwo awarii paneli przy użyciu bezpośredniego podejścia metody Monte Carlo oraz prawdopodobieństwo awarii i wskaźnik niezawodności paneli przy użyciu metody powierzchni odpowiedzi. Wykonuje się także prostą analizę zbieżności dla obu podejść. Na jej podstawie dokonuje się krytycznej oceny rezultatów, przyjęcia postanowień odnośnie kolejnych badań i definiuje się wnioski z zadania.

W trzeciej części rozdziału rozważa się stan wytężenia modelu osiowosymetrycznego silosu aluminiowego, obarczonego określoną punktową imperfekcją geometryczną jego powierzchni bocznej. Wytężenie wywołane jest działającym na zbiornik obciążeniem wiatrem. Rezultatem analizy jest znalezienie ciśnienia krytycznego obciążenia, które prowadzi do utraty stateczności zbiornika.

Celem zadania jest odnalezienie zależności, między zaistniałą na zbiorniku imperfekcją o określonym rozmiarze i lokalizacji, a kierunkiem głównym obciążenia wiatru.

Imperfekcje punktowe wygenerowano zgodnie z założeniami PN-EN 1993-1-6:2009, w kształcie elipsy, o długościach osi ustalonych na mocy przepisów tej samej normatywy.

Obciążenie wiatrem zostało wygenerowane w świetle zapisów PN-EN 1991-1-4:2007.

Jako pierwszą zmienną losową rozważanego problemu przyjęto kąt zorientowania kierunku głównego działania wiatru względem osi głównej imperfekcji powierzchni bocznej silosu, a jako drugą przyjęto wysokość położenia zadanej imperfekcji na powierzchni bocznej silosu.

Obliczenia realizuje się przy użyciu 144 realizacji modelu. Wynikiem pojedynczej realizacji, wykonywanej w programie SOFiSTiK FEA, jest wyznaczona wartość ciśnienia krytycznego wiatru. Stan graniczny konstrukcji zdefiniowano dwojako – jako przekroczenie przez ciśnienie

(15)

Rozdział 1 – Przedmiot, cel i zakres pracy 9 wiatru 75% oraz 50% kwantyli wartości ciśnienia krytycznego wiatru obliczonego jak dla zbiornika idealnego, co ma uzasadnienie w przypadkach rozważanych w normatywach.

Dla danego przykładu kalkulowane są (w kilku oddzielnych seriach) prawdopodobieństwo awarii i wskaźnik niezawodności – przy użyciu bezpośredniego podejścia metody Monte Carlo, a także przy użyciu trzech technik próbkowania redukującego wielkość populacji punktów obliczeniowych – próbkowania warstwowego, próbkowania hipersześcianu łacińskiego oraz próbkowania wagowego. Dla punktów obliczeniowych wyznaczonych przy użyciu poszczególnych próbkowań dla poszczególnych serii, aproksymowane są powierzchnie odpowiedzi. Na ich podstawie, przy użyciu ich równań obliczane są prawdopodobieństwo awarii i wskaźnik niezawodności silosu. Wykonuje się także prostą analizę zbieżności obu metod. Na jej podstawie dokonuje się krytycznej oceny wyników oraz definiuje się wnioski.

Końcowo, dokonuje się także krótkiego zebrania wniosków płynących ze wszystkich wyżej opisanych przykładów obliczeniowych, podsumowującego zauważalny wpływ imperfekcji konstrukcji na zmianę jej nośności.

Rozdział 7 zawiera ocenę rezultatów obliczeń przeprowadzonych w rozprawie, zebranie wniosków wyciągniętych z podjętych badań numerycznych oraz spostrzeżenia, jakie poczyniono w analizowanym temacie.

W rozdziale tym dokonano również ostatecznego potwierdzenia słuszności wszystkich tez rozprawy, postawionych w rozdziale pierwszym.

Rozdział 8 jest poświęcony zebraniu literatury, z jakiej korzystano przy sporządzaniu niniejszej rozprawy pracy oraz norm, jakie przywołuje w swojej treści rozprawa.

Dla wygody czytelnika, każdej pozycji na liście przypisane jest jej odwołanie w tekście.

1.3. Teza pracy

Przedstawione w poprzednich podrozdziałach podłoże metodyczno – merytoryczne oraz wstępnie przeprowadzone analizy rozpoznawcze aktualnego stanu wiedzy o problemie poruszanym w rozprawie pozwalają na sformułowanie kilku najistotniejszych punktów, jakie postawiono w postaci zbiorczej tezy rozprawy.

Teza główna: Możliwe jest szacowanie niezawodności konstrukcji inżynierskich z losowymi imperfekcjami geometrycznymi i materiałowymi (na każdym etapie procesu projektowania) opisanych nieliniowymi modelami MES, przy zastosowaniu zoptymalizowanego podejścia probabilistycznego, zaimplementowanego w procedurach obliczeniowych.

Tezy uszczegółowiające: Obliczenia obejmujące losowy charakter modeli konstrukcji inżynierskich są zasadne i powinny mieć oddźwięk w obliczeniach inżynierskich.

Imperfekcje (nieliniowości geometryczne), ustalone zgodnie z zapisami kodu projektowego, również widocznie różnicują odpowiedzi konstrukcji (parametry jej nośności oraz użytkowalności). Taką samą sytuację obserwuje się dla imperfekcji materiałowych.

W przypadku niektórych typów konstrukcji inżynierskich zdecydowanie nie można rozpatrywać jedynie modeli o geometrii idealnej.

(16)

10 Karol Winkelmann – Obliczanie niezawodności konstrukcji inżynierskich...

Rozwiązanie symulacyjne problemu umożliwia uwzględnienie imperfekcji geometrycznych i/lub materiałowych w nieliniowych obliczeniach konstrukcji.

Stosując metodę Monte Carlo i/lub metodę powierzchni odpowiedzi można efektywnie oszacować niezawodność konstrukcji. Istnieją także takie techniki redukcji populacji punktów obliczeniowych rozpatrywanych zadań, które pozwalają na znaczne oszczędności kosztu i czasu obliczeń numerycznych w komercyjnych programach obliczeniowych.

Możliwe jest wnioskowanie na temat projektowych procesów optymalizacyjnych na podstawie zapewnianych przez obie metody miar niezawodności tego typu konstrukcji.

Udowodnienie wyżej sformułowanych tez zawarte jest w rozdziałach kolejnych, w których przedstawiono algorytmy autorskich programów obliczeniowych dedykowanych zagadnieniu, rozważania nad możliwością implementacji pól losowych do analiz numerycznych oraz wyniki tychże analiz i zaproponowane na ich podstawie wnioski końcowe.

(17)

Ro R oz z dz d z i i a ł 2 2

Metody określania niezawodności modeli konstrukcji inżynierskich

2.1. Wprowadzenie

Sposób, w jaki konstrukcja zachowa się pod odpowiedniego typu i określonej wielkości obciążeniem jest oczywiście ściśle zależny od wytrzymałości materiałów konstrukcyjnych i od sztywności konstrukcji. Z kolei to, czy wywołana odpowiedź konstrukcji jest zadowalająca dla jej projektanta lub użytkownika, zależy od wszystkich wymagań, które konstrukcja ta musi spełnić. Zmienności parametrów projektowych muszą być zatem koniecznie ujęte w rozważaniach nad bezpieczeństwem lub użytkowalnością układu [Bethea i inni, 1984].

Wszystkie parametry konstrukcji, które bierze się pod rozwagę w inżynierskich obliczeniach projektowo – budowlanych, są w rzeczywistości obarczone pewną niepewnością, zmiennością.

Fakt ten jest uznawany przez większość kodów projektowych i konstrukcyjnych, zarówno proponowanych obecnie (Eurokody – EC, polskie normy dostosowane – PN-EN), jak i poprzedzających (polskie normy – PN, normy branżowe – B, itp.), co wyraźnie sugeruje konieczność uwzględnienia tychże niepewności w procesie projektowania i konstruowania obiektów inżynierskich.

Wielkości zmienności wszystkich parametrów konstrukcji są jednak albo ograniczone w sposób naturalny, albo też mogą być ograniczone w określonych przedziałach przez projektanta, przykładowo poprzez wykonywanie kontroli o odpowiednim standardzie tychże parametrów. To właśnie wartości ograniczające często są wskazywane jako te, które powinny być wykorzystywane jako podstawa do projektowania [Simonnet, 1996].

Jednakże w inżynierii o poziomie dokładności większym niż standardowy, takie myślenie jest nieodpowiednie. Przykładowo górne granice przyjmowane dla efektu działania sumy poszczególnych obciążeń i granice dolne przyjmowane dla wytrzymałości materiału, nie są łatwo identyfikowane w praktyce (np. obciążenia zmienne użytkowe, obciążenia wiatrem, śniegiem, obciążenia pozastatyczne, granica plastyczności stali, wytrzymałości betonu), a nawet jeśli takie granice istnieją naturalnie, to ich bezpośrednie wykorzystanie w projektowaniu może nie zawsze być racjonalne lub może być ekonomicznie nieuzasadnione.

Ponadto, ograniczenia nałożone przez testowanie odbiorcze, bądź też kontrolę jakości, mogą nie być w pełni skuteczne, szczególnie w przypadku tych z parametrów konstrukcji, których pomiarów można dokonywać jedynie na drodze badań niszczących lub wtedy, gdy pomiary są fałszowane zmianami w mierzonej właściwości materiału dokonującymi się w nim pomiędzy pobraniem próbki, a momentem jej badania lub momentem wykorzystania materiału w rzeczywistej konstrukcji (zachowanie betonu, niektórych asfaltów, itp.).

(18)

12 Karol Winkelmann – Obliczanie niezawodności konstrukcji inżynierskich...

Właśnie z wyżej wymienionych przyczyn wkracza do rozważań teoria obliczania niezawodności konstrukcji. Stojąc przed niemożnością poczynienia zbyt daleko idących uproszczeń projektowych, projektant musi zastanowić się, na jak duże uproszczenia może sobie pozwolić i z jaką konstrukcją (pod względem czynników ekonomicznych, znaczenia społeczno – gospodarczego lub inżynieryjnego) ma do czynienia.

Najprostszym trybem postępowania w projektowaniu jest ścisłe zastosowanie się wyłącznie do poleceń normatyw – takie potraktowanie problemu zwane jest podejściem deterministycznym. W przypadku niektórych konstrukcji to podejście jest jednak nieuzasadnione lub niepoprawne i w tym przypadku korzysta się z obliczeń na bazie teorii prawdopodobieństwa – jest to podejście probabilistyczne.

Rozważania na temat niezawodności oraz sposobów jej analizy należałoby rozpocząć od wprowadzenia linii wyraźnie rozdzielającej podejście deterministyczne od podejścia probabilistycznego, wskazując równocześnie na odpowiednie pola inżynierii, na których poszczególne podejścia powinny znaleźć swoje zastosowanie, lub już je znajdują [Lind, 1970].

W samym podejściu losowym istnieją bowiem różne poziomy analizy niezawodności konstrukcji inżynierskich, które mogą być wykorzystane w jakiejkolwiek metodologii projektowania, które rozróżniane są w zależności wyłącznie od samej konstrukcji – jej typu, stopnia złożoności, przeznaczenia, gabarytów. Do stworzenia takiej klasyfikacji wprowadzany jest powszechnie termin poziomu, co można przetłumaczyć jako charakterystykę myślową zakresu zebranych informacji na temat problemu zmienności parametrów materiałów i obciążeń, który to zakres jest brany pod rozwagę na starcie procesu projektowania.

W zgodności z ogólnie przyjętym w literaturze trendem, metody analizy bezpieczeństwa konstrukcji, proponowane obecnie do identyfikacji określonego stanu granicznego układu można podzielić na cztery podstawowe poziomy, w zależności od stopnia zaawansowania ich podejścia do problemów inżynierii konstrukcyjnej.

Poziom 1 stanowią te metody, w których probabilistyczna natura problemu występowania niepewności parametrów materiałów i obciążeń jest (w celu zapewnienia odpowiedniego poziomu bezpieczeństwa konstrukcji) brana pod uwagę wyłącznie jako odpowiednie, reprezentatywne wartości, zwane częściowymi współczynnikami obciążenia lub częściowymi współczynnikami bezpieczeństwa. Metody te polegają w skrócie na wprowadzeniu wyżej wymienionych statystycznie określonych współczynników (reprezentujących zmienności cech materiałów konstrukcyjnych oraz charakteru i mocy oddziaływania obciążeń) do obliczeń odwołujących się do stabelaryzowanych, unormowanych i powszechnie przyjmowanych uśrednionych wartości zmiennych losowych nakreślonych w przeprowadzanej analizie.

Współczynniki częściowe są rozumiane jako odpowiednie kwantyle określonych rozkładów prawdopodobieństwa opisujących zmienne losowe – takie, aby zapewniały na etapie procesu projektowania pożądany dla konstrukcji poziom niezawodności. Należy jednak pamiętać, że poprzez tak upraszczające podejście, współczynnik niezawodności płynący z tego typu obliczeń odbiega od zakładanych wartości docelowych. Koniecznością zatem jest minimalizacja rozbieżności między wynikiem obliczeń upraszczających, a analizą dokładną, co uzyskać można przykładowo rozmyślną kalibracją przyjmowanych częściowych współczynników bezpieczeństwa. Do tego poziomu metod analizy bezpieczeństwa, biorących za priorytet kalibrację współczynników, można zaliczyć szeroko spopularyzowaną grupę

(19)

Rozdział 2 – Metody określania niezawodności modeli konstrukcji inżynierskich 13 metod zwanych Load and Resistance Factor Design (LRFD; pol.: Projektowanie Współczynników Bezpieczeństwa Obciążeń i Wytrzymałości). Metoda ta w czasach obecnych znajduje ponownie bardzo rozległy obszar zastosowania [Lundberg i Galambos, 1996;

Razzaq i inni, 1996; Baoping i inni, 2011; King i inni, 2012].

Poziom 2 stanowią te metody, w których probabilistyczna natura problemu ujęta jest w operowaniu dwiema statystycznymi miarami wartości niepewności parametrów materiałów i obciążeń – najczęściej wartością średnią zmiennej losowej oraz jej wariancją, uzupełnioną o miarę korelacji pomiędzy wymienionymi parametrami.

Metody te obejmują pewien szereg przybliżonych, iteracyjnych procedur obliczeniowych, wykonywanych w celu uzyskania informacji o prawdopodobieństwie awarii konstrukcji.

Zazwyczaj wymagają one pewnej kontrolowanej idealizacji obszaru reprezentującego awarię, utożsamianego często z uproszczoną reprezentacją układu rozkładów prawdopodobieństwa zmiennych zestawu obciążeń oraz wytrzymałości materiałów [Elishakoff, 1983].

Metody analizy bezpieczeństwa konstrukcji przynależne do poziomu drugiego zostaną znacznie szerzej opisane w kolejnych rozdziałach niniejszej pracy.

Poziom 3 stanowią te metody, w których obliczenia bezpieczeństwa konstrukcji są dokonywane w celu określenia matematycznie dokładnego prawdopodobieństwa awarii konstrukcji lub jej wyszczególnionego elementu strukturalnego, przy których to metodach korzysta się z pełnego opisu probabilistycznego wspólnego występowania wszelkich branych pod uwagę w procesie projektowania wartości niepewności parametrów materiałów i obciążeń.

Obliczenia te nie mają żadnych algorytmów upraszczających i odwołują się do pełnej analizy problemu, skupiającej się przede wszystkim na dostarczeniu rozciągłego opisu możliwości awarii konstrukcji, a także na całkowaniu wielowymiarowych łącznych funkcji gęstości prawdopodobieństwa zmiennych losowych (reprezentujących obciążenia projektowe i wytrzymałości materiałów konstrukcyjnych), rozciągających się na obszarze, na którym przeprowadzana jest analiza bezpieczeństwa konstrukcji. Niezawodność określana na bazie metod poziomu trzeciego jest najczęściej wyrażana w postaci odpowiednich miar bezpieczeństwa, takich jak wskaźniki niezawodności i prawdopodobieństwo awarii.

Metody analizy bezpieczeństwa konstrukcji przynależne do poziomu trzeciego również zostaną znacznie szerzej opisane w kolejnych rozdziałach niniejszej pracy.

Poziom 4 jest poziomem bardzo rzadko wyróżnianym i opisywanym, gdyż praktycznie niewiele jest w jego ujęciu różnic, jakie stosuje się w metodach analizy bezpieczeństwa konstrukcji poziomu trzeciego. Mówi się o nim raczej w relacji do konstrukcji, a nie do zbioru metod, aby wskazać, iż meritum problemu nie leży w sposobie matematycznego podejścia, ale w wyjątkowej specyfice konstrukcji, dla której to podejście jest inkorporowane.

Metody analizy bezpieczeństwa konstrukcji przynależne do poziomu czwartego są odpowiednie do stosowania w przypadku postępowania z konstrukcjami inżynierskimi, które mają istotne znaczenie gospodarcze. Są stosowane do projektów, w których z definicji zakłada się szczególną dokładność postępowania odnośnie zasad wiedzy inżynierskiej i analizy ekonomicznej. Projekty takie mają wówczas, oprócz standardowego zapewnienia bezpieczeństwa konstrukcji w sensie stricte inżynierskim, rozważać koszta i korzyści z budowy w sensie społeczno – ekonomicznym, między innymi: sensowność i możliwość zapewnienia

(20)

14 Karol Winkelmann – Obliczanie niezawodności konstrukcji inżynierskich...

konserwacji i napraw konstrukcji lub jej elementu, szybkości narastania odsetek od zapożyczonego kapitału inwestycyjnego w stosunku do wypracowywanego przez konstrukcję zysku, konsekwencje awarii konstrukcji lub urządzeń w niej działających dla społeczeństwa, ludności cywilnej lub środowiska, itp.

Sztandarowymi obiektami inżynieryjnymi wymagającymi projektowania poruszającego się na poziomie czwartym analizy bezpieczeństwa konstrukcji są fundamenty specjalne dla konstrukcji wrażliwych na wpływy środowiskowe lub drgania spowodowane obciążeniami wyjątkowymi, takich jak elektrownie jądrowe, budynki wysokościowe, budynki na terenach zagrożonych sejsmiką skorupy ziemskiej, przyczółki i oparcia mostów autostradowych, wieże transmisji elektryczności, wieże i maszty radiowe i telekomunikacyjne, itd.

2.2. Niezawodność w ujęciu normowym (deterministycznym)

Losowość, często nazywana także niepewnością lub przypadkowością, ma jawny wpływ na konstrukcję i powinna być brana pod uwagę już na początku powstawania projektu inżynierskiego, od fazy projektu wstępnego. Zanim konstrukcja zostanie wykonana w środowisku, do jakiego została przeznaczona oraz zanim zostanie poddana działaniu obciążeń, których przeniesienie ma gwarantować, musi zostać sporządzony jej projekt, obejmujący odpowiedniego poziomu analizę bezpieczeństwa w warunkach użytkowania.

Standardowym podejściem do wyżej wspomnianego problemu, prezentowanym w dzisiejszej inżynierii, jest bez wątpienia projektowanie z użyciem typowych procedur i zaleceń, unifikowanych dla danego obszaru, środowiska, państwa, itp. – tj. normatyw bądź kodów projektowych. Większość obecnie używanych norm i specyfikacji konstrukcyjnych w obszarze przewidywania bezwzględnego bezpieczeństwa użytkowania konstrukcji ma swoje podstawy w podejściu deterministycznym lub półprobabilistycznym, czyli wykorzystuje podejście prezentowane we wstępie do niniejszego rozdziału, podejście poziomu pierwszego metod analizy bezpieczeństwa konstrukcji. Metody te, polegające na wprowadzeniu statystycznie określonych częściowych współczynników bezpieczeństwa (reprezentujących zmienność cech materiałów i obciążeń) do obliczeń projektowych, są najszybszym i w wielu przypadkach wystarczającym gwarantem zachowania wiedzy o możliwości pojawienia się niebezpiecznych dla konstrukcji niepewności parametrów projektowych i zabezpieczenia projektowanej struktury na taki niekorzystny zestaw przypadków [Woliński, 2011a].

Częściowe współczynniki bezpieczeństwa są wprowadzane jako określony poziom zmienności, gwarantujący pożądany dla konstrukcji poziom niezawodności. Normy definiują te współczynniki jako wielkości uwzględniające możliwość wystąpienia wartości obciążenia lub parametru wytrzymałościowego będącej mniej korzystną dla konstrukcji, niż wartość ustalona jako reprezentatywna średnia [Ellingwood, 2001].

Jako główne grupy zjawisk, kształtujące wielkość współczynników częściowych wymienia się:

niepewność właściwości mechanicznych materiałów konstrukcyjnych, niedokładność wykonania przekrojów poprzecznych elementów konstrukcyjnych, jakość pracy wytwórni komponentów konstrukcji lub dokładność ich wykonania w warunkach placu budowy, zmiany

(21)

Rozdział 2 – Metody określania niezawodności modeli konstrukcji inżynierskich 15 właściwości materiałowych i przekrojów poprzecznych na skutek eksploatacji w ustalonym okresie czasu (degradacja, zarysowania, reologia i korozja), losowość obciążeń działających na konstrukcję (możliwa jednoczesność zaistnienia, zmienność w czasie i przestrzeni, długotrwałość, cykliczność, redukcja w czasie, dynamika), możliwa konsekwencja zniszczenia konstrukcji (w zależności od stopnia zagrożenia życia ludzkiego i wartości strat gospodarczych), dokładność teorii obliczeniowych zastosowanych w projekcie, dokładność modelu matematycznego (dokładność programu komputerowego wspomagania projektowania) oraz końcowo zgodność modelu teoretycznego z rzeczywistą pracą wykonanych wcześniej podobnego typu konstrukcji [PN-82/B-02000, 1982].

Zasadą ogólną ustalania wartości wytrzymałości materiałów konstrukcyjnych i obciążeń, zarówno według PN-82/B-02000, jak i PN-EN 1991-1 jest poprawne określenie całości cech fizycznych i wytrzymałościowych wszystkich materiałów konstrukcyjno – budowlanych użytych w procesie projektowania oraz wszystkich obciążeń występujących w stadium montażu i eksploatacji konstrukcji (w niezbędnych wypadkach również w stadiach wykonywania, przechowywania, remontu i transportu elementów konstrukcji) tak, aby projektując budowle i konstrukcje budowlane zapewnić im należyte bezpieczeństwo, pojmowane w określonym przez projekt znaczeniu. W celu deterministycznego ujęcia zmienności tychże cech w czasie i w przestrzeni, winno się rozróżniać następujące wartości tychże parametrów losowych: wartość charakterystyczną oraz wartość obliczeniową.

Wartość charakterystyczna jest podstawą myślową wyrażania wielkości podlegających wyżej wspomnianym typom zmienności, według metod poziomu pierwszego.

Zastępuje ona jednoznacznie każdy parametr losowy, występujący w procesie projektowym.

Polska Norma PN-82/B-02000 określa wartość charakterystyczną jako wartość o przyjętym prawdopodobieństwie nieprzekroczenia w kierunku niebezpiecznym dla konstrukcji, w ciągu określonego czasu (okresu użytkowania budowli lub innego okresu odniesienia); lub też, jeśli brak jest wystarczających do pełnego rozpoznania zjawiska danych statystycznych, jako wartość nominalną, ustaloną odpowiednio do przewidywanego sposobu użytkowania konstrukcji, lub też warunków fizycznych bądź prawnych jej funkcjonowania.

Oznaczając wartość średnią określonej wytrzymałości danego materiału konstrukcyjnego jako μR oraz odchylenie standardowe tejże wytrzymałości przez σR zdefiniować można wartość charakterystyczną wytrzymałości materiału konstrukcyjnego, jako

k R R R

R =μσt (2.1)

Dla zmiennej losowej całościowej wytrzymałości materiałów danej konstrukcji (XR =R), jej wartości charakterystyczne definiuje się jako odpowiedniego zasięgu lewostronny margines rozkładu funkcji gęstości prawdopodobieństwa f xR( )R , co zaprezentowano na rys. 2.1.

Natomiast, oznaczając wartość średnią dowolnego obciążenia działającego na konstrukcję jako μQ oraz odchylenie standardowe tegoż obciążenia przez σQ, analogicznie zdefiniować można wartość charakterystyczną obciążenia jako

k Q Q Q

Q = μ +σt (2.2)

(22)

16 Karol Winkelmann – Obliczanie niezawodności konstrukcji inżynierskich...

Dla zmiennej losowej całościowej sumy efektów działających obciążeń (XS =S), jej wartości charakterystyczne definiuje się jako odpowiedniego zasięgu prawostronny margines rozkładu funkcji gęstości prawdopodobieństwa f xS( )S , co zaprezentowano na rys. 2.2.

Rys. 2.1. Definicja wartości charakterystycznej zmiennej losowej wytrzymałości materiałów.

Rys. 2.2. Definicja wartości charakterystycznej zmiennej losowej całościowej sumy efektów obciążeń działających na konstrukcję.

Obliczone wartości Rk oraz Qk oznaczają wartości charakterystyczne wytrzymałości danego materiału konstrukcyjnego oraz dowolnego obciążenia i są to, jak wspomniano we wstępie do rozdziału, takie kwantyle rozkładów prawdopodobieństwa zmiennych losowych wytrzymałości R(głównie poziom 2% wartości gwarantowanej) oraz obciążenia Q (głównie poziom 98% rocznej wartości maksymalnej), które zapewniają konstrukcji należyty poziom jej niezawodności. Wielkością wpasowującą wartość charakterystyczną w wymagane kwantyle są wymienione we wzorach mnożniki tR oraz tQ.

Zgodnie z zaleceniami centralnych komitetów inżynieryjnych zwykło się dobierać wartości 1,645

tR = dla konstrukcji betonowych (Europejski Komitet Betonu) oraz tR =2,000 dla konstrukcji stalowych (Europejska Konwencja Konstrukcji Stalowych), co gwarantuje osiągnięcie zadowalającego poziomu bezpieczeństwa dla obszaru Europy Środkowej.

W dowolnym kodzie projektowym wartości charakterystyczne wytrzymałości materiałów i obciążeń w metodach poziomu pierwszego zapewniania bezpieczeństwa konstrukcji określa się jako wartości podstawowe i nakazuje się przyjmowanie ich zgodnie z zaleceniami norm.

Dla parametrów materiałowych i dla obciążeń stałych ustala się te wartości jako średnią danej wielkości zmiennej losowej, a dla obciążeń zmiennych jako wartość mającą okres powrotu co najmniej równy zakładanemu okresowi eksploatacji konstrukcji lub inny uzasadniony ekonomicznie i zapewniający bezpieczeństwo konstrukcji.

(23)

Rozdział 2 – Metody określania niezawodności modeli konstrukcji inżynierskich 17 Podstawową, obowiązującą na terenie Polski normą definiującą wartości charakterystyczne jest PN-82/B-02000 (lub też, równoważnie PN-EN 1990), a ustalającymi te wartości normami szczegółowymi są m.in. PN-82/B-02001 lub PN-EN 1991-1-1 (parametry materiałowe i obciążenia stałe), PN-82/B-02003 (obciążenia zmienne technologiczne), PN-82/B-02004 (obciążenia pojazdami), PN-86/B-02005 (obciążenia zmienne maszynowe), PN-80/B-02010 lub PN-EN 1991-1-3 (obciążenie śniegiem), PN-77/B-02011 lub PN-EN 1991-1-4 (obciążenie wiatrem), PN-87/B-02013 (obciążenie oblodzeniem), PN-88/B-02014 (obciążenie gruntem), PN-86/B-02015 lub PN-EN 1991-1-5 (obciążenia termiczne), PN-EN 1991-1-2 (pożary).

Wartość obliczeniowa jest koniecznym z inżynierskiego punktu widzenia rozszerzeniem wartości charakterystycznej. Często nazywana jest wartością projektową, co wyraźnie podkreśla fakt, iż ostatecznie zapewnia konstrukcji określony poziom niezawodności.

Polska Norma PN-82/B-02000 definiuje wartość obliczeniową jako wartość parametru materiałowego lub obciążenia nie korzystniejszą od wartości charakterystycznej, domyślnie równą iloczynowi tej ostatniej i częściowego współczynnika bezpieczeństwa.

Biorąc wartości charakterystyczne wytrzymałości danego materiału konstrukcyjnego oraz dowolnego obciążenia oznaczone przez Rk oraz Qk otrzymujemy:

d f k

R =γR (2.3)

oraz Qd =γ Qfk (2.4)

gdzie γ jest zasugerowanym w normie odpowiednim częściowym współczynnikiem f bezpieczeństwa (zależnie od typu zmienności – współczynnikiem wytrzymałości materiału, często też definiowanym jako γs =γf1 lub współczynnikiem obciążenia).

Normowe (deterministyczne) zapewnienie bezpieczeństwa konstrukcji inżynierskiej polega na wykazaniu, że we wszystkich przewidywalnych przypadkach projektowych, zarówno w fazie realizacji, jak i eksploatacji konstrukcji, spełnione są dwa podstawowe warunki – nośności (wymiarowanie na stan graniczny nośności i odpowiadające temu stanowi wartości obliczeniowe parametrów obarczonych zmiennościami) oraz sztywności (wymiarowanie na stan graniczny użytkowania i odpowiadające temu stanowi wartości charakterystyczne parametrów obarczonych zmiennościami).

W ogólnym przypadku normatywny warunek bezpieczeństwa konstrukcji (w metodach probabilistycznych poziomu pierwszego) można zapisać w postaci:

(

d, d,

)

0

g R Q γ > (2.5)

gdzie: Rd oraz Qd to odpowiednio wartości obliczeniowe wytrzymałości danego materiału konstrukcyjnego oraz dowolnego obciążenia, a symbol γ jest wyrażeniem wszystkich współczynników modelujących zachowanie należytego bezpieczeństwa i niezawodności konstrukcji, uwzględniających niepewności jej modelu matematycznego, oczywiście nie licząc do tej grupy tych spośród rzeczonych współczynników, które zostały wzięte pod uwagę wcześniej, jako wpływające na odpowiednie częściowe współczynniki bezpieczeństwa parametrów materiałowych i obciążenia (γ oraz f γs) [PN-82/B-02000, 1982].

(24)

18 Karol Winkelmann – Obliczanie niezawodności konstrukcji inżynierskich...

Współczynniki bezpieczeństwa i niezawodności konstrukcji inżynierskiej wymienione pod koniec poprzedniego paragrafu można podzielić na kilka zdecydowanie odmiennych od siebie kategorii – według stanowionego przez nie sensu myślowego, według wartości uzyskanej w określonym punkcie czasu i przestrzeni, lub też według znaczenia samej konstrukcji inżynierskiej dla człowieka i środowiska.

Norma PN-82/B-02000 (lub też równoważnie PN-EN 1991-1), podaje następujące grupy tychże współczynników: współczynniki konsekwencji zniszczenia konstrukcji γn (dodatkowe zwiększenie lub zmniejszenie bezpieczeństwa konstrukcji w zależności od zagrożenia życia ludzkiego, strat materialnych, gospodarczych, ekonomicznych lub środowiskowych);

współczynniki jednoczesności zachodzenia obciążeń ψo (wystąpienie w jednym czasie kilku różnych grup obciążeń o małym prawdopodobieństwie wspólnego zaistnienia); współczynniki części długotrwałej obciążenia ψd (określające naturę obciążenia w czasie: w całości długotrwałość, w części długotrwałość, w całości krótkotrwałość, wyjątkowość);

współczynniki redukcji obciążenia α (zmniejszone prawdopodobieństwo jednoczesnego wystąpienia jednego typu obciążenia na dużej powierzchni jednego poziomu ustroju konstrukcyjnego lub na kilku poziomach jednego ustroju konstrukcyjnego) oraz współczynniki dynamiczne βdyn (zwiększenie wartości obciążenia statycznego do wartości modelującej działanie obciążenia o charakterze ściśle dynamicznym – wytyczne przyjmowania tychże współczynników znaleźć można dla niektórych rodzajów obciążeń m.in. w PN-82/B-02003, PN-82/B-02004, PN-86/B-02005 oraz PN-77/B-02011).

Kombinacje obciążeń wyłaniają się jako logiczne następstwo wymienionych wyżej współczynników. Ze wszystkich nich płynie bowiem jasny przekaz – nie można dla całego zestawu różnorakich obciążeń, jakim poddawana jest konstrukcja już od fazy montażu, przypisać jednakowej wagi i jednoczesnego występowania w danym punkcie przestrzeni i czasu. Ta mnogość możliwych do zaistnienia kombinacji – zarówno samych typów obciążeń, jak i ich wartości, a także wyżej wymienionych częściowych współczynników, przez które zaleca się wymnożyć te wartości, jest właściwym sensem projektowania w ramach metod poziomu pierwszego zapewniania bezpieczeństwa i niezawodności konstrukcji inżynierskiej.

Według PN-82/B-02000 zasada ogólna kombinowania obciążeń stanowi, iż kombinacje te ustala się w zależności od rozpatrywanego stanu granicznego (opisano je w PN-76/B-03001) w wyniku analizy możliwych wariantów jednoczesnego działania różnych obciążeń, uwzględniając przy tym, że niektóre z nich mogą nie występować lub zmieniać schemat przyłożenia sił. Obciążenia powinny być zestawione tak, aby dawały najbardziej niekorzystny efekt w rozpatrywanym stanie granicznym [PN-82/B-02000, 1982].

W przypadku podjęcia analizy stanu granicznego nośności należy, wg PN-82/B-02000, zastosować dwie kombinacje obciążeń – kombinację podstawową i kombinację wyjątkową.

Kombinacja podstawowa dla SGN składa się z obciążeń stałych i zmiennych, przy czym te ostatnie powinno uszeregować się wg ich znaczenia, z przynależnymi do każdego z nich współczynnikami jednoczesności obciążenia. Postać odpowiadającego tej kombinacji obciążenia obliczeniowego można przedstawić za pomocą wyrażenia

( ) ( )

,

1 1

m n

ki fi n kj fj n oj j dyn j

i j

P G γ γ Q γ γ ψ α β

= =

=

⋅ ⋅ +

⋅ ⋅ ⋅ ⋅ ⋅ (2.6)

Cytaty

Powiązane dokumenty

W postaci systemów technicznych bazujących na odpowiednich obiektach technicznych, w literaturze [188] zaprezentowano m.in. model systemu transpor- tu kolejowego, czy też

KOWN.. stalach, charakteryzuje się większą twardością materiału rdzenia. W kolejnej części tej pracy, przedstawiono wyniki analizy próbek pod kątem mikrotwardości, w

Kolejnym krokiem było wprowadzenie do programu badawczego ciekłych w temperaturze pokojowej cieczy jonowych (ang. RTIL – room temerature ionic liquids). Efektem badań nad

swobodna w charakterze Forma jako całość jest spoista, natomiast grupowanie elementów odbywa się swobodnie. Czy w układzie

W branży telekomunikacyjnej każde z przedsiębiorstw objętych badaniem utworzyło sieci partnerskie (zob. rozdział 2), które cechują sie pewną specyfiką, związaną

Interakcja dotykowa: graficzna prezentacja zarejestrowanych danych (czas realizacji: 22 [s] – scenariusz nr 1 [źródło: opracowanie własne] ... Realizacja scenariusza nr 2 na

W przypadku małych i średnich miast, efektywne połączenie (usieciowienie) czynników lokalizacyjnych przynosi efekt synergii, kwalifikujący takie ośrodki miejskie do

Przejazd kolejowo-drogowy (zwany dalej i w zasadniczej części rozpra- wy krócej „przejazd kolejowy”) – zbiór obiektów związany ze skrzyżowaniami linii kolejowych i