2004
Poznańskie Warsztaty Telekomunikacyjne Poznań 9 - 10 grudnia 2004
Konrad Płachecki Marcin Godlewski Sławomir Przyłucki Politechnika Lubelska Katedra Elektroniki ul. Nadbystrzycka 38a 20-618 Lublin
plachon@politechnika.lublin.pl
METODY AKTYWNEGO ZARZĄDZANIA PRZEPŁYWEM PAKIE- TÓW W SIECIACH IP
Streszczenie: W obecnych czasach wymagania stawiane sieciom IP zostały znacznie zróżnicowane poprzez aplikacje wymagające odmiennych poziomów usług sieciowych QoS (ang. Quality of Service). Dodatkowo, wzrastający udział transmisji czasu rzeczywistego RTP, wymusza poszukiwa- nie nowych metod aktywnego zarządzania obsługą pakie- tów w węzłach sieci. Autorzy wskazują możliwości wyko- rzystania mechanizmów adaptacyjnych AQM (ang. Active Queueing Management) do poprawy wydajności układów zarządzania przepływem pakietów.
1. WSTĘP
Zapewnienie wymaganej jakości transmisji jest za- gadnieniem bardzo złożonym, na który wpływ ma wiele parametrów o charakterze niestacjonarnym (zmiany to- pologii, natężenia oraz zawartości ruchu).
W 1993 roku publikacja Floyda i Jacobsona „Ran- dom Early Detection Gateways for Congestion Avoidan- ce” [8] wskazała na nowe kierunki poszukiwań optyma- lizacji obsługi transmisji w sieciach komputerowych. Na przestrzeni dziesięciu lat od tej publikacji, po wielu go- dzinach symulacji nie udało się znaleźć dobrego rozwią- zania stawianego przez autorów problemu. Przyczyną takiego stanu rzeczy jest to, że problem optymalnego przesyłu danych w sieciach jest wypadkową zasad funk- cjonowania dwu mechanizmów: protokołu TCP oraz algorytmów buforowania pakietów w przełącznikach sieciowych – mechanizmy obsługi zatorów [2].
Przełączniki sieciowe w heterogenicznych sieciach pakietowych muszą dbać o zapewnienie jakości transmi- sji dla wszystkich klas ruchu, ze szczególnym uwzględ- nieniem klas najbardziej uprzywilejowanych. W przy- padku małych sieci o niewielkiej liczbie przepływów możliwe jest wykorzystanie mechanizmów rezerwacji zasobów, bazujących na architekturze usług zintegrowa- nych IntServ. W sieciach rozległych konieczne jest po- szukiwanie mechanizmów zdecentralizowanych o dużej autonomiczności i dużej skalowalności. Przykładem takiego rozwiązania może być architektura DivServ [1].
Stworzenie globalnego obserwatora, posiadającego wie- dzę o aktualnym stanie całej sieci i wyznaczającego optymalną trasę transportu pakietów, wydaje się być nierealne. Dlatego decyzje o sterowaniu przepływem pakietów w sieciach rozległych, muszą być podejmowa- ne lokalnie, przez poszczególne węzły, tylko na podsta- wie obserwacji ich otoczenia. Zagadnienie sterowania przepływem pakietów sprowadza się więc do analizy
wielu skorelowanych ze sobą cech środowiska, tj.: pręd- kości transmisji, kosztu przesyłu, priorytetu ważności, długości kolejek, przy uwzględnieniu obranego wskaź- nika jakości, np. czasu przetwarzania pakietów w węźle przełączającym, czy maksymalnej przepustowości [5].
2. PRZEPŁYW PAKIETÓW W SIECIACH IP
Protokół TCP uczestniczy w transporcie ponad 85%
danych przesyłanych w sieci [2]. Głównym celem me- chanizmów zarządzania zatorami poprzez TCP jest ste- rowanie parametrami transmisji TCP w połączeniu z użytkownikiem końcowym. Tylko na podstawie wymia- ny informacji pomiędzy końcowymi komputerami w połączeniu TCP mogą być podejmowane decyzje o zmianie parametrów pojedynczego przepływu TCP. W przypadku utraty części pakietów pomiędzy komputera- mi końcowymi reakcja połączenia TCP będzie znacznie opóźniona, z uwagi na konieczność wymiany informacji pomiędzy tymi komputerami. W celu zapewnienia do- brych parametrów dynamicznych, łącze TCP wyposażo- no w mechanizm AIMD (ang. Additive Increse Multipli- cative Decrese). Mechanizm AIMD zapewnia powolne zwiększanie prędkości transmisji, natomiast w przypad- ku wykrycia gubionych pakietów prędkość jest reduko- wana o połowę.
Większość problemów związanych z gubieniem pa- kietów wynika z sytuacji przeciążeń kolejek buforowych routerów. Ma to miejsce w przypadku ciągłego napły- wania pakietów przeznaczonych do transmisji przez in- terfejs, który jest aktualnie zajęty. Domyślnie w takim przypadku nowo przybywające pakiety są umieszczane w kolejce FIFO o skończonej długości. W przypadku wyczerpania zasobów pamięciowych kolejki zachodzi konieczność odrzucania przybywających pakietów we- dług mechanizmu DT (ang. Drop Tail), czyli odrzucania ogona kolejki.
Współpraca mechanizmów TCP z układami aktyw- nego zarządzania AQM jest zagadnieniem złożonym.
Mechanizmy TCP próbują zapełniać dostępne kolejki,
ponieważ nie dostają informacji zwrotnych o wystąpie-
niu przeciążenia od routera. W momencie przepełnienia
kolejki połączenia TCP wykrywają stan utraty połącze-
nia, w wyniku odrzucania pakietów i braku potwierdzeń
poprawności transmisji od komputera końcowego. Re-
zultatem tego jest zmniejszenie prędkości transmisji
TCP. Można powiedzieć, że mechanizmy TCP sterują odpowiednim wykorzystaniem przepustowości.
W architekturze DivServ opartej o mechanizmy AQM to przełączniki sieciowe, w obrębie pewnych fragmentów sieci, decydują o wykorzystaniu przepusto- wości łącz, poprzez zarządzanie kolejkami pakietów.
Dzięki mechanizmom wcześniejszego odrzucania pakie- tów, AQM może „ostrzegać” przepływy TCP o koniecz- ności redukcji prędkości transmisji. W przypadku trans- misji realizowanych za pomocą protokołu bezpołącze- niowego UDP, to mechanizmy aktywnego zarządzania przepływem pakietów będą zajmować się zapewnieniem odpowiedniego poziomu usług sieciowych QoS.
Poszukiwanie wydajnego mechanizmu zarządzania przepływem pakietów w sieciach IP, będzie wymagało połączenia właściwości protokołu TCP oraz układów adaptacyjnych aktywnego zarządzania AQM.
2. PARAMETRY MECHANIZMÓW AQM
Zadania stawiane mechanizmom AQM wynikają z charakteru przesyłanych danych. Większość aplikacji sieciowych umożliwia określenie wydajności mechani- zmów QoS w warstwie aplikacji, na podstawie przewi- dywanej aktywności transmisyjnej nadawcy. Ocena ilo- ściowa tych parametrów koncentruje się głównie na określeniu: przepustowości, średnim opóźnieniu trans- misji w połączeniach „end-to-end”, maksymalnych war- tościach opóźnienia, zmienności czasowej opóźnienia oraz ilości utraconych pakietów. Różne wymagania sta- wiane przez aplikacje sieciowe pociągają konieczność znalezienia kompromisu pomiędzy bezpieczeństwem (niezawodnością) transmisji, a maksymalnym wykorzy- staniem łączy transmisyjnych (uzyskiwane przepusto- wość) [3]. W tab. 1 przedstawione jest zestawienie cech charakteryzujących transmisje wykorzystujące protokoły TCP i UDP.
Tab.1. Zestawienie wymagań dotyczących parame- trów transmisji: danych i głosu.
Różnorodność wymagań dla zapewnienia jakości usług w transmisjach multimedialnych zmusiła do okre- ślenia najistotniejszych parametrów charakteryzujących wydajność układów AQM [9]:
• opóźnienie oraz zmienność opóźnienia (ang.
delay, delay jitter) – czas upływający od ode- brania pakietu przez jeden węzeł sieci do mo- mentu odebrania przez inny węzeł. Opóźnienie składa się więc z dwóch czasów: czasu propa- gacji pakietu przez łącze komunikacyjne i czasu
przetwarzania w węźle komunikacyjnym. Czas propagacji jest pomijalnie mały w stosunku do czasu przetwarzania pakietu przez węzeł sieci.
Niektóre aplikacje multimedialne są czułe na zmiany i zmienność opóźnienia, ponieważ prze- syłane informacje są odtwarzane przez odbior- nik w czasie rzeczywistym – transmisje RTP.
• ilość utraconych pakietów (ang. packet loss rate) - większość problemów z gubieniem pa- kietów wynika z sytuacji przeciążeń kolejek bu- forowych routerów. Ma to miejsce w przypadku ciągłego napływania pakietów przeznaczonych do transmisji przez interfejs, który jest aktualnie zajęty. Z punktu widzenia aplikacji czasu rze- czywistego, także pakiety przybywające do od- biorcy, które przekroczyły krytyczną wartość opóźnienia (ang. delay bound), są traktowane przez aplikację jako utracone. Większość apli- kacji czasu rzeczywistego posiada zdefiniowa- ny maksymalny poziom tolerancji ilości utraco- nych pakietów (ang. tolerance level).
• przepustowość, pasmo (ang. throughput, ban- dwidth) – przepustowość w sposób bezpośredni odzwierciedla ilość informacji, którą sieć jest w stanie dostarczyć w określonym przedziale cza- sowym. Uogólniając można stwierdzić, że większa przepustowość zapewni lepszą jakość QoS. Nie można jednak przyjmować, że więk- sza przepustowość jest „lekarstwem” na pro- blemy zapewnieniem żądanego poziomu jako- ści transmisji multimedialnych.
3. ZADANIA MECHANIZMÓW AQM
Duża różnorodność przesyłanych danych przez sieć wymusza potrzebę uwzględniania poziomu ważności tych danych w procesie zarządzania ruchem, w przypad- ku wystąpienia zatorów w sieci. Rozróżnianie ważności danych jest możliwe dzięki mechanizmom klasyfikacji jakości usług QoS. Klasyfikacja pakietów jest podsta- wowym zadaniem układów AQM realizowanym przez blok Klasyfikatora, co pokazuje rys 1.
Bufor pamięci dla Interfejsu sieciowego Klasyfikator
Kolejka wyściowa Kolejka 1Kolejka 2 Kolejka 3 Ruch
przychodzący
Ruch wychodzący
Ruch odrzucony
Rys. 1. Architektura mechanizmu sterowania przepły-
wem pakietów w sieciach IP
Obsługa zatorów w sieciach teleinformatycznych jest jednym z najważniejszych zadań układów sterowa- nia przepływem pakietów. Realizacja tych zadań jest możliwa poprzez:
• wykrywanie możliwości wystąpienia zatoru i celo- we wcześniejsze odrzucanie pakietów,
• buforowanie pakietów w pamięci według założo- nego mechanizmu priorytetów,
• przydział dostępu do kolejki wyjściowej – plano- wanie.
Mechanizmy sterowania przepływem pakietów w sieciach podzielić można na: układy wczesnego wykry- wania przeciążeń – RED, REM oraz układy „rozładowa- nia” zatorów – układy kolejkowania pakietów [2]
Algorytmy RED i REM skupiają się na zagadnieniu ciągłego monitorowania stanu łącz, intensywności ruchu oraz wolnych zasobów sprzętowych przełącznika. Na podstawie tych informacji podejmowane są decyzje o wcześniejszym odrzucaniu pakietów, aby nie dopuścić do wystąpienia zatoru w sieci. Układy te nie kontrolują poprawności (niezawodności) transmisji, przenosząc to zadanie do warstwy transportowej TCP i UDP [1].
Mechanizmy buforowania, kolejkowania, zamiast odrzucać pakiety, w przypadku przeciążenia łącza ru- chem, mogą je tymczasowo przechowywać w jednej lub kilku kolejkach (w zależności od zastosowanego mecha- nizmu kolejkowania). W odróżnieniu od filtrowania, kolejkowanie nie określa ostatecznie losu pakietu. Do- piero gdy zapełnienie pasma utrzymuje się przez dłuższy czas na wysokim poziomie, pakiet może pozostać odrzu- cony.
Obecne stosowane układy sterowania przepływem danych zaimplementowane w routerach bazują głównie na nie rekonfigurowalnych strumieniach, począwszy od prostych kolejek FIFO dla ruchu równoprawnego, przez kolejki proporcjonalne zależne od klasyfikacji pakietów – WFQ, do niestandardowych kolejek preferowanych PQ [4 6]. Wykorzystanie prostych algorytmów kolejko- wania powoduje duże prawdopodobieństwo odrzucenia przychodzącego pakietu. W przypadku transmisji dźwię- ku VoIP ilość odrzuconych pakietów powyżej 5%
wszystkich przesłanych powoduje przerywanie i gubie- nie strumienia audio. Dedykowane algorytmy LLQ, ko- lejkowania pakietów dla ruchu multimedialnego, bazują na kolejce priorytetowej [9]. W praktyce oznacza to, że przesyłana transmisja multimedialna przywłaszcza sobie całe dostępne pasmo, uniemożliwiając jednoczesną transmisję innych danych. Z uwagi na to, że wzrasta ilość transmisji multimedialnych czasu rzeczywistego, np. VoIP, które są przenoszone przez protokół RTP (UDP), konieczne jest poszukiwanie nowych rozwiązań układów sterowania ruchem, zapewniających dobrą ja- kość transmisji dla wszystkich rodzajów przesyłanych usług. Rozwiązania te powinny posiadać cechy zarówno układów przeciwdziałania przeciążeniom, jak i mechani- zmów „rozładowywania” zatorów. Podstawą do badań będą znane mechanizmy przeciwdziałania przeciążeniom w sieciach pakietowych REM i RED.
4. RED
RED (ang. Random Early Discard) jest to algorytm mający za zadanie unikanie przeciążeń poprzez wyko- rzystywanie istniejących już mechanizmów w protokole TCP. RED “przewiduje” wystąpienie przeciążenia łącza i gubi pakiety, sygnalizując tym samym nadawcy, że powinien ograniczyć transmisje. Miarą przeciążenia jest średnia długość kolejki pakietów. Prawdopodobieństwo odrzucenia jest generowane przez funkcję losową miary przeciążenia, przedziałami liniową i niemalejącą [1].
W przypadku protokołu TCP jest to założenie jak najbardziej poprawne, ponieważ po zakończeniu prze- ciążenia TCP potrafi automatycznie powrócić do opty- malnej prędkości wysyłania pakietów. Charakterystycz- ną cechą mechanizmu RED jest to że w odróżnieniu od pozostałych algorytmów – próbuje zapobiegać przecią- żeniu zanim ono wystąpi, a nie tylko zminimalizować jego skutki w czasie zaistnienia. Wykorzystuje się w tym celu mechanizmy probabilistyczne. Działanie algorytmu RED składa się z dwóch głównych części :
a) oszacowanie estymaty średniego rozmiaru kolejki, avg = ( 1 − W ) ⋅ avg + W ⋅ Q
l(4.1) W – stała czasowa filtru, kontrolująca przedział
czasowy, co który obliczane jest avg
Q
l– aktualny rozmiar kolejki – aktualny rozmiar ko-
lejkib) decyzji usunięcia (lub nie) pakietów, według przy- jętych wartości krytycznych długości kolejki, co pokazuje rys. 2.
MinTH MaxTH
MinTH p avg
p
B−
⋅ −
= max (4.2)
MinTH – minimalny rozmiar kolejki, zanim zacznie się odrzucanie,
MaxTH – „miękkie” maksimum, poniżej wartości którego algorytm będzie starał się utrzymać.
Rys. 2. Wykres zależności prawdopodobieństwa odrzu- cania pakietów w funkcji średniej długości kolejki
0% 50% 100%
0%
50%
100%
MinTH MaxTH
Stan okupowania kolejki Prawdopodobieńst wo odrzucenia
Bufory kolejkujące pakiety Wejście
Baza reguł De- Fuzz
Fuzz Maszyna
wnioskująca
Fuzzy Fuzzy
Wyjście
Kontroler logiki rozmytej
5. FUZZY AQM
Dominującym współcześnie trendem w dziedzinie poprawy wydajności działania układów zarządzania przepływem pakietów jest propozycja wyposażenia ich w zdolność adaptacji do warunków panujących w sieci teleinformatycznej [10 11]. Zdolność adaptacji może zostać zrealizowana poprzez dodanie członu nadrzędne- go, którego zadaniem będzie gromadzenie wiedzy i wnioskowanie o poprawności przyjętych decyzji na te- mat sposobu zrządzania przesyłem pakietów, co pokaza- no na rys.3.
Układ buforowania WYJŚCIE
WEJŚCIE
CZŁON NADRZĘDNY Klasyfikator
Baza reguł sterowania
Kolejka wyjściowa
Sterownik z logiką rozmytą
Rys. 3. Układ adaptacyjny AQM z logiką rozmytą.
Jednostka nadrzędna, w oparciu o wnioskowanie w logice rozmytej, będzie miała możliwość kontrolowania poszczególnych elementów wykonawczych całego ukła- du sterowania przepływem pakietów [5].
Zastosowanie sterownika logiki rozmytej FLC (ang.
Fuzzy Logic Controller) do wyznaczania prawdopodo- bieństwa odrzucania pakietów, pozwala na wykorzysta- nie wiedzy „a-priori” w procesie sterowania pracą me- chanizmu AQM. Wiedza ta ma zastosowanie w procesie doboru funkcji przynależności oraz bazy reguł sterowa- nia. Budowa regulatora FLC jest przedstawiona na rys.
4.
Rys. 4. Budowa regulatora FLC.
Baza reguł, nazywana również modelem lingwi- stycznym jest główną częścią regulatora rozmytego FLC [7]. Zawiera ona strategię sterowania w postaci zbioru reguł zapisanych w języku naturalnym, języku uwzględ- niającym ludzki sposób postrzegania zjawisk. Baza reguł może być przedstawiona w trzech równoważnych for- mach: jeżeli-to, relacyjnej lub tablicowej. Na rys. 5 przedstawiono, wyznaczoną na podstawie bazy reguł, przestrzeń sterowania dla sterownika dwu-wejściowego.
Rys. 5. Przestrzeń sterowania regulatora FLC.
Stałe wartości progów średniej długości kolejki (MinTH, MaxTH), zostały zastąpione przez zmienne wypracowywane przez sterownik FLC. Analizując prze- strzeń sterowania można stwierdzić, że regulator FLC dokonuje aproksymacji funkcji prawdopodobieństwa odrzucania. Dzięki temu uzyskuje się „bardziej miękki”
proces przełączania.
Przedstawiona koncepcja mechanizmu Fuzzy AQM, wykorzystuje do wyznaczenia wartości prawdopodo- bieństwa odrzucenia pakietu dwie informacje:
a) różnicę wartości aktualnej i oczekiwanej długości kolejki:
Q
lQ kT
e ( ) = − (5.1) b) wartość poprzednią różnicy e(kT) obliczaną jako:
e ( kT − T ) (5.2)
Rys. 6. Funkcje przynależności dla sygnału wejścia.
Wykorzystanie tych informacji przez kontroler FLC jest moż- liwe po zastosowaniu operacji fuzyfikacji, czyli rozmywania.
Polega ona na przekształceniu bieżącej wartości ostrej (punk- towej) zmiennej wejściowej regulatora w zbiór rozmyty [7].
Na podstawie aktualnych wartości wejść regulatora oraz
bazy reguł, program, nazywany maszyną wnioskującą, wysu-
wa wniosek w postaci wyjściowego zbioru rozmytego. We
wnioskowaniu opartym na pojedynczej regule każda pojedyn-
cza reguła jest odpalana oddzielnie. W wyniku złożenia sfuzy-
fikowanego wejścia ostrego i relacji rozmytej reprezentującej
k-tą regułę otrzymuje się zbiór wyjściowy dla tej reguły o od-
powiedniej funkcji przynależności. Funkcje przynależności
dobierane są na podstawie doświadczenia i intuicji projektan-
ta. Rys. 6 przedstawia dobór funkcji przynależności dla sygna-
łów wejściowych.
Następnie w celu uzyskania wszechobejmującego wyj- ściowego zbioru rozmytego dokonuje się połączenia znaczeń zbiorów wyjściowych dla poszczególnych reguł za pomocą sumy. Operacja ta nazywana jest agregacją zbiorów wyjściowych. Jeżeli reguły regulatora reprezen- towane są przez implikacje typu min (Mamdaniego), to wyjściowe zbiory nazywane są zbiorami ściśniętymi (ang. compress). Jeśli natomiast użyto implikacji typu iloczyn (Larsena), to zbiory wyjściowe stanowią zbiory skalowane (ang. scale). Przykład wyznaczania, dla okre- ślonych funkcji przynależności, wartości wyjściowej pokazany jest na rys. 7.
a)
b)
Rys. 7. a) funkcja przynależności dla wartości wyjścio- wej, b) graficzna interpretacja wnioskowania dla impli-
kacji typu min.
W literaturze [10 12] spotykane są propozycje wy- korzystania kontrolera FLC do zarządzania przepływem pakietów w sieciach IP. Rozwiązania te często nie uwzględniają dynamiki zmian długości kolejki, a bazują tylko na aktualnym jej stanie. Uwzględnianie dynamiki zmian długości kolejki, estymowanej przez różnice war- tości długości w kolejnych chwilach czasowych e(kT)- e(kT-T), powinno zapewnić większą stabilność długości kolejki. Zapewnienie stabilności długości kolejki pozwo- li z kolei na utrzymywanie, w miarę stałego, poziomu opóźnienia przetwarzania pakietów w węźle sieci. Zada- nie stabilizacji będzie wypracowywane przez kontroler FLC, który dodatkowo będzie musiał tłumić nagłe „eks- plozje” ruchu.
W celu zapewnienia poprawnej pracy regulatora FLC funkcje przynależności powinny spełniać następu- jące warunki:
• warunek przecięcia, tzn. sąsiednie funkcje przynależności powinny przecinać się dla stop- nia przynależności µ∈ (0,5 ; 0,8), tak jak na
rys. 8. Jeśli funkcje przynależności nie będą się przecinać to będzie istniała taka wartość wej- ściowa, która nie będzie mogła być porównana z poprzednikiem reguły. Wtedy żadna z reguł nie odpali i w rezultacie nie zostanie obliczona żadna zmienna sterująca.
Rys. 8. Poziom przecięcia trójkątnych funkcji przy- należności
• warunek szerokości, tzn. prawa szerokość jed- nej z sąsiadujących ze sobą funkcji przynależ- ności reprezentujących wartości lingwistyczne zmiennej wejściowej powinna być równa lewej drugiej i obie powinny być równe długości przedziału pomiędzy wartościami szczytowymi, tak jak to pokazuje rys. 9.
Rys. 9. Funkcje przynależności ze spełnionym warun- kiem szerokości.
Jeżeli warunek szerokości jest spełniony to dla łagod- nych zmian e od e
szczyt 1do e
szczyt 2, po wnioskowaniu oraz zastosowaniu defuzyfikacji metodą środka ciężkości, sygnał sterujący również łagodnie zmienia się od u
szczyt 1do u
szczyt 2, co przedstawia rys. 10.
Rys. 10. Zmiana sygnału sterującego.
6. WNIOSKI I PLANY NA PRZYSZŁOŚĆ
Trudno jest jednoznacznie znaleźć uniwersalne roz- wiązanie zapewniające gwarancję jakości przesyłanych informacji w sieciach z komutacją pakietów. Dla małych sieci lokalnych możliwe jest stosowanie architektury IntServ, co zapewni duży poziom niezawodności trans- misji. W przypadku dużych systemów rozproszonych problem sterowania poprzez sieć na odległość jest uciąż- liwy z powodu „nieprzewidywalności” zachowania transmisji. Poprawę zapewnienia jakości transmisji uzy- ska się przez zastosowanie architektury DivServ, wypo- sażonej w zaawansowane algorytmy sterowanie prze- pływem danych AQM.
Pojawiające się w literaturze propozycje poprawy działania znanych algorytmów AQM koncentrują się głównie wokół wykorzystania układów sztucznej inteli- gencji w procesie przełączania. Niestety pojawiające się propozycje rozwiązań przedstawiają koncepcje oparte główne na symulacjach. Rzadko poruszane są także pro- blem implementacji sprzętowej. Dlatego ważne jest uwzględnienie w procesie projektowania, pewnych ograniczeń wynikających z możliwości realizacji sprzę- towej (np. czasu wypracowania sterowania w porówna- niu z opóźnieniem w dostarczeniu pakietu).
Autorzy wskazują na możliwość wykorzystania, w procesie zarządzania przepływem pakietów w węźle sieci, sterownika logiki rozmytej. Podkreślają także ko- nieczność uwzględnienia warunków przecięcia i szero- kości w procesie projektowania FLC, dla prawidłowej pracy regulatora.
W odniesieniu do innych rozwiązań, opisywany przez autorów, mechanizm uwzględnia dynamikę zmian długości kolejki w procesie podejmowania decyzji. Wy- daje się, że powinno poprawić to warunki stabilizacji długości kolejki. Stabilizacja długości kolejki jest istotna z uwagi na, opracowywany przez autorów, projekt wy- korzystania układów programowalnych FPGA do reali- zacji sterownika FLC oraz zarządzania pamięcią bufo- rów.
SPIS LITERATURY