• Nie Znaleziono Wyników

O pewnych problemach szeregowania zadań z efektem uczenia się

N/A
N/A
Protected

Academic year: 2022

Share "O pewnych problemach szeregowania zadań z efektem uczenia się"

Copied!
7
0
0

Pełen tekst

(1)

Dariusz OKOŁOWSKI

Uniwersytet im. A.Mickiewicza. Poznań

O PE W N Y C H PRO BLEM ACH SZEREGOW ANIA ZADAŃ Z EFEK­

TEM UCZENIA SIĘ

Streszczenie. Praca dotyczy wybranych problemów wielomaszynowego szeregowania zadań z efektem uczenia się oraz kryterium minimalizacji czasu zakończenia wykonywanych zadań. Przedstawiono przykłady, gdy nie jest możliwe zastosowanie dla tych problemów algorytmów szeregowania znanych dla problemów klasycznych. Podano modyfikacje wybranych kla­

sycznych algorytmów szeregowania, pozwalające na ich zastosowanie dla problemów szeregowania jednostkowych zadań z efektem uczenia się.

ON SOME SCHEDULING PROBLEM S W ITH LEARNING EFFECT Summary. In the paper selected problems of minimum makespan, parallel machine scheduling with learning effect are considered. It has been shown by examples that some classical scheduling algorithms are not applicable in the case of scheduling with learning effect. There have been given modifi­

cations of some classical scheduling algorithms which allow to apply them to scheduling unit processing time jobs with learning effect.

1. W stęp

Deterministyczna (klasyczna) teoria szeregowania zadań ([2]) powstała w połowie XX wieku jako narzędzie do rozwiązywania problemów spotykanych w produkcji przemysłowej. Podstawy tej teorii stanowią następujące założenia:

(Zl) w danej chwili zadanie może być wykonywane przez co najwyżej jedną ma­

szynę oraz każda maszyna może wykonywać nie więcej niż jedno zadanie,

(Z2) prędkości maszyn mogą być różne, lecz podczas wykonywania zadań nie zmie­

niają się,

(Z3) czasy wykonywania zadań są stałymi, znanymi z góry wielkościami.

Zmieniając jakiekolwiek z założeń (Zl) - (Z3) otrzymujemy modele niekla-

sycznej teorii szeregowania zadań. Jednym z takich modeli jest szeregowanie zadań

z efektem uczenia się.

(2)

116 D. Okołowski

Pierwszą pracą, dotyczącą efektu uczenia się w kontekście szeregowania za­

dań zależnych od pozycji w uszeregowaniu, jest praca Biskupa ([3]). Przedstawił on model efektu uczenia się, który zdominował dalsze badania nad tą klasą proble­

mów. Również w tej pracy używać będziemy wprowadzonego przez niego modelu.

Opis innych modeli szeregowania zadań z efektem uczenia się można znaleźć np.

w [1], [7] lub [14],

Najszerzej badanymi zagadnieniami w dotychczasowych pracach dotyczących szeregowania zadań z efektem uczenia się są problemy jednomaszynowe. Rozważa­

no kryteria takie, jak: czas zakończenia wykonywanych zadań ([

10

]), suma czasów zakończenia wykonywanych zadań ([3]), suma ważonych czasów wykonywanych zadań ([1]) oraz kryteria dotyczące opóźnień ([10], [13]). Rozważano również pro­

blemy, gdzie kryteriami są kombinacje wypukłe innych kryteriów ([3]). Mniejszą grupę stanowią prace, dotyczące środowńsk wielomaszynowych. Prace te dotyczą główmie szeregowania zadań na identycznych maszynach równoległych dla kryte­

rium sumy czasów^ zakończenia wykonywania zadań ([

1 1

]) oraz problemów' szere­

gowania wr systemach przepływowych ([9], [14]).

2

. Sformułowanie problemu

W pracy rozważamy następujący problem szeregowania zadań. Danych jest

m

równoległych identycznych maszyn oraz zbiór

n

zadań takich, że czas wykony­

wania j-tego zadania ze zbioru zadań

T

na r-tej pozycji w uszeregowaniu wyraża się wzorem =

pj * r a,

gdzie

a

<

0

jest indeksem uczenia się, a

pj

jest począt­

kowym czasem wykonania zadania. Na zbiorze zadań zdefiniowano ograniczenia kolejnościowre zadane w postaci acyklicznego digrafu

Gp

= (

T ,E p

), gdzie

Ep

jest zbiorem łuków (T),

Tj)

takich, że w' grafie

Gp

istnieje skierowana ścieżka od T, do

Tj

w'tedy i tylko wtedy, gdy wykonywanie

Ti

musi się zakończyć przed rozpoczęciem wykonywania

Tj

(symbolicznie T)

Tj).

Stosowanym kryterium optymalności uszeregowania jest czas zakończenia wykonywanych zadań

Cmax

= max {pjjj *

1

Q +

p j2|

*

2

a + . . . + pjnj *

na},

gdzie

ply

j oznacza początkowy czas wykonywania j-ego zadania na maszynie

Pi.

Do opisu omawianych problemów będziemy używali notacji aj

/?|7

([

8

]).

3. Omówienie uzyskanych wyników

Wobec NP-zupełności problemu

Pm \\Cmax

(w wnrsji decyzyjnej), problem

P2\pj'T = pj

*

r a

|

Cmax

w wnrsji decyzyjnej także jest NP-zupełny ([10]).

3.1. Dowolne czasy wykonywania zadań

W ciągu kilku ostatnich dekad dla problemu

Pm\\Cmax

wyprowadzono wuele

heurystyk i algorytmów aproksymacyjnych, generujących rozwiązania przybliżone

(3)

o pewnych gwarancjach jakości ([

2

]).

Jedną z nich jest algorytm LPT (od ang.

Longest processing time first,

[2]). W czasie

t

=

0

przydziela ona

m

największych zadań do wolnych maszyn. Następnie, w każdym momencie czasu, w którym następuje zwolnienie maszyny, przydzielamy tej maszynie największe dostępne zadanie.

Znane jest twierdzenie ([2]), dotyczące analizy najgorszego przypadku dla LPT, mówiące, że

c’TI{Soft)

^ t —

3

to’ gdzie

&LPT

to uszeregowanie uzyskane za pomocą LPT, a

S o p t

to uszeregowanie optymalne. W przypadku problemu uwzględniającego efekt uczenia się, twierdzenie to nie zachodzi.

P r z y k ła d 1

D an a je st in stan cja problem u P2|p_,ir = p j * ra\Cmax taka, że indeks a = —0.322, zbiór zadań

T =

{T j,T 2,. . . , Tio}, a początkowe czasy w ykonania są dane w ektorem

p

— [1 0 ,1 0 ,1 , 1 , 1 ,1 , 1 ,1 ,1 ,1]. W artość k ry teriu m d la uszeregowania zgodnego z regułą LTP S LPT = ((T i, T3,

T5,

T7, T9), (T2,

T4,

T6, Ta, T 10)) wynosi:

Cmax{SLPT) = 10 * I -0 ’322 + 1 * 2~0,322 + 1 * 3 “ 0'322 + 1 * 4 -0,322 + 1 * 5 “ °'322.

W artość kryterium dla uszeregowania optym alnego (uzyskanego metodą, pełnego prze­

glądu) So p t = ((T i, T5, T7, Tg, T \), (T4, Tg, Tg, T10, T2)) wynosi:

C max{S0 p r) = 1 * I “0 322 + 1 * 2 - ° 322 + 1 * 3~°'322 + 1 * 4 -0 '322 + 10 * 5~0'322.

S tąd mamy, że « f F = 1.4 > f.

Podobny przykład można wygenerować również dla dowohiego

m >

2.

Wystarczy w zbiorze

T

umieścić

m

„dużych” zadań i 4m zadań „małych”.

Innym algorytmem aproksymacyjnym dla problemu

Prn\\Cmax

jest algorytm listowy (ang.

list scheduling,

w skr. LS). Przydziela on wolnym maszynom pierwsze dostępne zadanie z listy będącej dowolną permutacją zadań.

Znane jest twierdzenie ([2]), dotyczące analizy najgorszego przypadku dla LS, zgodnie z którym ćWit^opr) ^ ^ §dzie

^LS

oznacza uszeregowanie będące wynikiem działania algorytmu LS.

P r z y k ła d 2

D an a je st instancja problem u P2\pj,r = p j * iM\Cmax taka, że a = —0.55, zbiór

T

= { T i,...,T io } taki,

że p

= [3 0 ,3 0 ,1 ,1 ,1 ,1 ,1 ,1 ,1 ,1 ].

W artość kryterium d la uszeregowania otrzym anego z algorytm em LS (w przy­

padku, gdy zadania n a liście dane są w porządku nierosnącym względem p a ram etru Pj) Sl s = ((T i,T3,T5, T7,Tg), (T2,T4,T6, T8,T w )) wynosi:

Cmax{SLs) = 30 * I “ 0 55+ 1 * 2 “ a55 + 1 * 3~ °'55+ 1 * 4 -0 '55 + 1 * 5~0'55.

W artość kryterium d la uszeregowania optym alnego (uzyskanego m eto d ą pełnego prze­

glądu) So p t = ({T3,T 5,T 7,T g,T i ) , ( T i , T 6,T s ,T i0,T2)) wynosi:

Cmax{S0PT)= 1 *

l

-0'55+ 1 * 2- 0 '55 + 1 * 3~0'55 + 1 * 4- ° ' 55 4- 30 * 5~0'55.

(4)

118 D. Okołowski

Stąd mamy, że ^ ( Ś o e r ) « TSSr = 2' 13 > §•

P rzyk ład 2 pokazuje, że twierdzenie to nie jest prawdziwe w przypadku mo­

delu

z efektem uczenia się dla

m

= 2 (dla przypadku , gdy m > 2 można wskazać podobny przykład, zob. kom entarz po przykładzie 1).

3.2. Jednostkowe czasy wykonywania zadań

Relaksacja

Pm\\Cmax

prowadzi do kolejnego problem u,

Pm\pj

=

p\Cmax,

k tóry jest wielomianowo rozwiązywalny ([2]). Problem

Pm \pjtT

=

p * r a\Cmax

jest również rozwiązywalny w czasie wielomianowym.

Przedstaw im y algorytm A l, rozw iązujący problem

Pm\pj = p * r a\Cmax.

W pierwszym kroku algorytm A l przydziela |^ J zadań każdej z

m

m aszyn. Jeśli d x — n —

m *

| ^ j > 0, to należy przydzielić d r m aszynom po jednym dodatko­

wym zadaniu. Długość uszeregowania dla n-zadaniowej instancji problem u wynosi

Wjll r -i

Cmax = E p * r a, gdzie n m = | - 1.

T w ie r d z e n ie 1 . Algorytm A l generuje optymalne uszeregowanie dla problemu

Pm\pj

= p * r a\Cmax w czasie 0 ( n ) .

Dowód. (Szkic) Załóżmy, że uszeregowanie generowane przez algorytm A l nie jest optym alne, czyli istnieje uszeregowanie krótsze w sensie kryterium Cmax■ Oznacza to, że w uszeregowaniu optym alnym (niezgodnie z A l) musimy co najm niej jedno z zad ań przydzielonych i-tej m aszynie (1 < i < m ) przez algorytm A l przydzie­

lić innej maszynie. W ted y należy rozpatrzeć dwa przypadki. Jeśli przydzielim y je maszynie, k tó ra m a przydzielonych |^ J zadań (gdy |^ J ^ [m])> to długość usze­

regowania nie zmieni się. Jeśli przydzielimy je m aszynie, k tó ra m a przydzielonych

r 1 f n m -f-1 ^

j ^ I zadań, to Cmax = E P * r n, co jest w artością większą od uzyskanej przez

r = l

algorytm A l. Sprzeczność.

Innym klasycznym problem em , dla którego istnieje dokładny algorytm wielomianowy A2, jest problem

P2\pj

=

p,prec\Cmax

([2]). W pierwszej fazie algorytm A2 przydziela zadaniom etykiety liczbowe. Następnie, dostępne zadania o najniższej etykiecie są przydzielane do wolnych m aszyn w każdej jednostce czasu. Pokażemy teraz, że algorytm ten nie znajduje zastosowania dla modeli uwzględniających efekt uczenia się.

P rz y k ła d 3

D ana je st następująca in stancja problem u P 2 \p j = p * r a , p r e c \C max- a < 0, zbiór zadań T = { T i , T2, T3, Tą, T5} oraz zbiór ograniczeń kolejnościowych jest dany przez częściow y porządek Ot = {T \ ~< Tj, T2 -< Tj, T3 -< Tą, T$ ~< T5}.

Jeżeli uszeregujem y zbiór T w porządku przedstaw ionym na rys. 1 (zgodnie z algo­

rytm em A 2), to w ynikiem jest sytuacja, w której „przedziały czasu" począw szy od pozycji

(5)

i i p*3‘

r+—►

P: Ti Ti Ta

Pi Ti T„

...►

P*1 3 "p*-r

Rys. 1. P rzy k ład sytuacji nierozpatryw anej przez algorytm A2

3 mają na każdej maszynie inną szerokość.

Kolejnym problem em , dla którego istnieje wielomianowy algorytm A3, jest problem

Pm\pj

= p ,i n — tree\C max ([2]).

A lgorytm A3 dla problem u Pm \])j — p ,i n — tree\C max działa w dwóch kro­

kach. Dla każdego zadan ia ze zbioru T należy obliczyć odległość danego zadania od korzenia drzewa. N astępnie, w każdej jednostce czasu wolnym m aszynom należy przydzielać zadania w kolejności od najwyższego poziomu. Algorytm te n m ożna zaimplementować wr czasie 0 (n) ([2]).

W przypadku problem u

Pm\pj^r

=

p

* r a, i n — tree\C max algorytm A3 wy­

m aga modyfikacji. Zmodyfikowany algorytm A3m, w momencie, gdy w aktualnym przedziale czasu dostępnych zadań jest mniej niż dostępnych maszyn, przydziela zadania do m aszyn o największej liczbie wykonanych zadań.

T w ie r d z e n ie 2. Algorytm. A 3 m generuje optym alne uszeregowanie dla problemu P m \p j^ = p * r a,i n — tree\C max w czasie O (n ).

Dowód. (Szkic) O ptym alność algorytm u A3m wynika bezpośrednio z optym alno- ści algorytm u A3. W ystarczy pojęcie „jednostki czasu” zastąpić pojęciem „prze­

działu czasu” oraz zapew nić wykonywanie się zadań n a m aszynach o jak najw ięk­

szej liczbie przetworzonych zadań. W przypadku, gdy chcielibyśmy przydzielić zadanie maszynie, k tó ra w ykonała m niejszą liczbę zadań, to czas wykonania za­

dania w zrasta, ponieważ czynnik r a nie jest minimalny.

Co z sytuacją, gdy dostępnych zadań w przedziale r + 1 jest więcej niż m aszyn, które do r-tego przedziału w ykonały r zadań (por. uszeregowanie na rys. 1)? Taka sytuacja nie może zajść, gdyż ograniczenia kolejnościowe są dane w postaci drzewa wstępującego, a przez to dostępnych zadań w i-tym przedziale nigdy nie będzie mniej niż wr przedziale i + 1.

W klasycznej wersji problem

Pm\pj

= p ,i n — tree\C max jest istotnie zwią­

zany z problem em

Pm\pj

— p ,o u t — tree\C max■ Do rozw iązania wykorzystuje się ten sam algorytm A3 (odw racając łuki w wejściowym digrafie i czytając wyjściowe uszeregowanie “w spak” ). Niestety, w szeregowaniu zadań z efektem uczenia się al­

gorytm ten zawodzi, ponieważ czytając uszeregowanie “wspak” , należałoby wrziąć pod uwagę skracanie się zadań.

(6)

120 D. Okołowski

Rozszerzeniem klasycznej wersji problem u P m \in — tree\C max jest problem

Pm\pj = p,

in — fo r e s t\C max, k tóry m ożna rozwiązać za pom ocą tego samego al­

gorytm u, dodając do zbioru

T

jedno zadanie, które będzie następnikiem korzeni wszystkich drzew należących do tego lasu. W problem ie z efektem uczenia się m ożna stosować indentyczną m etodę. W uzyskanym uszeregowaniu należy odrzu­

cić o statn i przedział zadań, ponieważ będzie się w nim znajdow ało tylko d o d a t­

kowe sztuczne zadanie.

4. P o d s u m o w a n ie

W pracy podano w stępną analizę w ybranych problem ów związanych z sze­

regowaniem zadań z efektem uczenia się.

Kolejnym krokiem, dotyczącym analizy zagadnień wielomaszynowych, są problem y uwzględniające inne modele efektu uczenia się wprowadzone w [1], [4], [7] lub [12], Przedm iotem dalszych b a d ań mogą być problem y wielomaszynowe dla innych kryteriów optym alności, np. kryteriów związanych z pożądanym cza­

sem zakończenia wykonywania zadań ([10], [13]). M ożna również zbadać własności uszeregowań, dla których k ryterium jest kom binacją w ypukłą kryteriów prostych (zob. [3], [10]).

LITER A TU R A

1. B achm an A., Janiak A.: Scheduling jobs w ith position dependent processing tim es. Journal of th e O perational Research Society 55, 2004, p. 257-264.

2. Błażewicz J., Ecker K .H ., Schm idt G., W ęglarz J.: Scheduling in C om puter a n d M anufacturing Systems. Springer-Verlag, Berlin-Heidelberg 1996.

3. Biskup D.: Single-machine scheduling w ith learning considerations. E uropean Journ al of O perational Research 115, 1999, p. 173-178.

4. Cheng T .C .E ., W ang G.: Single M achine Scheduling w ith Learning Effect C onsiderations. A nnals of O peration Research 98, 2000, p. 273-290.

5. Janiak A., Snieżyk A.: W ielomaszynowe problem y szeregowania zadań z efek­

tem uczenia się. B adania operacyjne i systemowe 1, 2004, s. 167-186.

6. Janiak A., Rudek R.: On a general model of th e learning effect. Proceed- dings of th e 11th IE E E In tern ation al Conference on M ethods and M odels in A utom ation and R obotics M M AR 2005, p. 1115-1119.

7. Kou W .H ., Yang D.L.: M inimizing th e m akespan in single m achine scheduling problem w ith a tim e-based learning effect. Inform ation Processing L etters 97, 2006, p. 64-67.

8. Leung J.Y .T.: H andbook of Scheduling: Algorithm s, Models, and Perfor­

m ance Analysis. CRC Press 2004.

(7)

9. Lee W .C ., W u C.C.: M inimizing to ta l com pletion tim e in a two-machine flowshop w ith learning effect. Internationl Journal of P roduction Economics 88, 2004, p. 85-93.

10. Mosheiov G.: Scheduling problem s w ith a learning effect. European Journal of O perational Research 132, 2001, p. 687-693.

11. Mosheiov G.: Parallel m achine scheduling w ith a learning effect. Journal of the O perational Research Society 52, 2001, p. 1165— 1169

12. Mosheiov G., Sidney J.B.: Scheduling w ith general job-dependent learning curves. E uropean Jo urn al of O perational Research 147, 2003, p. 665-670.

13. Mosheiov G., Sidney J.B .: Note on scheduling w ith general learning curves to m inimize th e num ber of tard y jobs. Journal of th e O perational Research Society 56, 2005, p. 110-112.

14. W ang J.B ., X ia Z.Q.: Flow-shop scheduling w ith learning effect. Journal of th e O p erational Society 56, 2005, p. 1325-1330.

Recenzent: Prof. dr hab. inz. Adam Janiak

A b s tr a c t

In th e pap er selected scheduling problem s w ith sequence-dependent learning effect are considered. In some of these problem s precedence constraints m ay exist.

T he chosen jo b m odel is p ] S = P j * r a , where p j <r is th e processing tim e of job sequenced on r - th place in some schedule, pj is th e in itiate processing tim e, and a < 0 is a learning index. All th e problem s concern identical parallel machines w ith th e m akespan criterium .

It has been shown by counter-exam ples th a t some classical approxim ation algorithm s are n ot useful when learning considerations have been taken into ac­

count. T here have been also proposed some m odifications of algorithm s for sche­

duling unit processing tim es jobs w ith in-tree precedence constraints for th e case of learning effect. It has been proved th a t some of these modified algorithm s are optim al.

Cytaty

Powiązane dokumenty

Chen Z .-L ., Cheng T.C.E.: Parallel-machine scheduling problem with earliness and tardiness penalties, Journal o f the Operational Research Society, vol.. Chen Z.-L .:

Obserwując przebieg obliczeń algorytmów można było zauważyć, że zdecydowana poprawa wartości funkcji celu (ok.. Baker K.R.: Introduction to sequencing and

W literaturze naukowej znane są przykłady modeli czasu w ykonywania zadania, w których ilość przydzielonych zasobów w pływa na długość jego wykonywania [4], Znane

problemu, jednakże udowodniono kilka jego własności (V-podobność oraz symetria rozwiązania optymalnego). W pracy [5] rozpatrywano przypadek, w którym stale części

W pracy przedstawiono sformułowanie, pewne własności oraz algorytm roz- więzania zagadnienia kolejnościowego gniazdowego z równoległymi maszynami 1 z ogólnę

[r]

W dotychczasowych pracach dotyczących problemów szeregowania zadań na procesorach maszyn cyfrowych zakładano, że każde zadanie może byó w każdej chwili wykonywane przez

W pracy rozpatrzono jednom aszynow y problem szeregowania, w którym wartości zadań są opisane potęgow ą funkcją zależną od czasów zakończenia ich