Andrzej Kisielewicz
SZTUCZNA INTELIGENCJA, LOGIKA I ZDROWY ROZSDEK
(Rozprawa o metodzie)
Z PRZEDMOWY
Póª wieku temu logika nale»aªa do dziedzin nauki ±wi¦c¡cych najwi¦ksze sukcesy. Ostateczna formalizacja caªej matematyki, twierdzenia Gödla, ma- szyny Turinga zaliczone zostaªy do osi¡gni¦¢ ludzkiego geniuszu. Jednocze-
±nie rozpocz¡ª si¦ rozwój technologii komputerowej, w du»ej mierze opartej wªa±nie na osi¡gni¦ciach logiki, metod¦ formaln¡ zacz¦to stosowa¢ w innych naukach, tak»e humanistycznych, post¦py logiki zrewolucjonizowaªy metodo- logi¦ nauk i lozo¦.
W tej atmosferze w roku 1956 narodziªa si¦ dziedzina sztucznej inteligen- cji. Uczeni podj¦li otwarty atak na odwieczne ludzkie marzenie: zbudowanie sztucznego czªowieka. Badania obj¦ªy wkrótce równie» konstrukcj¦ sztucz- nych zmysªów i sztucznego ciaªa (robotyka), ale gªówny wysiªek skierowano pocz¡tkowo na sztuczny umysª; st¡d ogólna nazwa dziedziny. Centralne miej- sce w tych badaniach zaj¦ªa logika formalna; próbowano wprost osi¡gni¦cia logiki zastosowa¢ do wyposa»enia komputera w zdolno±¢ logicznego rozumo- wania.
Szeroka publiczno±¢ informowana byªa o post¦pach, a jeszcze bardziej o otwieraj¡cych si¦ perspektywach. Zacz¦to dyskutowa¢ czekaj¡ce nas wkrótce problemy etyczne i lozoczne zwi¡zane z pojawieniem si¦ sztucznej formy inteligentnego »ycia; nowego impetu nabraªa dyskusja dotycz¡ca fenomenu
±wiadomo±ci. Humani±ci w milczeniu przygl¡dali si¦ tej ofensywie. Z braku matematycznej kompetencji nie byli w stanie podj¡¢ merytorycznej dyskusji, ale jak wskazuj¡ niektóre reakcje, przera»eni byli tym, »e oto odwieczne pro- blemy lozoi, zagadki ±wiadomo±ci i umysªu, rozwi¡zuj¡ teraz matematycy i in»ynierowie.
Niestety (lub na szcz¦±cie) mijaªy kolejne dekady, a zapowiadanych osi¡- gni¦¢ jak nie byªo, tak nie ma. Pomimo tego, »e min¦ªo ju» póª wieku od czasu, gdy rozpocz¦to badania, »e parametry techniczne wspóªczesnych komputerów znacznie przewy»szaj¡ wyobra»enia sprzed lat, a w wielu innych kierunkach post¦p jest znacznie wi¦kszy ni» przewidywano, to nie udaªo si¦ jak dot¡d skonstruowa¢ niczego, co zasªugiwaªoby na miano my±l¡cej maszyny. Co do tego wszyscy s¡ ju» raczej zgodni, bardzo ró»ne jednak wyci¡gaj¡ wnioski z tego faktu.
Sami badacze dªugo nie chcieli rozpozna¢ tej sytuacji, nie chcieli przyzna¢
si¦ do tego; i wielu nadal nie chce trudno im si¦ dziwi¢. Za projektami sztucznej inteligencji, szczególnie tymi, które obiecywaªy budow¦ ju» zaraz, szªy wielkie pieni¡dze. Ostatnio jednak nawet Marvin Minsky, uznawany za jednego z zaªo»ycieli tej dziedziny bada«, stwierdziª, »e prawdziwa sztuczna inteligencja czeka dopiero na swojego odkrywc¦!
Brak spektakularnego sukcesu oraz coraz wi¦kszy rozziew pomi¦dzy re- zultatami bada« i zbyt lekkomy±lnie czynionymi zapowiedziami doczekaªy si¦ wreszcie krytyki wygªaszanej ju» nie tylko przez zwykªych niedowiarków, ale przez takie autorytety dziedzin pokrewnych jak Penrose czy Edelman.
To otworzyªo wrota krytyce humanistów. Niektórzy z nich z nieukrywanym triumfem obwie±cili ostateczn¡ kl¦sk¦ bada« nad sztuczn¡ inteligencj¡, a zna- le¹li si¦ i tacy, którzy gªosz¡ kl¦sk¦ metody formalnej w ogóle i koniec ery kartezja«skiej!
Te ostatnie twierdzenia s¡ tak oczywist¡ przesad¡, »e same przez si¦ lokuj¡
si¦ w sferze niepowa»nych prowokacji. Nie ma raczej w¡tpliwo±ci, »e techno- logia informatyczna dopiero zacz¦ªa zmienia¢ ±wiat, a jest to dziedzina dla której metoda formalna jest esencj¡. Jednak»e póª wieku bezowocnych prób skonstruowania sztucznej inteligencji stanowi intryguj¡c¡ zagadk¦ i jest dobr¡
okazj¡ do caªo±ciowego przyjrzenia si¦ dotychczasowemu podej±ciu do zagad- nienia. Czy dotarli±my wªa±nie do granicy stosowalno±ci metod formalnych i matematycznych, czy te» metody s¡ dobre, a wybrali±my jedynie niewªa±ci- we, zbyt bezpo±rednie i niecierpliwe podej±cie? Rzetelna reeksja prowadzi nieuchronnie do poddania pod rozwag¦ caªej metody naukowej bazuj¡cej na matematyce, której zapocz¡tkowanie we wspóªczesnej nauce przypisuje si¦
Kartezjuszowi, i dlatego pozwoliªem sobie ksi¡»ce tej da¢ podtytuª Rozpra- wa o metodzie.
(. . . )
Wrocªaw, 2007
2
Rozdziaª I
WPROWADZENIE: TEST TURINGA
To, »e sztuczna inteligencja nie istnieje nie jest stwierdzeniem caªko- wicie banalnym. Wielu ameryka«skich studentów przekonanych jest, i» kraj ich od dawana ju» dysponuje maszynami obdarzonymi sztuczn¡ inteligencj¡, nazwa ta pojawia si¦ w reklamach i na towarach, a co gorsza, wielu badaczy uchyla si¦ tu od jednoznacznych stwierdze« zasªaniaj¡c si¦ problemem ró»- nych denicji. Nawet w podr¦cznikach akademickich mo»na przeczyta¢, »e nie jest wªa±ciwie jasne, co mamy na my±li mówi¡c o sztucznej inteligencji:
nie wiadomo, co to jest inteligencja w ogóle, a co dopiero mówi¢ o sztucznej.
Przedmiot bada«
1.1. Tymczasem spraw¦ mo»na i nale»y postawi¢ zupeªnie jasno. Ogóln¡ ide¡
tkwi¡c¡ u podstaw rozpocz¦cia bada« nad sztuczn¡ inteligencj¡ byªo stworze- nie sztucznego czªowieka, czªekopodobnego robota, takiego który pojawia si¦ w lmach Terminator czy owca androidów i w setkach innych z gatunku science-ction. Od razu wida¢ tu dwa wyra¹nie ró»ne zadania: jedno to stwo- rzenie mechanizmu imituj¡cego ludzkie ciaªo i drugie stworzenie sztuczne- go umysªu porównywalnego, a mo»e nawet przewy»szaj¡cego umysª ludzki.
Gdy si¦ zastanowi¢ troch¦ gª¦biej, wyodr¦bni¢ mo»na jeszcze osobno pro- blem wyposa»enia robota w zmysªy (przed wszystkim mo»liwo±ci widzenia i sªyszenia) tutaj techniczna realizacja wi¡»e si¦ z teoretycznym problemem analizy odbieranych sygnaªów. I taki wªa±nie jest dzi± gªówny podziaª bada«
prowadzonych pod hasªem sztucznej inteligencji.
W latach pi¦¢dziesi¡tych, gdy powa»nie zacz¦to my±le¢ o skonstruowa- niu takiego robota, sprawy ciaªa i zmysªów wydawaªy si¦ jeszcze kwesti¡
dalszej przyszªo±ci, rozwoju odpowiednich technologii. Bli»sza realnym mo»- liwo±ciom ze wzgl¦du na osi¡gni¦cia logiki matematycznej i pocz¡tkuj¡cej technologii komputerowej wydawaªa si¦ sprawa sztucznego umysªu. Dla- tego te» nazwa dziedziny wskazuje jakby na to zagadnienie, jako podstawowe
i w w¦»szym sensie przez sztuczn¡ inteligencj¦ mo»na rozumie¢ wªa±nie dzie- dzin¦ bada«, której gªównym celem jest skonstruowanie sztucznego umysªu, sztucznego rozumu.
Jednak»e o ile w sprawie sztucznego ciaªa i zmysªów w ci¡gu 50 lat zanoto- wano wiele interesuj¡cych osi¡gni¦¢, to w kwestii sztucznego rozumu post¦p jest co najmniej problematyczny. P.H. Winston we wst¦pie do swojej ksi¡»ki Articial Intelligence, z roku 1977, stwierdza z pewnym dramatyzmem, »e ci¡gle jeszcze nie udaªo si¦ zbudowa¢ systemu, którego ogólna inteligencja mogªaby si¦ mierzy¢ z inteligencj¡ czteroletniego dziecka. Naprawd¦ drama- tyczny jest fakt, »e stwierdzenie to pozostaje prawdziwe równie» dzisiaj.
To wªa±nie brak wyra¹nego, spektakularnego post¦pu w tej zasadniczej kwestii sprawiª, i» badacze i autorzy podr¦czników zacz¦li modykowa¢ de-
nicj¦ przedmiotu. Uczynienie komputerów bystrzejszymi, tworzenie ma- szyn wykonuj¡cych funkcje, które wymagaj¡ ludzkiej inteligencji, wyja±nia- nie i imitowanie inteligentnego zachowania w procesach obliczeniowych, ba- dania wªasno±ci umysªu przy pomocy komputerowych modeli oto gar±¢
denicji z podr¦czników sztucznej inteligencji (Russell and Norvig, 2003).
Jednocze±nie zarzuty o braku post¦pu zacz¦to odpiera¢ argumentem, »e nie ma jednoznacznej denicji sztucznej inteligencji, »e w pewnych dziaªach po- st¦p jest wi¦kszy, w innych mniejszy niektórzy nawet twierdz¡, »e sztuczna inteligencja ju» istnieje, bo wszystko, co w tym kierunku zrobiono, jest w jakiej± mierze inteligentne.
Do rozmycia denicji przyczyniªo si¦ równie» podci¡gni¦cie pod sztuczn¡
inteligencj¦ ró»nego rodzaju bada« z zakresu logiki, psychologii, lingwistyki, czy lozoi. Autorzy niektórych podr¦czników twierdz¡ nawet, »e sztuczna inteligencja jest nowoczesn¡ metod¡ badania wªasno±ci umysªu i analizy sta- rych lozocznych problemów w tym zakresie. Nawet je±li zechcemy sztuczn¡
inteligencj¦ okre±li¢ tak szeroko, ci¡gle najbardziej trafna wydaje si¦ denicja odwoªuj¡ca si¦ do ogólnego celu.
Sztuczna inteligencja, w skrócie AI (ang. Articial Intelligence), jest to zespóª ró»norodnych bada« w informatyce, a tak»e w technice, logice, psy- chologii, j¦zykoznawstwie i lozoi, których celem jest, lub które mog¡ mie¢
ewentualne zastosowania do stworzenia autonomicznego, my±l¡cego robota.
Nie jest przy tym wa»ne czy kto± wierzy, czy nie, w osi¡gni¦cie owego osta- tecznego celu. Rzecz jedynie w tym, i» to wizja takiego robota wyznacza problemy i kierunki bada«, za± post¦py w poszczególnych kierunkach mie- rzone s¡, a raczej powinny by¢, stopniem przybli»enia do owej wizji.
To, »e ju» na wst¦pie napotkali±my na kªopot z problemem denicji jest 4
znamienne. W tym konkretnym przypadku rozwi¡zaªem go w sposób arbi- tralny. Pó¹niej postaram si¦ pokaza¢, »e w istocie rzeczy jest to jeden z wielu objawów zasadniczych nieporozumie« zwi¡zanych z metod¡ naukow¡.
Wizja Turinga 1.2. Angielska nazwa komputera pochodzi od sªowa compute, oblicza¢. Pierw- sze zadania, dla których zbudowano takie komputery jak Colossus czy Eniac, to byªy niezwykle »mudne zadania obliczeniowe. Komputer zast¦powaª armi¦
rachmistrzów. Przez dªugi czas w ±wiadomo±ci spoªecznej komputer funkcjo- nowaª wªa±nie jako super-kalkulator, niezwykle szybka maszyna licz¡ca.
Tymczasem ju» w trakcie budowy pierwszych komputerów, w latach dru- giej wojny ±wiatowej, zwi¡zani z tym naukowcy zdawali sobie spraw¦, »e komputer mo»e du»o wi¦cej. Jasne byªo, »e przy pomocy zer i jedynek da si¦ zakodowa¢ wªa±ciwie ka»d¡ ±cisª¡ informacj¦, a przy pomocy najprost- szych operacji arytmetycznych i logicznych mo»na j¡ dowolnie przetwarza¢.
Wyra¹nie u±wiadomiono sobie istotny fakt, »e obliczanie polega na mani- pulowaniu symbolami wedªug okre±lonych reguª, »e oblicza¢ mo»na nie tylko funkcje liczbowe, ale równie» funkcje przeksztaªcaj¡ce ci¡gi symboli w inne ci¡gi symboli. W szczególno±ci, formalna logika, której wspaniaªy rozkwit przypadª na pierwsz¡ poªow¦ XX wieku, wydawaªa si¦ narz¦dziem gotowym do zastosowania.
To skªoniªo wielu naukowców do stawiania ±miaªych prognoz, »e ju» wkrót- ce komputery b¦d¡ czym± znacznie wi¦cej ni» tylko super-rachmistrzami, »e zdolne b¦d¡ do przeprowadzania rozumowa« i wyci¡gania wniosków, »e stan¡
si¦ maszynami obdarzonymi inteligencj¡.
Jednym z takich naukowców byª brytyjski matematyk i logik, Alan Tu- ring, który bez w¡tpienia zasªu»yª sobie na miano ojca dziedziny sztucznej inteligencji. Wprowadziª on teoretyczny model komputera, zwany dzi± ma- szyn¡ Turinga, przy pomocy którego rozwin¡ª teori¦ funkcji obliczalnych.
Braª udziaª w tworzeniu wspóªczesnej technologii komputerowej, zastosowaª j¡ do ªamania szyfru Enigmy 1, pisaª pierwsze programy do gry w szachy.
Pierwszy wyra¹nie postawiª pytanie Czy komputery mog¡ my±le¢?. W swo- jej sªynnej pracy Computing Machinery and Intelligence, opublikowanej w
1Cz¦sto pisze si¦, »e Turing zªamaª zasad¦ dziaªania niemieckiej maszyny szyfruj¡cej Enigma, czym przysªu»yª si¦ wydatnie do wygrania II wojny ±wiatowej przez aliantów.
Jest to niezupeªnie prawd¡. Niemiecki szyfr zªamali polscy matematycy M. Rejewski, J.
Ró»ycki i H. Zegalski i na bazie ich pracy, udost¦pnionej aliantom przez polski wywiad, zespóª Turinga skonstruowaª maszyny deszyfruj¡ce (zob. Kahn 1991
lozocznym czasopi±mie Mind (Turing, 1950), zaproponowaª swój sªynny test, uznawany dzi± za operacyjn¡ denicj¦ inteligencji.
Idea testu nawi¡zuje do starej angielskiej zabawy polegaj¡cej na odgady- waniu pªci osoby ukrytej w innym pokoju wyª¡cznie na podstawie pisemnych pyta« i odpowiedzi. Turing zaadoptowaª ten pomysª do odró»nienia kompu- tera od czªowieka.
TEST TURINGA: Osoba testuj¡ca ma do dyspozycji terminal (klawiatur¦ i ekran), przy pomocy którego mo»e porozumiewa¢
si¦ z ukrytym podmiotem: czªowiekiem lub komputerem. Zadaj¡c pytania, wyª¡cznie na podstawie pisemnych odpowiedzi, osoba ma rozstrzygn¡¢, czy testowany podmiot jest czªowiekiem, czy komputerem (programem komputerowym).
Sam Turing twierdziª, »e do roku 2000 powstan¡ programy komputero- we takie, »e szanse przeci¦tnej osoby na dokonanie wªa±ciwej identykacji w ci¡gu 5 minut nie b¦d¡ przekraczaªy 70 procent. Panuje raczej powszechna zgoda, co do tego, »e jego przepowiednia nie sprawdziªa si¦. Mo»na powie- dzie¢, »e na razie nie ma (i nie wida¢ na horyzoncie bada«) programu kompu- terowego, który mógªby na powa»nie przyst¡pi¢ do testu Turinga. Jednak»e sprawa nie jest tak jednoznaczna.
Kto± mo»e caªkiem zasadnie twierdzi¢, »e przeci¦tna osoba w dzisiejszym
±wiecie jest w istocie rzeczy tak niem¡dra, »e z ªatwo±ci¡ daje si¦ oszuka¢, niezbyt nawet wyszukanym programom komputerowym. Wielu ludzi nie od- ró»ni automatycznej sekretarki od prawdziwej, je±li t¡ pierwsz¡ wyposa»y¢
tylko w pewien zapas zda« dialogowych. Do±¢ cz¦sto, dopiero po pewnym czasie stwierdzamy, »e rozmawiamy przez telefon z mówi¡c¡ baz¡ danych, a nie z urz¦dnikiem (rzecz w tym, »e wst¦pne nieporozumienia skªonni jeste-
±my przypisa¢ niskiej inteligencji urz¦dnika). W Internecie, w ró»nego rodzaju dyskusjach bior¡ udziaª programy komputerowe (tzw. boty) i cz¦sto uczest- nicy nie zdaj¡ sobie z tego sprawy (tu z kolei, ogólny beªkot, jaki cz¦sto towarzyszy internetowym dyskusjom, pozwala takim programom funkcjono- wa¢ z peªnym sukcesem ku uciesze ich twórców). W tym sensie mo»na stwierdzi¢, »e w istocie rzeczy przepowiednia Turinga byªa bardzo ostro»na i by¢ mo»e, formalnie mo»na uzna¢ j¡ za speªnion¡.
1.3. W roku 1991 rozpocz¦to seri¦ corocznych zawodów w tzw. Ograniczo- nym Te±cie Turinga, w którym programy wspóªzawodnicz¡ w dyskusjach na
6
ustalone, ograniczone tematy. Wyznaczono specjaln¡ nagrod¦ (Löbnera) w wysoko±ci $ 100 000, dla pierwszego programu, który przejdzie zwyci¦sko peªny Test Turinga. Problem polega na tym, »e dotychczasowe programy ukierunkowane s¡ raczej na to, »eby oszuka¢ czªowieka, ni» »eby znale¹¢ me- chanizmy rozumienia naturalnego j¦zyka, które mógªby przyda¢ si¦ w innych zastosowaniach. Typowy jest tu program Eliza, którego wcze±niejsze wersje dost¦pne s¡ bezpªatnie na Internecie. Jego istot¡ jest wykorzystywanie zda«
formuªowanych przez rozmówc¦, w taki sposób, »e bardzo cz¦sto caªa wymia- na zda« sprawia wra»enie sensownej rozmowy. Jak to jednak trafnie ujmuje Shieber (1994), Ograniczony Test Turinga jest jak zawody w lataniu, gdzie nagrody przyznaje si¦ tym, którzy najlepiej skocz¡.
Czy komputer mo»e my±le¢?
1.4. Oczywiste jest, »e wynik testu Turinga zale»y nie tylko od jako±ci pro- gramu komputerowego, ale tak»e od zdolno±ci osoby testuj¡cej. Chc¡c wi¦c test ten zobiektyzowa¢, nale»aªoby dokona¢ odpowiednich u±ci±le«. Jednak»e od ewentualnego praktycznego zastosowania, wa»niejsze s¡ idee, do jakich prowadzi samo rozwa»anie tego genialnego w swej prostocie pomysªu.
Test Turinga nazywany jest operacyjn¡ denicj¡ inteligencji, poniewa»
nie wynika z niego, czy obiekt rzeczywi±cie my±li, a jedynie to, czy zachowuje si¦ tak jakby my±laª. Uzmysªawia to od razu nieprecyzyjno±¢ ogólnego pyta- nia Czy komputer mo»e my±le¢?: mianowicie, czy chodzi nam o zachodzenie pewnego procesu psychozycznego, czy te» jedynie o operacyjn¡ sprawno±¢
równowa»n¡ ludzkiemu my±leniu. Brak tego rozró»nienia bywa przyczyn¡ za- sadniczych nieporozumie« w dyskusjach nad AI.
Restrykcyjne warunki Testu Turinga skªoniªy wielu naukowców do przy- puszczenia, »e inteligencja mo»e polega¢ (wyª¡cznie) na wykonywaniu pewne- go algorytmu, pewnego ±ci±le okre±lonego programu. Oto bowiem dostarcza- my komputerowi ±ci±le okre±lone ci¡gi symboli (zdania w j¦zyku naturalnym) i on zwraca nam ±ci±le okre±lone ci¡gi symboli. Mamy tu wi¦c do czynienia z pewn¡ funkcj¡ w sensie matematycznym i to funkcj¡ obliczaln¡, skoro mózg ludzki potra oblicza¢ jej warto±ci. Nie wida¢ »adnego powodu twierdz¡
zwolennicy tej tezy »eby funkcji tej nie daªo si¦ oblicza¢ na cyfrowym kom- puterze, skoro dane wej±ciowe i wyj±ciowe maj¡ charakter cyfrowy (dadz¡ si¦
zakodowa¢ w ci¡gach zer i jedynek).
Niektórzy na tej podstawie sformuªowali tez¦ jeszcze bardziej radykaln¡,
»e samo zjawisko ±wiadomo±ci jest rezultatem wykonywania pewnego algo-
rytmu, »e ±wiadomo±¢ mo»ne pojawi¢ si¦ w komputerze na skutek wykonywa- nia odpowiednio skomplikowanego programu. Nastawionemu humanistycznie czytelnikowi taka teza musi wyda¢ si¦ absurdalna ju» na wst¦pie. Zapewne uzna, »e nie ma tu nawet o czym dyskutowa¢. A jednak byli i ci¡gle s¡ tacy, którzy tezy tej broni¡, oraz tacy, którzy caªkiem powa»nie z ni¡ dyskutuj¡.
1.5. Rzecz w tym, i» przewidywania Turinga i innych o tyle si¦ sprawdziªy,
»e komputer szybko staª si¦ rzeczywi±cie czym± znacznie wi¦cej ni» super- kalkulatorem. Technologia komputerowa zacz¦ªa zmienia¢ ±wiat w niezwykle szybkim tempie. Zarówno to, jak i ezoteryczno±¢ dziedziny, trudny dla laika formalny j¦zyk, sprawiªy, »e przez wiele lat lozofowie i humani±ci, z nielicz- nymi wyj¡tkami, nie odwa»yli si¦ otwarcie krytykowa¢ bada« w dziedzinie sztucznej inteligencji. Wysªuchiwali pokornie ±miaªych prognoz formuªowa- nych przez specjalistów i trzeba to chyba tak sformuªowa¢: byli przera»eni tym, »e zagadki umysªu, rozumu i ±wiadomo±ci, od wieków znajduj¡ce si¦
w centrum zainteresowa« lozoi i nauk humanistycznych, rozwi¡zywane s¡
teraz z sukcesem przez in»ynierów i matematyków!
Dlatego te», gdy przeci¡gaj¡cy si¦ brak spektakularnego sukcesu otwo- rzyª wreszcie wrota krytyce, to popadªa ona w drug¡ skrajno±¢. Bez rzetelnej analizy rzeczywistych osi¡gni¦¢, bez gª¦bszej reeksji nad dotychczasowym podej±ciem, zacz¦to wysuwa¢ tezy nie tylko o niemo»liwo±ci osi¡gni¦cia inte- ligencji na komputerach cyfrowych, ale o ogólnym kryzysie nauk formalnych, o zmierzchu metody kartezja«skiej, itp. Proponuje si¦, aby obecne formalne podej±cie zast¡pi¢ nowym, bazuj¡cym na osi¡gni¦ciach nauk empirycznych, biologii i neurologii, w zakresie budowy i funkcjonowania mózgu, matematyk¦
zast¡pi¢ jak¡± now¡ matematyk¡ mi¦kk¡, a komputery cyfrowe kompute- rami analogowymi. Jest to oczywi±cie zawoalowana propozycja zaprzestania dotychczasowych bada« AI, przynajmniej na sto lat. Ju» nestor krytyków AI, H. L. Dreyfus, w jednym z programów telewizyjnych w 1992 roku oznajmiª wprost, z nieukrywan¡ satysfakcj¡, »e sztuczna inteligencja (jako dziedzina) jest sko«czona (Gams 2001, p.31).
Tezy takie s¡ jednak równie przesadne, co wcze±niejsze tezy niektórych reprezentantów AI o istocie ±wiadomo±ci, a w caªej dyskusji jest zbyt du»o emocji i za maªo rzeczowych argumentów. Wzi¡wszy pod uwag¦ dotychcza- sowe osi¡gni¦cia cyfrowej technologii komputerowej, w tym tak rewolucyjne i nieoczekiwane jak Internet, nie mo»na powa»nie utrzymywa¢, »e jej mo»liwo-
±ci zostaªy ju» wyczerpane. Z drugiej strony, brak spektakularnego sukcesu w badaniach AI ka»e powa»nie zastanowi¢ si¦ nad dotychczasowym podej±ciem
8
do tego zagadnienia, a to prowadzi do ogólnej reeksji nad metod¡.
1.6. Je±li chodzi o wnioski dotycz¡ce sztucznej inteligencji, z góry zapo- wiem, »e na obecnym etapie rozwoju dyskusje o mo»liwo±ci wyprodukowania
sztucznej ±wiadomo±ci uwa»am za raczej jaªowe spekulacje. Nie wierz¦, »e
±wiadomo±¢ mo»e si¦ pojawi¢ w obwodach elektronicznych na skutek wyko- nywania jakich± algorytmów, ale nie wierz¦ równie», »eby krytycy tej tezy mieli istotnie wi¦ksz¡ wiedz¦ na ten temat, ni» jej obro«cy. Je±li nawi¡»¦ do tej dyskusji na ko«cu ksi¡»ki, to po to by wykaza¢, jak niewiele on wnosi do odpowiedzi na zasadnicze pytania, jakie nale»y sobie postawi¢ na obecnym etapie rozwoju AI. A tymi pytaniami s¡:
Czy mo»liwe jest zbudowanie maszyny, która miaªaby zdolno±¢ komu- nikowania si¦ w j¦zyku naturalnym, rozumowania i wyci¡gania logicznych wniosków, rozwi¡zywania problemów i podejmowania decyzji; która byªaby w stanie rozpoznawa¢ otoczenie, porusza¢ si¦ w nim, uczy¢ si¦, czyli posiada¢
wszelkie przedmiotowe cechy rozumnej autonomicznej istoty? Czy jest to ju»
w zasi¦gu naszych mo»liwo±ci?
Czy mo»na stworzy¢ program komputerowy oparty na jakich± mechani- zmach rozumieniu j¦zyka naturalnego i na pewnym zasobie wiedzy w temacie dyskusji, który przeszedªby Test Turinga (prowadzony przez ekspertów), któ- ry mógªby na powa»nie do takiego testu przyst¡pi¢?
Oczywiste powinno by¢, i» trudno rzetelnie ustosunkowa¢ si¦ do tych pyta« bez wnikni¦cia w metody, jakimi usiªuje si¦ dzi± stworzy¢ sztuczn¡
inteligencj¦. Tymczasem wi¦kszo±¢ dyskusji ma raczej do±¢ powierzchowny charakter i gªównym argumentem zdaje si¦ gª¦boka wiara lub brak takowej,
»e co± takiego mo»na osi¡gn¡¢. Zanim jednak zajmiemy si¦ metodami, warto najpierw podsumowa¢ to, co do tej pory osi¡gni¦to w tym kierunku. Krótka historia i ogólny rzutu oka na dziedzin¦ to tre±¢ nast¦pnego rozdziaªu.
Rozdziaª II
PÓ WIEKU SZTUCZNEJ INTELIGENCJI
Ogólne wprowadzenie do dziedziny sztucznej inteligencji zawarte w tym rozdziale obejmuje zasadnicze w¡tki i krótk¡ histori¦ jej najwa»niejszych osi¡- gni¦¢. Niektóre w¡tki rozwin¦ pó¹niej znacznie dokªadniej, »eby uzyska¢ rze- telne argumenty do dyskusji o mo»liwo±ciach i perspektywach dalszego roz- woju.
Entuzjastyczne pocz¡tki 2.1. Za prawdziwy pocz¡tek dziedziny sztucznej inteligencji uwa»a si¦ ro- bocz¡ konferencj¦ w Dartmouth, w lecie 1956, zorganizowan¡ przez Johna McCarthy'ego, która miaªa na celu zgromadzenie badaczy zajmuj¡cych si¦
teori¡ automatów i sieciami neuronowymi, zainteresowanych konstruowaniem inteligentnych systemów. Ta dwumiesi¦czna konferencja zgromadziªa raptem 10 osób (w tym Marvina Minsky'ego, Claude Shanona i Nathaniela Roche- stera, uwa»anych wraz z McCarthym za zaªo»ycieli dziedziny). Wymieniono na niej ogólne idee; Allen Newell i Herbert Simon zaprezentowali swój zdolny do wyci¡gania logicznych wniosków program komputerowy Logic Theorist;
przyj¦to zaproponowan¡ przez McCarthy'ego ??? nazw¦ nowej dziedziny: Ar- ticial Intelligence. Po konferencji tej powstaªy pierwsze laboratoria AI na uniwersytetach Carnegie Mellon i Stanford, oraz w Massachusetts Institute of Technology (MIT).
Minsky i McCarthy obaj byli studentami Uniwersytetu Princeton, gdzie mogli si¦ zetkn¡¢, mi¦dzy innymi, z Johnem von Neumannem, matematy- kiem o bardzo szerokich zainteresowaniach, uznawanym za twórc¦ architek- tury wspóªczesnego komputera. Podobno na obronie pracy doktorskiej Min- sky'ego, dotycz¡cej sieci neuronowych, na w¡tpliwo±ci, czy ten rodzaj pracy mo»e by¢ uwa»any za matematyk¦, von Neumann miaª rzec, »e je±li to nie jest matematyk¡ dzi±, to b¦dzie w przyszªo±ci.
Newell i Simon twierdzili o swoim programie, »e jest to pierwszy pro- gram komputerowy zdolny do my±lenia nie-numerycznego i »e rozwi¡zali w ten sposób wiekowy problemat, czy do my±lenia takiego konieczne s¡ zycz- ne wªa±ciwo±ci mózgu. Program potraª udowodni¢ wi¦kszo±¢ twierdze« z rozdziaªu II Principia Mathematica (sªynnego dzieªa Whiteheada i Russella, którego zadaniem byªo pokazanie, »e wszystkie twierdzenia matematyczne, caª¡ matematyk¦, mo»na wyprowadzi¢ z pewnych podstawowych aksjoma- tów dotycz¡cych poj¦cia zbioru, na bazie ±ci±le okre±lonych reguª logicznego wnioskowania). Dla jednego z twierdze« Logic Theorist podaª nawet dowód krótszy, ni» ten przedstawiony w ksi¡»ce. Jednak»e twierdzenia te miaªy tak elementarny charakter (techniczny raczej, ni» intelektualny z punktu wi- dzenia matematyka), »e nie wszyscy chcieli dostrzec w tym jak¡± szczególn¡
warto±¢. Newell i Simon próbowali opublikowa¢ wyniki w Journal of Symbolic Logic, jako pierwsz¡ prac¦, której wspóªautorem byªby program komputero- wy, lecz nie zostaªa ona zaakceptowana przez redakcj¦.
2.2. Te i inne kªopoty (na przykªad ograniczony dost¦p do komputerów) nie zgasiªy wielkiego entuzjazmu, jaki towarzyszyª badaniom w pocz¡tkowym okresie. Mimo bardzo prymitywnych narz¦dzi, komputerów i sposobów pro- gramowania, badaczom udaªo si¦ do±¢ szybko wykaza¢, kolejnymi osi¡gni¦- ciami, »e komputer mo»e wykonywa¢ znacznie bardziej skomplikowane za- dania, ni» tylko arytmetyczne obliczenia. Napisano caªy szereg programów zdolnych do przeprowadzania ró»nego rodzaju rozumowa«, obalaj¡c w ten sposób wczesne mity i przes¡dy dotycz¡ce komputera.
Programy takie pisali pracownicy IBM skupieni wokóª Nathaniela Roche- stera, cz¦sto w ramach nadgodzin, poza wiedz¡ pracodawcy 2.
Ju» w 1956 zaprezentowano w telewizji program A. Samuela graj¡cy w warcaby na poziomie turniejowym. Fakt, »e ogrywaª on swego twórc¦, obaliª przekonanie, »e komputer mo»e wykonywa¢ tylko polecenia jawnie sformuªo- wane przez programist¦. Geometry Theorem Prover H. Gelerntera, podobnie jak Logic Theorist, na podstawie aksjomatów i reguª wnioskowania dowodziª twierdze«, tym razem w dziedzinie geometrii. Gelernter szybko zorientowaª si¦, »e przyczyn¡ sªabych wyników, jest fakt, »e program sprawdza zbyt wiele dróg rozumowa«, które prowadz¡ donik¡d. Wyposa»yª wi¦c swój program w
2A» do 1985 IBM zabraniaªo swoim pracownikom u»ywa¢ okre±le« takich jak inteli- gentny w stosunku do programów i komputerów. Jedni twierdz¡, »e uzasadnione to byªo wzgl¦dami religijnymi (tylko Bóg mo»e stworzy¢ inteligencj¦), inni »e chodziªo raczej o to, »eby nie wystraszy¢ przyszªych klientów.
pewne mechanizmy ograniczaj¡ce bezproduktywne rozumowania.
Równie» Newell i Simon, w Carnegie Mellon, szukali sposobów przezwy- ci¦»enia ewidentnego faktu, »e ówczesne parametry komputera okazaªy si¦
dalece niewystarczaj¡ce na to, aby obj¡¢ olbrzymi¡ ilo±¢ dróg rozumowa«, do których prowadziªy aksjomaty i reguªy logiki formalnej. Ich nowy program, General Problem Solver (1961) rozwi¡zuj¡cy zagadki z pewnej ograniczonej klasy, bazowaª na analizie celów i ±rodków, wzorowanej na sposobie jawnie formuªowanych ludzkich rozumowa«.
Centrum bada« w dziedzinie AI staª si¦ jednak w tym czasie MIT, gdzie McCarthy zanotowaª trzy wielkie osi¡gni¦cia: opracowaª j¦zyk programowa- nia wy»szego rz¦du LISP, który staª si¦ gªównym j¦zykiem programowania w AI, przyczyniª si¦ do wynalezienia mechanizmu dzielonego czasu pracy (time sharing), co pozwalaªo dokonywa¢ istotnych oszcz¦dno±ci w kosztach bardzo drogiego wówczas czasu pracy komputera i wreszcie opublikowaª prac¦ Pro- grams with Common Sense (1958), gdzie opisaª Advice Taker, hipotetyczny program, który mo»na uzna¢ za pierwszy projekt kompletnego systemu AI.
W pracy tej wyznaczyª podstawowe zasady wª¡czenia w inteligentny pro- gram wiedzy, zasad formalnego rozumowania, oraz zasad uzupeªniania wie- dzy. Wskazywaª na znaczenie ogólnej zdroworozs¡dkowej wiedzy o ±wiecie.
McCarthy uznawany jest za ojca tradycji logistycznej w AI, bazuj¡cej przede wszystkim na osi¡gni¦ciach logiki formalnej, usiªuj¡cej dostosowa¢ je do celu, jakim jest zbudowanie w peªni inteligentnego systemu.
W tym»e roku 1958 do MIT przeniósª si¦ Marvin Minsky, który miaª bardziej praktyczne podej±cie. Uwa»aª, »e nale»y budowa¢ krok po kroku systemy, które dziaªaj¡; najpierw w ograniczonych dziedzinach, pó¹niej w szerszych. W latach sze±¢dziesi¡tych kilku jego studentów opracowaªo pro- gramy, które rozwi¡zywaªy pewne ±ci±le okre±lone klasy zagadnie«, wymaga- j¡ce od czªowieka inteligencji. Byªy to takie zagadnienia jak obliczanie caªek, proste tekstowe zadania algebraiczne, geometryczne zadania z testów na inte- ligencj¦, czy wreszcie odpowiedzi na pytania w j¦zyku naturalnym, w bardzo ograniczonym zakresie.
W roku 1963 McCarthy przeniósª si¦ do Stanford, gdzie nadal promo- waª badania nad ogólnymi metodami logicznego rozumowania. Ten kierunek bada« wzmocniony zostaª bardzo odkryciem przez J. A. Robinsona (1965) metody rezolucji, dowodzenia twierdze« w j¦zyku logiki pierwszego rz¦du. W tym te» czasie pojawiª si¦ wspomniany ju» program Eliza (J. Weizenbaum, 1965) symuluj¡cy konwersacj¦ ze zrozumieniem.
W roku 1968 na ekrany kin wszedª sªynny lm Stanleya Kubricka i Arthu- 12
ra C. Clarke'a Kosmiczna Odyseja 2001, którego jeden z bohaterów, pokªado- wy komputer HAL staª si¦ niew¡tpliwym natchnieniem dla wielu przyszªych badaczy AI (HAL, 2000).
W pewnej opozycji do kierunku logistycznego pracowali ci, którzy mieli bardziej in»ynierskie podej±cie do problemu umysªu. Id¡c za ideami zawar- tymi w pracach McCullocha i Pittsa (1943), wprowadzaj¡cymi model sieci neuronowej, maj¡cy ª¡czy¢ podstawowe idee zjologii mózgu z ideami logiki matematycznej, oraz modnej wówczas cybernetyki Wienera (1948), próbo- wali oni skonstruowa¢ komputerowy model mózgu, samoorganizuj¡cej i sa- moucz¡cej si¦ sieci neuronów. Do najsªynniejszych osi¡gni¦¢ tamtego czasu zalicza si¦ Perceptron F. Rosenblatta (1957), system w formie sieci neuro- nowej zdolny do rozpoznawania pewnej ograniczonej klasy obrazów. W tym samym czasie pojawiªy si¦ te» pierwsze pomysªy algorytmów genetycznych, których istot¡ byª z kolei pomysª zastosowania w programach ogólnych idei ewolucji (Friedberg, 1958).
Za ojca tej tradycji bada« w AI, zwi¡zanej z sieciami neuronowymi, a zwa- nej krótko konekcjonizmem (ang. connectionism), niektórzy uznaj¡ Marvina Minsky'ego, jako »e tego tematu dotyczyªa wªa±nie jego praca doktorska z 1954 roku, a sam Minsky wspomina, »e ucz¡c¡ si¦ sie¢ neuronow¡ zbudowaª on sam ju» w 1951 (Minsky and Papert, 1988). Jednak»e w przeciwie«stwie do wielu konekcjonistów Minsky podkre±laª zawsze wag¦ teoretycznej re-
eksji, która powinna towarzyszy¢ eksperymentom.
I w istocie rzeczy to wªa±nie Minsky wraz z Papertem (1969) zadali ci¦»ki cios konekcjonizmowi, krytykuj¡c dotychczasowe badania jako pozbawione kierunku oraz matematycznego rygoru, a tak»e udowadniaj¡c, »e jednopo- ziomowe perceptrony (którymi gªównie si¦ zajmowano) nie s¡ w stanie wy- konywa¢ »adnych istotnych zada«.
Doza realizmu 2.3. Opisuj¡c histori¦ AI, autorzy podr¦czników cz¦sto podkre±laj¡, »e ma ona swoje okresy wzlotów i upadków, przesadnego optymizmu i przesadnego pesymizmu. Krótkie, bo przecie» kilku czy kilkunastoletnie okresy, opatruj¡
romantycznymi nazwami takimi jak Renesans, Odrodzenie, Wieki ciem- ne czy Zima AI. Tymczasem w ka»dym czasie sukcesom towarzyszyªy po- ra»ki, a okresowym faktom obcinania funduszy na AI winni byli w du»ym stopniu sami badacze, którzy bez nale»ytej reeksji i rozeznania w trudno-
±ciach, ch¦tnie szastali obietnicami bez pokrycia. Cz¦sto cytuje si¦ nast¦pu-
j¡c¡ opini¦ H. Simona (1957):
Nie jest moim celem zaskakiwanie was lub szokowanie ale najprostszym sposobem uj¦cia tego jest to, »e istniej¡ ju» na ±wiecie maszyny które my±l¡, które ucz¡ si¦ i tworz¡. Co wi¦cej, ich zdolno±¢ do robienia tych rzeczy b¦dzie gwaªtownie wzrasta¢, a wkrótce zakres problemów, które b¦d¡ podejmowa¢, pokryje si¦ z tym, które podejmuje ludzki mózg.
Dziesi¦¢ lat pó¹niej w popularnym magazynie Life zacytowano nast¦pu- j¡c¡ opini¦ Minsky'ego:
Za trzy do o±miu lat b¦dziemy w posiadaniu maszyny o inteligencji prze- ci¦tnego czªowieka. Mam na my±li maszyn¦, która b¦dzie w stanie czyta¢
Szekspira, zmieni¢ olej w samochodzie, bra¢ udziaª w biurowej polityce, opo- wiedzie¢ dowcip, walczy¢. Od tego momentu maszyna ta zacznie si¦ uczy¢
w zawrotnym tempie. Za kilka miesi¦cy osi¡gnie poziom geniusza, a kilka dalszych miesi¦cy pó¹niej jej mo»liwo±ci b¦d¡ niemierzalne.
Wzi¡wszy pod uwag¦, »e opinie takie byªy gªoszone przez szanowanych naukowców ju» od 1957 roku (H. Simon zostaª laureatem Nagrody Nobla), trudno si¦ dziwi¢ ameryka«skiej opinii publicznej, i» wyobra»a sobie, »e Sta- ny Zjednoczone takie maszyny od dawna posiadaj¡. Trudno si¦ te» dziwi¢
fundatorom bada«, »e mocno rozczarowani s¡ ich rezultatami przedstawio- nymi w niezale»nych raportach. Minsky co prawda twierdzi dzisiaj, »e jego wypowied¹ dla Life byªa zmy±lona, »e byª to raczej rodzaj »artu (HAL, 2000, s. 19), ale faktem jest, »e caªy szereg tego typu wypowiedzi rozbudziª mocno wygórowane oczekiwania.
2.4. Praca Minsky'ego i Paperta nie byªa pierwszym kubªem zimnej wody w badaniach AI. Wcze±niej, w roku 1966, rz¡d ameryka«ski wstrzymaª caªko- wicie nansowanie projektu zbudowania programu do tªumaczenia tekstów naukowych z j¦zyka rosyjskiego na angielski. Caªa historia jest do±¢ typowa.
Wystrzelenie przez ZSRR Sputnika w 1957 roku, pierwszego sztucznego satelity Ziemi, spowodowaªo, »e NRC (National Research Council) ch¦tnie wyªo»yª ogromne pieni¡dze na snansowanie projektu obiecuj¡cego przyspie- szenie tªumacze« radzieckich tekstów naukowych. Badaczom wydawaªo si¦,
»e wyposa»enie programu w olbrzymi sªownik oraz zestaw reguª i konstrukcji gramatycznych, powinno spraw¦ w zasadzie zaªatwi¢. A» trudno uwierzy¢,
»e nie dostrzegano wtedy oczywistego faktu, »e tªumaczenie nawet pozornie prostych tekstów wymaga ich rozumienia, »e znaczenie zdania w j¦zyku na- turalnym, w wielkim stopniu, zale»y od kontekstu i wiedzy. Odkrycie tego przez ameryka«skich naukowców kosztowaªo podatnika setki tysi¦cy dolarów
14
???. Najbardziej znanym rezultatem wieloletnich bada« jest anegdotyczne tªumaczenie angielskiego the spirit is willing but the esh is weak na wódka jest dobra, ale mi¦so zepsute. W raporcie z 1966 roku znalazªo si¦ stwierdze- nie, »e nie powstaª »aden program zdolny do tªumaczenia ogólnych tekstów naukowych i nie wida¢ »adnej wyra¹nej perspektywy zmiany tego stanu rze- czy.Kolejnym kubªem zimnej wody byªa stworzona przez S. Cooka (1971) i R. Karpa (1972) teoria NP-zupeªno±ci. Do tej pory jednym z gªównych kierunków bada« byªy ogólne techniki rozwi¡zywania problemów (Problem Solving), a najbardziej naturaln¡ technik¡ (dla komputera) byªo przeszuki- wanie przestrzeni mo»liwych rozwi¡za«. Gªówny kªopot polegaª na tym, »e bardzo cz¦sto, niezale»nie od stosowanej techniki, ilo±¢ mo»liwych rozwi¡za«
do sprawdzenia rosªa tak szybko w porównaniu z niewielkim wzrostem kom- plikacji problemu, »e bardzo pr¦dko wyczerpywaªy si¦ zasoby pami¦ci kompu- tera i czasu. Zjawisko to nazwano kombinatoryczn¡ eksplozj¡3. Eksplozja ta ma niestety taki charakter, »e jak mo»na uzasadni¢ (zob. rozdziaª ???), nie- wiele tu pomaga ewentualny wzrost pami¦ci i szybko±ci pracy komputerów.
Nauka jak¡ st¡d wyci¡gn¦li badacze AI (i ogólniej, informatycy) jest taka,
»e fakt, i» problem daje si¦ rozwi¡za¢ teoretycznie przy pomocy komputera, wcale nie oznacza jeszcze, »e da si¦ to zrobi¢ w praktyce. Druzgoc¡cy rezultat prac Cooka i Karpa, polegaª na tym, »e udowodnili oni, i» w ogromnej cz¦-
±ci naturalnych problemów pojawiaj¡cych si¦ w praktycznych zagadnieniach owa kombinatoryczna eksplozja jest w zasadzie nieunikniona.
Brak widoków na poradzenie sobie z t¡ fundamentaln¡ trudno±ci¡ byª jednym z gªównych zarzutów tzw. Raportu Lighthilla (1973), na podstawie którego brytyjski rz¡d podj¡ª decyzj¦ o zaprzestaniu nansowego wspierania bada« AI w Wielkiej Brytanii (wsz¦dzie, za wyj¡tkiem dwóch uniwersyte- tów). Byª to z pewno±ci¡ jeden z trudniejszych momentów w historii mªodej dziedziny. A przecie» w tym samym czasie pojawiªy si¦ kolejne sukcesy, otwo- rzyªy si¦ nowe perspektywy.
In»ynieria wiedzy 2.5. Kontynuowano sugerowane przez Minsky'ego badania w ograniczonych dziedzinach, tzw. mikro±wiatach (microworld). Szczególn¡ popularno±¢ zdo- byª Blocks world, którego elementami byªy: zestaw klocków o ró»nych ksztaª-
3Nazwa pochodzi od dziaªu matematyki zwanego kombinatoryk¡, o którym b¦dzie jesz- cze mowa pó¹niej
tach i kolorach, rozmieszczonych na pªaskiej powierzchni, rami¦ robota zdolne do przenoszenia klocków z miejsca na miejsce, oraz odpowiednie mechanizmy widzenia i rozumienia polece«. Polecenia (w j¦zyku symbolicznym lub natu- ralnym) dotyczyªy zazwyczaj osi¡gni¦cia jakiego± celu w ukªadzie klocków.
Zadaniem programu steruj¡cego robotem byªo zaplanowanie i wykonanie ta- kich dziaªa«, które prowadziªyby do po»¡danego ukªadu. Program musiaª by¢, na przykªad, zdolny do rozumienia, »e aby si¦gn¡¢ po dany klocek, musi najpierw zdj¡¢ klocek le»¡cy na nim, itp. Oczywi±cie, zwykle wszystko dziaªo si¦ wewn¡trz komputera, jak by±my to dzisiaj powiedzieli, w ±wie- cie wirtualnym. Ów mikro±wiat staª si¦ na pocz¡tku lat siedemdziesi¡tych poletkiem bada« dla wielu naukowców w zakresie rozpoznawania obrazu, rozumienia j¦zyka, planowania, uczenia si¦, przynosz¡c pierwsze sukcesy w ograniczonym zakresie i, co mo»e wa»niejsze, u±wiadamiaj¡c badaczom realne problemy. Do najbardziej znanych osi¡gni¦¢ zwi¡zanych z tym mikro±wiatem nale»aª system Shrdlu T. Winograda (1972), zdolny do rozumienia polece«
w j¦zyku naturalnym dotycz¡cych dziaªa« na klockach.
Jednocze±nie w nowopowstaªym SRI (Stanford Research Institute), ju» w latach 1969-1972 prowadzono prace nad projektem Shakey, mobilnym auto- nomicznym robotem, który miaª ª¡czy¢ zdolno±ci logicznego rozumowania z rzeczywist¡ zyczn¡ aktywno±ci¡. Shakey umiaª porusza¢ si¦ na pªaskim te- renie z przeszkodami, przesuwa¢ ruchome obiekty, wspina¢ si¦ na nie, wª¡cza¢
i wyª¡cza¢ ±wiatªa stosownie do potrzeby. Byª istotnym etapem w rozwoju technik automatycznego planowania.
2.6. W roku 1969 powstaª pierwszy system ekspercki Dendral stworzony przez Buchanana, Feigenbauma i Lederberga, maj¡cy na celu zautomaty- zowanie identykacji struktur molekularnych nieznanych zwi¡zków chemicz- nych na podstawie analizy spektroskopowej. Idea polegaªa na tym, »eby wie- dz¦ Lederberga w tym zakresie (który byª laureatem Nagrody Nobla w dzie- dzinie chemii), przekaza¢ programowi, tak aby sam komputer mógª dokony- wa¢ stosownych ekspertyz. Chodziªo tu o ekspertyzy wymagaj¡ce rozumo- wa«, ale takich, które dla eksperta maj¡ charakter raczej rutynowy i dlatego mo»liwy do uogólnienia.
Peªny sukces (Dendral jest u»ywany do dzisiaj) skªoniª Feigenbauma do rozpocz¦cia w Stanford tzw. Projektu Programowania Heurystycznego (HPP).
Daªo to pocz¡tek nowemu, bardzo pr¦»nemu, nurtowi w dziedzinie AI, pod nazw¡ systemy eksperckie. Efektem HPP byª system medyczny Mycin (1976) do diagnozowania infekcji bakteryjnych, którego tzw. powªoka (Emycin) sta-
16
nowi do dzi± punkt wyj±cia do budowania innych systemów eksperckich, w ró»nych dziedzinach. System geologiczny Prospector (1979) zasªyn¡ª z prawi- dªowej lokalizacji kilku warto±ciowych zªó» rud na terenie USA. Na pocz¡tku lat osiemdziesi¡tych systemy eksperckie zacz¦to produkowa¢ na skal¦ komer- cyjn¡ i obecnie u»ywaj¡ ich (i rozbudowuj¡?) wszystkie wi¦ksze korporacje w USA. (Krytycy twierdz¡ jednak, »e albo twierdzenia te s¡ przesadzone, albo dotycz¡ jedynie dziedzin szczególnie nadaj¡cych si¦ do sformalizowania).
2.7. W tym czasie popularno±¢ zacz¡ª zdobywa¢ pogl¡d, »e istot¡ inteligencji jest wiedza, »e aby rozwi¡za¢ trudny problem, trzeba wªa±ciwie zna¢ jego rozwi¡zanie (a przynajmniej mie¢ wszystkie jego elementy), »e równie» ro- zumienie j¦zyka naturalnego czy rozpoznawanie obrazów wymagaj¡ przede wszystkim wiedzy. Kontrastowaªo to z wcze±niejszym pogl¡dem, »e istot¡
inteligencji jest rozumowanie lub rozwi¡zywanie problemów, dawaªo te» na- dzieje na obej±cie problemu kombinatorycznej eksplozji.
To niezwykle o»ywiªo teoretyczne badania nad reprezentacj¡ wiedzy, czyli zagadnieniem jak uj¡¢ wiedz¦ w formie odpowiedniej dla komputera. Skal¦
trudno±ci ªatwo sobie wyobrazi¢, gdy przyjmiemy, »e chcieliby±my zgroma- dzi¢ w komputerze tak»e wiedz¦ zdroworozs¡dkow¡, t¦ u»ywan¡ przez nas na co dzie«, praktyczne zasady, którymi posªugujemy si¦ cz¦sto nie w peªni
±wiadomie (na przykªad, nie wkªadaj¡c r¦ki do ognia bez potrzeby). Rozwi- ni¦to specjalne j¦zyki programowania ukierunkowane na reprezentacj¦ wiedzy (Prolog, Planner) i ogólne struktury dostosowane do tego celu (sieci seman- tyczne, ramy, itp.) U±wiadomiono sobie, »e ±ci±le wi¡»e si¦ to z problemem rozumienia j¦zyka naturalnego (Schank i Abelson, 1977).
Jednocze±nie, w ograniczonych dziedzinach, konstruowano systemy przyj- muj¡ce polecenia i pytania w j¦zyku naturalnym. Za pierwszy taki system o praktycznym znaczeniu uznaje si¦ Lunar skonstruowany przez Woodsa (1973), pozwalaj¡cy geologom na zadawanie pyta« dotycz¡cych próbek skaª ksi¦»ycowych przywiezionych przez misje Apollo. Pytania formuªowano pi- semnie (z klawiatury). Pierwsze systemy rozpoznaj¡ce mow¦ ludzk¡ z akcep- towalnym bª¦dem (Hersay II, Harpy) pojawiªy si¦ w roku 1980.
W tym czasie Sztuczna Inteligencja byªa ju» uznan¡ i samodzieln¡ dzie- dzin¡ informatyki. Posiadaªa wªasne pisma i staªe konferencje naukowe po-
±wi¦cone wyª¡cznie tematyce AI, lub jej poszczególnym dziaªom. Najbar- dziej presti»owa (odbywaj¡ca si¦ co dwa lata) konferencja International Joint Conference on Articial Intelligence (IJCAI) zorganizowana zostaªa po raz pierwszy w 1969 roku, a w nast¦pnym roku zaªo»ono czasopismo Articial
Intelligence.
Jest rzecz¡ interesuj¡c¡ zauwa»y¢ przy tym, »e w roku 1980 nie byªo jesz- cze komputerów osobistych IBM i jednym z gªównych problemów entuzjastów nowej rozwijaj¡cej si¦ nauki i technologii byª dost¦p do komputera.
Pi¡ta Generacja 2.8. Lata 1980-1990 s¡ okre±lane przez wielu autorów jako AI Boom. Cho- dzi tu nie tylko o komercyjny sukces systemów eksperckich, ale i o znaczny wzrost nansowania ogólnych bada«. Pocz¡tek temu dali tym razem Japo«- czycy, którzy mi¦dzy innymi wªa±nie dzi¦ki automatyzacji swego przemysªu, robotom pracuj¡cym na ta±mach monta»owych, zawdzi¦czali wielki ekono- miczny sukces.
W 1981, w Japonii ogªoszono wielki projekt badawczy pod nazw¡ Fifth Generation Computer System. Byª to 10-letni plan zbudowania inteligentnych komputerów, których podstawowym, bezpo±rednio wykonywanym j¦zykiem miaª by¢ Prolog. Chodziªo mi¦dzy innymi o to, aby wykorzystuj¡c zwi¦k- szenie mocy obliczeniowej procesorów, umo»liwi¢ komputerowi bezpo±rednie wykonywanie inferencji (wnioskowa«) j¦zyka Prolog, tak samo mniej wi¦cej jak konwencjonalny komputer wykonuje algebraiczno-logiczne operacje kodu maszynowego. Mi¦dzy wieloma ambitnymi celami, zamierzano w ci¡gu 10 lat osi¡gn¡¢ peªne rozumienie j¦zyka naturalnego.
Z pewno±ci¡ strach przed dominacj¡ Japo«czyków4 uruchomiª fundusze w USA i Wielkiej Brytanii. Odpowiedzi¡ Amerykanów byª mi¦dzy innymi, pro- jekt CYC, równie» 10-letni, rozpocz¦ty w 1984 pod kierownictwem D. Lenata, którego gªówn¡ ide¡ byªo wyposa»enie systemu w olbrzymi¡ wiedz¦, w tym zdroworozs¡dkow¡ i odpowiednie mechanizmy wnioskowania, tak aby mógª udziela¢ odpowiedzi na wszelkie sensowne pytanie (a nie tylko te spodziewa- ne podczas gromadzenia wiedzy). Byªby to system, ci¡gle rozwijany, który mógªby by¢ konsultantem dla innych, mniejszych systemów eksperckich. Le- nat (1989) przewidywaª, »e gdy system zostanie oddany do eksploatacji w 1994 roku, zacznie sam si¦ uczy¢ i zdobywa¢ now¡ wiedz¦, czytaj¡c ksi¡»ki,
4Jak dalece Japo«czycy kojarzeni byli z nadchodz¡c¡ er¡ robotów, pokazuje notatka z artykuª w Philadelphia Inquirer z dnia 9.12.1981, pod tytuªem Robot killed repairman, Japan reports (wedle D.C. Dennetta (HAL, 2000) jest to prawdopodobnie pierwsza wia- domo±¢ w historii o tym, »e robot zabiª czªowieka). Chodziªo o nieszcz¦±liwy wypadek w jednej z fabryk Kawasaki, w którym czªowiek potr¡cony zostaª przez automatyczne rami¦
na ta±mie monta»owej.
18
dziaªaj¡c w ±rodowisku, rozmawiaj¡c z naukowcami, kontaktuj¡c si¦ z innymi komputerami.
Lata osiemdziesi¡te to tak»e odrodzenie si¦ bada« nad sieciami neuro- nowymi, w zwi¡zku z odkryciem (przez kilka grup) efektywnego algorytmu uczenia (back-propagation) dla sieci wielopoziomowych. Na ironi¦ zakrawa fakt, »e jak si¦ pó¹niej zorientowano, algorytm ten zostaª opisany ju» w 1969 roku (Bryson i Ho, 1969), a wi¦c w roku ukazania si¦ ksi¡»ki Minsky'ego i Paperta, oskar»anej o to, »e zawarta w niej totalna krytyka spowodowa- ªa zamro»enie bada« w tej dziedzinie. Minsky i Papert (1988) odrzucaj¡ to oskar»enie, utrzymuj¡c, »e badania same wygasaªy w zwi¡zku z brakiem idei.
Zgadzaj¡ si¦, »e nowe odkrycia s¡ wielce obiecuj¡ce w dªu»szej perspektywie, ale ponownie krytykuj¡ przedstawicieli konekcjonizmu za brak matematycz- nego rygoru, brak reeksji teoretycznej i dziaªanie na ±lepo.
Oparcie bada« na silnych podstawach teoretycznych, rozwijanie niezb¦d- nych formalizmów, to tendencja przeªomu lat 80/90. Oparcie si¦ na mate- matycznym formalizmie przyniosªo praktyczne sukcesy w dziedzinie rozpo- znawania mowy, w planowaniu, czy systemach decyzyjnych. Zastosowanie, w szczególno±ci, metod teorii prawdopodobie«stwa, pozwoliªo zbudowa¢ nowe- go rodzaju systemy eksperckie, co przeªamaªo pewien zastój w tej dziedzinie, równie» zwi¡zany z brakiem teorii.
2.9. Jednak»e nadziejom, »e AI wychodzi na prost¡ silny cios zadaªo upªyni¦- cie 10-letnich terminów projektów Fifth Generation i CYC, których rezultaty byªy najogl¦dniej mówi¡c mizerne, w porównaniu z zapowiedziami. Jak to ja- sno wynika z raportu zamieszczonego w Communications of the ACM (FG, 1993), w±ród rezultatów projektu Pi¡ta Generacja nie ma »adnego istotnego odkrycia naukowego, ani »adnych warto±ciowych praktycznych zastosowa«!
Ci¡gle nie istnieje program, który pozwoliªyby komputerowi rozumie¢ j¦zyk naturalny, poza ±ci±le okre±lonym zakresem. CYC, mimo swej astronomicz- nej ceny, nie speªniª, »adnych oczekiwa« zapowiadanych na pocz¡tku (Ste-
k, Smoliar 1993). Nie tylko nie potra si¦ uczy¢, lecz jak to brutalnie uj¡ª H. Dreufus w czasie audycji telewizyjnej, okazaª si¦ w rezultacie tak samo t¦py jak wszystkie inne programy komputerowe(Gams, 2001???).
Z wi¦kszym uznaniem spotkaªy si¦ rezultaty projektu SOAR (Newel, 1990), w którym braªo udziaª wiele grup badawczych na caªym ±wiecie, wspóª- pracuj¡c bez »adnego centralnego nansowania. Wedle Franklina (1995), jest to jak dot¡d najbardziej inteligentny system komputerowy. Bazuje on na lo- gice formalnej, specjalnych mechanizmach reprezentacji wiedzy i uczy si¦,
zachowuj¡c w pami¦ci uogólnienia znalezionych rozwi¡za«. Dzi¦ki temu, w pewnych sytuacjach mo»e dziaªa¢ w sposób odruchowy, dzi¦ki czemu szcze- gólnie nadaje si¦ do zastosowania w robotach (Laird i in., 1991). Podobna jest zasada systemu THEO (Mitchell, 1990).
Niestety, praktyczne znaczenie owych prób jest ci¡gle niewielkie. Do praw- dziwego sukcesu droga wydaje si¦ jeszcze daleka i nie wszyscy wierz¡, »e jest to droga wªa±ciwa. Munakata (Fundamentals of the New Articial Intelligen- ce; Beyond Traditional Paradigms??? sprawd¹ SCI NET, 1998) wierzy, »e przyszªo±¢ jest raczej w nowej architekturze komputerów, w sieciach neuro- nowych, algorytmach genetycznych i zbiorach rozmytych. Japo«ski Sixth Ge- neration projekt (który nie wzbudziª ju» takiego zainteresowania i obaw, jak poprzedni), nakierowany na realne zastosowania, bazuje na sieciach neuro- nowych, optycznych poª¡czeniach i zmasowanych obliczeniach równolegªych.
2.10. Koniec XX wieku roz±wietlony zostaª pokonaniem w 1997 roku przez program Deep Blue szachowego mistrza ±wiata Gary Kasparowa. Od dawna ju» programy komputerowe graªy w szachy na poziomie profesjonalnym i to na zwykªych osobistych komputerach. Kasparow przegrywaª ju» z kompute- rem w grze szybko±ciowej na krótki czas, a w 1996 zdarzyªo mu si¦ przegra¢
normaln¡ parti¦. Jednak»e dopiero zwyci¦stwo Deep Blue nad Kasparowem w peªnym meczu nabraªo wymiaru symbolicznego. Królewska gra, uwa»ana za jeden z bastionów ludzkiej inteligencji, przestaªa by¢ domen¡ czªowieka.
Byªby to mo»e powód do wielkiego triumfu dla badaczy AI, gdyby nie fakt, »e konstruktorzy szachowych programów dawno ju» zarzucili ide¦ na-
±ladowania ludzkiego sposobu gry, ludzkiej inteligencji, na rzecz wykorzysta- nia olbrzymiej szybko±ci komputera dla analizy jak najwi¦kszej ilo±ci ruchów naprzód. Okazaªo si¦, »e mo»liwo±ci obliczeniowe Deep Blue i specjalnie wy- produkowany mikroprocesor s¡ ju» dla ludzkiego intelektu wyzwaniem zbyt wielkim. Zwyci¦stwo komputer odniósª (wreszcie) nie dzi¦ki lepszej strategii, ale dzi¦ki lepszej technologii ???5.
Wiek XXI
5Simon przewidywaª w 1957, »e komputer pokona mistrza ±wiata w latach sze±¢dziesi¡- tych. Nawiasem mówi¡c, ten»e Deep Blue nie jest w stanie wygra¢ z »adnym czªowiekiem w chi«sk¡ gr¦ Go, bo w gr¦ t¦ gra¢ po prostu nie umie (nie do tego zostaª zaprogramowany).
A co mo»e ciekawsze, jak do tej pory nie udaªo si¦ skonstruowa¢ programu, który graªby w Go na przyzwoitym poziomie (mimo nagrody 2 milionów dolarów (!) dla pierwszego programu, który osi¡gnie poziom mistrzowski w tej grze).
20
2.11. Jak dot¡d najbardziej chyba spektakularnym osi¡gni¦ciem sztucznej inteligencji s¡ mówi¡ce bazy danych i automatyczne systemy przyjmowania zlece« rozpoznaj¡ce j¦zyk naturalny. Systemy takie funkcjonuj¡ ju» doskonale w praktyce. Bazuj¡ one przede wszystkim na zaawansowanych osi¡gni¦ciach w dziedzinie rozpoznawania mowy, o których b¦dzie mowa w rozdziale ???.
Istniej¡ tak»e sprawdzaj¡ce si¦ w praktyce systemy rozpoznawania obra- zu, automatyczni dozorcy, których zadaniem jest alarmowanie czªowieka w sytuacjach, gdy dzieje si¦ co± nadzwyczajnego. Systemy takie wykorzystywa- ne s¡ w misjach kosmicznych, w monitorowaniu wa»nych obiektów lub ruchu drogowego.
O osi¡gni¦ciach robotyki informuje na bie»¡co prasa i magazyny popularno- naukowe. W telewizji obserwowa¢ mo»emy roboty wykorzystywane w ekstre- malnych warunkach. Chocia» i w tej dziedzinie napotkali±my na niespodzie- wane trudno±ci, to post¦p jest staªy i wyra¹ny.
Z pewno±ci¡ gorzej jest w zakresie sztucznego umysªu. Wi¦kszo±¢ badaczy zgadza si¦ co do tego, »e Deep Blue nie przejawia »adnych wªa±ciwo±ci, które mo»na by nazwa¢ inteligencj¡. Niektórzy zwracaj¡ jednak uwag¦, »e jest to los wszystkich wynalazków AI. W momencie, gdy jaki± cel zostanie osi¡gni¦ty, gdy komputer zdolny jest ju» robi¢ co±, co kiedy± uchodziªo za wymagaj¡ce inteligencji, to nast¦puje raczej zmiana pogl¡dów na natur¦ inteligencji, ni»
przyznanie, »e jaki± stopie« inteligencji w komputerach zostaª ju» osi¡gni¦ty.
Faktycznie na rynku oprogramowania funkcjonuje wiele produktów AI (bez- po±rednich lub ubocznych) wykonuj¡cych ró»ne zadania, przy których ludzie normalnie posªuguj¡ si¦ inteligencj¡: od licznych i ró»norodnych systemów eksperckich, poprzez niezwykle zaawansowany matematycznie system Ma- thematica, a» po inteligentnych asystentów i kreatorów zada« w aplikacjach Windows. Faktem jednak jest, »e nie istnieje jeszcze system, który zasªugi- waªby na miano prawdziwej sztucznej inteligencji, który byªby porównywalny, powiedzmy, z wizj¡ komputera HAL w lmie Kosmiczna Odyseja 2001.
Ów lm, stanowi¡cy natchnienie dla wielu badaczy AI, uwa»any byª za najbardziej naukowe marzenie (the best-informed dream). Lecz min¡ª oto magiczny rok 2001, a tu nie ma ani wyprawy na Jowisza, ani techniki hi- bernacji, ani komputera HAL, który mógªby samodzielnie zatroszczy¢ si¦
o dobro kosmicznej misji, nawet wbrew ludzkiej cz¦±ci zaªogi. I paradoksal- nie, dzi± mo»na rzec, »e w tej niespeªnionej wizji najbardziej fantastycznym pomysªem byª chyba wªa±nie HAL. O tym, jak daleko nam jeszcze do skon- struowania HALa, wedªug najwybitniejszych przedstawicieli AI, mo»na prze- czyta¢ w zbiorze esejów Hal's Legacy pod redakcj¡ D.G. Storka (HAL, 2000).
Tu zacytujmy tylko znamienn¡ wypowied¹ redaktora:
Powiedzmy sobie jasno: HAL nie istnieje i nie ma »adnych szans na to, aby jaka± cudowna zmiana w nansowaniu lub ideach wzniosªa AI na poziom reprezentowany przez HALa przed rokiem 2001. Zrozumieli±my, »e sztuczna inteligencja rzecz charakterystycznie niejasna, której nie umiemy nawet dobrze zdeniowa¢ nale»y do najtrudniejszych zagadnie« nauki; na równi z wypraw¡ na Ksi¦»yc, okre±leniem podstawowych skªadników materii, czy rozwi¡zaniem zagadki »ycia. Ale byli±my na Ksi¦»ycu, jeste±my, jak si¦
wydaje, na drodze do zgª¦bienia pozostaªych tajemnic dlaczego nie mamy sztucznej inteligencji?
2.12. Ów brak spektakularnego sukcesu, szczególnie wobec zbyt hucznych zapowiedzi (a tak»e emocje lub obawy przed rychªym pojawieniem si¦ my-
±l¡cych maszyn) spowodowaª wzrastaj¡c¡ krytyk¦, szczególnie z zewn¡trz AI. Chocia» bardzo krytyczne opinie pojawiaªy si¦ ju» wcze±niej (Dreyfus 1979, Searle 1982), jako wyra»ane przez lozofów, nie robiªy one wi¦kszego wra»enia w ±rodowisku AI. Dopiero ksi¡»ki Minsky'ego (1987???), Penrose'a (1989) i Edelmana (1992) zostaªy potraktowane powa»niej, co spowodowane zostaªo niew¡tpliwie stopniowym u±wiadamianiem sobie kl¦ski projektów Fi- fth Generation i CYC, jak i rang¡ naukow¡ autorów (Penrose jest ±wiatowej sªawy matematykiem i zykiem, Edelman neurologiem, laureatem Nagrody Nobla).
Co± jest nie tak! owo przekonanie zacz¦ªo zyskiwa¢ sobie zwolenników tak»e w obr¦bie AI. Istnieje jednak»e caªa gama opinii na temat tego, co jest nie tak i co trzeba zmieni¢. Podczas gdy jedni twierdz¡, »e co± zªego jest w samym formalnym podej±ciu do zagadnienia umysªu, inni uwa»aj¡, »e to brak odpowiednich matematycznych narz¦dzi jest ¹ródªem kªopotów. W nowszych podr¦cznikach akademickich AI pisze si¦, »e wakuje w niej posa- da peªnoetatowego Einsteina (Russell and Norvig, 2003). Z drugiej strony, pod hasªem sªabej AI tworzy si¦ ±rodowisko naukowców, którzy docho- dz¡ do wniosku, »e inteligencji nie mo»na stworzy¢ przy pomocy cyfrowych komputerów (Gams, 2001???) i proponuj¡ ró»ne remedia: od nowych forma- lizmów, obejmuj¡cych rzekomo wi¦cej ni» maszyna Turinga, po propozycje
zmi¦kczenia i zdeformalizowania matematyki i nauk ±cisªych. Póki co jed- nak»e, te nowe propozycje maj¡ zbyt spekulatywny charakter, »eby miaªy jaki± wyra¹niejszy wpªyw na prowadzone badania.
Aktualne kierunki bada«
22
2.13. Jak ju» wspomniaªem podstawowy podziaª odpowiada trychotomii: cia- ªo, zmysªy, dusza. Mamy wi¦c do±¢ odr¦bn¡ dziedzin¦ robotyki, o której wiele w tej ksi¡»ce mówi¢ nie b¦dziemy, mamy dziedziny rozpoznawania obrazu i mowy, a tak»e syntezy mowy i caªy szereg kierunków, które skªadaj¡ si¦ na dziedzin¦ sztucznej inteligencji w w¦»szym sensie.
Pewne zagadnienia w robotyce, a jeszcze bardziej w rozpoznawaniu obra- zu i mowy, wi¡»¡ si¦ ±ci±le z zagadnieniem konstrukcji sztucznego umysªu. Na przykªad, wydaje si¦, »e niezb¦dnym elementem prawidªowego rozpoznania obrazu jest wiedza o tym, co ten obraz przedstawia. Dlatego w podr¦cznikach sztucznej inteligencji rozumianej w w¦»szym sensie znale¹¢ mo»na zwykle roz- dziaªy o robotyce i o rozpoznawaniu obrazu i mowy.
W ksi¡»ce tej, w dalszym ci¡gu, b¦dziemy posªugiwa¢ si¦ poj¦ciem sztucz- nej inteligencji, AI, wyª¡cznie w w¦»szym sensie, odnosz¡cym si¦ do zadania skonstruowania sztucznego umysªu. Rozpoznawaniem obrazu i mowy b¦dzie- my zajmowa¢ si¦ o tyle, o ile ma to zwi¡zek z my±leniem i wiedz¡.
Obecnie, na pocz¡tku XXI wieku, gªówny nurt bada« w sztucznej inteli- gencji bazuje (nadal) na ideach matematyki i logiki, w przekonaniu, »e praw- dziwa nauka, je±li tylko to jest mo»liwe, oparta jest na dobrej matematyce.
Technologia komputerowa, której olbrzymiego sukcesu nikt nie mo»e kwestio- nowa¢, wyrosªa przecie» z idei logiczno-matematycznych. Komputery cyfrowe wymagaj¡ matematycznej ±cisªo±ci. W nurcie tym, za rzecz pierwszorz¦dn¡, uwa»a si¦ budowanie zwartej i solidnej teorii, planowanie i wykonywanie eks- perymentów w powi¡zaniu z teori¡, tak jak w zyce. Jednocze±nie, podkre±la si¦ dzi±, »e teori¦ nale»y ª¡czy¢ z rzeczywistymi zastosowaniami (to oczywi-
±cie próba wyci¡gni¦cia nauki ze spektakularnych pora»ek). Nurt ten zwany jest nurtem klasycznym (lub logistycznym, formalnym, a tak»e siln¡ AI) i przeciwstawia mu si¦ inne nurty i podej±cia (lub nawet próby takowych).
Nurt in»ynierski nacisk kªadzie na konstruowanie ju» teraz dziaªaj¡cych w praktyce systemów, w nadziei »e ich ª¡czenie jak i post¦py technologii do- prowadz¡ do systemu, który zacznie przejawia¢ cechy inteligencji. Bywa te»
nazywany niewidzialn¡ AI, bo inteligencja ma si¦ w nim wyªoni¢ nie wia- domo sk¡d, lub konekcjonizmem, w tym sensie, »e ide¡ jego jest ª¡czy¢ i ª¡czy¢, a» si¦ co± (by¢ mo»e) wyªoni. W ±ci±lejszym sensie nazwa konekcjo- nizm zarezerwowana jest dla bada« nad sieciami neuronowymi (których isto- t¡ s¡ wielopoziomowe poª¡czenia mi¦dzy w¦zªami sieci) i dla idei, »e trzeba najpierw skonstruowa¢ model mózgu, o odpowiednio wielkich mo»liwo±ciach obliczeniowych, a potem zastanawia¢ si¦ jak tam umie±ci¢ inteligencj¦ (o ile taki model nie b¦dzie jej posiadaª sam przez si¦). Poniewa» w badaniach nad
sieciami neuronowymi dominowaªo przez dªugi czas podej±cie in»ynierskie, niektórzy nurty te uto»samiaj¡.
Mi¦dzy obu nurtami istniaª zawsze pewien antagonizm (ujawniaj¡cy si¦
czasami z wielk¡ siª¡). Minsky, na przykªad mówiª, »e konekcjoni±ci uwa»aj¡
za powód do dumy fakt, »e nie rozumiej¡, co si¦ dzieje w budowanych przez nich systemach.
Jednak»e nawet w samym nurcie klasycznym istniej¡ spi¦cia i rozbie»ne tendencje. Do takich nale»y, na przykªad, ostra debata w poªowie lat osiem- dziesi¡tych pomi¦dzy szkoªami logiczn¡ i probabilistyczn¡, w której padaªy tak niewyszukane okre±lenia, jak logiczna maa (Neufeld 1994). Wydaje si¦,
»e nat¦»enie rozgrywek na tle personalnym i ambicjonalnym jest w AI nieco wi¦ksze, ni» w pokrewnych dziedzinach i zwi¡zane to jest oczywi±cie z faktem,
»e mo»na tu byªo wygra¢ du»e pieni¡dze. Owe rozgrywki, blokowanie prac i nowych idei, nie sªu»¡ post¦powi bada« i mo»na zasadnie przypuszcza¢, »e prawdziwa sztuczna inteligencja, jak wiele innych wielkich idei, przyjdzie do Ameryki z zewn¡trz (w ramach polityki imigracyjnej).
Istniej¡ ró»ne klasykacje dziedzin i obszarów bada« AI, ró»na kolejno±¢
i sposób prezentacji tematów. Istnieje wiele szczegóªowych kierunków ba- da« AI, które reprezentuj¡ ró»ne szczegóªowe aspekty zasadniczego celu i wzajemnie si¦ przenikaj¡. W tabeli ??? podany jest przykªadowy spis tema- tów konferencyjnych z zakresu AI. Nazwy mówi¡ same za siebie: Techniki rozwi¡zywania problemów, Rozumowanie, Planowanie, Rozumowania w wa- runkach niepewno±ci, Sieci neuronowe, Logika dla AI, Automatyczne dowo- dzenie twierdze«, Reprezentacja wiedzy, Nabywanie wiedzy, Systemy ucz¡ce si¦, In»ynieria wiedzy, Bazy wiedzy, Systemy eksperckie, Rozumienie j¦zyka naturalnego, Przetwarzanie j¦zyka naturalnego, Rozpoznawanie obrazu. Do tego dochodz¡ dziedziny ±ci±le zwi¡zane z AI, takie jak kognitywistyka czy
lozoa AI.
W badaniach tych jest wiele interesuj¡cych osi¡gni¦¢, które jednak cz¦sto niewiele wspólnego maj¡ z fenomenem inteligencji: bardziej inteligentne s¡ w nich jedynie rozwi¡zania lub idee programistyczne. Cz¦±¢ z badaczy przestaje u»ywa¢ szyldu AI, nawi¡zuj¡c raczej do innych bada« w dziedzinie informa- tyki. Je±li nie nast¡pi przeªom w zasadniczym nurcie sztucznej inteligencji, najlepsi badacze przestan¡ si¦ identykowa¢ z nazw¡ AI i sam¡ nazw¦ spo- tka¢ mo»e los tak popularnej swego czasu cybernetyki. Niezale»nie jednak od tego czy jest szansa na przeªom, czy nie, rzetelna reeksja na metod¡ jest dzi± niezb¦dna, a to, co si¦ udaªo i czego si¦ nie udaªo osi¡gn¡¢ w badaniach nad sztuczn¡ inteligencj¡, ma tu zasadnicze znaczenie.
24