• Nie Znaleziono Wyników

SZTUCZNA INTELIGENCJA, LOGIKA I ZDROWY ROZSDEK

N/A
N/A
Protected

Academic year: 2022

Share "SZTUCZNA INTELIGENCJA, LOGIKA I ZDROWY ROZSDEK"

Copied!
24
0
0

Pełen tekst

(1)

Andrzej Kisielewicz

SZTUCZNA INTELIGENCJA, LOGIKA I ZDROWY ROZSDEK

(Rozprawa o metodzie)

Z PRZEDMOWY

Póª wieku temu logika nale»aªa do dziedzin nauki ±wi¦c¡cych najwi¦ksze sukcesy. Ostateczna formalizacja caªej matematyki, twierdzenia Gödla, ma- szyny Turinga  zaliczone zostaªy do osi¡gni¦¢ ludzkiego geniuszu. Jednocze-

±nie rozpocz¡ª si¦ rozwój technologii komputerowej, w du»ej mierze opartej wªa±nie na osi¡gni¦ciach logiki, metod¦ formaln¡ zacz¦to stosowa¢ w innych naukach, tak»e humanistycznych, post¦py logiki zrewolucjonizowaªy metodo- logi¦ nauk i lozo¦.

W tej atmosferze w roku 1956 narodziªa si¦ dziedzina sztucznej inteligen- cji. Uczeni podj¦li otwarty atak na odwieczne ludzkie marzenie: zbudowanie sztucznego czªowieka. Badania obj¦ªy wkrótce równie» konstrukcj¦ sztucz- nych zmysªów i sztucznego ciaªa (robotyka), ale gªówny wysiªek skierowano pocz¡tkowo na sztuczny umysª; st¡d ogólna nazwa dziedziny. Centralne miej- sce w tych badaniach zaj¦ªa logika formalna; próbowano wprost osi¡gni¦cia logiki zastosowa¢ do wyposa»enia komputera w zdolno±¢ logicznego rozumo- wania.

Szeroka publiczno±¢ informowana byªa o post¦pach, a jeszcze bardziej o otwieraj¡cych si¦ perspektywach. Zacz¦to dyskutowa¢ czekaj¡ce nas wkrótce problemy etyczne i lozoczne zwi¡zane z pojawieniem si¦ sztucznej formy inteligentnego »ycia; nowego impetu nabraªa dyskusja dotycz¡ca fenomenu

±wiadomo±ci. Humani±ci w milczeniu przygl¡dali si¦ tej ofensywie. Z braku matematycznej kompetencji nie byli w stanie podj¡¢ merytorycznej dyskusji, ale jak wskazuj¡ niektóre reakcje, przera»eni byli tym, »e oto odwieczne pro- blemy lozoi, zagadki ±wiadomo±ci i umysªu, rozwi¡zuj¡ teraz matematycy i in»ynierowie.

(2)

Niestety (lub na szcz¦±cie) mijaªy kolejne dekady, a zapowiadanych osi¡- gni¦¢ jak nie byªo, tak nie ma. Pomimo tego, »e min¦ªo ju» póª wieku od czasu, gdy rozpocz¦to badania, »e parametry techniczne wspóªczesnych komputerów znacznie przewy»szaj¡ wyobra»enia sprzed lat, a w wielu innych kierunkach post¦p jest znacznie wi¦kszy ni» przewidywano, to nie udaªo si¦ jak dot¡d skonstruowa¢ niczego, co zasªugiwaªoby na miano my±l¡cej maszyny. Co do tego wszyscy s¡ ju» raczej zgodni, bardzo ró»ne jednak wyci¡gaj¡ wnioski z tego faktu.

Sami badacze dªugo nie chcieli rozpozna¢ tej sytuacji, nie chcieli przyzna¢

si¦ do tego; i wielu nadal nie chce  trudno im si¦ dziwi¢. Za projektami sztucznej inteligencji, szczególnie tymi, które obiecywaªy budow¦ ju» zaraz, szªy wielkie pieni¡dze. Ostatnio jednak nawet Marvin Minsky, uznawany za jednego z zaªo»ycieli tej dziedziny bada«, stwierdziª, »e prawdziwa sztuczna inteligencja czeka dopiero na swojego odkrywc¦!

Brak spektakularnego sukcesu oraz coraz wi¦kszy rozziew pomi¦dzy re- zultatami bada« i zbyt lekkomy±lnie czynionymi zapowiedziami doczekaªy si¦ wreszcie krytyki wygªaszanej ju» nie tylko przez zwykªych niedowiarków, ale przez takie autorytety dziedzin pokrewnych jak Penrose czy Edelman.

To otworzyªo wrota krytyce humanistów. Niektórzy z nich z nieukrywanym triumfem obwie±cili ostateczn¡ kl¦sk¦ bada« nad sztuczn¡ inteligencj¡, a zna- le¹li si¦ i tacy, którzy gªosz¡ kl¦sk¦ metody formalnej w ogóle i koniec ery kartezja«skiej!

Te ostatnie twierdzenia s¡ tak oczywist¡ przesad¡, »e same przez si¦ lokuj¡

si¦ w sferze niepowa»nych prowokacji. Nie ma raczej w¡tpliwo±ci, »e techno- logia informatyczna dopiero zacz¦ªa zmienia¢ ±wiat, a jest to dziedzina dla której metoda formalna jest esencj¡. Jednak»e póª wieku bezowocnych prób skonstruowania sztucznej inteligencji stanowi intryguj¡c¡ zagadk¦ i jest dobr¡

okazj¡ do caªo±ciowego przyjrzenia si¦ dotychczasowemu podej±ciu do zagad- nienia. Czy dotarli±my wªa±nie do granicy stosowalno±ci metod formalnych i matematycznych, czy te» metody s¡ dobre, a wybrali±my jedynie niewªa±ci- we, zbyt bezpo±rednie i niecierpliwe podej±cie? Rzetelna reeksja prowadzi nieuchronnie do poddania pod rozwag¦ caªej metody naukowej bazuj¡cej na matematyce, której zapocz¡tkowanie we wspóªczesnej nauce przypisuje si¦

Kartezjuszowi, i dlatego pozwoliªem sobie ksi¡»ce tej da¢ podtytuª Rozpra- wa o metodzie.

(. . . )

Wrocªaw, 2007

2

(3)

Rozdziaª I

WPROWADZENIE: TEST TURINGA

To, »e sztuczna inteligencja nie istnieje  nie jest stwierdzeniem caªko- wicie banalnym. Wielu ameryka«skich studentów przekonanych jest, i» kraj ich od dawana ju» dysponuje maszynami obdarzonymi sztuczn¡ inteligencj¡, nazwa ta pojawia si¦ w reklamach i na towarach, a co gorsza, wielu badaczy uchyla si¦ tu od jednoznacznych stwierdze« zasªaniaj¡c si¦ problemem ró»- nych denicji. Nawet w podr¦cznikach akademickich mo»na przeczyta¢, »e nie jest wªa±ciwie jasne, co mamy na my±li mówi¡c o sztucznej inteligencji:

nie wiadomo, co to jest inteligencja w ogóle, a co dopiero mówi¢ o sztucznej.

Przedmiot bada«

1.1. Tymczasem spraw¦ mo»na i nale»y postawi¢ zupeªnie jasno. Ogóln¡ ide¡

tkwi¡c¡ u podstaw rozpocz¦cia bada« nad sztuczn¡ inteligencj¡ byªo stworze- nie sztucznego czªowieka, czªekopodobnego robota, takiego który pojawia si¦ w lmach Terminator czy Šowca androidów i w setkach innych z gatunku science-ction. Od razu wida¢ tu dwa wyra¹nie ró»ne zadania: jedno to stwo- rzenie mechanizmu imituj¡cego ludzkie ciaªo i drugie  stworzenie sztuczne- go umysªu porównywalnego, a mo»e nawet przewy»szaj¡cego umysª ludzki.

Gdy si¦ zastanowi¢ troch¦ gª¦biej, wyodr¦bni¢ mo»na jeszcze osobno pro- blem wyposa»enia robota w zmysªy (przed wszystkim mo»liwo±ci widzenia i sªyszenia)  tutaj techniczna realizacja wi¡»e si¦ z teoretycznym problemem analizy odbieranych sygnaªów. I taki wªa±nie jest dzi± gªówny podziaª bada«

prowadzonych pod hasªem sztucznej inteligencji.

W latach pi¦¢dziesi¡tych, gdy powa»nie zacz¦to my±le¢ o skonstruowa- niu takiego robota, sprawy ciaªa i zmysªów wydawaªy si¦ jeszcze kwesti¡

dalszej przyszªo±ci, rozwoju odpowiednich technologii. Bli»sza realnym mo»- liwo±ciom  ze wzgl¦du na osi¡gni¦cia logiki matematycznej i pocz¡tkuj¡cej technologii komputerowej  wydawaªa si¦ sprawa sztucznego umysªu. Dla- tego te» nazwa dziedziny wskazuje jakby na to zagadnienie, jako podstawowe

(4)

i w w¦»szym sensie przez sztuczn¡ inteligencj¦ mo»na rozumie¢ wªa±nie dzie- dzin¦ bada«, której gªównym celem jest skonstruowanie sztucznego umysªu, sztucznego rozumu.

Jednak»e o ile w sprawie sztucznego ciaªa i zmysªów w ci¡gu 50 lat zanoto- wano wiele interesuj¡cych osi¡gni¦¢, to w kwestii sztucznego rozumu post¦p jest co najmniej problematyczny. P.H. Winston we wst¦pie do swojej ksi¡»ki Articial Intelligence, z roku 1977, stwierdza z pewnym dramatyzmem, »e ci¡gle jeszcze nie udaªo si¦ zbudowa¢ systemu, którego ogólna inteligencja mogªaby si¦ mierzy¢ z inteligencj¡ czteroletniego dziecka. Naprawd¦ drama- tyczny jest fakt, »e stwierdzenie to pozostaje prawdziwe równie» dzisiaj.

To wªa±nie brak wyra¹nego, spektakularnego post¦pu w tej zasadniczej kwestii sprawiª, i» badacze i autorzy podr¦czników zacz¦li modykowa¢ de-

nicj¦ przedmiotu. Uczynienie komputerów bystrzejszymi, tworzenie ma- szyn wykonuj¡cych funkcje, które wymagaj¡ ludzkiej inteligencji, wyja±nia- nie i imitowanie inteligentnego zachowania w procesach obliczeniowych, ba- dania wªasno±ci umysªu przy pomocy komputerowych modeli  oto gar±¢

denicji z podr¦czników sztucznej inteligencji (Russell and Norvig, 2003).

Jednocze±nie zarzuty o braku post¦pu zacz¦to odpiera¢ argumentem, »e nie ma jednoznacznej denicji sztucznej inteligencji, »e w pewnych dziaªach po- st¦p jest wi¦kszy, w innych mniejszy  niektórzy nawet twierdz¡, »e sztuczna inteligencja ju» istnieje, bo wszystko, co w tym kierunku zrobiono, jest w jakiej± mierze inteligentne.

Do rozmycia denicji przyczyniªo si¦ równie» podci¡gni¦cie pod sztuczn¡

inteligencj¦ ró»nego rodzaju bada« z zakresu logiki, psychologii, lingwistyki, czy lozoi. Autorzy niektórych podr¦czników twierdz¡ nawet, »e sztuczna inteligencja jest nowoczesn¡ metod¡ badania wªasno±ci umysªu i analizy sta- rych lozocznych problemów w tym zakresie. Nawet je±li zechcemy sztuczn¡

inteligencj¦ okre±li¢ tak szeroko, ci¡gle najbardziej trafna wydaje si¦ denicja odwoªuj¡ca si¦ do ogólnego celu.

Sztuczna inteligencja, w skrócie AI (ang. Articial Intelligence), jest to zespóª ró»norodnych bada« w informatyce, a tak»e w technice, logice, psy- chologii, j¦zykoznawstwie i lozoi, których celem jest, lub które mog¡ mie¢

ewentualne zastosowania do stworzenia autonomicznego, my±l¡cego robota.

Nie jest przy tym wa»ne czy kto± wierzy, czy nie, w osi¡gni¦cie owego osta- tecznego celu. Rzecz jedynie w tym, i» to wizja takiego robota wyznacza problemy i kierunki bada«, za± post¦py w poszczególnych kierunkach mie- rzone s¡, a raczej powinny by¢, stopniem przybli»enia do owej wizji.

To, »e ju» na wst¦pie napotkali±my na kªopot z problemem denicji jest 4

(5)

znamienne. W tym konkretnym przypadku rozwi¡zaªem go w sposób arbi- tralny. Pó¹niej postaram si¦ pokaza¢, »e w istocie rzeczy jest to jeden z wielu objawów zasadniczych nieporozumie« zwi¡zanych z metod¡ naukow¡.

Wizja Turinga 1.2. Angielska nazwa komputera pochodzi od sªowa compute, oblicza¢. Pierw- sze zadania, dla których zbudowano takie komputery jak Colossus czy Eniac, to byªy niezwykle »mudne zadania obliczeniowe. Komputer zast¦powaª armi¦

rachmistrzów. Przez dªugi czas w ±wiadomo±ci spoªecznej komputer funkcjo- nowaª wªa±nie jako super-kalkulator, niezwykle szybka maszyna licz¡ca.

Tymczasem ju» w trakcie budowy pierwszych komputerów, w latach dru- giej wojny ±wiatowej, zwi¡zani z tym naukowcy zdawali sobie spraw¦, »e komputer mo»e du»o wi¦cej. Jasne byªo, »e przy pomocy zer i jedynek da si¦ zakodowa¢ wªa±ciwie ka»d¡ ±cisª¡ informacj¦, a przy pomocy najprost- szych operacji arytmetycznych i logicznych mo»na j¡ dowolnie przetwarza¢.

Wyra¹nie u±wiadomiono sobie istotny fakt, »e obliczanie polega na mani- pulowaniu symbolami wedªug okre±lonych reguª, »e oblicza¢ mo»na nie tylko funkcje liczbowe, ale równie» funkcje przeksztaªcaj¡ce ci¡gi symboli w inne ci¡gi symboli. W szczególno±ci, formalna logika, której wspaniaªy rozkwit przypadª na pierwsz¡ poªow¦ XX wieku, wydawaªa si¦ narz¦dziem gotowym do zastosowania.

To skªoniªo wielu naukowców do stawiania ±miaªych prognoz, »e ju» wkrót- ce komputery b¦d¡ czym± znacznie wi¦cej ni» tylko super-rachmistrzami, »e zdolne b¦d¡ do przeprowadzania rozumowa« i wyci¡gania wniosków, »e stan¡

si¦ maszynami obdarzonymi inteligencj¡.

Jednym z takich naukowców byª brytyjski matematyk i logik, Alan Tu- ring, który bez w¡tpienia zasªu»yª sobie na miano ojca dziedziny sztucznej inteligencji. Wprowadziª on teoretyczny model komputera, zwany dzi± ma- szyn¡ Turinga, przy pomocy którego rozwin¡ª teori¦ funkcji obliczalnych.

Braª udziaª w tworzeniu wspóªczesnej technologii komputerowej, zastosowaª j¡ do ªamania szyfru Enigmy 1, pisaª pierwsze programy do gry w szachy.

Pierwszy wyra¹nie postawiª pytanie Czy komputery mog¡ my±le¢?. W swo- jej sªynnej pracy Computing Machinery and Intelligence, opublikowanej w

1Cz¦sto pisze si¦, »e Turing zªamaª zasad¦ dziaªania niemieckiej maszyny szyfruj¡cej Enigma, czym przysªu»yª si¦ wydatnie do wygrania II wojny ±wiatowej przez aliantów.

Jest to niezupeªnie prawd¡. Niemiecki szyfr zªamali polscy matematycy M. Rejewski, J.

Ró»ycki i H. Zegalski i na bazie ich pracy, udost¦pnionej aliantom przez polski wywiad, zespóª Turinga skonstruowaª maszyny deszyfruj¡ce (zob. Kahn 1991

(6)

lozocznym czasopi±mie Mind (Turing, 1950), zaproponowaª swój sªynny test, uznawany dzi± za operacyjn¡ denicj¦ inteligencji.

Idea testu nawi¡zuje do starej angielskiej zabawy polegaj¡cej na odgady- waniu pªci osoby ukrytej w innym pokoju wyª¡cznie na podstawie pisemnych pyta« i odpowiedzi. Turing zaadoptowaª ten pomysª do odró»nienia kompu- tera od czªowieka.

TEST TURINGA: Osoba testuj¡ca ma do dyspozycji terminal (klawiatur¦ i ekran), przy pomocy którego mo»e porozumiewa¢

si¦ z ukrytym podmiotem: czªowiekiem lub komputerem. Zadaj¡c pytania, wyª¡cznie na podstawie pisemnych odpowiedzi, osoba ma rozstrzygn¡¢, czy testowany podmiot jest czªowiekiem, czy komputerem (programem komputerowym).

Sam Turing twierdziª, »e do roku 2000 powstan¡ programy komputero- we takie, »e szanse przeci¦tnej osoby na dokonanie wªa±ciwej identykacji w ci¡gu 5 minut nie b¦d¡ przekraczaªy 70 procent. Panuje raczej powszechna zgoda, co do tego, »e jego przepowiednia nie sprawdziªa si¦. Mo»na powie- dzie¢, »e na razie nie ma (i nie wida¢ na horyzoncie bada«) programu kompu- terowego, który mógªby na powa»nie przyst¡pi¢ do testu Turinga. Jednak»e sprawa nie jest tak jednoznaczna.

Kto± mo»e caªkiem zasadnie twierdzi¢, »e przeci¦tna osoba w dzisiejszym

±wiecie jest w istocie rzeczy tak niem¡dra, »e z ªatwo±ci¡ daje si¦ oszuka¢, niezbyt nawet wyszukanym programom komputerowym. Wielu ludzi nie od- ró»ni automatycznej sekretarki od prawdziwej, je±li t¡ pierwsz¡ wyposa»y¢

tylko w pewien zapas zda« dialogowych. Do±¢ cz¦sto, dopiero po pewnym czasie stwierdzamy, »e rozmawiamy przez telefon z mówi¡c¡ baz¡ danych, a nie z urz¦dnikiem (rzecz w tym, »e wst¦pne nieporozumienia skªonni jeste-

±my przypisa¢ niskiej inteligencji urz¦dnika). W Internecie, w ró»nego rodzaju dyskusjach bior¡ udziaª programy komputerowe (tzw. boty) i cz¦sto uczest- nicy nie zdaj¡ sobie z tego sprawy (tu z kolei, ogólny beªkot, jaki cz¦sto towarzyszy internetowym dyskusjom, pozwala takim programom funkcjono- wa¢ z peªnym sukcesem  ku uciesze ich twórców). W tym sensie mo»na stwierdzi¢, »e w istocie rzeczy przepowiednia Turinga byªa bardzo ostro»na i by¢ mo»e, formalnie mo»na uzna¢ j¡ za speªnion¡.

1.3. W roku 1991 rozpocz¦to seri¦ corocznych zawodów w tzw. Ograniczo- nym Te±cie Turinga, w którym programy wspóªzawodnicz¡ w dyskusjach na

6

(7)

ustalone, ograniczone tematy. Wyznaczono specjaln¡ nagrod¦ (Löbnera) w wysoko±ci $ 100 000, dla pierwszego programu, który przejdzie zwyci¦sko peªny Test Turinga. Problem polega na tym, »e dotychczasowe programy ukierunkowane s¡ raczej na to, »eby oszuka¢ czªowieka, ni» »eby znale¹¢ me- chanizmy rozumienia naturalnego j¦zyka, które mógªby przyda¢ si¦ w innych zastosowaniach. Typowy jest tu program Eliza, którego wcze±niejsze wersje dost¦pne s¡ bezpªatnie na Internecie. Jego istot¡ jest wykorzystywanie zda«

formuªowanych przez rozmówc¦, w taki sposób, »e bardzo cz¦sto caªa wymia- na zda« sprawia wra»enie sensownej rozmowy. Jak to jednak trafnie ujmuje Shieber (1994), Ograniczony Test Turinga jest jak zawody w lataniu, gdzie nagrody przyznaje si¦ tym, którzy najlepiej skocz¡.

Czy komputer mo»e my±le¢?

1.4. Oczywiste jest, »e wynik testu Turinga zale»y nie tylko od jako±ci pro- gramu komputerowego, ale tak»e od zdolno±ci osoby testuj¡cej. Chc¡c wi¦c test ten zobiektyzowa¢, nale»aªoby dokona¢ odpowiednich u±ci±le«. Jednak»e od ewentualnego praktycznego zastosowania, wa»niejsze s¡ idee, do jakich prowadzi samo rozwa»anie tego genialnego w swej prostocie pomysªu.

Test Turinga nazywany jest operacyjn¡ denicj¡ inteligencji, poniewa»

nie wynika z niego, czy obiekt rzeczywi±cie my±li, a jedynie to, czy zachowuje si¦ tak jakby my±laª. Uzmysªawia to od razu nieprecyzyjno±¢ ogólnego pyta- nia Czy komputer mo»e my±le¢?: mianowicie, czy chodzi nam o zachodzenie pewnego procesu psychozycznego, czy te» jedynie o operacyjn¡ sprawno±¢

równowa»n¡ ludzkiemu my±leniu. Brak tego rozró»nienia bywa przyczyn¡ za- sadniczych nieporozumie« w dyskusjach nad AI.

Restrykcyjne warunki Testu Turinga skªoniªy wielu naukowców do przy- puszczenia, »e inteligencja mo»e polega¢ (wyª¡cznie) na wykonywaniu pewne- go algorytmu, pewnego ±ci±le okre±lonego programu. Oto bowiem dostarcza- my komputerowi ±ci±le okre±lone ci¡gi symboli (zdania w j¦zyku naturalnym) i on zwraca nam ±ci±le okre±lone ci¡gi symboli. Mamy tu wi¦c do czynienia z pewn¡ funkcj¡ w sensie matematycznym i to funkcj¡ obliczaln¡, skoro mózg ludzki potra oblicza¢ jej warto±ci. Nie wida¢ »adnego powodu  twierdz¡

zwolennicy tej tezy  »eby funkcji tej nie daªo si¦ oblicza¢ na cyfrowym kom- puterze, skoro dane wej±ciowe i wyj±ciowe maj¡ charakter cyfrowy (dadz¡ si¦

zakodowa¢ w ci¡gach zer i jedynek).

Niektórzy na tej podstawie sformuªowali tez¦ jeszcze bardziej radykaln¡,

»e samo zjawisko ±wiadomo±ci jest rezultatem wykonywania pewnego algo-

(8)

rytmu, »e ±wiadomo±¢ mo»ne pojawi¢ si¦ w komputerze na skutek wykonywa- nia odpowiednio skomplikowanego programu. Nastawionemu humanistycznie czytelnikowi taka teza musi wyda¢ si¦ absurdalna ju» na wst¦pie. Zapewne uzna, »e nie ma tu nawet o czym dyskutowa¢. A jednak byli i ci¡gle s¡ tacy, którzy tezy tej broni¡, oraz tacy, którzy caªkiem powa»nie z ni¡ dyskutuj¡.

1.5. Rzecz w tym, i» przewidywania Turinga i innych o tyle si¦ sprawdziªy,

»e komputer szybko staª si¦ rzeczywi±cie czym± znacznie wi¦cej ni» super- kalkulatorem. Technologia komputerowa zacz¦ªa zmienia¢ ±wiat w niezwykle szybkim tempie. Zarówno to, jak i ezoteryczno±¢ dziedziny, trudny dla laika formalny j¦zyk, sprawiªy, »e przez wiele lat lozofowie i humani±ci, z nielicz- nymi wyj¡tkami, nie odwa»yli si¦ otwarcie krytykowa¢ bada« w dziedzinie sztucznej inteligencji. Wysªuchiwali pokornie ±miaªych prognoz formuªowa- nych przez specjalistów i trzeba to chyba tak sformuªowa¢: byli przera»eni tym, »e zagadki umysªu, rozumu i ±wiadomo±ci, od wieków znajduj¡ce si¦

w centrum zainteresowa« lozoi i nauk humanistycznych, rozwi¡zywane s¡

teraz z sukcesem przez in»ynierów i matematyków!

Dlatego te», gdy przeci¡gaj¡cy si¦ brak spektakularnego sukcesu otwo- rzyª wreszcie wrota krytyce, to popadªa ona w drug¡ skrajno±¢. Bez rzetelnej analizy rzeczywistych osi¡gni¦¢, bez gª¦bszej reeksji nad dotychczasowym podej±ciem, zacz¦to wysuwa¢ tezy nie tylko o niemo»liwo±ci osi¡gni¦cia inte- ligencji na komputerach cyfrowych, ale o ogólnym kryzysie nauk formalnych, o zmierzchu metody kartezja«skiej, itp. Proponuje si¦, aby obecne formalne podej±cie zast¡pi¢ nowym, bazuj¡cym na osi¡gni¦ciach nauk empirycznych, biologii i neurologii, w zakresie budowy i funkcjonowania mózgu, matematyk¦

zast¡pi¢ jak¡± now¡ matematyk¡ mi¦kk¡, a komputery cyfrowe kompute- rami analogowymi. Jest to oczywi±cie zawoalowana propozycja zaprzestania dotychczasowych bada« AI, przynajmniej na sto lat. Ju» nestor krytyków AI, H. L. Dreyfus, w jednym z programów telewizyjnych w 1992 roku oznajmiª wprost, z nieukrywan¡ satysfakcj¡, »e sztuczna inteligencja (jako dziedzina) jest sko«czona (Gams 2001, p.31).

Tezy takie s¡ jednak równie przesadne, co wcze±niejsze tezy niektórych reprezentantów AI o istocie ±wiadomo±ci, a w caªej dyskusji jest zbyt du»o emocji i za maªo rzeczowych argumentów. Wzi¡wszy pod uwag¦ dotychcza- sowe osi¡gni¦cia cyfrowej technologii komputerowej, w tym tak rewolucyjne i nieoczekiwane jak Internet, nie mo»na powa»nie utrzymywa¢, »e jej mo»liwo-

±ci zostaªy ju» wyczerpane. Z drugiej strony, brak spektakularnego sukcesu w badaniach AI ka»e powa»nie zastanowi¢ si¦ nad dotychczasowym podej±ciem

8

(9)

do tego zagadnienia, a to prowadzi do ogólnej reeksji nad metod¡.

1.6. Je±li chodzi o wnioski dotycz¡ce sztucznej inteligencji, z góry zapo- wiem, »e na obecnym etapie rozwoju dyskusje o mo»liwo±ci wyprodukowania

sztucznej ±wiadomo±ci uwa»am za raczej jaªowe spekulacje. Nie wierz¦, »e

±wiadomo±¢ mo»e si¦ pojawi¢ w obwodach elektronicznych na skutek wyko- nywania jakich± algorytmów, ale nie wierz¦ równie», »eby krytycy tej tezy mieli istotnie wi¦ksz¡ wiedz¦ na ten temat, ni» jej obro«cy. Je±li nawi¡»¦ do tej dyskusji na ko«cu ksi¡»ki, to po to by wykaza¢, jak niewiele on wnosi do odpowiedzi na zasadnicze pytania, jakie nale»y sobie postawi¢ na obecnym etapie rozwoju AI. A tymi pytaniami s¡:

Czy mo»liwe jest zbudowanie maszyny, która miaªaby zdolno±¢ komu- nikowania si¦ w j¦zyku naturalnym, rozumowania i wyci¡gania logicznych wniosków, rozwi¡zywania problemów i podejmowania decyzji; która byªaby w stanie rozpoznawa¢ otoczenie, porusza¢ si¦ w nim, uczy¢ si¦, czyli posiada¢

wszelkie przedmiotowe cechy rozumnej autonomicznej istoty? Czy jest to ju»

w zasi¦gu naszych mo»liwo±ci?

Czy mo»na stworzy¢ program komputerowy oparty na jakich± mechani- zmach rozumieniu j¦zyka naturalnego i na pewnym zasobie wiedzy w temacie dyskusji, który przeszedªby Test Turinga (prowadzony przez ekspertów), któ- ry mógªby na powa»nie do takiego testu przyst¡pi¢?

Oczywiste powinno by¢, i» trudno rzetelnie ustosunkowa¢ si¦ do tych pyta« bez wnikni¦cia w metody, jakimi usiªuje si¦ dzi± stworzy¢ sztuczn¡

inteligencj¦. Tymczasem wi¦kszo±¢ dyskusji ma raczej do±¢ powierzchowny charakter i gªównym argumentem zdaje si¦ gª¦boka wiara lub brak takowej,

»e co± takiego mo»na osi¡gn¡¢. Zanim jednak zajmiemy si¦ metodami, warto najpierw podsumowa¢ to, co do tej pory osi¡gni¦to w tym kierunku. Krótka historia i ogólny rzutu oka na dziedzin¦ to tre±¢ nast¦pnego rozdziaªu.

(10)

Rozdziaª II

Pӊ WIEKU SZTUCZNEJ INTELIGENCJI

Ogólne wprowadzenie do dziedziny sztucznej inteligencji zawarte w tym rozdziale obejmuje zasadnicze w¡tki i krótk¡ histori¦ jej najwa»niejszych osi¡- gni¦¢. Niektóre w¡tki rozwin¦ pó¹niej znacznie dokªadniej, »eby uzyska¢ rze- telne argumenty do dyskusji o mo»liwo±ciach i perspektywach dalszego roz- woju.

Entuzjastyczne pocz¡tki 2.1. Za prawdziwy pocz¡tek dziedziny sztucznej inteligencji uwa»a si¦ ro- bocz¡ konferencj¦ w Dartmouth, w lecie 1956, zorganizowan¡ przez Johna McCarthy'ego, która miaªa na celu zgromadzenie badaczy zajmuj¡cych si¦

teori¡ automatów i sieciami neuronowymi, zainteresowanych konstruowaniem inteligentnych systemów. Ta dwumiesi¦czna konferencja zgromadziªa raptem 10 osób (w tym Marvina Minsky'ego, Claude Shanona i Nathaniela Roche- stera, uwa»anych wraz z McCarthym za zaªo»ycieli dziedziny). Wymieniono na niej ogólne idee; Allen Newell i Herbert Simon zaprezentowali swój zdolny do wyci¡gania logicznych wniosków program komputerowy Logic Theorist;

przyj¦to zaproponowan¡ przez McCarthy'ego ??? nazw¦ nowej dziedziny: Ar- ticial Intelligence. Po konferencji tej powstaªy pierwsze laboratoria AI na uniwersytetach Carnegie Mellon i Stanford, oraz w Massachusetts Institute of Technology (MIT).

Minsky i McCarthy obaj byli studentami Uniwersytetu Princeton, gdzie mogli si¦ zetkn¡¢, mi¦dzy innymi, z Johnem von Neumannem, matematy- kiem o bardzo szerokich zainteresowaniach, uznawanym za twórc¦ architek- tury wspóªczesnego komputera. Podobno na obronie pracy doktorskiej Min- sky'ego, dotycz¡cej sieci neuronowych, na w¡tpliwo±ci, czy ten rodzaj pracy mo»e by¢ uwa»any za matematyk¦, von Neumann miaª rzec, »e je±li to nie jest matematyk¡ dzi±, to b¦dzie w przyszªo±ci.

(11)

Newell i Simon twierdzili o swoim programie, »e jest to pierwszy pro- gram komputerowy zdolny do my±lenia nie-numerycznego i »e rozwi¡zali w ten sposób wiekowy problemat, czy do my±lenia takiego konieczne s¡ zycz- ne wªa±ciwo±ci mózgu. Program potraª udowodni¢ wi¦kszo±¢ twierdze« z rozdziaªu II Principia Mathematica (sªynnego dzieªa Whiteheada i Russella, którego zadaniem byªo pokazanie, »e wszystkie twierdzenia matematyczne, caª¡ matematyk¦, mo»na wyprowadzi¢ z pewnych podstawowych aksjoma- tów dotycz¡cych poj¦cia zbioru, na bazie ±ci±le okre±lonych reguª logicznego wnioskowania). Dla jednego z twierdze« Logic Theorist podaª nawet dowód krótszy, ni» ten przedstawiony w ksi¡»ce. Jednak»e twierdzenia te miaªy tak elementarny charakter (techniczny raczej, ni» intelektualny  z punktu wi- dzenia matematyka), »e nie wszyscy chcieli dostrzec w tym jak¡± szczególn¡

warto±¢. Newell i Simon próbowali opublikowa¢ wyniki w Journal of Symbolic Logic, jako pierwsz¡ prac¦, której wspóªautorem byªby program komputero- wy, lecz nie zostaªa ona zaakceptowana przez redakcj¦.

2.2. Te i inne kªopoty (na przykªad ograniczony dost¦p do komputerów) nie zgasiªy wielkiego entuzjazmu, jaki towarzyszyª badaniom w pocz¡tkowym okresie. Mimo bardzo prymitywnych narz¦dzi, komputerów i sposobów pro- gramowania, badaczom udaªo si¦ do±¢ szybko wykaza¢, kolejnymi osi¡gni¦- ciami, »e komputer mo»e wykonywa¢ znacznie bardziej skomplikowane za- dania, ni» tylko arytmetyczne obliczenia. Napisano caªy szereg programów zdolnych do przeprowadzania ró»nego rodzaju rozumowa«, obalaj¡c w ten sposób wczesne mity i przes¡dy dotycz¡ce komputera.

Programy takie pisali pracownicy IBM skupieni wokóª Nathaniela Roche- stera, cz¦sto w ramach nadgodzin, poza wiedz¡ pracodawcy 2.

Ju» w 1956 zaprezentowano w telewizji program A. Samuela graj¡cy w warcaby na poziomie turniejowym. Fakt, »e ogrywaª on swego twórc¦, obaliª przekonanie, »e komputer mo»e wykonywa¢ tylko polecenia jawnie sformuªo- wane przez programist¦. Geometry Theorem Prover H. Gelerntera, podobnie jak Logic Theorist, na podstawie aksjomatów i reguª wnioskowania dowodziª twierdze«, tym razem w dziedzinie geometrii. Gelernter szybko zorientowaª si¦, »e przyczyn¡ sªabych wyników, jest fakt, »e program sprawdza zbyt wiele dróg rozumowa«, które prowadz¡ donik¡d. Wyposa»yª wi¦c swój program w

2A» do 1985 IBM zabraniaªo swoim pracownikom u»ywa¢ okre±le« takich jak inteli- gentny w stosunku do programów i komputerów. Jedni twierdz¡, »e uzasadnione to byªo wzgl¦dami religijnymi (tylko Bóg mo»e stworzy¢ inteligencj¦), inni  »e chodziªo raczej o to, »eby nie wystraszy¢ przyszªych klientów.

(12)

pewne mechanizmy ograniczaj¡ce bezproduktywne rozumowania.

Równie» Newell i Simon, w Carnegie Mellon, szukali sposobów przezwy- ci¦»enia ewidentnego faktu, »e ówczesne parametry komputera okazaªy si¦

dalece niewystarczaj¡ce na to, aby obj¡¢ olbrzymi¡ ilo±¢ dróg rozumowa«, do których prowadziªy aksjomaty i reguªy logiki formalnej. Ich nowy program, General Problem Solver (1961) rozwi¡zuj¡cy zagadki z pewnej ograniczonej klasy, bazowaª na analizie celów i ±rodków, wzorowanej na sposobie jawnie formuªowanych ludzkich rozumowa«.

Centrum bada« w dziedzinie AI staª si¦ jednak w tym czasie MIT, gdzie McCarthy zanotowaª trzy wielkie osi¡gni¦cia: opracowaª j¦zyk programowa- nia wy»szego rz¦du LISP, który staª si¦ gªównym j¦zykiem programowania w AI, przyczyniª si¦ do wynalezienia mechanizmu dzielonego czasu pracy (time sharing), co pozwalaªo dokonywa¢ istotnych oszcz¦dno±ci w kosztach bardzo drogiego wówczas czasu pracy komputera i wreszcie opublikowaª prac¦ Pro- grams with Common Sense (1958), gdzie opisaª Advice Taker, hipotetyczny program, który mo»na uzna¢ za pierwszy projekt kompletnego systemu AI.

W pracy tej wyznaczyª podstawowe zasady wª¡czenia w inteligentny pro- gram wiedzy, zasad formalnego rozumowania, oraz zasad uzupeªniania wie- dzy. Wskazywaª na znaczenie ogólnej zdroworozs¡dkowej wiedzy o ±wiecie.

McCarthy uznawany jest za ojca tradycji logistycznej w AI, bazuj¡cej przede wszystkim na osi¡gni¦ciach logiki formalnej, usiªuj¡cej dostosowa¢ je do celu, jakim jest zbudowanie w peªni inteligentnego systemu.

W tym»e roku 1958 do MIT przeniósª si¦ Marvin Minsky, który miaª bardziej praktyczne podej±cie. Uwa»aª, »e nale»y budowa¢ krok po kroku systemy, które dziaªaj¡; najpierw w ograniczonych dziedzinach, pó¹niej w szerszych. W latach sze±¢dziesi¡tych kilku jego studentów opracowaªo pro- gramy, które rozwi¡zywaªy pewne ±ci±le okre±lone klasy zagadnie«, wymaga- j¡ce od czªowieka inteligencji. Byªy to takie zagadnienia jak obliczanie caªek, proste tekstowe zadania algebraiczne, geometryczne zadania z testów na inte- ligencj¦, czy wreszcie odpowiedzi na pytania w j¦zyku naturalnym, w bardzo ograniczonym zakresie.

W roku 1963 McCarthy przeniósª si¦ do Stanford, gdzie nadal promo- waª badania nad ogólnymi metodami logicznego rozumowania. Ten kierunek bada« wzmocniony zostaª bardzo odkryciem przez J. A. Robinsona (1965) metody rezolucji, dowodzenia twierdze« w j¦zyku logiki pierwszego rz¦du. W tym te» czasie pojawiª si¦ wspomniany ju» program Eliza (J. Weizenbaum, 1965) symuluj¡cy konwersacj¦ ze zrozumieniem.

W roku 1968 na ekrany kin wszedª sªynny lm Stanleya Kubricka i Arthu- 12

(13)

ra C. Clarke'a Kosmiczna Odyseja 2001, którego jeden z bohaterów, pokªado- wy komputer HAL staª si¦ niew¡tpliwym natchnieniem dla wielu przyszªych badaczy AI (HAL, 2000).

W pewnej opozycji do kierunku logistycznego pracowali ci, którzy mieli bardziej in»ynierskie podej±cie do problemu umysªu. Id¡c za ideami zawar- tymi w pracach McCullocha i Pittsa (1943), wprowadzaj¡cymi model sieci neuronowej, maj¡cy ª¡czy¢ podstawowe idee zjologii mózgu z ideami logiki matematycznej, oraz modnej wówczas cybernetyki Wienera (1948), próbo- wali oni skonstruowa¢ komputerowy model mózgu, samoorganizuj¡cej i sa- moucz¡cej si¦ sieci neuronów. Do najsªynniejszych osi¡gni¦¢ tamtego czasu zalicza si¦ Perceptron F. Rosenblatta (1957), system w formie sieci neuro- nowej zdolny do rozpoznawania pewnej ograniczonej klasy obrazów. W tym samym czasie pojawiªy si¦ te» pierwsze pomysªy algorytmów genetycznych, których istot¡ byª z kolei pomysª zastosowania w programach ogólnych idei ewolucji (Friedberg, 1958).

Za ojca tej tradycji bada« w AI, zwi¡zanej z sieciami neuronowymi, a zwa- nej krótko konekcjonizmem (ang. connectionism), niektórzy uznaj¡ Marvina Minsky'ego, jako »e tego tematu dotyczyªa wªa±nie jego praca doktorska z 1954 roku, a sam Minsky wspomina, »e ucz¡c¡ si¦ sie¢ neuronow¡ zbudowaª on sam ju» w 1951 (Minsky and Papert, 1988). Jednak»e w przeciwie«stwie do wielu konekcjonistów Minsky podkre±laª zawsze wag¦ teoretycznej re-

eksji, która powinna towarzyszy¢ eksperymentom.

I w istocie rzeczy to wªa±nie Minsky wraz z Papertem (1969) zadali ci¦»ki cios konekcjonizmowi, krytykuj¡c dotychczasowe badania jako pozbawione kierunku oraz matematycznego rygoru, a tak»e udowadniaj¡c, »e jednopo- ziomowe perceptrony (którymi gªównie si¦ zajmowano) nie s¡ w stanie wy- konywa¢ »adnych istotnych zada«.

Doza realizmu 2.3. Opisuj¡c histori¦ AI, autorzy podr¦czników cz¦sto podkre±laj¡, »e ma ona swoje okresy wzlotów i upadków, przesadnego optymizmu i przesadnego pesymizmu. Krótkie, bo przecie» kilku czy kilkunastoletnie okresy, opatruj¡

romantycznymi nazwami takimi jak Renesans, Odrodzenie, Wieki ciem- ne czy Zima AI. Tymczasem w ka»dym czasie sukcesom towarzyszyªy po- ra»ki, a okresowym faktom obcinania funduszy na AI winni byli w du»ym stopniu sami badacze, którzy bez nale»ytej reeksji i rozeznania w trudno-

±ciach, ch¦tnie szastali obietnicami bez pokrycia. Cz¦sto cytuje si¦ nast¦pu-

(14)

j¡c¡ opini¦ H. Simona (1957):

Nie jest moim celem zaskakiwanie was lub szokowanie  ale najprostszym sposobem uj¦cia tego jest to, »e istniej¡ ju» na ±wiecie maszyny które my±l¡, które ucz¡ si¦ i tworz¡. Co wi¦cej, ich zdolno±¢ do robienia tych rzeczy b¦dzie gwaªtownie wzrasta¢, a wkrótce zakres problemów, które b¦d¡ podejmowa¢, pokryje si¦ z tym, które podejmuje ludzki mózg.

Dziesi¦¢ lat pó¹niej w popularnym magazynie Life zacytowano nast¦pu- j¡c¡ opini¦ Minsky'ego:

Za trzy do o±miu lat b¦dziemy w posiadaniu maszyny o inteligencji prze- ci¦tnego czªowieka. Mam na my±li maszyn¦, która b¦dzie w stanie czyta¢

Szekspira, zmieni¢ olej w samochodzie, bra¢ udziaª w biurowej polityce, opo- wiedzie¢ dowcip, walczy¢. Od tego momentu maszyna ta zacznie si¦ uczy¢

w zawrotnym tempie. Za kilka miesi¦cy osi¡gnie poziom geniusza, a kilka dalszych miesi¦cy pó¹niej jej mo»liwo±ci b¦d¡ niemierzalne.

Wzi¡wszy pod uwag¦, »e opinie takie byªy gªoszone przez szanowanych naukowców ju» od 1957 roku (H. Simon zostaª laureatem Nagrody Nobla), trudno si¦ dziwi¢ ameryka«skiej opinii publicznej, i» wyobra»a sobie, »e Sta- ny Zjednoczone takie maszyny od dawna posiadaj¡. Trudno si¦ te» dziwi¢

fundatorom bada«, »e mocno rozczarowani s¡ ich rezultatami przedstawio- nymi w niezale»nych raportach. Minsky co prawda twierdzi dzisiaj, »e jego wypowied¹ dla Life byªa zmy±lona, »e byª to raczej rodzaj »artu (HAL, 2000, s. 19), ale faktem jest, »e caªy szereg tego typu wypowiedzi rozbudziª mocno wygórowane oczekiwania.

2.4. Praca Minsky'ego i Paperta nie byªa pierwszym kubªem zimnej wody w badaniach AI. Wcze±niej, w roku 1966, rz¡d ameryka«ski wstrzymaª caªko- wicie nansowanie projektu zbudowania programu do tªumaczenia tekstów naukowych z j¦zyka rosyjskiego na angielski. Caªa historia jest do±¢ typowa.

Wystrzelenie przez ZSRR Sputnika w 1957 roku, pierwszego sztucznego satelity Ziemi, spowodowaªo, »e NRC (National Research Council) ch¦tnie wyªo»yª ogromne pieni¡dze na snansowanie projektu obiecuj¡cego przyspie- szenie tªumacze« radzieckich tekstów naukowych. Badaczom wydawaªo si¦,

»e wyposa»enie programu w olbrzymi sªownik oraz zestaw reguª i konstrukcji gramatycznych, powinno spraw¦ w zasadzie zaªatwi¢. A» trudno uwierzy¢,

»e nie dostrzegano wtedy oczywistego faktu, »e tªumaczenie nawet pozornie prostych tekstów wymaga ich rozumienia, »e znaczenie zdania w j¦zyku na- turalnym, w wielkim stopniu, zale»y od kontekstu i wiedzy. Odkrycie tego przez ameryka«skich naukowców kosztowaªo podatnika setki tysi¦cy dolarów

14

(15)

???. Najbardziej znanym rezultatem wieloletnich bada« jest anegdotyczne tªumaczenie angielskiego the spirit is willing but the esh is weak na wódka jest dobra, ale mi¦so zepsute. W raporcie z 1966 roku znalazªo si¦ stwierdze- nie, »e nie powstaª »aden program zdolny do tªumaczenia ogólnych tekstów naukowych i nie wida¢ »adnej wyra¹nej perspektywy zmiany tego stanu rze- czy.Kolejnym kubªem zimnej wody byªa stworzona przez S. Cooka (1971) i R. Karpa (1972) teoria NP-zupeªno±ci. Do tej pory jednym z gªównych kierunków bada« byªy ogólne techniki rozwi¡zywania problemów (Problem Solving), a najbardziej naturaln¡ technik¡ (dla komputera) byªo przeszuki- wanie przestrzeni mo»liwych rozwi¡za«. Gªówny kªopot polegaª na tym, »e bardzo cz¦sto, niezale»nie od stosowanej techniki, ilo±¢ mo»liwych rozwi¡za«

do sprawdzenia rosªa tak szybko w porównaniu z niewielkim wzrostem kom- plikacji problemu, »e bardzo pr¦dko wyczerpywaªy si¦ zasoby pami¦ci kompu- tera i czasu. Zjawisko to nazwano kombinatoryczn¡ eksplozj¡3. Eksplozja ta ma niestety taki charakter, »e jak mo»na uzasadni¢ (zob. rozdziaª ???), nie- wiele tu pomaga ewentualny wzrost pami¦ci i szybko±ci pracy komputerów.

Nauka jak¡ st¡d wyci¡gn¦li badacze AI (i ogólniej, informatycy) jest taka,

»e fakt, i» problem daje si¦ rozwi¡za¢ teoretycznie przy pomocy komputera, wcale nie oznacza jeszcze, »e da si¦ to zrobi¢ w praktyce. Druzgoc¡cy rezultat prac Cooka i Karpa, polegaª na tym, »e udowodnili oni, i» w ogromnej cz¦-

±ci naturalnych problemów pojawiaj¡cych si¦ w praktycznych zagadnieniach owa kombinatoryczna eksplozja jest w zasadzie nieunikniona.

Brak widoków na poradzenie sobie z t¡ fundamentaln¡ trudno±ci¡ byª jednym z gªównych zarzutów tzw. Raportu Lighthilla (1973), na podstawie którego brytyjski rz¡d podj¡ª decyzj¦ o zaprzestaniu nansowego wspierania bada« AI w Wielkiej Brytanii (wsz¦dzie, za wyj¡tkiem dwóch uniwersyte- tów). Byª to z pewno±ci¡ jeden z trudniejszych momentów w historii mªodej dziedziny. A przecie» w tym samym czasie pojawiªy si¦ kolejne sukcesy, otwo- rzyªy si¦ nowe perspektywy.

In»ynieria wiedzy 2.5. Kontynuowano sugerowane przez Minsky'ego badania w ograniczonych dziedzinach, tzw. mikro±wiatach (microworld). Szczególn¡ popularno±¢ zdo- byª Blocks world, którego elementami byªy: zestaw klocków o ró»nych ksztaª-

3Nazwa pochodzi od dziaªu matematyki zwanego kombinatoryk¡, o którym b¦dzie jesz- cze mowa pó¹niej

(16)

tach i kolorach, rozmieszczonych na pªaskiej powierzchni, rami¦ robota zdolne do przenoszenia klocków z miejsca na miejsce, oraz odpowiednie mechanizmy widzenia i rozumienia polece«. Polecenia (w j¦zyku symbolicznym lub natu- ralnym) dotyczyªy zazwyczaj osi¡gni¦cia jakiego± celu w ukªadzie klocków.

Zadaniem programu steruj¡cego robotem byªo zaplanowanie i wykonanie ta- kich dziaªa«, które prowadziªyby do po»¡danego ukªadu. Program musiaª by¢, na przykªad, zdolny do rozumienia, »e aby si¦gn¡¢ po dany klocek, musi najpierw zdj¡¢ klocek le»¡cy na nim, itp. Oczywi±cie, zwykle wszystko dziaªo si¦ wewn¡trz komputera, jak by±my to dzisiaj powiedzieli, w ±wie- cie wirtualnym. Ów mikro±wiat staª si¦ na pocz¡tku lat siedemdziesi¡tych poletkiem bada« dla wielu naukowców w zakresie rozpoznawania obrazu, rozumienia j¦zyka, planowania, uczenia si¦, przynosz¡c pierwsze sukcesy w ograniczonym zakresie i, co mo»e wa»niejsze, u±wiadamiaj¡c badaczom realne problemy. Do najbardziej znanych osi¡gni¦¢ zwi¡zanych z tym mikro±wiatem nale»aª system Shrdlu T. Winograda (1972), zdolny do rozumienia polece«

w j¦zyku naturalnym dotycz¡cych dziaªa« na klockach.

Jednocze±nie w nowopowstaªym SRI (Stanford Research Institute), ju» w latach 1969-1972 prowadzono prace nad projektem Shakey, mobilnym auto- nomicznym robotem, który miaª ª¡czy¢ zdolno±ci logicznego rozumowania z rzeczywist¡ zyczn¡ aktywno±ci¡. Shakey umiaª porusza¢ si¦ na pªaskim te- renie z przeszkodami, przesuwa¢ ruchome obiekty, wspina¢ si¦ na nie, wª¡cza¢

i wyª¡cza¢ ±wiatªa stosownie do potrzeby. Byª istotnym etapem w rozwoju technik automatycznego planowania.

2.6. W roku 1969 powstaª pierwszy system ekspercki Dendral stworzony przez Buchanana, Feigenbauma i Lederberga, maj¡cy na celu zautomaty- zowanie identykacji struktur molekularnych nieznanych zwi¡zków chemicz- nych na podstawie analizy spektroskopowej. Idea polegaªa na tym, »eby wie- dz¦ Lederberga w tym zakresie (który byª laureatem Nagrody Nobla w dzie- dzinie chemii), przekaza¢ programowi, tak aby sam komputer mógª dokony- wa¢ stosownych ekspertyz. Chodziªo tu o ekspertyzy wymagaj¡ce rozumo- wa«, ale takich, które dla eksperta maj¡ charakter raczej rutynowy i dlatego mo»liwy do uogólnienia.

Peªny sukces (Dendral jest u»ywany do dzisiaj) skªoniª Feigenbauma do rozpocz¦cia w Stanford tzw. Projektu Programowania Heurystycznego (HPP).

Daªo to pocz¡tek nowemu, bardzo pr¦»nemu, nurtowi w dziedzinie AI, pod nazw¡ systemy eksperckie. Efektem HPP byª system medyczny Mycin (1976) do diagnozowania infekcji bakteryjnych, którego tzw. powªoka (Emycin) sta-

16

(17)

nowi do dzi± punkt wyj±cia do budowania innych systemów eksperckich, w ró»nych dziedzinach. System geologiczny Prospector (1979) zasªyn¡ª z prawi- dªowej lokalizacji kilku warto±ciowych zªó» rud na terenie USA. Na pocz¡tku lat osiemdziesi¡tych systemy eksperckie zacz¦to produkowa¢ na skal¦ komer- cyjn¡ i obecnie u»ywaj¡ ich (i rozbudowuj¡?) wszystkie wi¦ksze korporacje w USA. (Krytycy twierdz¡ jednak, »e albo twierdzenia te s¡ przesadzone, albo dotycz¡ jedynie dziedzin szczególnie nadaj¡cych si¦ do sformalizowania).

2.7. W tym czasie popularno±¢ zacz¡ª zdobywa¢ pogl¡d, »e istot¡ inteligencji jest wiedza, »e aby rozwi¡za¢ trudny problem, trzeba wªa±ciwie zna¢ jego rozwi¡zanie (a przynajmniej mie¢ wszystkie jego elementy), »e równie» ro- zumienie j¦zyka naturalnego czy rozpoznawanie obrazów wymagaj¡ przede wszystkim wiedzy. Kontrastowaªo to z wcze±niejszym pogl¡dem, »e istot¡

inteligencji jest rozumowanie lub rozwi¡zywanie problemów, dawaªo te» na- dzieje na obej±cie problemu kombinatorycznej eksplozji.

To niezwykle o»ywiªo teoretyczne badania nad reprezentacj¡ wiedzy, czyli zagadnieniem jak uj¡¢ wiedz¦ w formie odpowiedniej dla komputera. Skal¦

trudno±ci ªatwo sobie wyobrazi¢, gdy przyjmiemy, »e chcieliby±my zgroma- dzi¢ w komputerze tak»e wiedz¦ zdroworozs¡dkow¡, t¦ u»ywan¡ przez nas na co dzie«, praktyczne zasady, którymi posªugujemy si¦ cz¦sto nie w peªni

±wiadomie (na przykªad, nie wkªadaj¡c r¦ki do ognia bez potrzeby). Rozwi- ni¦to specjalne j¦zyki programowania ukierunkowane na reprezentacj¦ wiedzy (Prolog, Planner) i ogólne struktury dostosowane do tego celu (sieci seman- tyczne, ramy, itp.) U±wiadomiono sobie, »e ±ci±le wi¡»e si¦ to z problemem rozumienia j¦zyka naturalnego (Schank i Abelson, 1977).

Jednocze±nie, w ograniczonych dziedzinach, konstruowano systemy przyj- muj¡ce polecenia i pytania w j¦zyku naturalnym. Za pierwszy taki system o praktycznym znaczeniu uznaje si¦ Lunar skonstruowany przez Woodsa (1973), pozwalaj¡cy geologom na zadawanie pyta« dotycz¡cych próbek skaª ksi¦»ycowych przywiezionych przez misje Apollo. Pytania formuªowano pi- semnie (z klawiatury). Pierwsze systemy rozpoznaj¡ce mow¦ ludzk¡ z akcep- towalnym bª¦dem (Hersay II, Harpy) pojawiªy si¦ w roku 1980.

W tym czasie Sztuczna Inteligencja byªa ju» uznan¡ i samodzieln¡ dzie- dzin¡ informatyki. Posiadaªa wªasne pisma i staªe konferencje naukowe po-

±wi¦cone wyª¡cznie tematyce AI, lub jej poszczególnym dziaªom. Najbar- dziej presti»owa (odbywaj¡ca si¦ co dwa lata) konferencja International Joint Conference on Articial Intelligence (IJCAI) zorganizowana zostaªa po raz pierwszy w 1969 roku, a w nast¦pnym roku zaªo»ono czasopismo Articial

(18)

Intelligence.

Jest rzecz¡ interesuj¡c¡ zauwa»y¢ przy tym, »e w roku 1980 nie byªo jesz- cze komputerów osobistych IBM i jednym z gªównych problemów entuzjastów nowej rozwijaj¡cej si¦ nauki i technologii byª dost¦p do komputera.

Pi¡ta Generacja 2.8. Lata 1980-1990 s¡ okre±lane przez wielu autorów jako AI Boom. Cho- dzi tu nie tylko o komercyjny sukces systemów eksperckich, ale i o znaczny wzrost nansowania ogólnych bada«. Pocz¡tek temu dali tym razem Japo«- czycy, którzy mi¦dzy innymi wªa±nie dzi¦ki automatyzacji swego przemysªu, robotom pracuj¡cym na ta±mach monta»owych, zawdzi¦czali wielki ekono- miczny sukces.

W 1981, w Japonii ogªoszono wielki projekt badawczy pod nazw¡ Fifth Generation Computer System. Byª to 10-letni plan zbudowania inteligentnych komputerów, których podstawowym, bezpo±rednio wykonywanym j¦zykiem miaª by¢ Prolog. Chodziªo mi¦dzy innymi o to, aby wykorzystuj¡c zwi¦k- szenie mocy obliczeniowej procesorów, umo»liwi¢ komputerowi bezpo±rednie wykonywanie inferencji (wnioskowa«) j¦zyka Prolog, tak samo mniej wi¦cej jak konwencjonalny komputer wykonuje algebraiczno-logiczne operacje kodu maszynowego. Mi¦dzy wieloma ambitnymi celami, zamierzano w ci¡gu 10 lat osi¡gn¡¢ peªne rozumienie j¦zyka naturalnego.

Z pewno±ci¡ strach przed dominacj¡ Japo«czyków4 uruchomiª fundusze w USA i Wielkiej Brytanii. Odpowiedzi¡ Amerykanów byª mi¦dzy innymi, pro- jekt CYC, równie» 10-letni, rozpocz¦ty w 1984 pod kierownictwem D. Lenata, którego gªówn¡ ide¡ byªo wyposa»enie systemu w olbrzymi¡ wiedz¦, w tym zdroworozs¡dkow¡ i odpowiednie mechanizmy wnioskowania, tak aby mógª udziela¢ odpowiedzi na wszelkie sensowne pytanie (a nie tylko te spodziewa- ne podczas gromadzenia wiedzy). Byªby to system, ci¡gle rozwijany, który mógªby by¢ konsultantem dla innych, mniejszych systemów eksperckich. Le- nat (1989) przewidywaª, »e gdy system zostanie oddany do eksploatacji w 1994 roku, zacznie sam si¦ uczy¢ i zdobywa¢ now¡ wiedz¦, czytaj¡c ksi¡»ki,

4Jak dalece Japo«czycy kojarzeni byli z nadchodz¡c¡ er¡ robotów, pokazuje notatka z artykuª w Philadelphia Inquirer z dnia 9.12.1981, pod tytuªem Robot killed repairman, Japan reports (wedle D.C. Dennetta (HAL, 2000) jest to prawdopodobnie pierwsza wia- domo±¢ w historii o tym, »e robot zabiª czªowieka). Chodziªo o nieszcz¦±liwy wypadek w jednej z fabryk Kawasaki, w którym czªowiek potr¡cony zostaª przez automatyczne rami¦

na ta±mie monta»owej.

18

(19)

dziaªaj¡c w ±rodowisku, rozmawiaj¡c z naukowcami, kontaktuj¡c si¦ z innymi komputerami.

Lata osiemdziesi¡te to tak»e odrodzenie si¦ bada« nad sieciami neuro- nowymi, w zwi¡zku z odkryciem (przez kilka grup) efektywnego algorytmu uczenia (back-propagation) dla sieci wielopoziomowych. Na ironi¦ zakrawa fakt, »e jak si¦ pó¹niej zorientowano, algorytm ten zostaª opisany ju» w 1969 roku (Bryson i Ho, 1969), a wi¦c w roku ukazania si¦ ksi¡»ki Minsky'ego i Paperta, oskar»anej o to, »e zawarta w niej totalna krytyka spowodowa- ªa zamro»enie bada« w tej dziedzinie. Minsky i Papert (1988) odrzucaj¡ to oskar»enie, utrzymuj¡c, »e badania same wygasaªy w zwi¡zku z brakiem idei.

Zgadzaj¡ si¦, »e nowe odkrycia s¡ wielce obiecuj¡ce w dªu»szej perspektywie, ale ponownie krytykuj¡ przedstawicieli konekcjonizmu za brak matematycz- nego rygoru, brak reeksji teoretycznej i dziaªanie na ±lepo.

Oparcie bada« na silnych podstawach teoretycznych, rozwijanie niezb¦d- nych formalizmów, to tendencja przeªomu lat 80/90. Oparcie si¦ na mate- matycznym formalizmie przyniosªo praktyczne sukcesy w dziedzinie rozpo- znawania mowy, w planowaniu, czy systemach decyzyjnych. Zastosowanie, w szczególno±ci, metod teorii prawdopodobie«stwa, pozwoliªo zbudowa¢ nowe- go rodzaju systemy eksperckie, co przeªamaªo pewien zastój w tej dziedzinie, równie» zwi¡zany z brakiem teorii.

2.9. Jednak»e nadziejom, »e AI wychodzi na prost¡ silny cios zadaªo upªyni¦- cie 10-letnich terminów projektów Fifth Generation i CYC, których rezultaty byªy najogl¦dniej mówi¡c mizerne, w porównaniu z zapowiedziami. Jak to ja- sno wynika z raportu zamieszczonego w Communications of the ACM (FG, 1993), w±ród rezultatów projektu Pi¡ta Generacja nie ma »adnego istotnego odkrycia naukowego, ani »adnych warto±ciowych praktycznych zastosowa«!

Ci¡gle nie istnieje program, który pozwoliªyby komputerowi rozumie¢ j¦zyk naturalny, poza ±ci±le okre±lonym zakresem. CYC, mimo swej astronomicz- nej ceny, nie speªniª, »adnych oczekiwa« zapowiadanych na pocz¡tku (Ste-

k, Smoliar 1993). Nie tylko nie potra si¦ uczy¢, lecz jak to brutalnie uj¡ª H. Dreufus w czasie audycji telewizyjnej, okazaª si¦ w rezultacie tak samo t¦py jak wszystkie inne programy komputerowe(Gams, 2001???).

Z wi¦kszym uznaniem spotkaªy si¦ rezultaty projektu SOAR (Newel, 1990), w którym braªo udziaª wiele grup badawczych na caªym ±wiecie, wspóª- pracuj¡c bez »adnego centralnego nansowania. Wedle Franklina (1995), jest to jak dot¡d najbardziej inteligentny system komputerowy. Bazuje on na lo- gice formalnej, specjalnych mechanizmach reprezentacji wiedzy i uczy si¦,

(20)

zachowuj¡c w pami¦ci uogólnienia znalezionych rozwi¡za«. Dzi¦ki temu, w pewnych sytuacjach mo»e dziaªa¢ w sposób odruchowy, dzi¦ki czemu szcze- gólnie nadaje si¦ do zastosowania w robotach (Laird i in., 1991). Podobna jest zasada systemu THEO (Mitchell, 1990).

Niestety, praktyczne znaczenie owych prób jest ci¡gle niewielkie. Do praw- dziwego sukcesu droga wydaje si¦ jeszcze daleka i nie wszyscy wierz¡, »e jest to droga wªa±ciwa. Munakata (Fundamentals of the New Articial Intelligen- ce; Beyond Traditional Paradigms??? sprawd¹ SCI NET, 1998) wierzy, »e przyszªo±¢ jest raczej w nowej architekturze komputerów, w sieciach neuro- nowych, algorytmach genetycznych i zbiorach rozmytych. Japo«ski Sixth Ge- neration projekt (który nie wzbudziª ju» takiego zainteresowania i obaw, jak poprzedni), nakierowany na realne zastosowania, bazuje na sieciach neuro- nowych, optycznych poª¡czeniach i zmasowanych obliczeniach równolegªych.

2.10. Koniec XX wieku roz±wietlony zostaª pokonaniem w 1997 roku przez program Deep Blue szachowego mistrza ±wiata Gary Kasparowa. Od dawna ju» programy komputerowe graªy w szachy na poziomie profesjonalnym i to na zwykªych osobistych komputerach. Kasparow przegrywaª ju» z kompute- rem w grze szybko±ciowej na krótki czas, a w 1996 zdarzyªo mu si¦ przegra¢

normaln¡ parti¦. Jednak»e dopiero zwyci¦stwo Deep Blue nad Kasparowem w peªnym meczu nabraªo wymiaru symbolicznego. Królewska gra, uwa»ana za jeden z bastionów ludzkiej inteligencji, przestaªa by¢ domen¡ czªowieka.

Byªby to mo»e powód do wielkiego triumfu dla badaczy AI, gdyby nie fakt, »e konstruktorzy szachowych programów dawno ju» zarzucili ide¦ na-

±ladowania ludzkiego sposobu gry, ludzkiej inteligencji, na rzecz wykorzysta- nia olbrzymiej szybko±ci komputera dla analizy jak najwi¦kszej ilo±ci ruchów naprzód. Okazaªo si¦, »e mo»liwo±ci obliczeniowe Deep Blue i specjalnie wy- produkowany mikroprocesor s¡ ju» dla ludzkiego intelektu wyzwaniem zbyt wielkim. Zwyci¦stwo komputer odniósª (wreszcie) nie dzi¦ki lepszej strategii, ale dzi¦ki lepszej technologii ???5.

Wiek XXI

5Simon przewidywaª w 1957, »e komputer pokona mistrza ±wiata w latach sze±¢dziesi¡- tych. Nawiasem mówi¡c, ten»e Deep Blue nie jest w stanie wygra¢ z »adnym czªowiekiem w chi«sk¡ gr¦ Go, bo w gr¦ t¦ gra¢ po prostu nie umie (nie do tego zostaª zaprogramowany).

A co mo»e ciekawsze, jak do tej pory nie udaªo si¦ skonstruowa¢ programu, który graªby w Go na przyzwoitym poziomie (mimo nagrody 2 milionów dolarów (!) dla pierwszego programu, który osi¡gnie poziom mistrzowski w tej grze).

20

(21)

2.11. Jak dot¡d najbardziej chyba spektakularnym osi¡gni¦ciem sztucznej inteligencji s¡ mówi¡ce bazy danych i automatyczne systemy przyjmowania zlece« rozpoznaj¡ce j¦zyk naturalny. Systemy takie funkcjonuj¡ ju» doskonale w praktyce. Bazuj¡ one przede wszystkim na zaawansowanych osi¡gni¦ciach w dziedzinie rozpoznawania mowy, o których b¦dzie mowa w rozdziale ???.

Istniej¡ tak»e sprawdzaj¡ce si¦ w praktyce systemy rozpoznawania obra- zu, automatyczni dozorcy, których zadaniem jest alarmowanie czªowieka w sytuacjach, gdy dzieje si¦ co± nadzwyczajnego. Systemy takie wykorzystywa- ne s¡ w misjach kosmicznych, w monitorowaniu wa»nych obiektów lub ruchu drogowego.

O osi¡gni¦ciach robotyki informuje na bie»¡co prasa i magazyny popularno- naukowe. W telewizji obserwowa¢ mo»emy roboty wykorzystywane w ekstre- malnych warunkach. Chocia» i w tej dziedzinie napotkali±my na niespodzie- wane trudno±ci, to post¦p jest staªy i wyra¹ny.

Z pewno±ci¡ gorzej jest w zakresie sztucznego umysªu. Wi¦kszo±¢ badaczy zgadza si¦ co do tego, »e Deep Blue nie przejawia »adnych wªa±ciwo±ci, które mo»na by nazwa¢ inteligencj¡. Niektórzy zwracaj¡ jednak uwag¦, »e jest to los wszystkich wynalazków AI. W momencie, gdy jaki± cel zostanie osi¡gni¦ty, gdy komputer zdolny jest ju» robi¢ co±, co kiedy± uchodziªo za wymagaj¡ce inteligencji, to nast¦puje raczej zmiana pogl¡dów na natur¦ inteligencji, ni»

przyznanie, »e jaki± stopie« inteligencji w komputerach zostaª ju» osi¡gni¦ty.

Faktycznie na rynku oprogramowania funkcjonuje wiele produktów AI (bez- po±rednich lub ubocznych) wykonuj¡cych ró»ne zadania, przy których ludzie normalnie posªuguj¡ si¦ inteligencj¡: od licznych i ró»norodnych systemów eksperckich, poprzez niezwykle zaawansowany matematycznie system Ma- thematica, a» po inteligentnych asystentów i kreatorów zada« w aplikacjach Windows. Faktem jednak jest, »e nie istnieje jeszcze system, który zasªugi- waªby na miano prawdziwej sztucznej inteligencji, który byªby porównywalny, powiedzmy, z wizj¡ komputera HAL w lmie Kosmiczna Odyseja 2001.

Ów lm, stanowi¡cy natchnienie dla wielu badaczy AI, uwa»any byª za najbardziej naukowe marzenie (the best-informed dream). Lecz min¡ª oto magiczny rok 2001, a tu nie ma ani wyprawy na Jowisza, ani techniki hi- bernacji, ani komputera HAL, który mógªby samodzielnie zatroszczy¢ si¦

o dobro kosmicznej misji, nawet wbrew ludzkiej cz¦±ci zaªogi. I paradoksal- nie, dzi± mo»na rzec, »e w tej niespeªnionej wizji najbardziej fantastycznym pomysªem byª chyba wªa±nie HAL. O tym, jak daleko nam jeszcze do skon- struowania HALa, wedªug najwybitniejszych przedstawicieli AI, mo»na prze- czyta¢ w zbiorze esejów Hal's Legacy pod redakcj¡ D.G. Storka (HAL, 2000).

(22)

Tu zacytujmy tylko znamienn¡ wypowied¹ redaktora:

Powiedzmy sobie jasno: HAL nie istnieje i nie ma »adnych szans na to, aby jaka± cudowna zmiana w nansowaniu lub ideach wzniosªa AI na poziom reprezentowany przez HALa przed rokiem 2001. Zrozumieli±my, »e sztuczna inteligencja  rzecz charakterystycznie niejasna, której nie umiemy nawet dobrze zdeniowa¢  nale»y do najtrudniejszych zagadnie« nauki; na równi z wypraw¡ na Ksi¦»yc, okre±leniem podstawowych skªadników materii, czy rozwi¡zaniem zagadki »ycia. Ale byli±my na Ksi¦»ycu, jeste±my, jak si¦

wydaje, na drodze do zgª¦bienia pozostaªych tajemnic  dlaczego nie mamy sztucznej inteligencji?

2.12. Ów brak spektakularnego sukcesu, szczególnie wobec zbyt hucznych zapowiedzi (a tak»e emocje lub obawy przed rychªym pojawieniem si¦ my-

±l¡cych maszyn) spowodowaª wzrastaj¡c¡ krytyk¦, szczególnie z zewn¡trz AI. Chocia» bardzo krytyczne opinie pojawiaªy si¦ ju» wcze±niej (Dreyfus 1979, Searle 1982), jako wyra»ane przez lozofów, nie robiªy one wi¦kszego wra»enia w ±rodowisku AI. Dopiero ksi¡»ki Minsky'ego (1987???), Penrose'a (1989) i Edelmana (1992) zostaªy potraktowane powa»niej, co spowodowane zostaªo niew¡tpliwie stopniowym u±wiadamianiem sobie kl¦ski projektów Fi- fth Generation i CYC, jak i rang¡ naukow¡ autorów (Penrose jest ±wiatowej sªawy matematykiem i zykiem, Edelman  neurologiem, laureatem Nagrody Nobla).

Co± jest nie tak!  owo przekonanie zacz¦ªo zyskiwa¢ sobie zwolenników tak»e w obr¦bie AI. Istnieje jednak»e caªa gama opinii na temat tego, co jest nie tak i co trzeba zmieni¢. Podczas gdy jedni twierdz¡, »e co± zªego jest w samym formalnym podej±ciu do zagadnienia umysªu, inni uwa»aj¡, »e to brak odpowiednich matematycznych narz¦dzi jest ¹ródªem kªopotów. W nowszych podr¦cznikach akademickich AI pisze si¦, »e wakuje w niej posa- da peªnoetatowego Einsteina (Russell and Norvig, 2003). Z drugiej strony, pod hasªem sªabej AI tworzy si¦ ±rodowisko naukowców, którzy docho- dz¡ do wniosku, »e inteligencji nie mo»na stworzy¢ przy pomocy cyfrowych komputerów (Gams, 2001???) i proponuj¡ ró»ne remedia: od nowych forma- lizmów, obejmuj¡cych rzekomo wi¦cej ni» maszyna Turinga, po propozycje

zmi¦kczenia i zdeformalizowania matematyki i nauk ±cisªych. Póki co jed- nak»e, te nowe propozycje maj¡ zbyt spekulatywny charakter, »eby miaªy jaki± wyra¹niejszy wpªyw na prowadzone badania.

Aktualne kierunki bada«

22

(23)

2.13. Jak ju» wspomniaªem podstawowy podziaª odpowiada trychotomii: cia- ªo, zmysªy, dusza. Mamy wi¦c do±¢ odr¦bn¡ dziedzin¦ robotyki, o której wiele w tej ksi¡»ce mówi¢ nie b¦dziemy, mamy dziedziny rozpoznawania obrazu i mowy, a tak»e syntezy mowy i caªy szereg kierunków, które skªadaj¡ si¦ na dziedzin¦ sztucznej inteligencji w w¦»szym sensie.

Pewne zagadnienia w robotyce, a jeszcze bardziej w rozpoznawaniu obra- zu i mowy, wi¡»¡ si¦ ±ci±le z zagadnieniem konstrukcji sztucznego umysªu. Na przykªad, wydaje si¦, »e niezb¦dnym elementem prawidªowego rozpoznania obrazu jest wiedza o tym, co ten obraz przedstawia. Dlatego w podr¦cznikach sztucznej inteligencji rozumianej w w¦»szym sensie znale¹¢ mo»na zwykle roz- dziaªy o robotyce i o rozpoznawaniu obrazu i mowy.

W ksi¡»ce tej, w dalszym ci¡gu, b¦dziemy posªugiwa¢ si¦ poj¦ciem sztucz- nej inteligencji, AI, wyª¡cznie w w¦»szym sensie, odnosz¡cym si¦ do zadania skonstruowania sztucznego umysªu. Rozpoznawaniem obrazu i mowy b¦dzie- my zajmowa¢ si¦ o tyle, o ile ma to zwi¡zek z my±leniem i wiedz¡.

Obecnie, na pocz¡tku XXI wieku, gªówny nurt bada« w sztucznej inteli- gencji bazuje (nadal) na ideach matematyki i logiki, w przekonaniu, »e praw- dziwa nauka, je±li tylko to jest mo»liwe, oparta jest na dobrej matematyce.

Technologia komputerowa, której olbrzymiego sukcesu nikt nie mo»e kwestio- nowa¢, wyrosªa przecie» z idei logiczno-matematycznych. Komputery cyfrowe wymagaj¡ matematycznej ±cisªo±ci. W nurcie tym, za rzecz pierwszorz¦dn¡, uwa»a si¦ budowanie zwartej i solidnej teorii, planowanie i wykonywanie eks- perymentów w powi¡zaniu z teori¡, tak jak w zyce. Jednocze±nie, podkre±la si¦ dzi±, »e teori¦ nale»y ª¡czy¢ z rzeczywistymi zastosowaniami (to oczywi-

±cie próba wyci¡gni¦cia nauki ze spektakularnych pora»ek). Nurt ten zwany jest nurtem klasycznym (lub logistycznym, formalnym, a tak»e siln¡ AI) i przeciwstawia mu si¦ inne nurty i podej±cia (lub nawet próby takowych).

Nurt in»ynierski nacisk kªadzie na konstruowanie ju» teraz dziaªaj¡cych w praktyce systemów, w nadziei »e ich ª¡czenie jak i post¦py technologii do- prowadz¡ do systemu, który zacznie przejawia¢ cechy inteligencji. Bywa te»

nazywany niewidzialn¡ AI, bo inteligencja ma si¦ w nim wyªoni¢ nie wia- domo sk¡d, lub konekcjonizmem, w tym sensie, »e ide¡ jego jest ª¡czy¢ i ª¡czy¢, a» si¦ co± (by¢ mo»e) wyªoni. W ±ci±lejszym sensie nazwa konekcjo- nizm zarezerwowana jest dla bada« nad sieciami neuronowymi (których isto- t¡ s¡ wielopoziomowe poª¡czenia mi¦dzy w¦zªami sieci) i dla idei, »e trzeba najpierw skonstruowa¢ model mózgu, o odpowiednio wielkich mo»liwo±ciach obliczeniowych, a potem zastanawia¢ si¦ jak tam umie±ci¢ inteligencj¦ (o ile taki model nie b¦dzie jej posiadaª sam przez si¦). Poniewa» w badaniach nad

(24)

sieciami neuronowymi dominowaªo przez dªugi czas podej±cie in»ynierskie, niektórzy nurty te uto»samiaj¡.

Mi¦dzy obu nurtami istniaª zawsze pewien antagonizm (ujawniaj¡cy si¦

czasami z wielk¡ siª¡). Minsky, na przykªad mówiª, »e konekcjoni±ci uwa»aj¡

za powód do dumy fakt, »e nie rozumiej¡, co si¦ dzieje w budowanych przez nich systemach.

Jednak»e nawet w samym nurcie klasycznym istniej¡ spi¦cia i rozbie»ne tendencje. Do takich nale»y, na przykªad, ostra debata w poªowie lat osiem- dziesi¡tych pomi¦dzy szkoªami logiczn¡ i probabilistyczn¡, w której padaªy tak niewyszukane okre±lenia, jak logiczna maa (Neufeld 1994). Wydaje si¦,

»e nat¦»enie rozgrywek na tle personalnym i ambicjonalnym jest w AI nieco wi¦ksze, ni» w pokrewnych dziedzinach i zwi¡zane to jest oczywi±cie z faktem,

»e mo»na tu byªo wygra¢ du»e pieni¡dze. Owe rozgrywki, blokowanie prac i nowych idei, nie sªu»¡ post¦powi bada« i mo»na zasadnie przypuszcza¢, »e prawdziwa sztuczna inteligencja, jak wiele innych wielkich idei, przyjdzie do Ameryki z zewn¡trz (w ramach polityki imigracyjnej).

Istniej¡ ró»ne klasykacje dziedzin i obszarów bada« AI, ró»na kolejno±¢

i sposób prezentacji tematów. Istnieje wiele szczegóªowych kierunków ba- da« AI, które reprezentuj¡ ró»ne szczegóªowe aspekty zasadniczego celu i wzajemnie si¦ przenikaj¡. W tabeli ??? podany jest przykªadowy spis tema- tów konferencyjnych z zakresu AI. Nazwy mówi¡ same za siebie: Techniki rozwi¡zywania problemów, Rozumowanie, Planowanie, Rozumowania w wa- runkach niepewno±ci, Sieci neuronowe, Logika dla AI, Automatyczne dowo- dzenie twierdze«, Reprezentacja wiedzy, Nabywanie wiedzy, Systemy ucz¡ce si¦, In»ynieria wiedzy, Bazy wiedzy, Systemy eksperckie, Rozumienie j¦zyka naturalnego, Przetwarzanie j¦zyka naturalnego, Rozpoznawanie obrazu. Do tego dochodz¡ dziedziny ±ci±le zwi¡zane z AI, takie jak kognitywistyka czy

lozoa AI.

W badaniach tych jest wiele interesuj¡cych osi¡gni¦¢, które jednak cz¦sto niewiele wspólnego maj¡ z fenomenem inteligencji: bardziej inteligentne s¡ w nich jedynie rozwi¡zania lub idee programistyczne. Cz¦±¢ z badaczy przestaje u»ywa¢ szyldu AI, nawi¡zuj¡c raczej do innych bada« w dziedzinie informa- tyki. Je±li nie nast¡pi przeªom w zasadniczym nurcie sztucznej inteligencji, najlepsi badacze przestan¡ si¦ identykowa¢ z nazw¡ AI i sam¡ nazw¦ spo- tka¢ mo»e los tak popularnej swego czasu cybernetyki. Niezale»nie jednak od tego czy jest szansa na przeªom, czy nie, rzetelna reeksja na metod¡ jest dzi± niezb¦dna, a to, co si¦ udaªo i czego si¦ nie udaªo osi¡gn¡¢ w badaniach nad sztuczn¡ inteligencj¡, ma tu zasadnicze znaczenie.

24

Cytaty

Powiązane dokumenty

Problem reprezentacji wiedzy jest centralny dla wszystkich dziedzin i technik sztucznej

 Problemem staje się duża ilość danych uczących, co związane jest z nieraz ogromną ilością optymalizowanych zmiennych – tutaj

Horzyk, A., Innovative Types and Abilities of Neural Networks Based on Associative Mechanisms and a New Associative Model of Neurons - referat na zaproszenie na

Pseudoneuronów jest znacznie mniej niż wzorców uczących, każdy taki pseudoneuron powinien średnio reprezentować pewną ilość tych wzorców, które potencjalnie mogą należeć

rozpoczynających się od różnie wylosowanych wag początkowych odległość neuronów zwycięskich reprezentujących najmocniejsze klasy znacznie się różni.. Neurony te nie muszą

Sensory w polach sensorycznych tworzone są, jeśli po prezentacji bodźca żaden z istniejących sensorów nie zareagował odpowiednio mocno, czyli gdy dystans wartości bodźca

wnioskowania dają N zbiorów rozmytych, oraz systemy typu B, na wyjściu którego otrzymujemy jeden zbiór rozmyty,. który jest wynikiem agregacji rezultatów wnioskowania

pierwsza warstwa konwolucyjna bierze jako obraz wejściowy jedną składową koloru R, G lub B surowego obrazu, a różne neurony względem wymiaru głębokości tej sieci (które tworzą