Wykªad 1
Piotr W ˛ asiewicz
Zakład Sztucznej Inteligencji - ISE PW
pwasiewi@elka.pw.edu.pl
systemów
1. M.J. Kasperski, "Sztuczna Inteligencja", Helion, 2003 2. J.J. Mulawka, "Systemy Ekspertowe", PWN, 1996 3. P. Cichosz, "Systemy ucz ˛ ace si ˛e", WNT, 2000
4. L. Bolc, W. Borodziewicz, M. Wójcik "Podstawy
przetwarzania informacji niepewnej i niepełnej", seria
Współczesna Nauka i Technika - Informatyka, PWN, 1991 5. R. Rychlik, M. Wójcik, "Od logiki do reprezentacji wiedzy",
WNT - Informatyka, PWN
6. A. Skowron, "Podstawy Sztucznej Inteligencji", WNT - Informatyka, PWN
7. L. Bolc, Zaremba, "Wprowadzenie do uczenia si ˛e maszyn",
PWN, 1993
Sztuczna Inteligencja - SI - nauka o budowaniu maszyn robi ˛ acych rzeczy, które, jako
skonstruowane przez człowieka, wymagałyby inteligencji (M. Minsky)
Stworzenie obrazu my ´sl ˛ acej ludzkiej istoty - stworzenie człowieka elektronicznego
Sztuczna Inteligencja - jest radykalnym wyrazem
mo˙zliwo´sci komputera cyfrowego, jest pochwał ˛ a
nowej technologii
Celem Sztucznej Inteligencji jest stworzenie systemów:
my´sl ˛ acych jak ludzie tzn.
formułuj ˛ acych w podobny sposób my´sli np. GPS
my´sl ˛ acych rozumnie tzn.
formułuj ˛ acych my´sli z po- moc ˛ a komputerowych mo- deli np. systemy eksperto- we
działaj ˛ acych jak ludzie tzn.
o reakcjach wygl ˛ adaj ˛ acych tak samo np. Eliza
działaj ˛ acych rozumnie tzn.
podaj ˛ acych suboptymalne,
satysfakcjonuj ˛ ace rozwi ˛ a-
systemów inteligentny h
• Arystoteles - człowiek jest zwierz ˛eciem wyposa˙zonym w logos tnz.
mówienie lub pojmowanie, czy te˙z my´slenie logiczne, łaci ´nski odpowiednik ratio oznacza ju˙z tylko obliczanie
• Kartezjusza res cogitans tzn. software (umysł) oraz res extensa tzn.
hardware (ciało). Zwierz ˛eta s ˛ a maszynami jak mechaniczne lalki.
Kartezjusza sensus communis to zmysł wspólny według Lema
inteligencji nie da si ˛e wytworzy´c w zamkni ˛etym ´srodowisku (mózg w słoju tylko ´sniłby)
• La Mettrie - umysł konsekwencj ˛ a skomplikowania materii, ale sam j ˛ezyk odró˙znia człowieka od zwierz ˛ at
• W 1614 r. Jan Napier odkrywa logarytmy , a 8 lat pó´zniej Wiliam Oughtred jest wynalazc ˛ a suwaka logarytmicznego, za´s w 1642 r.
Bła˙zej Pascal w konstruuje maszyn ˛e dodaj ˛ ac ˛ a 8 cyfrowe liczby tzw.
"Pascalin ˛e" . Kilka lat wcze´sniej w 1623 r. Wilhelm Schickard,
• Dalgarna "Sztuka znaków" mówi o uniwersalnym j ˛ezyku wszystkich ludzi np. je´sli n oznacza "˙zyw ˛ a istot ˛e", e - "zwierz ˛e", k -
"czworonoga", to neke jest odpowiednikiem słowa "ko ´n", neki to
"osioł" itd.
• Gottfried Leibniz tworzy poj ˛ecie maszyny my´sl ˛ acej w sensie Leibniza systematyzuje wiedz ˛e tworz ˛ ac odpowiedni j ˛ezyk. Ma pami ˛e´c,
sensory i uczy si ˛e (dodaje nowe obiekty) oraz przeprowadza dowody w uniwersalnym j ˛ezyku opartym na systemie dwójkowym z zapisem na maszynie kulkowej przypominaj ˛ acej bilard (analogicznie do
przepływu elektronów). W 1694 r. powstaje jego maszyna dodaj ˛ aca, odejmuj ˛ aca, mno˙z ˛ aca i pierwiastkuj ˛ aca, wcze´sniej niezale˙znie z Isaac’iem Newtonem odkrywa rachunek ró˙zniczkowy
• Charles Babbage i Ada Lovelace - maszyna licz ˛ aca jak mechaniczne krosno "tka" wzory i nigdy nie wychodzi poza program. Podczas, gdy Karol my´sli o konstrukcji maszyny ró˙zniczkowej, Ada marzy o
maszynie graj ˛ acej i maluj ˛ acej. Niedoko ´nczona uniwersalna maszyna
"ró˙zniczkowa" Karola ma 15 ton i składa si ˛e z wielu zegarków i
• Boole w połowie XIX wieku tworzy swoj ˛ a algebr ˛e operuj ˛ ac ˛ a na
liczbach w systemie dwójkowym i staje si ˛e ona podstaw ˛ a najbardziej uniwersalnego j ˛ezyka na ´swiecie, ale j ˛ezyka maszyn.
• Syn Karola, Henry Prevost, konstruuje liczydło "młynek"
• Godel ogłasza ˙ze dla dowolnego systemu formalnego, który oznaczymy jako M , zawieraj ˛ acego cz ˛e´s´c arytmetyki liczb
naturalnych jest mo˙zliwe skonstruowanie w j ˛ezyku systemu M takiego zdania, które nie tylko nie da si ˛e udowodni´c w tym M , ale jego negacja pozostanie tak˙ze bez dowodu.
• Konrad Zuse w 1936 r. opracowuje na przeka´znikach
elektromagnetycznych pierwszy kalkulator Z1, a do 1941 Z2 i Z3.
Wszystkie pracowały na dziurkowanej ta´smie filmowej. Ostatni był Z5, do 1955 r. pracował na politechnice w Zurichu
• Polscy matematycy Marian Rejewski, Henryk Zygalski, Jerzy
• Turing tworzy model teoretyczny ka˙zdego komputera tzw. Maszyn ˛e Turinga podobn ˛ a do rybosomu organelli komórkowej czytaj ˛ acej ni´c rna (dna) i tworz ˛ acej odpowiednie ła ´ncuchy peptydów (białka)
• Ten sam Turing w czasie wojny zajmuje si ˛e tysi ˛ acami deszyfruj ˛ acych
"bomb" i konstruuje pot ˛e˙zniejsze urz ˛ adzenie utrzymywane do 1976 r.
w tajemnicy tzw. Collossusa składaj ˛ acego si ˛e z 15 tysi ˛ecy lamp i
odczytuj ˛ acego ta´sm ˛e perforowan ˛ a z pr ˛edko´sci ˛ a 5 tys. znaków/s czyli około 50 km/h! 10 podobnych maszyn zmusiło Niemców do
zmieniania szyfrów Enigmy, nie co miesi ˛ ac, ale codziennie
• John von Neumann w latach 40-stych XX wieku unowocze´snia
ENIACA licz ˛ acego z pr ˛edk. 5 tys. 10-cio cyfrowych liczb na sekund ˛e, o rozmiarach 12 na 6 metrów, zło˙zonego z 42 stalowych szaf, 19 tys.
lamp, 50 tys. oporników, pobieraj ˛ acego 140 kWh oraz z systemem
wentylacyjnym opartym na dwóch wielkich silnikach Chryslera. Przy
okazji tworzy model sekwencyjnej maszyny zwanej maszyn ˛ a von
Neumanna, gdzie program i dane s ˛ a przechowywane w stałej
pami ˛eci w postaci binarnej, a pobierane s ˛ a sekwencyjnie do
• Lem przytacza przykład planety gramofonu z gigantyczn ˛ a pami ˛eci ˛ a znaj ˛ ac ˛ a odpowied´z na wszystkie pytania (np. Deeper Blue z
programem gigantem tworzonym 6 lat, który wygrał z Kasparowem), ale z drugiej strony wspomina o opowiadaniu Dnieprowa, gdzie
tranzystory zast ˛epuj ˛ a ludzie i podczas procesu tłumaczenia pojedy ´nczy tranzystor nic nie wie o samym tłumaczeniu, gdy˙z przekazuje pojedy ´ncze litery i operacje na nich tzw. pó´zniejszy argument Chi ´nskiego Pokoju Searle’a
• Jednak mimo nie´swiadomo´sci neuronów mózg ludzki ma
´swiadomo´s´c jako cało´s´c tzw. pó˙zniejszy argument Jasnego Pokoju (poruszanie magnesem w pokoju nie generuje ´swiatła, ale mo˙ze jest zbyt wolne, to samo stosujemy do oblicze ´n i komputerowych
architektur czyli magnetyzm i elektryczno´s´c jako programy wystarcz ˛ a
razem z energi ˛ a jako składni ˛ a zda ´n do udowodnienia istoty ´swiatła
tutaj inteligencji)
• 1943 r. - Thomas Watson z IBM-a szacuje zapotrzebowanie na
komputery na 5 sztuk, a ju˙z w latach 60-tych w ka˙zdej korporacji jest co najmniej jeden komputer np. pierwszy twardy dysk 5MB IBM-a z 1956 r. kosztował milion dolarów
• 1977 r. - Ken Olson szacuje, ˙ze nie b ˛edzie popytu na osobiste
komputery, kilka lat pó´zniej Steve Jobs i Stephen Wozniak sprzedaj ˛ a tysi ˛ ace takich komputerów
• 1982 r. - człowiekiem roku tygodnika "Time" zostaje komputer
• Analogicznie mo˙zliwo´sci powstania Internetu, czy darmowego systemu Linux nie brano w ogóle pod uwag ˛e
• 1997 r. - Bill Gates w "Droga do przyszło´sci" opisuje przyszło´s´c
pełn ˛ a komputerów zaspokajaj ˛ acych codzienne potrzeby: pomoc przy leczeniu, zakupach, rozrywce. Rok pó´zniej Howard Segal w "Nature"
stwierdza, ˙ze to naiwne teorie, ˙zycie człowieka jest pełne uczu´c,
• 1995 r. - w "Business Week" artykuł o zbli˙zaj ˛ acej si ˛e sztucznej
inteligencji opisuj ˛ acy sieci neuronowe, algorytmy ewolucyjne, system ekspertowy itd.
• Inni badacze wspominaj ˛ a o superkomputerach o mo˙zliwo´sciach mózgu małych ssaków, a wszyscy zapominaj ˛ a o znacznie wi ˛ekszej zło˙zono´sci własnych organizmów, a nawet jednej komórki, której dokładnej budowy jeszcze nie poznali, a mo˙ze i nigdy nie poznaj ˛ a.
Przykładem mo˙ze by´c inteligencja pantofelka
• St ˛ ad wniosek, ˙ze pojedy ´nczy mózg to 20 miliardów komputerów czyli komórek, których poł ˛ aczenia, gdyby rozpl ˛ ata´c, zło˙zone razem
si ˛egałyby do Sło ´nca (150 milionów kilometrów) lub i dalej
• Dla przykładu dese ´n zwykłego li´scia zajmuje wi ˛ecej informacji ni˙z
mie´sci si ˛e w 20 tomach Encyclopaedia Brytannica
• "There’s Plenty of Room at the Bottom" Richard Feynmana -
podstawowe kompendium wiedzy z 1959 roku na nast ˛epne sto lat
• Główka szpilki powi ˛ekszona 25000 razy umo˙zliwia zapisanie
wszystkich stron 20 tomów Encyklopedii Brittanica, gdy˙z najmniejsza kropka zmniejszona 25000 razy zawiera ci ˛ agle 1000 atomów
• Wszystkie ksi ˛ a˙zki na ´swiecie to około 50 mln ksi ˛ a˙zek (np. British Museum posiada 5 mln ksi ˛ a˙zek) zmieszcz ˛ a si ˛e na ok. 40 kartkach rozmiaru A4 lub je´sli jeden bit informacji to kostka o boku 5 atomów (125 atomów) to zmieszcz ˛ a si ˛e w sze´scianie wielko´sci
najmniejszego ziarnka piasku (DNA dla przykładu zu˙zywa 50 atomów na bit informacji)
• Miniaturyzacja ukladów scalonych powoduje przyrost mocy
obliczeniowej i pojemno´sci pami ˛eci - po 2050 roku według prawa
Moore’a (moc obliczeniowa podwaja si ˛e co 1,5 roku) komputery
• "Deep Blue" IBM-a 1996 r. i 1997 r. rozgrywał mecze w szachy z mistrzem ´swiata Kasparowem
• Po 100 posuni ˛eciach jest ju˙z około 10
150mo˙zliwo´sci czyli jeden ruch jest wybierany spo´sród wielu mo˙zliwych - przeci ˛etnie 35 przy ka˙zdym ruchu jednego przeciwnika np. na pocz ˛ atku 20 ruchów białych i 20 ruchów czarnych daje 400 mo˙zliwo´sci po pierwszej kolejce
• Drzewo posuni ˛e´c zawiera wszystkie partie szachowe od pocz ˛ atku istnienia tej gry, a tak˙ze wszystkie przyszłe, ale niemo˙zliwe jest
zapisanie go na jakichkolwiek dyskach cho´cby w odległej przyszło´sci.
Komputer pami ˛eta wszystkie partie arcymistrzów do 100 lat wstecz
• 200 mln operacji na sekund ˛e w 256 procesorach czyli 50 mld w ci ˛ agu paru minut. Wraz algorytmem eliminacji słabych posuni ˛e´c komputer widzi wszystkie mo˙zliwe do sytuacje 10 ruchów naprzód
• Algorytm eliminacji polega na stosowaniu heurystyk - praktycznych
zasad pobranych z ludzkiego do´swiadczenia
• "ChessBrain" projekt podobny do SETI (search for
extraterrestrial intelligence), gdzie w ka˙zdy mo˙ze uruchomi´c program klienta, który np. w nocy b ˛edzie uczestniczył w grze w szachy lub jak w SETI przeszukiwał dane z radioteleskopów
• ChessBrain działa jak 300Ghz komputer stworzony z sieci wielu tysi ˛ecy klientów udost ˛epniaj ˛ acymi swoje wolne zasoby obliczeniowe
• Najszybszy komputer ASCI Purple IBM-a (100 trylionów operacji na sekund ˛e) zbli˙za si ˛e do mo˙zliwo´sci ludzkiego umysłu. HAL z "Odysei 2001" to IBM o jedn ˛ a liter ˛e do tyłu
• Kasparow w 2003 zremisował z X3D Fritz-em dowodz ˛ ac tezy
o zło˙zono´sci ludzkiego umysłu
perspektywy rozwoju
• Mózg człowieka jest "maszyn ˛ a z mi ˛esa" dla Marvina Minsky’ego, pioniera sztucznej inteligencji
• Prof. Richard Dawkins z Oxford University uwa˙za analogie mi ˛edzy kodem DNA, a pami ˛eci ˛ a komputera za pocz ˛ atek ery postrzegania
˙zywej materii jako niewiele ró˙zni ˛ acej si ˛e od martwej
• Za 30 lat chip tzw. "łowca dusz" zaszczepiony za okiem b ˛edzie
filmował wszystkie momenty naszego ˙zycia - uwa˙za Peter Cochrane, jeden z szefów British Telcom
• Po rewolucjach rolniczej i przemysłowej nast ˛ api rewolucja
informacyjna - głosi futorolog Alvin Toffler czyli b ˛edziemy ˙zy´c i
pracowa´c w cyberprzestrzeni
• W fantastyce tzw. science fiction jednym z głównych nurtów były opowie´sci i nowele o sztucznej inteligencji, a w konsekwencji o robotach. Teraz coraz wi ˛eksz ˛ a popularno´s´c zdobywaj ˛ a ksi ˛ a˙zki o cyborgach, hybrydach, nie tylko mechanicznych, ale i genetycznych np. "Impostor"
• Filmy "Terminator3", trylogia "Matrix" mówi ˛ a o przewadze maszyn nad lud´zmi poza kilkoma genialnymi jednostkami
• Awatary z gier komputerowych pocz ˛ atkiem cyberprzestrzeni
• Pies AIBO czy kot NeCoRo ucz ˛ a si ˛e zachowa ´n w trakcie
u˙zytkowania, zatem s ˛ a troch ˛e inteligentne ("Blade Runner")
Współczesne idee:
• Ashby stwierdza, ˙ze wszystkie układy przekazuj ˛ ace informacj ˛e w ilo´sci powy˙zej 10
8bitów na sekund ˛e powinny by´c ´swiadome. Dzisiaj istniej ˛ a ju˙z takie komputery, ale daleko im jeszcze do inteligencji człowieka
• Adleman w laboratorium in˙zynierii genetycznej konstruuje komputer oparty na DNA i jego przetwarzaniu. W pojedy ´nczej probówce mie´sci si ˛e około 10
13odcinków DNA z zakodowan ˛ a informacj ˛ a
przetwarzan ˛ a masywnie równolegle
• Bariera oblicze ´n - problemy NP-trudne (Nondeterministic
polynomial). Maszyna deterministyczna i niedeterministyczna, a równoległo´s´c i czas oblicze ´n. Pami ˛e´c asocjacyjna
• Problemy NP-zupełne - zadanie spełnialno´sci zdania logicznego
(funkcji logicznej)
Warunki testu:
• Mamy co najmniej dwóch ludzi i maszyn ˛e my´sl ˛ ac ˛ a zdoln ˛ a do konwersacji
• Jeden z ludzi jest s ˛edzi ˛ a i nie widzi maszyny ani innych ludzi, z którymi porozumiewa si ˛e tylko
słowami
• Je´sli s ˛edzia po dowolnej ilo´sci jakichkolwiek pyta ´n, dojdzie do wniosku, ˙ze rozmawia tylko z lud´zmi, to wspomniana maszyna jest maszyn ˛ a my´sl ˛ ac ˛ a w sensie Turinga
• Nagroda Loebnera jest otrzymywana za najbardziej
"ludzki" komputer ang. most human computer. Test
Turinga ograniczony jest do jednej dziedziny wiedzy
Patient: Men are all alike.
ELIZA: In what way?
Patient They’re always bugging us about something or other.
ELIZA: Can you think of a specific example?
Patient: Well, my boyfriend made me come here.
ELIZA: Your boyfriend made you come here?
Patient: He says I’m depressed much of the time.
ELIZA: I am sorry you are depressed.
Stanowiska według Rogera Penrose’a (od "silnej AI" do "słabej AI"):
A My´slenie to po prostu obliczenia, a ´swiadome doznania to wynik tych oblicze ´n (test Turinga wystarczaj ˛ acy)
B Symulacje komputerowe ´swiadomo´sci nie maj ˛ a nic wspólnego z sam ˛ a ´swiadomo´sci ˛ a
C Procesów fizycznych w mózgu nie da si ˛e zasymulowa´c (brak dokładniejszych lub nowych praw fizyki)
D Swiadomo´sci nie da si ˛e wyja´sni´c w ˙zaden obliczeniowy i ´
naukowy sposób (agnostycyzm)
Inteligentny jak człowiek program powinien
• komunikowa´c si ˛e np. po angielsku,
• gromadzi´c wiedz ˛e,
• wysnuwa´c na jej podstawie wnioski,
• korzystaj ˛ ac z do´swiadczenia dostosowywa´c si ˛e do zmieniaj ˛ acych si ˛e warunków uzupełniaj ˛ ac wiedz ˛e nowymi wnioskami
• oraz wykorzystywa´c zaawansowane systemy
robotyki i wizji
• Programy do prowadzenia dialogu z maszyn ˛ a np.
ELIZA
• Programy do rozwi ˛ azywania problemów np. GPS
• Systemy ekspertowe
• Pozyskiwanie wiedzy
• Uczenie si ˛e maszyn
Okres Kluczowe osi ˛agni ˛ecia
Lata przed II wojn ˛a ´swiatow ˛a Logika formalna, psychologia poznawcza Lata powojenne 1945-1954 Powstanie komputerów, rozwój cybernetyki Rozpocz˛ecie bada ´n w dziedzinie sztucznej in-
teligencji 1955-1970
Rozwój komputerów, 1956 - John McCar- thy wprowadza termin "Sztuczna Inteligencja", LISP, sformułowanie programu ogólnego roz- wi ˛azywania problemów
Badania w dziedzinie rozwi ˛azywania proble- mów 1961-1970
Heurystyki, robotyka, programy do gry w sza- chy
Systemy oparte na bazach wiedzy 1971-1980 MYCIN, HEARSAY II, MACSYMA, EMYCIN, Prolog
Po 1981 r. liczne zastosowania praktyczne PROSPECTOR, nie zrealizowany japo ´nski projekt komputerów pi ˛atej generacji, powsta- nie wielu firm zajmuj ˛acych si ˛e zastosowaniem sztucznej inteligencji
• rozwi ˛ azywanie problemów i strategie przeszukiwa ´n
• teoria gier
• automatyczne dowodzenie twierdze ´n
• przetwarzanie j ˛ezyka naturalnego (wł ˛ aczaj ˛ ac przetwarzanie mowy)
• systemy ekspertowe
• robotyka
• procesy percepcji (wizja, słuch, dotyk)
• uczenie si ˛e maszyn
• wyszukiwanie informacji (inteligentne bazy danych)
• Deep Blue pokonał mistrza ´swiata Gary Kasparova w 1997 r.
• Program PEGASUS rezerwuje miejsca w ameryka ´nskich liniach lotniczych słuchaj ˛ ac polece ´n klientów
• Program ALVINN mo˙ze w ka˙zdych warunkach atmosferycznych
kierowa´c ci ˛e˙zarówk ˛ a np. przejechał ni ˛ a z Washingtonu do San Diego
• Inteligentne programy rozpoznaj ˛ a twarze np. w bankach, odr ˛eczne pismo, sprawdzaj ˛ a lub projektuj ˛ a układy elektroniczne np. EURISKO, rekonstruuj ˛ a projekty architektów, szuka złó˙z geologicznych np.
PROSPECTOR, DIPMETER, interpretuje zwi ˛ azki chemiczne np.
SCANMAT, DENDRAL
• Programy zwane systemami ekspertowymi pomagaj ˛ a lub s ˛ a lepsze w diagnozach lekarskich np. MYCIN, CADUCEUS, CASNET,
Intellipath, Pathfinder; konfiguruj ˛ a sprz ˛et komputerowy np. XCON;
pomagaj ˛ a w podejmowaniu finansowych decyzji znajduj ˛ ac
zdefraudowane, nietypowe lub bł ˛edne transakcje np. AMEX credit
• Programy mog ˛ a udowadnia´c matematyczne twierdzenia, tłumaczy´c
na j ˛ezyki obce np. Altavista, planowa´c procesy produkcyjne,
Symbol - encja reprezentuj ˛ aca element ze zbioru znacze ´n zdefiniowanych a priori
Dane - zapisany zbiór symboli
Informacja - dane z przypisanym znaczeniem
Poj ˛ecie - zbiór encji z jakiego´s powodu zunifikowany J ˛ezyk - zbiór poj ˛e´c i reguł do tworzenia opisu
rzeczywisto´sci
Opis - wyra˙zenie w pewnym j ˛ezyku
charakteryzuj ˛ ace obiekt lub zbiór obiektów Wiedza - zorganizowana, uogólniona i/lub
abstrakcyjna informacja
Wiedza deskrypcyjna to - opisy obiektów, ich klasy
Wiedza preskrypcyjna to - procedury opisuj ˛ ace dopuszczalne operacje, jakie mo˙zna dokona´c na relacjach, funkcjach tzw.
przepisy
Wiedza to zbiór faktów, reguł, domniema ´n (ang. believes - fakty i reguły nie w pełni wiarygodne), heurystyk
Wiedza mo˙ze by´c prywatna (np. in˙zyniera architekta), publiczna (ogólnodost ˛epna), ´sci´sle tajna
Wiedza mo˙ze by´c płytka (opiera si ˛e na rozpoznaniu np. stylu architektury danego budynku), gł ˛eboka (si ˛ega gł ˛ebiej, opiera si ˛e na regułach np. dokładne poznanie wymiarów i materiałów u˙zytych w konstrukcji budynku)
Ksi ˛ a˙zki to wiedza starego typu w formie pasywnej . Zanim
Wiedza Zakres Cel(sposób)Wa˙zno´s´c Pies jest ssakiem specific descriptive certain Pies ma cztery łapy specific descriptive uncertain Aby wykaza´c, ˙ze X jest
psem nale˙zy pokaza´c, ˙ze ro- dzice X s ˛ a psami
specific prescriptive certain
Aby udowodni´c P (X), wy- ka˙z, ˙ze ¬P (X) jest niemo˙z- liwe
(¬∀x P(X) ⇔ ∃x ¬P (X))general prescriptive uncertain
Rzeczy - obiekty rzeczywiste s ˛ a obserwowalne
general descriptive uncertain
(nieoznacza to, ˙ze za- wsze je wida´c)
Reprezentacja proceduralna - polegaj ˛ aca na okre´sleniu zbioru procedur, których działanie reprezentuje wiedz˛e o dziedzinie np. V = 4
3 πr
3Reprezentacja deklaratywna - polegaj ˛ aca na okre´sleniu zbioru specyficznych dla rozpatrywanej dziedziny faktów, stwierdze ´n i reguł (np. katalog rzeczy)
Zalet ˛ a reprezentacji proceduralnej jest wysoka efektywno´s´c re- prezentowania procesów.
Zalet ˛ a reprezentacji deklaratywnej jest to, ˙ze jest ona bardziej
"oszcz˛edna" (ka˙zdy fakt lub reguła zapisywany tylko raz) i łatwiej-
sza w formalizacji.
• Zastosowania logiki (rachunek zda ´n, rachunek predykatów, syntaktyka, semantyka)
• Zapis twierdze ´n, zapis reguł w systemach ekspertowych (schemat rezolucji na klauzulach Horna, wnioskowanie w przód i wstecz)
• Wiedza nieprecyzyjna (teoria Bayesa, współczynniki
niepewno´sci w systemie MYCIN, teoria Dempstera-Shafera)
• Teoria zbiorów przybli˙zonych (tablice warunkowo-działaniowe, relacje nierozró˙znialno´sci, klasyfikacje, aproksymacja dolna i górna, reguły pewne i mo˙zliwe)
• Teoria zbiorów rozmytych (funkcja przynale˙zno´sci, liczby rozmyte, relacje rozmyte)
• Sieci semantyczne
• Algorytmy genetyczne i sieci neuronowe
R - zbiór reguł F - zbiór faktów
Q - zbiór stosowalnych reguł
Cond(r) - wszystkie warunki reguły r
f act(r, s) - generowanie faktu z konkluzji reguły r poprzez podstawienia
match (r, F, s) - dopasowanie faktu F do jednej z przesłanek reguły r
match (r, g, s) - dopasowanie faktu g do akcji reguły r
FORWARD _ CHAINING
BEGIN
Q := φ;
REPEAT
FOR EACH r ∈ R
IF match(r, F, s) THEN Q := Q ∪ {(r, s)};
IF Q = φ THEN
BREAK ;
(r, s) := select(Q);
Q := Q − {(r, s)};
F := F ∪ {f act(r, s)};
UNTIL FALSE
BACKWARD
_
CHAINING(g)
BEGIN
IF
g ∈ F
THENRETURN
TRUE;
Q := φ;
FOR EACH
r ∈ R
IF
match(r, g, s)
THENQ := Q ∪ {(r, s)};
IF
Q = φ
THEN RETURNFALSE;
REPEAT
(r, s) := select(Q);
Q := Q − {(r, s)};
SATISFIED
:=TRUE;
FOR EACH
c ∈ Cond(r)
IF
not
BACKWARD_
CHAINING(c)
THEN BEGIN
;
SATISFIED:=FALSE;
BREAK
;
END;
IF SATISFIED THEN BEGIN
F := F ∪ {g};
RETURN
TRUE;
END UNTIL
Q = φ;
END
Wyra˙zenia j ˛ezyka składaj ˛ a si ˛e z term i formuł.
1. termy - encje, obiekty
• symbole stałych (zwykle z pocz ˛ atku alfabetu):
a, b, . . .
• symbole zmiennych
• n-argumentowe symbole funkcyjne f (t 1 , . . . , t n ) , gdzie t 1 , . . . , t n to termy
np. a, f (g(x, b), c) to termy zamkni ˛ety (bez
zmiennych) oraz otwarty (ze zmiennymi), termy
mog ˛ a by´c z indeksami: a 1 , f 3 n , gdzie n to ilo´s´c
argumentów funkcji
2. formuły - fakty zachodz ˛ ace w ´swiecie
• formuły atomowe - symbole relacji
0-argumentowych zwanych stałymi zdaniowymi oraz relacje n-argumentowe oznaczane P tzn.
P (t 1 , . . . , t n ) , gdzie t n to termy dla n ≥ 1
• formuły - z formuł atomowych, ¬ , ⇒ , ∀ i) α , β
ii) (¬α)
iii) (α ⇒ β)
iv) (∀x α) , gdzie x jest zmienn ˛ a
Relacja n-argumentowa oznaczana liter ˛ a P jest zwana predy- katem np. predykat P zwi ˛ azany jest z poj ˛eciem jakiej´s konkret- nej rzeczy tzn. P (a) np. jest symbolem rzeczy osoby oznaczo- nej termem a np: Joanny.
Literałem pozytywnym jest α, a negatywnym ¬α .
Korzystaj ˛ ac z podanych definicji tworzenia formuł rozszerza si ˛e zbiór spójników i kwantyfikatorów j ˛ezyka poprzez nast ˛epuj ˛ ace definicje:
• (α ∨ β) = ((¬α) ⇒ β)
• (α ∧ β) = (¬((¬α) ∨ (¬β)))
• (∃x α) = (¬(∀x(¬α)))
Symbol ∃ jest kwantyfikatorem szczegółowym
(egzystencjalnym), α ∨ β - alternatyw ˛ a formuł, α ∧ β -
koniunkcj ˛ a formuł.
Formuła zamkni ˛eta zwana tak˙ze zdaniem lub formuł ˛ a zdanio- w ˛ a jest formuł ˛ a bez zmiennych wolnych (zmiennych nie zwi ˛ a- zanych z kwantyfikatorem ∀ lub ∃ ) w przeciwie ´nstwie do for- muły otwartej np. P (x, y) ⇒ ∃x∀zP (x, y) jest formuł ˛ a otwart ˛ a.
W celu poprawienia czytelno´sci mo˙zna pomija´c tak˙ze nawia-
sy kieruj ˛ ac si ˛e nast ˛epuj ˛ ac ˛ a list ˛ a - od najmocniej do najsłabiej
wi ˛ a˙z ˛ acych - spójników i kwantyfikatorów: ¬ ∀ ∃ ∧ ∨ ⇒
Piotr nie jest wysoki.
¬wysoki(Piotr)
Na stole le˙zy tylko owoc.
∀x na(x, stół) ⇒ owoc(x)
Liczba całkowita mo˙ze by´c parzysta i nieparzysta.
∀x całkowita(x) ⇒ (parzysta(x) ∨ nieparzysta(x)) Wszyscy studenci s ˛ a zdolni.
∀x student(x) ⇒ zdolny(x)
Ka˙zdy na ´swiecie student jest zdolny.
∀x student(x) ∧ zdolny(x)
Co niektóry student jest zdolny.
∃x student(x) ∧ zdolny(x) OK!
∃x student(x) ⇒ zdolny(x) Zła składnia!
Ka˙zdy delfin jest ssakiem.
∀x delfin(x) ⇒ ssak(x)
Istnieje ssak, który znosi jaja.
∃x ssak(x) ∧ znosi_jaja(x) OK!
∃x ssak(x) ⇒ znosi_jaja(x) Zła składnia!
Ka˙zdy ogrodnik lubi sło ´nce.
∀x ogrodnik(x) ⇒ lubi(x, sło ´nce)
Wszystkie czerwone grzyby s ˛ a truj ˛ ace.
∀x(grzyb(x) ∧ czerwony(x)) ⇒ truj ˛ acy(x) Zaden czerwony grzyb nie jest truj ˛ ˙ acy.
¬∃x czerwony(x) ∧ grzyb(x) ∧ truj ˛ acy(x)
∀x( grzyb (x) ∧ czerwony (x)) ⇒ ¬ truj ˛ acy (x) S ˛ a dokładnie dwa czerwone grzyby.
∃x∀y grzyb(x) ∧ czerwony(x) ∧ grzyb(y) ∧ czerwony(y) ∧ ¬(x = y) ∧ ∀z(grzyb(z) ∧
czerwony(z)) ⇒ ((x = z) ∨ (y = z))
Ka˙zdy lubi kogo´s.
∀x∃y lubi (x, y) Kto´s lubi ka˙zdego.
∃x∀y lubi(x, y)
Mo˙zesz kocha´c niektórych ludzi cały czas.
∃x∀t(osoba(x) ∧ czas(t)) ⇒ mo˙zna_kocha´c(x, t)
Mo˙zna kocha´c ka˙zdego człowieka przez pewien okres czasu.
∀x∃t(osoba(x) ∧ czas(t)) ⇒ mo˙zna_kocha´c(x, t)
Istnieje student, który interesuje si ˛e co najmniej dwoma ró˙znymi przedmiotami wykładanymi na jego wydziale.
∃x(student(x)∧∃y∃z(y 6= z∧wykładany(y, wydział(x))∧)wykładany(z, wydział(x))∧
interesuje_si ˛e(x, y) ∧ interesuje_si ˛e(x, z)))
Semantyka logiczna zwana teori ˛ a modeli opisuje zwi ˛ azki po-
mi ˛edzy j ˛ezykiem, a fragmentem lub fragmentami "´swiata rze-
czywistego". W logice fragmenty takie nazywane s ˛ a struktura-
mi.
S = (D, F, R, C) ,
gdzie D 6= 0 zwany jest dziedzin ˛ a struktury, a jego elementy - obiektami struktury, F jest zbiorem funkcji D
n→ D, (R) jest zbiorem relacji w D
M, za´s C jest funkcj ˛ a realizacji j ˛ezyka (interpretacj ˛ a), która:
• ka˙zdemu symbolowi stałej przyporz ˛ adkowuje jaki´s obiekt z D,
• ka˙zdemu symbolowi funkcji n-argumentowej przyporz ˛ adkowuje funkcj ˛e z F ,
• ka˙zdemu symbolowi predykatowemu przypisuje relacj ˛e ze zbioru R ,
• ka˙zdej stałej zdaniowej przyporz ˛ adkowuje warto´sci logiczne 0 , 1, którym przypisuje si ˛e odpowiednio warto´sci fałszu i
prawdy .
KLOCKI
D = (K
1, . . . , K
7)
góra(K
2) = K
1dół(K
1) = K
2K
1K
2K
3K
4K
5K
6K
7góra: D → D na: D
2→ {0, 1}
dół: D → D nad: D
2→ {0, 1}
S = (D, F, R, C)
⇒ D, F, R
⇓
stałe: a, b, c, d, e, f, g funkcje: q, h
symbole predykatowe: P, Q ⇐
zmienne: x, y
C(a) = K
1, . . . C(g) = K
7C(q) = góra
C(h) = dół
C(P ) = na
Ka˙zd ˛ a funkcj ˛e ω, która symbolowi zmiennej x przyporz ˛ adko- wuje pewien obiekt z D nazywa si ˛e warto´sciowaniem zmien- nych w S = (D, F, R, C) , a ich zbiór to Ω S . Interpretacj ˛e termu t w S przy warto´sciowaniu ω oznaczamy jako I ω S (t).
i) I ω S (t) = C(t) , je˙zeli t jest symbolem stałej;
ii) I ω S (t) = ω(t), je˙zeli t jest symbolem zmiennej;
iii) I ω S (f (t 1 , . . . , t n )) = C(f )(I ω S (t 1 ), . . . , I ω S (t n ));
i) I ω S (α) = C(α) , je´sli α jest stał ˛ a zdaniow ˛ a;
ii) I ω S (P (t 1 , . . . , t n )) = C(P )(I ω S (t 1 ), . . . , I ω S (t n )) ; iii) I ω S (α) = 1 − I ω S (β) , je´sli α ma posta´c ¬β ;
iv) je˙zeli α = (β ⇒ γ) , to I ω S (α) = 1 , je´sli I ω S (β) = 0 lub I ω S (γ) = 1 , za´s I ω S (α) = 0 w przeciwnym razie
v) je˙zeli α = ∀xβ , to I ω S (α) = 1 , je´sli dla ∀ω ′ ω ′ ∈ ω[x]
jest I ω S (β) = 1 , za´s I ω S (α) = 0 w przeciwnym razie,
gdzie ω[x] to zbiór warto´sciowa ´n dla wszystkich
zmiennych, oprócz co najwy˙zej zmiennej x.
• α jest spełniona (prawdziwa) w S dla ω ∈ Ω S
⇔ I ω S (α) = 1
• α jest spełnialna, je˙zeli ∃S∃ω dla ω ∈ Ω S , dla których I ω S (α) = 1
• Spełnialno´s´c formuł zdaniowych zale˙zy jedynie od struktury
• α jest spełniona ⇒ S jest
modelem (semantycznym) formuły α
• Modelem zbioru formuł jest struktura, która jest
modelem dla ka˙zdej formuły z tego zbioru.
α jest semantyczn ˛ a konsekwencj ˛ a zbioru formuł Φ ⇔ dowolny model zbioru Φ jest modelem formuły α, co zapisujemy
Φ |= α
Dla Φ = 0 α jest zawsze prawdziwa i zwana tautologi ˛ a
|= α
α jest równowa˙zna β ⇔ α |= β i β |= α
α jest modelowo równowa˙zna β ⇔ α |= β
α = (¬P ∨ Q) ⇔ (¬Q ⇒ ¬P ) α = (P ⇒ Q) ⇔ (¬Q ⇒ ¬P )
1)
α(P = 1, Q = 1) = 1
(¬1 ∨ 1) ⇔ (¬1 ⇒ ¬1) (0 ∨ 1) ⇔ (0 ⇒ 0)
1 ⇔ 1
2)
α(P = 1, Q = 0) = 1
(¬1 ∨ 0) ⇔ (¬0 ⇒ ¬1) (0 ∨ 0) ⇔ (1 ⇒ 0)
0 ⇔ 0
3)
α(P = 0, Q = 1) = 1
(¬0 ∨ 1) ⇔ (¬1 ⇒ ¬0) (1 ∨ 1) ⇔ (0 ⇒ 1)
1 ⇔ 1
4)
α(P = 0, Q = 0) = 1
(¬0 ∨ 0) ⇔ (¬0 ⇒ ¬0) (1 ∨ 0) ⇔ (1 ⇒ 1)
1 ⇔ 1
Wnioskowanie to inaczej inferencja .
Reguł ˛ a wnioskowania nazywamy dowoln ˛ a operacj ˛e, która sko ´nczonemu ci ˛ agowi formuł α 1 , . . . , α n nazywanych przesłan- kami (ang. premises), przyporz ˛ adkowuje formuł ˛e β , nazywan ˛ a wnioskiem (ang. conclusion), co zapisuje si ˛e jako:
α 1 ,...,α n
β
Reguła modus ponens zwana tak˙ze reguł ˛ a odrywania ma po- sta´c
α,α ⇒β β
Reguła uogólniania ma posta´c
α
∀x α
Formuła α jest wyprowadzalna ze zbioru formuł Φ za pomoc ˛ a reguł ze zbioru R ⇔ ∃ ci ˛ ag formuł β 1 , . . . , β k taki, ˙ze:
i) α = β k ;
ii) ∀(i ≤ k) β i ∈ Φ lub β i jest wnioskiem reguły
nale˙z ˛ acej do R z pewnych formuł z {β 1 , . . . , β k−1 }.
Ci ˛ ag formuł β 1 , . . . , β k nazywamy dowodem formuły β k z Φ z
zastosowaniem reguł wnioskowania z R .
Teoria jest sformalizownym opisem ´swiata rzeczywistego i
składa si ˛e z j ˛ezyka czyli zbioru formuł oraz struktury dedukcyj-
nej: zbioru aksjomatów logicznych , zbioru aksjomatów specy-
ficznych i zbioru reguł wnioskowania .
Aksjomaty logiczne musz ˛ a by´c tautologiami .
Niech α, β, γ b ˛ed ˛ a dowolnymi formułami teorii. Typowe aksjo- maty logiczne teorii pierwszego rz ˛edu to:
1. α ⇒ (β ⇒ α)
2. (α ⇒ (β ⇒ γ)) ⇒ ((α ⇒ β) ⇒ (α ⇒ γ)) 3. (¬β ⇒ ¬α) ⇒ ((¬β ⇒ α) ⇒ β)
4. ∀x α(x) ⇒ α(t) ,
gdzie t jest termem, α(x) - formuł ˛ a, za´s α(t) -
formuł ˛ a α(x) po zast ˛ apieniu ka˙zdego wolnego
wyst ˛ apienia zmiennej x termem t, ponadto ∃
zmienna z termu t ⇒ ∀ wolne wyst ˛ apienie
zmiennej x nie le˙zy w zasi ˛egu działania
kwantyfikatorów ∀z lub ∃z .
Jako reguły wnioskowania przyjmuje si ˛e reguł ˛e modus ponens i uogólniania .
Mo˙zliwy jest dobór innych aksjomatów logicznych i reguł wnio- skowania np. system Gentzena.
Skoro aksjomaty logiczne oraz reguły wnioskowania s ˛ a usta-
lone, to teori ˛e okre´sla si ˛e lub te˙z w praktyce uto˙zsamia ze
zbiorem aksjomatów specyficznych.
Aksjomaty specyficzne s ˛ a formułami, które arbitralnie zostały uznane przez twórców teorii za prawdziwe , a opisuj ˛ ace cechy
´swiata rzeczywistego np. formuła
(∀x)(czowiek(x) ⇒ miertelny(x))
opisuje fakt, ˙ze ka˙zdy człowiek jest ´smiertelny.
α jest wyprowadzalna w teorii T lub jest jej twierdzeniem ⇔ α jest wyprowadzalna za pomoc ˛ a reguł wnioskowania tej teorii z formuł pochodz ˛ acych ze zbiorów jej aksjomatów logicznych i specyficznych, co zapisujemy tak
T ⊢ α
W przypadku rachunku predykatów (brak aksjomatów specy- ficznych) zapis jest nast ˛epuj ˛ acy:
⊢ α
Teoria jest niesprzeczna ⇔ ∀α ¬α i α nie s ˛ a jednocze´snie twierdzeniami tej teorii. Mo˙zna wykaza´c, ˙ze
• Teoria jest niesprzeczna ⇔ ∃ model tej teorii
• Dla dowolnej niesprzecznej teorii istnieje przeliczalny model.
α jest twierdzeniem niesprzecznej teorii ⇔ α jest prawdziwa w dowolnym modelu tej teorii, co formalnie mo˙zna zapisa´c
T ⊢ α ⇔ T |= α
Teoria jest zupełna ⇔ ∀ zamkni ˛etej formuły α tej teorii, albo
T ⊢ α albo T ⊢ ¬α . Taka teoria opisuje wszystkie informacje
zwi ˛ azane z reprezentowanym przez ni ˛ a ´swiatem.
Teori ˛e nazywa si ˛e rozstrzygaln ˛ a , je˙zeli mo˙zna w sko ´nczonej liczbie kroków stwierdzi´c, czy dowolna formuła nale˙z ˛ aca do j ˛ezyka tej teorii jest, czy te˙z nie jest jej twierdzeniem.
Teori ˛e nazywa si ˛e półrozstrzygaln ˛ a , je˙zeli mo˙zna w sko ´n- czonej liczbie kroków udowodni´c ka˙zde twierdzenie tej teorii.
Nie ma jednak gwarancji, na efektywne okre´slenie, czy da- na formuła nie jest twierdzeniem w T . Teorie I rz ˛edu w ogól- nym przypadku nie s ˛ a rozstrzygalne, lecz s ˛ a półrozstrzygalne.
Niemniej jednak istniej ˛ a pewne rozstrzygalne klasy formuł, np:
formuły z predykatami jednoargumentowymi lub poprzedzone
tylko kwantyfikatorami ogólnymi lub poprzedzone tylko kwan-
tyfikatorami egzystencjonalnymi.
Zbiór twierdze ´n teorii I rz ˛edu zwi ˛eksza si ˛e wraz ze wzrostem
aksjomatów specyficznych. Własno´s´c ta nazywa si ˛e monoto-
niczno´sci ˛ a .
Standaryzacja polega na przekształceniu formuł wyj´sciowych w formuły, które cechuj ˛ a si ˛e tym, ˙ze
• wszystkie kwantyfikatory wyprowadzane s ˛ a na
pocz ˛ atek formuły - posta´c preneksowa normalna ;
• kwantyfikatory egzystencjalne zostaj ˛ a
wyeliminowane - posta´c normalna Skolema F S |= F ;
• wyra˙zenie pod kwantyfikatorami jest koniunkcj ˛ a alternatyw.
Z koniunkcji alternatyw przechodzi si ˛e do ich zbioru. Je´sli al-
ternatywa jest zło˙zona tylko z formuł atomowych pozytywnych
i negatywnych, to nazywa si ˛e klauzul ˛ a .
α ⇔ β ≡ (α ⇒ β) ∧ (β ⇒ α) α ⇒ β ≡ ¬α ∨ β
¬(¬α) ≡ α
¬(α ∨ β) ≡ ¬α ∧ ¬β
¬(α ∧ β) ≡ ¬α ∨ ¬β
¬∀xα ≡ ∃x¬α
¬∃xα ≡ ∀x¬α
α ∧ (α ∨ γ) ≡ (α ∧ β) ∨ (α ∧ γ) α ∨ (α ∧ γ) ≡ (α ∨ β) ∧ (α ∨ γ)
Q ∈ {∃, ∀}
Qxα ∨ β ≡ Qx(α ∨ β) Qxα ∧ β ≡ Qx(α ∧ β),
gdzie β bez wolnych zmiennych
∀xα ∧ ∀xβ ≡ ∀x(α ∧ β)
∃xα ∨ ∃xβ ≡ ∃x(α ∨ β) Qxα ≡ Qxα[x/y],
gdzie y bez wolnych zmiennych, a x z wolnymi zmiennymi
CNF: ¬p ∨ . . . ∨ p
DNF: ¬p ∧ . . . ∧ p - fałsz!
PNF: Q
1x
1Q
2x
2. . . Q
nx
nµ,
gdzie µ jest koniunkcj ˛a alternatyw
Klauzul ˛e postaci
¬β 1 ∨ . . . ∨ ¬β m ∨ γ 1 ∨ . . . ∨ γ n
nazywa si ˛e klauzul ˛ a Horna ⇔ n = 0 lub n = 1 dla m ≥ 0 . Inny zapis to
β 1 ∧ . . . ∧ β m ⇒ γ
Schematem rezolucji (Robinson - 1965) nazywa si ˛e reguł ˛e inferencyjn ˛ a
A ∨B,C∨¬B A ∨C ,
gdzie A, B, C s ˛ a formułami, A∨C jest rezolwent ˛ a binarn ˛ a klau- zul wej´sciowych, a klauzula pusta (NIL) nie jest spełniona w
˙zadnej strukturze.
Do danego zbioru klauzul Φ doł ˛ acza si ˛e zbiór klauzul modelowo równowa˙z- nych negacji formuły ¬α, któr ˛ a zamierzamy udowodni´c. Potem stosuje si ˛e wielokrotnie schemat rezolucji. Uzyskanie rezolwenty równej NIL oznacza,
˙ze zbiór Φ ∪ {¬α} jest sprzeczny i α nie jest twierdzeniem.
K
1,4K
2,4K
3,4K
4,4K
1,3Kuch- nia
K
2,3K
3,3K
4,3K
1,2Robot c1,2
K
2,2¬c2,2
K
3,2K
4,2K
1,1¬c1,1
K
2,1¬c2,1
K
3,1K
4,1c - zapach kawy w pokoju (i, j) k - kuchnia w pokoju (i, j)
Wiedza: ¬c
1,1, ¬c
2,1, ¬c
2,2, c
1,2Korzystaj ˛ ac ze zmysłu zapachu ro- bot znajduje kuchnie!
R1 ¬c1,1 ⇒ (¬K1,1 ∧ ¬K1,2 ∧ ¬K2,1) R2 ¬c2,1 ⇒ (¬K1,1 ∧ ¬K2,1 ∧ ¬K2,2 ∧
¬K3,1)
R3 ¬c2,2 ⇒ (¬K2,1 ∧ ¬K1,2 ∧ ¬K2,2 ∧
¬K3,2 ∧ ¬K2,3)
R4 c1,2 ⇒ (K1,2 ∨K2,2 ∨ K1,1 ∨K1,3) R1: modus ponens lub rezolucja
¬K1,1 ∧ ¬K1,2 ∧ ¬K2,1
eliminacja ∧: ¬K1,1, ¬K1,2, ¬K2,1
R2 : ¬K1,1, ¬K2,1, ¬K2,2, ¬K3,1
R3 : ¬K2,1, ¬K1,2, ¬K2,2, ¬K3,2, ¬K2,3
R4 : K1,3 ∨ K1,2 ∨K2,2 ∨ K1,1
rezolucja
⇒
R4 ∨ ¬K1,1 : K1,3 ∨K1,2 ∨K2,2
R4 ∨ ¬K1,1 ∨ ¬K2,2 : K1,3 ∨ K1,2
R4 ∨ ¬K1,1 ∨ ¬K2,2 ∨ ¬K1,2 : K1,3