• Nie Znaleziono Wyników

3. Zookognitywistyka – model gier sygnalizacyjnych

3.1. Znaczenie w modelu gier sygnalizacyjnych

Problematykę znaczenia w teorii gier sygnalizacyjnych podjął Brian Skyrms w Signals. Evolution, Learning and Information58. Znaczenie w teorii gier

sygna-lizacyjnych czy też – jak określa je Skyrms – zawartość informacyjna w sygnale

45

kognitywistyka 3. Zookognitywistyka − model gier sygnalizacyjnych

jest reprezentowana przez wektor, którego komponenty stanowią ilości infor-macji przesyłanych przez sygnał59. Ilość informacji w  sygnale jest rozumiana klasycznie i wyraża ją stosunek wartości prawdopodobieństwa stanu po nadaniu sygnału do wartości prawdopodobieństwa stanu przed jego nadaniem. Stosunek ten określa, o ile wzrasta prawdopodobieństwo stanu po pojawieniu się sygnału w kanale. Skyrms w swoim rozwiązaniu wprost odnosi się do pojęcia ilości formacyjnej wywiedzionego z matematycznej teorii informacji. Pojęcie ilości in-formacji stanowi termin definiowalny jedynie w kategoriach transmisji sygnałów, niepociągającej za sobą żadnej reakcji interpretacyjnej60. Najprościej mówiąc, ilość informacji jest ściśle powiązana z prawdopodobieństwem, że dany sygnał (bodziec) wywoła określoną sytuację (reakcję). Jak pokazuje to Skyrms, pojęcie ilości informacji z łatwością można aplikować do modelu gier sygnalizacyjnych, gdyż wystąpieniu każdego z elementów ciągu sygnalizacyjnego (stan–sygnał–re-akcja) można przypisać określone prawdopodobieństwo. Dzięki tej właściwości bez trudu można wyrazić ilość informacji przenoszoną przez sygnał jako stosu-nek warunkowego prawdopodobieństwa danego stanu po nadaniu określone-go sygnału oraz prawdopodobieństwa bezwarunkoweokreślone-go oweokreślone-go stanu (tj. przed wysłaniem sygnału). Stosunek ten daje pogląd na to, jak zmienia się prawdopo-dobieństwo danego stanu po nadaniu sygnału względem prawdopodobieństwa przed jego nadaniem. Formalnie można to wyrazić za pomocą równania:

jedynie w kategoriach transmisji sygnałów, niepociągającej za sobą żadnej reakcji interpretacyjnej61. Najprościej mówiąc, ilość informacji jest ściśle powiązana z prawdopodobieństwem, że dany sygnał (bodziec) wywoła określoną sytuację (reakcję). Jak pokazuje to Skyrms, pojęcie ilości informacji z łatwością można aplikować do modelu gier sygnalizacyjnych, gdyż wystąpieniu każdego z elementów ciągu sygnalizacyjnego (stan–sygnał–rekcja) można przypisać określone prawdopodobieństwo. Dzięki tej właściwości bez trudu można wyrazić ilość informacji przenoszoną przez sygnał jako stosunek warunkowego prawdopodobieństwa danego stanu po nadaniu określonego sygnału oraz prawdopodobieństwa bezwarunkowego owego stanu (tj. przed wysłaniem sygnału). Stosunek ten daje pogląd na to, jak zmienia się prawdopodobieństwo danego stanu po nadaniu sygnału względem prawdopodobieństwa przed jego nadaniem. Formalnie można to wyrazić za pomocą równania:

𝑃𝑃(𝑆𝑆 |𝜎𝜎) 𝑃𝑃(𝑆𝑆)

Reprezentowana przez powyższe równanie wartość jest właśnie ilością informacji przenoszoną przez sygnał. Jak słusznie zwraca uwagę Skyrms, powyższy stosunek należy zlogarytmizować, gdyż wyrażona w obecnej postaci ilość informacji w sygnale nie daje możliwości wyeksplikowania sytuacji, w której sygnał nie przenosiłby żadnej ilości informacji62. Logarytmizując zatem powyższy stosunek, ostateczna postać wzoru na ilość informacji w sygnale wygląda następująco:

𝐿𝐿𝐿𝐿𝐿𝐿2𝑃𝑃 (𝑆𝑆1|𝜎𝜎1) 𝑃𝑃 (𝑆𝑆1)

Użycie logarytmu o podstawie 2 pozwala na wyrażenie ilości informacji w bitach63. Wracając zatem do pojęcia zawartości informacyjnej, reprezentuje ją wektor, którego 61

Potencjalna reakcja interpretacyjna nie stanowi przedmiotu mieszczącego się w zakresie badań ujęcia matematycznego.

62Na przykład w wypadku, gdy nadawca zawsze niezależnie od sytuacji nadaje ten sam sygnał. Wtedy stosunek warunkowego prawdopodobieństwa stanu po nadaniu sygnału do prawdopodobieństwa początkowego stanu wynosi 1, nie zaś jak intuicyjnie byśmy oczekiwali 0. Cf. B. Skyrms, Signals…, s. 35–36.

63 Posługując się wzorem na dywergencję Kullbacka–Leiblera, można zaadaptować powyższą formułę, aby wyrażała informację o wielu stanach, dając tym samym ogólną miarę informacji w sygnale:

Reprezentowana przez powyższe równanie wartość jest właśnie ilością in-formacji przenoszoną przez sygnał. Jak słusznie zwraca uwagę Skyrms, powyż-szy stosunek należy zlogarytmizować, gdyż wyrażona w obecnej postaci ilość informacji w sygnale nie daje możliwości wyeksplikowania sytuacji, w której sygnał nie przenosiłby żadnej ilości informacji61. Logarytmizując zatem

powyż-59 Ibidem, s. 40.

60 Potencjalna reakcja interpretacyjna nie stanowi przedmiotu mieszczącego się w zakresie badań ujęcia matematycznego.

61 Na przykład w wypadku, gdy nadawca zawsze niezależnie od sytuacji nadaje ten sam sy-gnał. Wtedy stosunek warunkowego prawdopodobieństwa stanu po nadaniu sygnału do praw-dopodobieństwa początkowego stanu wynosi 1, nie zaś jak intuicyjnie byśmy oczekiwali 0. Cf.

46 kognitywistyka

Rozdział I. Geneza języka – od nowożytności do współczesności

szy stosunek, ostateczna postać wzoru na ilość informacji w sygnale wygląda następująco:

jedynie w kategoriach transmisji sygnałów, niepociągającej za sobą żadnej reakcji interpretacyjnej61. Najprościej mówiąc, ilość informacji jest ściśle powiązana z prawdopodobieństwem, że dany sygnał (bodziec) wywoła określoną sytuację (reakcję). Jak pokazuje to Skyrms, pojęcie ilości informacji z łatwością można aplikować do modelu gier sygnalizacyjnych, gdyż wystąpieniu każdego z elementów ciągu sygnalizacyjnego (stan–sygnał–rekcja) można przypisać określone prawdopodobieństwo. Dzięki tej właściwości bez trudu można wyrazić ilość informacji przenoszoną przez sygnał jako stosunek warunkowego prawdopodobieństwa danego stanu po nadaniu określonego sygnału oraz prawdopodobieństwa bezwarunkowego owego stanu (tj. przed wysłaniem sygnału). Stosunek ten daje pogląd na to, jak zmienia się prawdopodobieństwo danego stanu po nadaniu sygnału względem prawdopodobieństwa przed jego nadaniem. Formalnie można to wyrazić za pomocą równania:

𝑃𝑃(𝑆𝑆 |𝜎𝜎) 𝑃𝑃(𝑆𝑆)

Reprezentowana przez powyższe równanie wartość jest właśnie ilością informacji przenoszoną przez sygnał. Jak słusznie zwraca uwagę Skyrms, powyższy stosunek należy zlogarytmizować, gdyż wyrażona w obecnej postaci ilość informacji w sygnale nie daje możliwości wyeksplikowania sytuacji, w której sygnał nie przenosiłby żadnej ilości informacji62. Logarytmizując zatem powyższy stosunek, ostateczna postać wzoru na ilość informacji w sygnale wygląda następująco:

𝐿𝐿𝐿𝐿𝐿𝐿2𝑃𝑃 (𝑆𝑆1|𝜎𝜎1) 𝑃𝑃 (𝑆𝑆1)

Użycie logarytmu o podstawie 2 pozwala na wyrażenie ilości informacji w bitach63. Wracając zatem do pojęcia zawartości informacyjnej, reprezentuje ją wektor, którego 61

Potencjalna reakcja interpretacyjna nie stanowi przedmiotu mieszczącego się w zakresie badań ujęcia matematycznego.

62Na przykład w wypadku, gdy nadawca zawsze niezależnie od sytuacji nadaje ten sam sygnał. Wtedy stosunek warunkowego prawdopodobieństwa stanu po nadaniu sygnału do prawdopodobieństwa początkowego stanu wynosi 1, nie zaś jak intuicyjnie byśmy oczekiwali 0. Cf. B. Skyrms, Signals…, s. 35–36.

63 Posługując się wzorem na dywergencję Kullbacka–Leiblera, można zaadaptować powyższą formułę, aby wyrażała informację o wielu stanach, dając tym samym ogólną miarę informacji w sygnale:

Użycie logarytmu o  podstawie 2 pozwala na wyrażenie ilości informacji w bitach62. Wracając zatem do pojęcia zawartości informacyjnej, reprezentuje ją wektor, którego kształt jest określony przez komponenty utworzone z ilości in-formacji przenoszonych przez sygnał:

kształt jest określony przez komponenty utworzone z ilości informacji przenoszonych przez sygnał: �𝑙𝑙𝑙𝑙𝑙𝑙 𝑃𝑃 (𝑆𝑆1|𝜎𝜎1) 𝑃𝑃 (𝑆𝑆1) , 𝑙𝑙𝑙𝑙𝑙𝑙 𝑃𝑃 (𝑆𝑆2|𝜎𝜎2) 𝑃𝑃 (𝑆𝑆2) , 𝑙𝑙𝑙𝑙𝑙𝑙 𝑃𝑃 (𝑆𝑆3|𝜎𝜎3) 𝑃𝑃 (𝑆𝑆3) , … , 𝑙𝑙𝑙𝑙𝑙𝑙 𝑃𝑃 (𝑆𝑆𝑛𝑛|𝜎𝜎𝑛𝑛) 𝑃𝑃 (𝑆𝑆𝑛𝑛) �

Kształt wektora jest zatem zrelatywizowany do postaci określonej gry sygnalizacyjnej, tj. do ilości stanów, sygnałów i reakcji w niej występujących oraz rozkładu prawdopodobieństwa każdego z nich.

Zakładając zatem, że istnieją 4 stany o równym prawdopodobieństwie początkowym (P(Sn) = 0,25, dla n = {1, …, 4}) oraz że sygnał σ2 jest wysyłany tylko, kiedy zachodzi stan S264, otrzymujemy zawartość informacyjną na temat wszystkich stanów w sygnale σ2o następującej postaci:

𝐼𝐼(𝜎𝜎2|𝑆𝑆) = ⟨−∞; 2; −∞; −∞⟩

Komponent –∞, powstaje w wyniku zlogarytmizowania i informuje, że stany 1, 3, 4 zmierzają do prawdopodobieństwa równego zero. Wartość –∞ oznacza zatem, że sygnał nie przenosi informacji o danym stanie.

Ta zaproponowana przez Skyrmsa oryginalna propozycja wyrażenia zawartości informacyjnej pozwala na uzgodnienie teorii informacji z logiczną interpretacją zawartości propozycjonalnej rozumianej jako zbiór możliwych sytuacji. Jego zdaniem na zawartość informacyjną sygnału można spojrzeć jak na sąd wyrażony zbiorem stanów. Stan prawdziwy należy do zbioru, co oznacza, że ilość informacji o stanie przenoszona przez sygnał różna jest od –∞. Innymi słowy zawartość informacyjna czy też znaczenie w sygnale jest zbiorem możliwych sytuacji, z których prawdziwe są te, których wartość ilości informacji rośnie, fałszywe zaś te, których wartość maleje.

𝐼𝐼 (𝜎𝜎𝑖𝑖|𝑆𝑆𝑖𝑖) = � 𝑃𝑃(𝑆𝑆𝑖𝑖|𝜎𝜎𝑖𝑖)

𝑖𝑖

𝑙𝑙𝑙𝑙𝑙𝑙𝑙𝑙 �𝑃𝑃(𝑆𝑆𝑖𝑖|𝜎𝜎𝑖𝑖) 𝑃𝑃(𝑆𝑆𝑖𝑖) �

64Oznacza to P(σ2|S2) = 1, zaś P(σ2|S1) = P(σ2|S3) = P(σ2|S4) = 0. Ze wzoru Bayesa otrzymujemy wartość prawdopodobieństwa warunkowego stanu S2po nadaniu sygnału σ2, tj. P(S2|σ2) równą 1. Wzrost prawdopodobieństwa stanu S2 po nadaniu sygnału σ2 względem prawdopodobieństwa przed jego nadaniem (wyrażony przez stosunek P(S2| σ2) do P(S2), tj. 1/ 0,25) jest zatem czterokrotny. Sygnał σ2nie jest wysyłany w stanach S1, S3i S4, co oznacza, że prawdopodobieństwo warunkowe sygnału σ2dla tych stanów wynosi zero. Sygnał σ2nie porusza zatem prawdopodobieństwa S1, S3i S4(tj. P(S1|σ2), P(S3|σ2) i

P(S4|σ2) = 0). Oznacza to przyrost prawdopodobieństwa dla stanów S1, S3i S4po nadaniu sygnału również jest zerowy.

Kształt wektora jest zatem zrelatywizowany do postaci określonej gry sygna-lizacyjnej, tj. do ilości stanów, sygnałów i reakcji w niej występujących oraz roz-kładu prawdopodobieństwa każdego z nich.

Zakładając zatem, że istnieją 4 stany o równym prawdopodobieństwie po-czątkowym (P(Sn) = 0,25, dla n = {1, …, 4}) oraz że sygnał σ2 jest wysyłany tylko, kiedy zachodzi stan S263, otrzymujemy zawartość informacyjną na temat wszyst-kich stanów w sygnale σ2 o następującej postaci:

kształt jest określony przez komponenty utworzone z ilości informacji przenoszonych przez sygnał: �𝑙𝑙𝑙𝑙𝑙𝑙 𝑃𝑃 (𝑆𝑆1|𝜎𝜎1) 𝑃𝑃 (𝑆𝑆1) , 𝑙𝑙𝑙𝑙𝑙𝑙 𝑃𝑃 (𝑆𝑆2|𝜎𝜎2) 𝑃𝑃 (𝑆𝑆2) , 𝑙𝑙𝑙𝑙𝑙𝑙 𝑃𝑃 (𝑆𝑆3|𝜎𝜎3) 𝑃𝑃 (𝑆𝑆3) , … , 𝑙𝑙𝑙𝑙𝑙𝑙 𝑃𝑃 (𝑆𝑆𝑛𝑛|𝜎𝜎𝑛𝑛) 𝑃𝑃 (𝑆𝑆𝑛𝑛) �

Kształt wektora jest zatem zrelatywizowany do postaci określonej gry sygnalizacyjnej, tj. do ilości stanów, sygnałów i reakcji w niej występujących oraz rozkładu prawdopodobieństwa każdego z nich.

Zakładając zatem, że istnieją 4 stany o równym prawdopodobieństwie początkowym (P(Sn) = 0,25, dla n = {1, …, 4}) oraz że sygnał σ2 jest wysyłany tylko, kiedy zachodzi stan S264, otrzymujemy zawartość informacyjną na temat wszystkich stanów w sygnale σ2o następującej postaci:

𝐼𝐼(𝜎𝜎2|𝑆𝑆) = ⟨−∞; 2; −∞; −∞⟩

Komponent –∞, powstaje w wyniku zlogarytmizowania i informuje, że stany 1, 3, 4 zmierzają do prawdopodobieństwa równego zero. Wartość –∞ oznacza zatem, że sygnał nie przenosi informacji o danym stanie.

Ta zaproponowana przez Skyrmsa oryginalna propozycja wyrażenia zawartości informacyjnej pozwala na uzgodnienie teorii informacji z logiczną interpretacją zawartości propozycjonalnej rozumianej jako zbiór możliwych sytuacji. Jego zdaniem na zawartość informacyjną sygnału można spojrzeć jak na sąd wyrażony zbiorem stanów. Stan prawdziwy należy do zbioru, co oznacza, że ilość informacji o stanie przenoszona przez sygnał różna jest od –∞. Innymi słowy zawartość informacyjna czy też znaczenie w sygnale jest zbiorem możliwych sytuacji, z których prawdziwe są te, których wartość ilości informacji rośnie, fałszywe zaś te, których wartość maleje.

𝐼𝐼 (𝜎𝜎𝑖𝑖|𝑆𝑆𝑖𝑖) = � 𝑃𝑃(𝑆𝑆𝑖𝑖|𝜎𝜎𝑖𝑖)

𝑖𝑖

𝑙𝑙𝑙𝑙𝑙𝑙𝑙𝑙 �𝑃𝑃(𝑆𝑆𝑖𝑖|𝜎𝜎𝑖𝑖) 𝑃𝑃(𝑆𝑆𝑖𝑖) �

64Oznacza to P(σ2|S2) = 1, zaś P(σ2|S1) = P(σ2|S3) = P(σ2|S4) = 0. Ze wzoru Bayesa otrzymujemy wartość prawdopodobieństwa warunkowego stanu S2po nadaniu sygnału σ2, tj. P(S2|σ2) równą 1. Wzrost prawdopodobieństwa stanu S2 po nadaniu sygnału σ2 względem prawdopodobieństwa przed jego nadaniem (wyrażony przez stosunek P(S2| σ2) do P(S2), tj. 1/ 0,25) jest zatem czterokrotny. Sygnał σ2nie jest wysyłany w stanach S1, S3i S4, co oznacza, że prawdopodobieństwo warunkowe sygnału σ2dla tych stanów wynosi zero. Sygnał σ2nie porusza zatem prawdopodobieństwa S1, S3i S4(tj. P(S1|σ2), P(S3|σ2) i

P(S4|σ2) = 0). Oznacza to przyrost prawdopodobieństwa dla stanów S1, S3i S4po nadaniu sygnału również jest zerowy.

62 Posługując się wzorem na dywergencję Kullbacka–Leiblera, można zaadaptować po-wyższą formułę, aby wyrażała informację o wielu stanach, dając tym samym ogólną miarę in-formacji w sygnale:

kształt jest określony przez komponenty utworzone z ilości informacji przenoszonych przez sygnał: ⟨𝑙𝑙𝑙𝑙𝑙𝑙 𝑃𝑃 (𝑆𝑆1|𝜎𝜎1) 𝑃𝑃 (𝑆𝑆1) , 𝑙𝑙𝑙𝑙𝑙𝑙 𝑃𝑃 (𝑆𝑆2|𝜎𝜎2) 𝑃𝑃 (𝑆𝑆2) , 𝑙𝑙𝑙𝑙𝑙𝑙 𝑃𝑃 (𝑆𝑆3|𝜎𝜎3) 𝑃𝑃 (𝑆𝑆3) , … , 𝑙𝑙𝑙𝑙𝑙𝑙 𝑃𝑃 (𝑆𝑆𝑛𝑛|𝜎𝜎𝑛𝑛) 𝑃𝑃 (𝑆𝑆𝑛𝑛) ⟩

Kształt wektora jest zatem zrelatywizowany do postaci określonej gry sygnalizacyjnej, tj. do ilości stanów, sygnałów i reakcji w niej występujących oraz rozkładu prawdopodobieństwa każdego z nich.

Zakładając zatem, że istnieją 4 stany o równym prawdopodobieństwie

początkowym (P(Sn) = 0,25, dla n = {1, …, 4}) oraz że sygnał σ2 jest wysyłany tylko,

kiedy zachodzi stan S264, otrzymujemy zawartość informacyjną na temat wszystkich

stanów w sygnale σ2 o następującej postaci:

𝐼𝐼(𝜎𝜎2|𝑆𝑆) = ⟨−∞; 2; −∞; −∞⟩

Komponent –∞, powstaje w wyniku zlogarytmizowania i informuje, że stany 1, 3, 4 zmierzają do prawdopodobieństwa równego zero. Wartość –∞ oznacza zatem, że sygnał nie przenosi informacji o danym stanie.

Ta zaproponowana przez Skyrmsa oryginalna propozycja wyrażenia zawartości informacyjnej pozwala na uzgodnienie teorii informacji z logiczną interpretacją zawartości propozycjonalnej rozumianej jako zbiór możliwych sytuacji. Jego zdaniem na zawartość informacyjną sygnału można spojrzeć jak na sąd wyrażony zbiorem stanów. Stan prawdziwy należy do zbioru, co oznacza, że ilość informacji o stanie przenoszona przez sygnał różna jest od –∞. Innymi słowy zawartość informacyjna czy też znaczenie w sygnale jest zbiorem możliwych sytuacji, z których prawdziwe są te, których wartość ilości informacji rośnie, fałszywe zaś te, których wartość maleje.

𝐼𝐼 (𝜎𝜎𝑖𝑖|𝑆𝑆𝑖𝑖) = ∑ 𝑃𝑃(𝑆𝑆𝑖𝑖|𝜎𝜎𝑖𝑖)

𝑖𝑖

𝑙𝑙𝑙𝑙𝑙𝑙 [𝑃𝑃(𝑆𝑆𝑖𝑖|𝜎𝜎𝑖𝑖) 𝑃𝑃(𝑆𝑆𝑖𝑖) ]

64 Oznacza to P(σ2|S2) = 1, zaś P(σ2|S1) = P(σ2|S3) = P(σ2|S4) = 0. Ze wzoru Bayesa otrzymujemy wartość prawdopodobieństwa warunkowego stanu S2 po nadaniu sygnału σ2, tj. P(S2|σ2) równą 1. Wzrost prawdopodobieństwa stanu S2 po nadaniu sygnału σ2 względem prawdopodobieństwa przed jego nadaniem (wyrażony przez stosunek P(S2| σ2) do P(S2), tj. 1/ 0,25) jest zatem czterokrotny. Sygnał σ2 nie jest wysyłany w stanach S1, S3 i S4, co oznacza, że prawdopodobieństwo warunkowe sygnału σ2 dla tych stanów wynosi zero. Sygnał σ2 nie porusza zatem prawdopodobieństwa S1, S3 i S4 (tj. P(S1|σ2), P(S3|σ2) i

P(S4|σ2) = 0). Oznacza to przyrost prawdopodobieństwa dla stanów S1, S3 i S4 po nadaniu sygnału również jest zerowy.

63 Oznacza to P(σ2|S2) = 1, zaś P(σ2|S1) = P(σ2|S3) = P(σ2|S4) = 0. Ze wzoru Bayesa otrzy-mujemy wartość prawdopodobieństwa warunkowego stanu S2 po nadaniu sygnału σ2,tj. P(S22) równą 1. Wzrost prawdopodobieństwa stanu S2 po nadaniu sygnału σ2 względem prawdopo-dobieństwa przed jego nadaniem (wyrażony przez stosunek P(S2| σ2) do P(S2), tj. 1/0,25) jest zatem czterokrotny. Sygnał σ2 nie jest wysyłany w stanach S1, S3S4, co oznacza, że prawdopo-dobieństwo warunkowe sygnału σ2 dla tych stanów wynosi zero. Sygnał σ2 nie porusza zatem prawdopodobieństwa S1, S3S4 (tj. P(S12), P(S32) i P(S42) = 0). Oznacza to, że przyrost prawdopodobieństwa dla stanów S1, S3S4 po nadaniu sygnału również jest zerowy.

47

kognitywistyka 3. Zookognitywistyka − model gier sygnalizacyjnych

Komponent –∞ powstaje w wyniku zlogarytmizowania i informuje, że stany 1, 3, 4 zmierzają do prawdopodobieństwa równego zero. Wartość –∞ oznacza zatem, że sygnał nie przenosi informacji o danym stanie.

Ta zaproponowana przez Skyrmsa oryginalna propozycja wyrażenia zawar-tości informacyjnej pozwala na uzgodnienie teorii informacji z  logiczną inter-pretacją zawartości propozycjonalnej rozumianej jako zbiór możliwych sytuacji. Jego zdaniem na zawartość informacyjną sygnału można spojrzeć jak na sąd wy-rażony zbiorem stanów. Stan prawdziwy należy do zbioru, co oznacza, że ilość informacji o stanie przenoszona przez sygnał różna jest od –∞. Innymi słowy za-wartość informacyjna czy też znaczenie w sygnale jest zbiorem możliwych sytu-acji, z których prawdziwe są te, których wartość ilości informacji rośnie, fałszywe zaś te, których wartość maleje.

Semantyka w modelu gier sygnalizacyjnych jest zatem klasycznym przykła-dem sytuacjonistycznej semantyki referencyjnej, która w odróżnieniu od intra-lingwistycznej koncepcji znaczenia semiotyki, bądź mentalistycznej koncepcji znaczenia językoznawstwa kognitywnego, nie wymaga odniesienia do pozio-mu stanów mentalnych podmiotu (ani w formie procesów interpretacyjnych, ani jako treści przeżyć wewnętrznych)64. Aby uzgodnić zatem model gier

64 Terminu semantyka intralingwistyczna używam w  znaczeniu nadanym mu przez B. Żukowskiego: „[…] recepta na konstrukcję semantyki intralingwistycznej zawiera się w idei ufundowania znaczenia danego wyrażenia języka jako wypadkowej jego relacji z innymi wyraże-niami. […]. Ukształtowany w ten sposób język stanowi strukturę semantycznie autonomiczną, intralingwistycznie zamkniętą i samo-tłumaczącą się – brak w nim w szczególności jakichkolwiek wyrażeń brzegowych o charakterze deskrypcyjnym czy obserwacyjnym” (B. Żukowski, Seman-tyczne aspekty instrumentalistycznych koncepcji rozwoju nauki, [w:] E.  Starzyńska-Kościuszko,

A. Kucner, P. Wasyluk (red.), Festiwal filozofii, t. 6: Oblicza współczesności, Wydawnictwo UWM,

Olsztyn 2014, s. 569). Dodatkowo w niniejszej pracy semantykę w teorii semiotycznej traktuję jako teorię interlingwistyczną, gdzie znaczenie – podobnie jak w językoznawstwie kognitywnym – jest zrelatywizowane do rzeczywistości wewnętrznej podmiotu. Jednostki semantyczne w teorii semiotyki nie mają bowiem odniesienia przedmiotowego do rzeczywistości pozajęzykowej, sta-nowią natomiast kulturowe lub psychologiczne jednostki treści. Rzecz jasna mowa o jednostkach kulturowych w kontekście genezy języka byłaby dużym nadużyciem, wszak wydaje się, że język jest warunkiem koniecznym zaistnienia kultury. Jak twierdzi Sapir: „Istnieją mocne podstawy do przypuszczenia, że spośród wszystkich aspektów kultury właśnie język jako pierwszy uzyskał wysoce rozwiniętą formę, i że doskonałość języka jest wstępnym warunkiem rozwoju kultury jako całości” (E. Sapir, Język, kultura, osobowość. Wybrane eseje, przeł. R. Zimand, B. Stanosz, Warszawa

1978, s. 33) Kontekst genezy języka wymusza zatem ograniczenie przedmiotu semiotyki jedy-nie do zakresu psychologicznego. Ograniczejedy-nie to jest w pełni zgodne z założeniami semiotyki,

48 kognitywistyka

Rozdział I. Geneza języka – od nowożytności do współczesności

sygnalizacyjnych z  tradycyjnie rozumianymi teoriami semantycznymi, nale-ży na najbardziej rudymentarnym poziomie potraktować odniesienie seman-tyczne jako treść reprezentacji mentalnej członków relacji komunikacyjnej biorących udział w grze. Takie ujęcie pozwala na spełnienie wyżej wzmianko-wanego drugiego warunku, jaki model gier sygnalizacyjnych musi spełnić, aby stanowić instrument opisu genezy języka, tj. pozostawać w zgodzie z procesa-mi sygnifikacyjnyz procesa-mi. Innyz procesa-mi słowy znaczenie w  teorii gier sygnalizacyjnych musi stanowić efekt interpretacyjnej reakcji świadomego podmiotu na sygnał. Jako że sygnifikacja jest de facto procesem sygnalizacyjnym, pociągającym za

sobą reakcję interpretacyjną, to warunek ten można spełnić włączając w model Skyrmsa odniesienie do rzeczywistości mentalnej podmiotu. Posunięcie to jest na gruncie teorii gier sygnalizacyjnych całkowicie dopuszczalne. Co  prawda zaletą modelu Skyrmsa jest brak konieczności powoływania odniesienia men-talnego agentów relacji komunikacyjnej, jednak taka możliwość nie jest jego zdaniem wykluczona:

Zaletą opracowania [modelu gier sygnalizacyjnych – A.G.] Lewisa jest to, że dla zdefinio-wania systemu sygnalizacyjnego nie trzeba wyposażać nadawcy i  odbiorcy w  uprzednio istniejący język mentalny. Nie oznacza to, że istnienie takiego języka jest wykluczone. Sta-nem obserwowanym przez nadawcę może być to „Co chcę zakomunikować”, zaś reakcja odbiorcy może zawierać „Aha, on zamierzał zakomunikować, że”. Teoretyczne propozycje modelowane w kategoriach języka mentalnego, czy też idei, lub intencji, dają się całkowicie uzgodnić z grami nadawca–odbiorca. Jednakże teoretyczna rama [tych gier – A.G.] obej-muje również procesy sygnalizacyjne, w wypadku których nie mamy dostępu do żadnego wiarygodnego świadectwa istnienia życia psychicznego65.

Wzbogacenie modelu gier sygnalizacyjnych o odniesienie mentalne umożli-wia zatem pełne jego uzgodnienie z, opisanymi przez Eco, zjawiskami z poziomu sygnifikacji. W dalszej części pracy przedstawię jedną z takich prób rozszerzenia teorii Skyrmsa o komponenty mentalne, wykorzystującą koncepcje przestrzeni mentalnych Petera Gärdenforsa.

gdyż różnica w ujęciu jednostki treściowej w kategoriach kulturowych lub psychologicznych jest w gruncie rzeczy pochodną wyznaczoną przez przedmiot badania semiotycznego – jest ona za-leżna od tego, czy stosujemy model semiotyczny do opisu zjawisk kulturowych czy komunikacji rozumianej w kategoriach psychologicznych.

49

kognitywistyka 3. Zookognitywistyka − model gier sygnalizacyjnych