• Nie Znaleziono Wyników

Metodologia fizyki Matematyka i fizyka Wybrane zagadnienia zastosowania matematyki w fizyce

N/A
N/A
Protected

Academic year: 2021

Share "Metodologia fizyki Matematyka i fizyka Wybrane zagadnienia zastosowania matematyki w fizyce"

Copied!
62
0
0

Pełen tekst

(1)

Metodologia fizyki Matematyka i fizyka

Wybrane zagadnienia zastosowania matematyki w fizyce

##################################################################################

Autor : R. Waligóra ; data powstania dokumentu : 2012-06-01 ; ostatnie poprawki z dnia: 2012-08-10

##################################################################################

Przedstawiony tekst można traktować jako część II tekstu pt. „Szkic o fizyce i jej historii, matematyce i filozofii”

I. Wprowadzenie – źródła poznania.

Fizyka jak powszechnie wiadomo jest nauką empiryczną, zatem tylko wynik doświadczenia – eksperymentu lub obserwacji, może stanowić o prawdziwości postawionej hipotezy, tezy, sądu lub określonej teorii.

Każda teoria fizyczna musi być oparta na danych doświadczalnych. Nie ma pełnoprawnej teorii fizycznej bez jej zweryfikowania doświadczalnego. Każda nawet najpiękniejsza – estetycznie, matematyczni lub „piękna” jakkolwiek inaczej, teoria jest niczym innym jak tylko kolejną możliwością bez jej poparcia – zweryfikowania przez eksperyment.

Bez względu na to jaką wyznajemy filozofię czy też estetykę, to do eksperymentu należy ostatnie słowo w kwestii

prawdziwości lub fałszywości danej teorii. Wielokrotnie w historii nauki okazywało się bowiem, że z pozoru rozsądna czy też matematycznie elegancka teoria okazywała się błędna lub w najlepszym wypadku słuszna tylko w ograniczonym obszarze. Jak pokazała historia nauki żadne kryterium wyboru prawdziwości danej teorii fizycznej (oprócz kryterium zgodności z eksperymentem ) nie jest jednoznacznie skuteczne. Najmniej skuteczne okazały się dywagacje natury religijnej, magicznej i filozoficznej – po prostu przyroda nie zawsze chciała działać np. zgodnie z filozoficzną doktryną harmonii świata, czy też religijną koncepcją boskiej interwencji. Świat okazał się być zgoła odmienny od wielu wysuwanych koncepcji, być może rozsądnych na pierwszy ogląd ( np. płaskości Ziemi i jej centralnego miejsca we wszechświecie ) czy też estetycznie pięknych ( np. pitagorejskiej teorii proporcji i liczby ). Ani prostota i funkcjonalność, ani pojęcie ładu i spójności nie zawsze i w każdym obszarze zmienności parametrów były warunkami wystarczającymi, po prostu często okazały się zbyt one ubogie dla poprawnego opisu działania przyrody.

Klasycznym tego przykładem jest ewolucja naszego rozumienia budowy materii – od arystotelejskich brył geometrycznych poprzez atomy uczonych wieku oświecenia do współczesnej teorii cząstek elementarnych. Przyroda okazywał się zawsze bardziej wyrafinowana niż nam się to wydawało. Prostota tu akurat ma całkiem odmienny wyraz – ani prosty obraz atomów Demokryta, ani wydawać by się mogło uporządkowany obraz przedstawiony przez Mendelejewa, ani nawet współczesny obraz kwarkowo-gluonowy nie były nigdy „proste” w potocznym tego słowa rozumieniu.

To samo dotyczy np. ewolucji naszej wiedzy dotyczącej budowy i mechanizmów rządzących kosmosem.

Do tego wszystkiego należy dołączyć rewolucje relatywistyczną (STW) i kwantową (MQ) jak i obecnie rozgrywającą się współcześnie „rewolucje” kosmologiczną ( współczesne obserwacje astronomiczne mające głęboki wpływ na

przedstawiane obecnie teorie kosmologiczne ).

To, że wydaje się naturalnym przyjęcie tezy, że przyroda rządzi się określonymi prawami jest chyba powszechne.

Prawa takie chcemy poznawać ( z różnych powodów - utylitarnych, gnoseologicznych czy też z prozaicznych przyczyn zaspokajających naszą ciekawość ), a głównym zagadnieniem jest kwestia w jaki sposób możemy je poznawać

(pozyskiwać ). Jest to tzw. problem źródeł poznania.

„Problem źródeł poznania występuje w obrębie teorii poznania w dwóch aspektach : genetycznym i metodologicznym.

Aspekt genetyczny tego problemu sprowadza się do pytania o pochodzenie naszej wiedzy ( pojęć, sądów, teorii ) o jej początki, aspekt metodologiczny zaś – o reguły prawomocne do oceny wartości poznawczej (prawdziwości) twierdzeń i teorii, a w szczególności o rolę metod empirycznych ( obserwacja, eksperyment, pomiar, rozumowanie indukcyjne ) w uzasadnianiu twierdzeń i zasięg ich stosowalności” [1a ,str. 150 ]

Jak wiadomo źródłem wiedzy rozumianej jako zbiór obiektywnych – prawdziwych faktów w fizyce jest empiria ( w szczególności nie ma wiedzy objawionej, mistycznej, magicznej ), a matematyka jako nauka aksjomatyczno- dedukcyjna stanowi podstawowe i właściwie jedyne narzędzie kodyfikacji i modelowania danych doświadczalnych.

Wszelkie nioski wypływające z modeli matematycznych będące czymś „nadmiarowym” w stosunku do znanych z doświadczenia faktów muszą podlegać weryfikacji doświadczalnej. Przykładowo – z matematycznego modelu elektrodynamiki zaproponowanego przez Maxwella wynikała możliwość ( matematyczna ) istnienia fal

elektromagnetycznych. Taki wniosek czysto dedukcyjny musiał zostać poddany weryfikacji doświadczalnej. Oczywiście, jak wiadomo wniosek ten został zweryfikowany pozytywnie przez Hertza, stanowiąc o dalszym sukcesie modelu

Maxwella. Nie zawsze jednak jest tak, że matematyczne wnioski wypływające z teorii są prawdziwe np. niezerowa masa neutrin nie jest zgodna z modelem standardowym cząstek elementarnych.

(2)

Możemy zatem stanąć na stanowisku ( filozoficznym ) zwanym empiryzmem - źródłem wszelkiej wiedzy fizycznej jest doświadczenie. Oczywiście powstaje pytanie – czy metoda empiryczna jest na tyle „mocna” aby zawsze za jej pomocą możliwe było pozyskiwanie lub weryfikacja nowej wiedzy.

Nie trudno wyobrazić sobie, że z racji technicznych lub nawet zasadniczych przyczyn eksperyment nie jest realizowalny.

Przykładowo jak sprawdzić eksperymentalnie teorie opisujące narodziny Wszechświata, istnienie superstrun w skali Plancka czy też hipotezę kosmicznej cenzury ?

Mamy to bowiem do czynienia z następującymi problemami – zasadniczej i niemożliwej do realizacji skali eksperymentu ( co do skali energii ) – kreacje Wszechświata, niemożliwej współcześnie ( jak i zapewne przez następne stulecia ) z racji technicznych penetracji obszaru subkwarkowego – zbadanie obszarów leżących w pobliżu długości Plancka.

Mamy również ograniczenia nie związane z naturą ich technicznej realizacji ( może też, ale nie są one pierwszoplanowe ), a związane z ich fizyczną naturą – np. nikt i nic (żaden sygnał ) nie powróci z wnętrza czarnej dziury.

Czy zatem dla każdej teorii możliwa jest bezpośrednia weryfikacja doświadczalna ?

Zapewne nie – metoda eksperymentalna ma swoje ograniczenia. Nie stanowi to jednakże, póki co poważnego jej ograniczenia, zawsze ratować nas mogą eksperymenty pośrednie lub całe projekty wielu pośrednich eksperymentów, mogące w sumie dawać pośrednie wnioski dotyczące danej teorii. Na podstawie całego szeregu takich pośrednich wniosków można z określonym stopniem pewności przyjmować określone hipotezy nie mogące być zweryfikowane bezpośrednio.

Istnieją jednakże teorie pozostające całkowicie poza zasięgiem metod eksperymentalnych, co do ich statusu ( tj. czy są to jeszcze teorie fizyczne ? ) panują podzielone poglądy.

Może być również tak, że współczesny stan techniki i wiedzy nie pozwala na empiryczna weryfikacje danej teorii, a dopiero przyszłościowe technologię mogą to pozwolić. Jakkolwiek by nie oceniać, chcąc pozostawać w ramach przyjętej koncepcji empiryzmu, każda taka teoria stanowi jedynie hipotezę, którą za wszelką cenę trzeba poddać sprawdzeniu doświadczalnemu.

Mamy zatem określone filozoficzne stanowisko – empiryzm. Wiemy zatem iż wiedze o świecie należy zdobywać poprzez doświadczenia. Z doświadczeń takich (faktów doświadczalnych ) budujemy określone modele zjawisk fizycznych. Wiemy również, że najlepszym językiem do opisu takich modeli jest język matematyki. Suponujemy również, że przyroda podaje się takiemu opisowi tj. istnieją w niej określone prawidłowości – jedną z najdonioślejszych jest prawidłowość wyrażana matematycznie w postaci zasady najmniejszego ( ekstremalnego ) działania.

Zobacz - „Szkic o fizyce i jej historii, matematyce i filozofii”

Możemy zatem wprowadzić następujący diagram

Świat rzeczywisty → fenomeny (obserwable) – empira → wiedza naukowa – teoria naukowa → model matematyczny →

→ przewidywania → weryfikacja empiryczna

Oczywiście zaprezentowane stanowisko zawiera sporą dozę filozoficznych implikacji – czym bowiem jest „wiedza” – co miałoby oznaczać np. stwierdzenie wiem, że fakt X jest prawdziwy ?

Czym jest prawda ? Jak niezawodnie możemy zdobywać wiedzę ? Czym jest obiektywna rzeczywistość ? itp.

Takie lub podobne pytania tworzą filozoficzną otoczkę zaprezentowanego stanowiska.

O bliższym związku fizyki z filozofią można przeczytać w książce Mario Bunge - Philosophy of Physics ( Fragmenty tłumaczenia dostępne są na stronie http://fizyka-teoretyczna.republika.pl/przeklady4.html )

Empiryzm nie jest oczywiście jedynym możliwym stanowiskiem w metodologii nauki, w fizyce jest jednak dominującym.

Aby pójść dalej należy zastanowić się nad ogólną metodologią naukową fizyki.

Czym jest wiedza naukowa.

Co właściwie rozumiemy pod pojęciem tego, że wiemy coś na temat danego zjawiska fizycznego ? Wiedza naukowa i wiedza potoczna jak wiadomo są różnymi i nie koniecznie zbieżnymi pojęciami.

Ogólnie powiemy, że wiedza wyraża naszą znajomość obiektywnej (prawdziwej ) rzeczywistości. Wiedzieć coś na temat określonego zjawiska w fizyce znaczy dysponować adekwatną jego teorią i umieć na jej podstawie rozwiązywać konkretne – „inżynierskie” problemy.

(3)

Wiedza naukowa to wiedza, którą charakteryzują :

1) Wysokie usystematyzowanie logiczne ( za pomocą relacji wynikania ) 2) Wysoki stopień samokontroli i weryfikacji

3) Wysoki stopień uteroretyzowania.

4) Wysoka moc wyjaśniająca i prognostyczna 5) Wysoka zawartość informacyjna

6) Wysoki stopień pewności i prawdziwości

Wiedza jest ponadto intersubiektywna ( wysoce komunikatywna ), uniwersalna ( nie zależy ani od odbiorcy ani od nadawcy ), jest również wszechstronnie i niezależnie weryfikowalna.

Metoda naukowa i metodologia nauk empirycznych.

Pozyskiwanie (poszukiwanie, weryfikacja i utrwalanie ) wiedzy naukowej podlega ściśle określonym ( ale nie do końca sformalizowanym ) zasadom – metodom naukowym pozyskiwania wiedzy.

Pojęcie „metodologia nauk” etymologicznie znaczy tyle co „nauka o metodach stosowanych w nauce”. Ogólnie można powiedzieć, że przedmiotem rozważań metodologii nauki są w szczególności ogólne prawidłowości, które charakteryzują naukę oraz proces tworzenia teorii naukowych. Każdy rodzaj nauki właściwie posiada swoją własną metodologię, nas obecnie najbardziej interesuje metodologia nauk empirycznych.

[1a , str. 362]

Metodologia naukowa - metoda naukowa jest oczywiście pojęciem wieloznacznym i trudno ściśle sformułować jej definicje. Mamy tutaj bowiem cały wachlarz poglądów i szkół, które od wielu lat toczą ze sobą krytyczne polemiki.

O początkach określonej metodologii naukowej można mówić już w pracach filozofów średniowiecznych ( późno

średniowiecznych ) – np. Roberta Bacona ( 1214 – 1292 ), Franciszka Bacona ( 1561 – 1626). Później Newtona, Leibniza, Berkeley’a. W drugiej połowie XIX narodził się bardzo wpływowy nurt filozofii – pozytywizm ( A. Comte ). Pozytywizm wywodził się z filozoficznej refleksji nad poznaniem naukowym oraz nad strukturą i metodologią nauk teoretycznych i praktycznych. Pozytywizm postulował usunięcie wszelkiej metafizyki. Uznawał tylko takie poznanie, które da się osiągnąć za pomocą metod przyrodoznawstwa. Postulował uznanie tylko tych twierdzeń, które można zredukować do jednostkowej wiedzy empirycznej oraz ograniczenie zainteresowań i celów badawczych do empirycznie danych faktów naukowych.

( zobacz np. Filozofia pozytywistyczna - Leszek Kołakowski ; WN-PWN 2003 )

W pierwszej połowie XX w europejskiej filozofii nauki dominującą rolę odegrał paradygmat zrodzony właśnie przez myśl pozytywistyczną – był to neopozytywizm (empiryzm – logiczny ). Ogólnie wyróżniał się on w następujących założeniach :

(4)

1) Empiryzm metodologiczny. Z punktu widzenia neopozytywizmu całość wiedzy ludzkiej ( z wyłączeniem logiki, matematyki i konwencji terminologicznych, przyjmowanych przy budowie języka nauk przyrodniczych ) składa się z sądów faktualnych ( konstatujących fakty doświadczalne ) oraz z uzasadnionych przez takie sądy twierdzeń ogólnych i egzystencjalnych.

2) Analityczność logiki i matematyki – twierdzenia logiki i matematyki są empirycznie „puste” – nie orzekają one niczego o przedmiotach doświadczenia.

3) Odrzucenie metafizyki. Neopozytywiście zakwestionowali sensowność wszystkich tez filozoficznych, które nie podlegają empirycznemu sprawdzeniu.

Jedną z odmian empiryzmu –logicznego jest fizykalizm. Fizykalizm skrajny ( każda bowiem koncepcja filozoficzna posiada określone stopnie gradacji ) głosi , ze wszystkie twierdzenia składające się na empiryczną wiedze o świecie mogą być przetłumaczone na język fizyki. Wypowiedzi, dla których taki przekład nie jest możliwy powinny być odrzucone lub co najmniej zdyskredytowane jako poznawczo bezwartościowe ( a nawet bezsensowne ). Pogląd ten omija oczywiście twierdzenia nauk formalnych.

[12a , str. 19 ]

Oczywiście nie każdy fizyk musi być od razu fizykalistą. Jednakże stanowisko takie często jest właśnie spotykane u fizyków. Reprezentantem fizykalizmu dogmatycznego jest np. Steven Weinberg [ 13a, str. 25]

(5)

Pośród licznych stanowisk w filozofii nauki oprócz logicznego-empiryzmu wymienić można :

Konwencjonalizm ( Poincare, Le Roy, Duhem , koniec XIX i początek XX wieku ) – Konwencjonaliści głosili, ze naukowy obraz świata stanowi w znacznej mierze arbitralną konstrukcje podmiotu poznającego. Doświadczenie nie rozstrzyga jednoznacznie o tym jakie teorie naukowe mamy (możemy ) zaakceptować, a jakie odrzucić. Ostateczny wybór zależy od systemu konwencji, który przyjmujemy niezależnie od danych eksperymentalnych.

Zatem konwencjonaliści przyjmują że istotną role w rozwoju teorii naukowych odgrywają konwencje – ukryte (zamaskowane ) definicje. Nauka ma częściowo charakter konwencjonalny, a częściowo rzeczowy.

Do konwencji według Poincarego należą : 1) wybór pytań jakie stawiamy przyrodzie

2) wybór podstawy do uogólnień w cechach badanych zjawisk 3) wybór pojęć teoretycznych

4) wybór uogólnień za pomocą których wprowadzamy określone zasady

5) interpretacja wyników doświadczenia na gruncie ustalonego języka. [14a, str. 11 ]

Falsyfikacjonizm ( Metoda hipotetyczno-dedukcyjna , Popper ). Głównymi tezami metodologii Poppera są następujące stwierdzenia :

1) nie istnieją „nagie fakty”, zdania bazowe ( sprawozdawcze ) są teoretyczne , bowiem o ich akceptacji współdecydują ( oprócz wyników eksperymentu ) przyjęte teorie i założenia towarzyszące.

2) nauka nie rozwija się sposobem wytyczonym przez F. Bacona – z samego gromadzenia faktów i ich indukcyjnego uogólniania nie wyniknie automatycznie określona teoria. Rozwój nie odbywa się na zasadzie indukcyjnego gromadzenia faktów, lecz na formułowaniu teorii jako śmiałych domysłów (hipotez ), które zyskują status naukowych poprzez zderzenie ich z faktami empirycznymi. Logicznym argumentem, wskazującym na konieczność przejścia od jednej teorii do drugiej jest falsyfikacja (obalenie ) starej teorii. Zasada falsyfikacji została wprowadzona przez Poppera jako antyteza

weryfikacjonizmu dominującego w empiryzmie logicznym. Popper zwrócił uwagę na to, ze zgodność pewnej hipotezy ze zbiorem danych faktów empirycznych nie jest dowodem jej prawdziwości, gdyż nie ma jednoznacznej drogi od danych empirycznych do teoretycznych uogólnień. Można bowiem zazwyczaj znaleźć inną hipotezę, która będzie równie dobrze zgodna z danymi faktami empirycznymi ( w języku matematycznym powiemy, że skończony zbiór faktów

doświadczalnych – numerycznych wyników pomiarów, może być aproksymowany przez wiele krzywych – równań ) Dowolny zbiór faktów zgodnych z daną teorią nie jest jeszcze przekonywującym argumentem na rzecz jej poprawności, wystarczy bowiem jeden ujawniony fakt z nią niezgodny, aby sfalsyfikować daną teorię. Nauka rozwija się przez hipotezy (domysły ) i ich obalanie – jeśli wyniki doświadczeń potwierdzają dana teorię, to możemy ją przyjmować tak długo aż nie znajdziemy lepszej albo nie znajdziemy faktu jej zaprzeczającego. [15a, str. 30 ].

Schemat działań według metody zaproponowanej przez Poppera.

Wybór hipotezy roboczej → poszukiwanie faktów sprzecznych z hipotezą roboczą → Czy znany jest fakt sprzeczny z hipotezą roboczą ? → tak – powrót do wyboru nowej hipotezy roboczej

→ nie − powrót do poszukiwania faktów sprzecznych z hipotezą roboczą.

Model „rewolucji naukowych” ( Kuhn ) Thomas Kuhn występuje zarówno przeciwko neopozytywizmowi jak i falsyfikacjonizmowi K. R. Poppera i jego następców. Kluczową kategorią metodologiczną modelu Kuhna jest pojęcie paradygmatu badawczego. Jest ono jednakże nieostre i wieloznaczne. Ogólnie można powiedzieć, ze paradygmat jest pewnym naukowym „sposobem widzenia świata” – jest całokształtem wiedzy i związanych z nią reguł postępowania, jednocześnie jest to całokształt historycznie uformowanych sposobów uprawiania nauki w danym czasie. Ma on wyznaczać sposób uprawiania nauki normalnej tj. określać problemy badawcze, które stawiają sobie uczeni i zawierać kryteria akceptacji rozwiązań tych problemów.

W początkowym etapie swego rozwoju nauka ma charakter przed paradygmatyczny, który charakteryzuje się ustalaniem i umocowywaniem metodologicznym określonych rozwiązań. W okresie tym powstaje wiele szkół, gromadzone są coraz to nowe fakty empiryczne. Wynikiem walki szkół w tym okresie jest zwycięstwo takiej teorii, która będzie uznana za paradygmat, jeśli oczywiście będzie ona lepsza od teorii konkurencyjnych ( choć nie musi tłumaczyć i zazwyczaj faktycznie nie tłumaczy wszystkich zjawisk ). Kiedy pojawi się taki system – paradygmat, następuje upadek

konkurencyjnych szkół. Nowy paradygmat z biegiem czasu zostaje sprecyzowany i staje się on probierzem ( wzorcem ) dla dalszych teorii i nowych hipotez.

Wraz z ukształtowaniem się paradygmatu następuje rozwój nauki normalnej. Zazwyczaj paradygmat nie istnieje wiecznie, na jego gruncie pojawiają się anomalie tj. sytuacje gdy dany paradygmat nie jest już wystarczający dla wytłumaczenia nowych faktów empirycznych. Uczeni uświadamiając sobie istnienie takich anomalii, próbują bądź racjonalizować i usprawniać istniejący paradygmat, bądź zaczynają poszukiwać nowych punktów widzenia – nauka przestaje być normalna, zaczyna być kryzysowa. Przejście pomiędzy jednym a drugim paradygmatem Kuhn nazywa rewolucją naukową, jest ona przygotowana na gruncie starego paradygmatu. Rewolucja naukowa jest zmianą sposobu widzenia świata przez uczonych.

Świat widziany jest zawsze przez pryzmat danego paradygmatu, jego zamiana zmienia również „optykę” widzenia świata.

(6)

Następuje niewspółmierność (zerwanie ) tradycji nauki przed i po rewolucyjnej.

Mamy zatem trzy zasadnicze etapy rozwoju nauki według Kuhna :

1) rozwijanie i powstawanie danego paradygmatu – okres nauki normalnej 2) epoka kryzysu

3) rewolucja naukowa

Metodologia naukowych programów badawczych ( Lakatos ) Lakatos rozszerza podstawową „jednostkę” teorii rozwoju wiedzy – nie mówi o oddzielnych teoriach, lecz o ciągu wyznaczonym przez wspólny naukowy program badawczy.

Zmienia on również i udoskonala pojecie falsyfikacji Poppera. W ujęciu Lakatosa historia nauki to dzieje następujących po sobie konkurujących programów badawczych. Naukowy program badawczy zwykle ulega przemianą w trakcie

naturalnego rozwoju nauki, jednakże jego tzw. twarde jądro pozostaje niezmienione lub pogram ten jest odrzucany i pojawia się nowy. Naukowy program badawczy składa się z „twardego jądra”, heurystyki oraz hipotez pomocniczych.

„Nienaruszone jądro” programu badawczego jest zespołem założeń wyznaczających kierunek badaη, zbiorem twierdzeń, które na mocy decyzji metodologicznych nie są poddawane krytyce. Ważnym składnikiem jest również heurystyka, która stanowi zbiór wskazówek i sugestii zalecających określone sposoby postępowania w badaniu naukowym.

Przejście od jednego programu badawczego do drugiego charakteryzuje zmiana twardego jądra i w konsekwencji heurystyki.

Model „alternatyw” ( Feyerabend )W swoim modelu metodologicznym Feyerabend zajmuje się szczególnie relacją między teorią a faktami. Wyraża pogląd, ze teoria nigdy nie może być obalona (sfalsyfikowana ) tylko i wyłącznie za pomocą faktów empirycznych. W przypadku niezgodności teorii z faktami można ją wyjaśnić błędami lub niedokładnościami procedur empirycznych, można uznać te fakty za nieistotne, można też sprzeczności usuwać poprzez wprowadzenie dodatkowych hipotez ad hoc. Aby fakty sprzeczne z prognozami teorii mogły spowodować odrzucenie tej teorii, potrzebna jest co najmniej jeszcze jedna teoria, która wyjaśniając je, będzie mogła zastąpić istniejącą teorię. Fakty uzyskują siłę obalającą tylko w wyniku usystematyzowania ich w ramach innej teorii – teorii alternatywnej.

Sformalizowane systemy aksjomatyczne.

W metodzie empiryczno-logicznej ( dominującej w obszarze fizyki ) bardzo ważnym jest podjęcie próby sformalizowania danej teorii tj. wypowiedzenia jej na gruncie określonego języka formalnego –logicznego.

Formalizacja taka daje nam szereg korzyści m.in. pozwala zastosować bogate środki analizy logicznej takiej teorii jak również pozwala ( co jest bardzo istotne w fizyce ) od razu wyeliminować wszelkie sprzeczności natury logicznej w budowanej teorii – innymi słowy od razu możemy wyeliminować teorie prowadzące do np. pojęcia „okrągłego” trójkąta.

Formalizacja danej teorii T na płaszczyźnie syntaktycznej polega na scharakteryzowaniu języka tej teorii L, zbioru jej aksjomatów A oraz zdefiniowaniu operatora konsekwencji C.

Język formalny jest w pełni scharakteryzowany ( syntaktycznie tj. gdy pomija się znaczenie wyrażeń ), gdy ustalony jest jego słownik – zbiór wyrażeń prostych S i gramatyka G.

Słownik zawiera wyrażenia proste (atomowe) należące w ogólności do różnych kategorii syntaktycznych – stałe logiczne ( spójniki zdaniowe i kwantyfikatory ), stałe indywiduowe ( nazwy określonych obiektów ), zmienne indywiduowe ( reprezentujące dowolne obiekty z pewnego zbioru ), symbole predykatów ( nazwy relacji ), nazwy funkcji, znaki

przestankowe ( średniki, przecinki , nawiasy itp. ). Zazwyczaj rozpatruje się języki elementarne pierwszego rzędu. Ponadto zbiór wyrażeń prostych musi być obliczalny tj. musi istnieć efektywna metoda rozstrzygająca, czy dany obiekt – wyrażenie jest lub nie jest elementem zbioru. Słownik może jednakże być zbiorem nieskończonym np. możemy wprowadzić

nieskończoną liczbę zmiennych lub stałych indywiduowych.

Gramatyka języka musi określać jakie ciągi wyrażeń prostych są wyrażeniami poprawnie zbudowanymi danym języku.

Zbiór aksjomatów jest dowolnym, niepustym, niesprzecznym i obliczalnym zbiorem formuł ( wyrażeń ) języka L.

Najczęściej jest to zbiór skończony. Aksjomaty z definicji są oczywiście wyrażeniami przyjmowanymi bez dowodu, często jednakże do zbioru aksjomatów dołącza się również definicje ( również przyjmowane bez dowodu )

Operator konsekwencji jest definiowany przez wskazanie skończonego zbioru inferencji { r1 , ... rn } tj. pewnej reguły wskazującej jakiej postaci wyrażenie może być dołączone do podanego sytemu ( jako kolejne twierdzenie ).

Reguły takie muszą posiadać określone własności np. powinny być niezawodne tj. powinny prowadzić do prawdziwych wniosków na podstawie prawdziwych przesłanek.

Wykorzystując operator konsekwencji C ze zbioru aksjomatów A otrzymujemy dalszy zbiór aksjomatów A*.

[6a, od str. 39]

Wykorzystując formalizacje danej teorii możemy przyjąć określoną metodę aksjomatyczno –dedukcyjną.

Odmianą metody aksjomatyczno-dedukcyjnej jest metoda hipotetyczno-dedukcyjna.

Na terenie fizyki wykorzystuje się ( z lepszym lub mniejszym powodzeniem ) obie te metody. Jeśli chodzi o formalizacje określonych działów fizyki, to najpopularniejsza jest metoda formalizacji mechaniki klasycznej. Oczywiście w sensie czysto formalnym nie może być mowy o pełnym sformalizowaniu żadnej teorii fizycznej.

(7)

Obecnie bardzo powszechnie wykorzystuje się metodę hipotetyczno –dedukcyjną. Na podstawie określonego systemu dedukcyjnego wprowadza się hipotezy tj. sądy którym przysługuje określone prawdopodobieństwo prawdziwości.

Metoda naukowa stanowi pewien ogólnie przyjęty konglomerat metod i środków zarówno pochodzenia formalnego jak i poza formalnego. Idealizacje, uproszczenia, interpolacje, modele matematyczne, sceptycyzm poznawczy, filozoficzne koncepcje racjonalizmu i pragmatyzmu, konwencjonalizmu ; wreszcie empiryzm, operacjonizm i temu podobne pojęcia i koncepcje stanowią o całym zespole używanych środków wyrażających ogólnie pojęcie metody naukowej.

( oczywiście mając na myśli pojecie „metody naukowej” myślę głownie o jej zastosowaniu na gruncie fizyki )

Prawa nauki.

Ogólnie można powiedzieć, że prawo nauki, to stwierdzenie ogólne opisujące jakąś konkretną prawidłowość przyrody ( jako obiektywną zależność między konkretnymi zjawiskami ).

Im takie stwierdzenie jest ogólniejsze i ściślejsze, tym wyższa jest jego wartość informacyjna tzn. tym większej ilości informacji dostarcza ono o opisywanym przez siebie przedmiocie. Zazwyczaj stwierdzenie takie ma charakter zadnia empirycznego. Pośród takich zadań wyróżnia się :

twierdzenia jednostkowe np. ten przedmiot waży 1 [kg]

twierdzenia egzystencjalne lub jego zaprzeczenie np. istnieje inercjalny układ odniesienia, nie istnieje perpetuum mobile twierdzenie ogólne i mieszane np. wszystkie ciała spadają na Ziemie jednakowo, pod warunkiem zaniedbania oporu powietrza.

Ogólnie wyróżniamy prawa (prawidłowości ) i zasady przyrody. Zasada jest pewnym prawem o szczególnej roli, znaczeniu lub jest punktem wyjścia dla budowy całej teorii naukowej. Zasada ma znacznie większy stopień ogólności od prawa. Pod konkretną i jedną zasadę może podlegać kilka praw. Przykłady – prawo Ohma, prawo Boyle’a ; zasada najmniejszego działania, zasada względności.

Formalnie prawo nauki charakteryzuje się trójelementową strukturą :

cześć kantyfikatorową (duży lub mały kwantyfikator ), poprzednik prawa i następnik prawa.

Przykład :

Dla każdego X, jeśli X ma cechę fizyczną C, to X ma również cechę fizyczną D

Każdy elektron ( tj. obiekt fizyczny o określonej własności ) umieszczony w polu elektrycznym podlega jego działaniu.

Prawo nauki powinno spełniać następujące warunki : Warunki formalne

1) jest twierdzeniem ściśle ogólnym

2) jest twierdzeniem nierównoważnym skończonej klasie zdań jednostkowych 3) jest twierdzeniem otwartym ontologicznie

4) jest twierdzeniem otwartym epistemologicznie Warunki merytoryczne

1) jest twierdzeniem wystarczająco dobrze zweryfikowanym empirycznie 2) należy do określonej teorii

3) ma moc eksplanacyjną ( jest zdolne do wyjaśniania określonego zbioru zjawisk ) 4) ma moc prognostyczną ( jest zdolne do przewidywania określonego zbioru zjawisk )

Twierdzenie jest otwarte ontologicznie, jeśli dotyczy również ( lub wyłącznie ) obiektów przyszłych. Jest ontologicznie zamknięte, jeśli dotyczy wyłącznie obiektów przeszłych i teraźniejszych ( dokonanych )

Twierdzenie otwarte epistemologicznie, to twierdzenie dotyczące również ( lub wyłącznie ) obiektów nie poznanych.

Twierdzenie zamknięte epistemologicznie dotyczy wyłącznie obiektów poznanych.

Twierdzenie spełniające warunki formalne lecz nie spełniające warunków pozaformalnych, zwane jest twierdzeniem prawdopodobnym lub kandydatem na prawo przyrody.

Ogólnie możemy wyróżnić następujące prawa : 1) ilościowe i jakościowe

2) teoretyczne i empiryczne 3) dynamiczne i statystyczne 4) idealizacyjne i faktualne

Prawa ilościowe ( w fizyce są one najcenniejsze ) maja postać matematyczną, wyrażane są zazwyczaj przez formułę ( wzór matematyczny ) podaną w następniku. Poprzednik takiego prawa podaje zwykle warunki dostateczne wystąpienia

zależności (prawidłowości ) opisywanej w następniku. Przykład – prawo powszechnego ciążenia, druga zasada termodynamiki.

Prawa jakościowe wyrażane są zazwyczaj w języku potocznym lub w języku danej nauki i podają na ogół jaką własność G ma klasa obiektów wyznaczona przez cechę F. Przykład – wszystkie metale są dobrymi przewodnikami ciepła

(8)

Prawem empirycznym nazywa się prawo, w którym występują wyłącznie terminy obserwacyjne tj. terminy dotyczące przedmiotów lub cech dających się bezpośrednio obserwować. Przykład - ołów topi się w temperaturze 327 °C Prawa teoretyczne (teorie ) wchodzą w skład systemów wyjaśniających i dotyczą aspektów zjawisk nie dających się bezpośrednio obserwować.

Zazwyczaj przyjmuje się, że zbiór praw lub/i zasad przyrody tworzy określoną teorię naukową. Teoria jest więc zbiorem twierdzeń uporządkowanych logicznie za pomocą relacji wynikania – zbiór konsekwencji określonych praw i zasad.

Teorie mogą opisywać określony szerszy lub węższy zbiór zjawisk fizycznych np. atomowa teoria budowy materii, teoria mechaniki nieba; mogą stanowić również podzbiór innej teorii lub stanowić ich uzupełnienie.

Zazwyczaj przed teorią naukową stawiamy określone cele i warunki ( podobne jak w przypadku prawa nauki ), zazwyczaj pierwszym warunkiem jest prostota lub „piękno” – wewnętrzna harmonia danej teorii :

Prostota logiczna teorii = informacyjna zawartość teorii ( liczba twierdzeń pochodnych ) liczba postulatów wyjściowych ( liczba twierdzę wyjściowych )

(9)

[4a, str. 20 ]

[7a , str. 107 ]

(10)

Modelowanie – modelowanie matematyczne.

Ogólnie modelowaniem nazywamy proces w trakcie którego dany obiekt (zjawisko, proces ) stanowiący przedmiot badania naukowego zastępujemy innym obiektem. W kontekście nauk empirycznych najczęściej mówimy o modelowaniu matematycznym danego procesu fizycznego tj. zastąpieniu go pewnymi obiektami matematycznymi np. równaniami - różniczkowymi, różniczkowo-całkowymi, całkowymi, operatorowymi, wariacyjnymi, strukturami - algebraicznymi, relacyjnymi, obiektowymi, lub innymi obiektami matematycznymi. Najczęściej też modelowanie takie ma charakter dynamiczny tzn. wprowadzamy modele procesów zależnych od czasu.

[10a, str. 198 ]

Pojęcie modelowania ma oczywiście znacznie szersze znaczenie – przykładowo w naukach technicznych możemy mówić o modelowaniu materiałowym myśląc o skalowanych modelach np. maszyn przemysłowych czy też pojazdów.

Ogólnie modele dzielimy (przykładowo ) tak : Modele → Myślowe → pojęciowe

→ symboliczne - obrazowe → Materiałowe → geometryczne – makiety fizyczne

→ matematyczne

(11)

Rys. 1.1 Model fizyczny pewnego układu mechanicznego ( układ tłumienia drgań mechanicznych ) Model matematyczny tego układu ma postać odpowiedniego układu równań różniczkowych zwyczajnych.

Rys 1.2 Etapy studium dynamiki układu fizycznego

(12)

Najczęściej modelem matematycznym danego procesy jest pewne zinterpretowane fizycznie równanie różniczkowe cząstkowe (rrc) ( dla modeli numerycznych są to oczywiście równania różnicowe). Dla fizyki matematycznej największe znaczenie mają rrc liniowe, dwóch lub trzech zmiennych rzeczywistych - eliptyczne, paraboliczne lub hiperboliczne (falowe).

Pośród modeli matematycznych wymienić możemy wspomniane już modele dynamiczne i statyczne. Modele dynamiczne w zależności od rodzaju użytych „narzędzi” matematycznych możemy podzielić na modele układów deterministycznych, chaotycznych i stochastycznych. [10a, str. 199]

Oczywiście, aby zamodelować jakieś zjawisko ( rozumiane jako konkretny proces zachodzący w czasoprzestrzeni ) fizyczne koniecznym jest aby spełniało ono określone warunki, w pierwszej kolejności zjawisko to powinno być powtarzalne ( lub losowo powtarzalne ), powinno ono być również niezależnym od metody pomiarowej i czynników subiektywnych np. przekonań i stanu obserwatora ( z tego względu wykluczone są zjawiska w których czynnikiem decydującym jest np. wolna wola obserwatora ). Dla stworzenia modelu dane zjawisko należy poddać idealizacji tj. należy przeanalizować wszystkie istotne czynniki fizyczne mające na niego wpływ.

(13)

[ W. Kopczyński , A. Trautman Czasoprzestrzeń i grawitacja ; PWN 1984 str. 24- 25 ]

Dane równanie (ogólnie określona struktura matematyczna ) powinno spełniać określone warunki zarówno poprawności matematycznej jak i fizycznej. Innymi słowy zagadnienie powinno być poprawnie postawione zarówno od strony

matematycznej (jednoznaczność rozwiązań, stabilność ze względu na warunki początkowe czy też parametry wewnętrzne ) jak i fizycznej ( poprawna i jednoznaczna interpretacja fizyczna zadanej struktury matematycznej ).

Z ogólnego punktu widzenia modelująca struktura matematyczna odwzorowuje (lub ma taki cel ) określone relacje zachodzące w świecie zjawisk modelowanych ; w pierwszej kolejności relacje ilościowe, a następnie jakościowe.

Na poziomie bardzo ogólnych rozważań można byłoby mówić o określonej strukturze logicznej – strukturze relacyjnej typu : przy warunkach fizycznych Q, zjawisku A odpowiada zjawisko B (wprowadzając być może określone

prawdopodobieństwa zaistnienia całego szeregu zjawisk – tj. powiemy, teraz że przy określonych warunkach fizycznych Q, zjawisku A odpowiadają zjawiska : B z prawdopodobieństwem PB , C z prawdopodobieństwem PC , ... ).

Struktura matematyczna wprowadza określony porządek , ale też umożliwia określone predykcje.

Niewątpliwie jedną z pierwszych struktur matematycznych zastosowanych w modelowaniu matematycznym zjawisk przyrody była geometria. Bez wątpienia istotnym był tutaj fakt, że geometria pojawiła się jako pierwsza pośród działów matematyki. Geometria też jako pierwsza doczekała się sformułowania aksjomatycznego. Narodziny geometrii bez wątpienia wiążą się z konkretną praktyką działalności ludzkiej – mierzenia, odmierzania, pomiaru.

Urzekające piękno (symetrię ) i użyteczność konstrukcji geometrycznych od razu zwróciły uwagę starożytnych na związek geometrii ze światem fizycznym. Geometria znalazła od razu liczne swoje zastosowania w statyce – równowaga brył, układów brył, urządzeń mechanicznych (dźwignia ), czy też w dynamice – modelowanie ruchów ciał niebieskich za pomocą epicykli.

( zobacz np. „O geometrii dla postronnych” – M. Kordos, L. Włodarski ; PWN 1981 ) Obecnie coraz szerzej stosuje się również metody algebraiczne – teorię grup, algebr, ciał, pierścieni.

Standardowymi równaniami modelującymi różnorodne procesy fizyczne są równania wchodzące w obszar zainteresowań równań fizyki matematycznej.

Zobacz tekst pt. Równania fizyki matematycznej

(14)
(15)
(16)

„Nowoczesna matematyka dla inżynierów” – red. E. F Beckenbach WNT 1962 od str. 129

W fizyce teoretycznej jednolity model matematyczny powinien obejmować możliwie jak najszerszy obszar zjawisk.

Ideałem do którego dąży się w sposób niejako asymptotyczny jest objęcie jedną teorią ( jednym równaniem ) wszystkich znanych ( i nie znanych jeszcze ) zjawisk fizycznych. Unifikacja wszystkich sił ( oddziaływań fizycznych ) znana pod nazwą Teorii Wielkiej Unifikacji, stanowi główny cel zainteresowań teoretycznych fizyków.

W chwili obecnej istnieje bardzo dużo fragmentarycznych teorii – teorii cząstkowych, łączonych w wielu przypadkach w tzw. modele standardowe np. model standardowy fizyki cząstek elementarnych, model standardowy Wielkiego Wybuchu.

Istnieją również teorie nie wchodzące do żadnych ogólniejszych modeli ( chyba, że jako teorie wspomagające np. teoria przejść fazowych, teoria chaosu deterministycznego )

Zazwyczaj dla teorii fizycznej, która została powszechnie przyjęta ( ugruntowana empirycznie w pewnym określonym obszarze zmienności parametrów fizycznych ), możemy wyróżnić odpowiedni dla niej aparat matematyczny, który

odzwierciedla wszystkie kluczowe elementy tej teorii. Struktura taka może być jedna lub dana teoria może być wyrażona w innym formalizmie matematycznym. W kontekście takiego zagadnienia zazwyczaj powstaje pytanie w jakim stosunku – odpowiedniości pozostają takie sformułowania ?

W szczególności czy mamy do czynienia z modelami równoważnymi – dualnymi – komplementarnymi ( np.

sformułowanie MK z użyciem formalizmu Lagrange’a i Hamiltona ), czy też z modelami nakrywającymi ( np. model elektrodynamiki z użyciem oryginalnego formalizmu Maxwella – rrc i model elektrodynamiki relatywistycznej z użyciem formalizmu tensorowego i przestrzeni Minkowskiego ).

(17)

Często jest jednak tak, że trudno określić który formalizm jest „pojemniejszy” czy też użyteczniejszy – wszystko bowiem zależy od celu do jakiego go zastosujemy. Pytanie czy MQ lepiej sformułować w języku operatorów działających w przestrzeni Hilberta czy też całek Feynmana, a może są to sformułowania równoważne ?

Oczywiście na powyższe pytanie nie ma dobrej odpowiedzi – wszystko zależy od konkretnej sytuacji jaką należy zamodelować (obliczyć, skonceptualizować ), w wielu przypadkach wymienione sformułowania są równoważne ( poza oczywistymi i właściwymi danemu podejściu problemami rachunkowymi ).

Na ile różnych, może równoważnych sposobów matematycznych możemy wyrazić daną teorię fizyczną ?

Z praktyki wiadomo, że jeśli dana teoria fizyczna posiada pewien model matematyczny, to albo nie jest on jedyny w sensie modeli równoważnych fizycznie ale nie koniecznie matematycznie ( możemy powiedzieć, że istnieje niejednoznaczność matematyczna ), albo jest on częścią składową bogatszej teorii matematycznej.

Często okazuje się również, że jedna i ta sama struktura matematyczna może modelować różne teorie fizyczne ( wtedy możemy mówić o niejednoznaczności fizycznej ).

***************************************************************************************************

Słowniczek pojęć.

Eksperyment (fizyczny ) [1a ] - czynność (procedura ) mająca na celu rozstrzygniecie konkretnego problemu teoretycznego, w wyniku której wywołuje się celowo i z rozmysłem dane zjawisko, bądź wpływa na nie poprzez modyfikacje warunków jego przebiegu. Czynny charakter badań eksperymentalnych oraz teoretyczne ukierunkowanie stanowią dwie istotne cechy odróżniające eksperyment od obserwacji. Aktywne oddziaływanie na przedmiot badania (lub warunki jego występowania )

stanowiące istotę działalności eksperymentalno -laboratoryjnej umożliwia ścisłe badanie poszczególnych elementów własności lub relacji zachodzących między przedmiotem eksperymentu warunkami fizycznymi.

Eksperyment jako działalność kontrolowana i zamierzona organicznie wiąże się z analizą teoretyczną i jako taki jest związany z określonymi teoriami i wcześniejszymi danymi otrzymanymi na drodze innych eksperymentów.

Kluczową fazą działalności eksperymentatora ( lub zespołu teoretyczno – laboratoryjnego ) jest akt pomiaru określonej wielkości fizycznej np. napięcia, natężenia świtała lub też jakościowego zachowania się rejestratora np. zliczenie kolejnego impulsu na liczniku scyntylacyjnym lub też przejście układu logicznego do stanu przeciwnego.

Eksperyment wiąże się również z możliwością kontrolowanego wpływu na wywoływane zjawiska np. zwiększenie napięcia powoduje wzrost oporu elektrycznego ośrodka. Zazwyczaj w tym kontekście dokonujemy próby ujawnienia najistotniejszych czynników determinujących dane zjawisko – tj. sprawdzamy od jakich warunków najsilniej ono zależy.

Eliminujemy również czynniki nieistotne np. tarcie, wpływ temperatury itp. skupiając uwagę na tych czynnikach, które akurat nas interesują w danej teorii. Zawsze w takich okolicznościach zmuszeni jesteśmy do dokonywania pewnych idealizacji (abstrakcji), a w kolejnej fazie interpolacji.

Oprócz eksperymentów laboratoryjnych ważną rolę w rozwoju teorii fizycznych odegrały eksperymenty myślowe, stanowiące poglądową (obrazową ) rekonstrukcje badanego procesu. W jego trakcie eliminujemy w najwyższym teoretycznie możliwym stopniu wszystkie niepożądane okoliczności i warunki ( tym samym niejako usiłując granicznie wyidealizować możliwe do przeprowadzenia doświadczenie laboratoryjne np. wprowadzając idealny przyrząd pomiarowy (woltomierz o nieskończonym oporze wewnętrznym ) ).

Prekursorem takich eksperymentów był Galileusz – wyobraźmy sobie iż mamy pewne ciało w kształcie hantli ( dwóch kul połączonych prętem ). Badamy czas spadku swobodnego takiego przedmiotu, myślowo zmniejszając coraz bardziej średnicę pręta łączącego ciężarki. Zagadnienie jest następujące – czy „myślowe” przerwanie łącznika może doprowadzić do dramatycznej zmiany czasu spadku swobodnego hantli ? Innymi słowy – czy czas spadku swobodnego zależy od ciężaru ciała ?

Mistrzem stosowania eksperymentu myślowego był A. Einstein ( np. eksperyment myślowy z windą czy też eksperyment myślowy EPR ).

Zazwyczaj eksperymenty dzielimy na heurystyczne i sprawdzające ( w tym tzw. eksperymenty krzyżowe – experimentum crucis ).

Eksperyment heurystyczny ma dostarczyć nowej wiedzy związanej z określonym zjawiskiem – innymi słowy poszerzyć wiedze już posiadaną na szerszy zakres parametrów np. dla mniejszych odległości, odkryć nowe zależności lub dokonać prostej klasyfikacji danego zjawiska. Eksperymenty sprawdzające mają na celu poparcie lub wyeliminowanie

konkurencyjnych teorii np. eksperyment Foucaulta polegający na pomiarze prędkości świtała w powietrzu i w wodzie mający rozstrzygnąć spór między korpuskularną teorią światła Newtona, a falową teorią Huygensa.

W filozofii nauki toczy się wielowiekowy spór o to czy istnieją eksperymenty definitywne ( ostateczne – raz na zawsze ustalające pewne fakty ) obalające ( falsyfikujące ) dane teorie, czy też każdy eksperyment prowadzi co najwyżej do zmniejszenia wiarygodności ( tj. do dyskonfirmacji ) danych teorii. Panuje natomiast zgoda co do tego, ze nie ma w nauce eksperymentów definitywnie weryfikujących tzn. ustalających ponad wszelką wątpliwość prawdziwość danej teorii – nowe dokładniejsze lub różnorodne fakty mogą zawsze doprowadzić do podważenia wcześniejszych danych doświadczalnych, a co za tym idzie teorii bazującej na tych faktach. Oczywistym jest również, że dyskonfirmacja poprzez prawidłowo wykonany eksperyment jest ostateczna. Innymi słowy prawdziwość teorii może być potwierdzana przez wiele

(18)

doświadczeń, ale wystarczy jedno doświadczenie z nią niezgodne aby ja obalić lub co najmniej ograniczyć zakres jej obowiązywania. Przykładowo jak wiemy współcześnie wszystkie dane doświadczalne wskazują na słuszność zasady równoważności, wystarczy jednak jeden eksperyment w którym zasada ta byłaby niespełniona np. dla kondensatu Bosego-Einsteina, aby stała się ona jedynie ograniczonym prawem.

Empiryzm ( radykalny ) [2a] Wiedzę uzyskujemy w wyniku przeprowadzania doświadczeń - eksperymentów lub obserwacji. Empirysta głosi, że wszystkie nasze pojęcia zależą od doświadczenia – nihil in intellectu nisi prius in sensu ( nie ma nic w intelekcie, czego by wprzód nie było w zmysłach.

Możemy wyróżnić cztery rodzaje sprawdzania empirycznego : 1) Pozytywne

a) całkowite – weryfikacja, wskazanie prawdziwości twierdzenia b) częściowe – konfirmacja, sprawdzenie w pewnym zakresie 2) Negatywne

a) całkowite – falsyfikacja, wskazanie fałszywości choćby w jednym przypadku b) częściowe – dyskonfirmacja – osłabienie twierdzenia

Operacjonizm [2a] – redukcjonistyczna i pozytywistyczna filozofia nauki związana w pierwszej kolejności z nazwiskiem Bridgmana. Według operacjonizmu sądy o przedmiotach teoretycznych np. o atomach, cząsteczkach są zamaskowanymi sądami o doświadczeniach będących rezultatem określonych operacji naukowych – głownie pomiarowych. Terminy teoretyczne których nie da się sformułować w postaci operacyjnej – rozumianej jako określone procedury pomiarowe.

Przykłady – pojęcie długości oparte jest na określonej procedurze pomiarowej ( zawierającej w sobie pojęcie wzorca długości i sposobu jego użycia ), pojęcie jednoczesności może być zdefiniowane poprzez podanie określonej procedury – pomiaru rozstrzygającej efektywnie które zjawiska są, a które nie są jednoczesne.

Stanowisko operacjonistyczne jest równoważne z filozofią radykalnego empiryzmu, mówiącego iż przedmioty teoretyczne są konstrukcjami logicznymi wynikającymi z doświadczenia. Operacjonizm, mimo wielu zalet posiada również jedną poważną wadę – nie wszystkie sensowne fizycznie pojęcia da się uzasadnić z takiego punktu widzenia. Są pojęcia tak mocno uwikłane w zależności teoretyczne lub filozoficzne, że mimo ich wielkiej użyteczności na terenie fizyki nie mieszczą się w ramach operacjonizmu. Ich odrzucenie nie wchodzi jednak w grę, ponieważ zastąpienie ich innymi równoważnymi pojęciami wiąże się z tymi samymi lub nawet jeszcze poważniejszymi problemami.

Teoria naukowa ( teoria fizyczna ) – Ogólnie teoria to pewien spójny metodologicznie i pojęciowo system twierdzeń opisujących pewną klasę obiektów np. struktur matematycznych, układów fizycznych. Teoria składa się z pewnego układu formalnego ( sformalizowanego układu aksjomatycznego ) poddanego określonej interpretacji np. interpretacji fizycznej, biologicznej lub innego. Związki takiej interpretacji z doświadczeniem ( rzeczywistością ) stanowi jej fundament

empiryczny. Składają się na niego z jednej strony zależności łączące twierdzenia teorii z wynikami badać empirycznych, a z drugiej strony – zależności łączące terminy (wyrażenia ) teorii z terminami za pomocą których wyrażane są dane empiryczne ( te ostatnie nazywa się terminami obserwacyjnymi ).

Teza Duhema-Quine’a – stwierdzenie, że hipotez naukowych nie sposób sprawdzać z osobna w izolacji, gdyż

wyprowadzanie z nich konsekwencji empirycznych zawsze wymaga jakiś dalszych hipotez pomocniczych. W świetle tej opinii obalenie danej hipotezy naukowej jest znacznie trudniejsze niż mogłoby się to wydawać na pierwszy wzgląd.

Konsekwencje taką możemy sformułować bardziej radykalnie twierdząc, ze każdą z osobna hipotezę można utrzymywać mimo dowolnych faktów jakie przemawiają za jej nieprawdziwością. Zawsze możemy bowiem dołączać wciąż określone modyfikacje tej hipotezy tłumaczące jej niestosowalność akurat dla przypadku, kiedy fakty empiryczne przemawiają na jej niekorzyść. Przykładowo, w przypadku kiedy stwierdzono by iż neutrina poruszają szybciej niż świtało, można byłoby do STW dołączyć tezę, że nie stosuje się ona do neutrin.

Literatura.

1a) „Filozofia a nauka – zarys encyklopedyczny” red. Z. Cackowski ; Ossolineum 1987 2a) „Oksfordzki słownik filozoficzny” red. S. Blackburn ; KiW 2004 3a) “Filozofia część 2” K. Matraszek , J. Such ; PWN 1989 4a) „Prawa nauki. Przegląd zagadnień metodologicznych i W. Krajewski ; KiW 1998

filozoficznych”

5a) „Ogólna metodologia nauk” Z. Hajduk ; KUL 2007

6a) „Modele teorii empirycznych” E. Kauszyńska ; IFiS PAN1994 7a) „Kłopoty z nauką” R. Dunbar ; Warszawa 1996 8a) „Philosophy of physics” M. Bunge

tłumaczenie rosyjskie Moskwa 2003

9a) “Modelowanie matematyczne w fizyce i technice” E. Szucs ; WNT 1977 10a) „Sztuka modelowania układów dynamicznych deterministycznych Foster Morrison ; WNT 1996 chaotycznych stochastycznych”

11a) „Dynamika układów fizycznych” R. H. Cannon ; WNT 1973

(19)

12a) „Wstęp do metodologii nauk empirycznych” W. Mejbaum, A. Żukowska ; W-UJ 1985 13a) „Wprowadzenie do filozofii przyrody” H. D. Mutscheler ; WAM 2005

14a) Filozofia nauki. Orientacje, koncepcje, krytyki Z. Chojnicki ; Poznań 2000 15a) Metodologiczne modele powstawania teorii w fizyce L. Ryk ; PAN Wrocław 1984

16a) „Matematyczność przyrody” red. M. Heller, J. Życiński ; OBI 1992 17a) „Elementy filozofii nauki” J. Życiński ; Biblos Tarnów 1996

***************************************************************************************************

II. Mechanika klasyczna.

Przedstawione w niniejszym punkcie narzędzia matematyczne wyjaśnione są w tekście pt.

„Wybrane struktury matematyczne w fizyce”

Stojąc na gruncie empiryzmu i stosując metodę aksjomatyczno –dedukcyjną wyrażania (modelowania ) faktów eksperymentalnych, budując określoną teorię fizyczną w pierwszej kolejności poszukujemy odpowiedniej struktury matematycznej w której „zanurzymy” dany zbiór faktów empirycznych.

„W myśl tej tradycji matematyka „czysta” to zespół teorii niezinterpretowanych ( tym samym każda teoria niezinterpretowana lub po prostu rozważana w sposób niezależny od interpretacji jest teorią matematyczną ).

Jeśli natomiast tym samym teoriom nada się odpowiednią interpretacje, to stają się one teoriami „matematyki stosowanej”, a zarazem – na przykład – teoriami fizycznymi”

[ Nowaczyk – Wprowadzenie do logiki nauk ścisłych ; PWN 1990 str. 30 ]

Dla mechaniki klasycznej – nierelatywistycznej ( mechanika, rozumiana jest tutaj jako teoria tłumacząca zasady ruchu ( dynamiki ) ciał materialnych ( punktu materialnego ) pod wpływem określonych sił ) taką strukturą jest w szczególności przestrzeń Euklidesa ( liniowa przestrzeń wektorowa, rzeczywista, o skończonym wymiarze ). W przestrzeni takiej określamy odpowiednie rrz ( równanie różniczkowe zwyczajne ) wyrażające matematycznie prawa dynamiki newtonowskiej. Równania takie standardowo zapisujemy w postaci :

( patrz tekst pt. „Szkic o fizyce i jej historii, matematyce i filozofii” ) n

m1 d2r1 /dt2 = F1 + ΣΣΣΣf1i (2.1)

i ≠ 1 n

m2 d2r2 /dt2 = F2 + ΣΣΣΣf2i i ≠ 2 ...

n

mn d2rn /dt2 = Fn + ΣΣΣΣfni i ≠ n gdzie :

r (t) = x(t)i + y(t)j + z(t)k - wektor (funkcja wektorowa ) wodzący punktu(ów) materialnych ; t ∈ < t0 , t1 >

F = f( t, r , v ) – ogólna postać wektorowego pola siły.

Najważniejsze postaci sił to : siła zachowawcza F = − ∇U(x, y, z ) ; U – potencjał Siła centralna F = α | r |

Siła sprężysta F = αr

Równania (2.1) mogą być zapisane również w postaci wektorowej :

p = F , p = dp/dt ( kropka standardowo oznacza różniczkowanie po czasie )

Oczywiście jedną z najważniejszych konsekwencji równań dynamiki jest równanie newtonowskiego prawa powszechnego ciążenia :

m d2r1/dt2 = GMm [ 1/ ( r1 r2)2 ] r^

-- współczynnik -- --rodzaj siły-- --wersor siły-- r^ = (r1 r2) / | r1 r2 |

tj. dynamika punktu materialnego o masie m w polu siły centralnej – zachowawczej generowanej przez masę M ( zazwyczaj M >> m )

(20)

Matematycznie elegancko, wyrażamy również fizyczną koncepcje układu odniesienia – jest nim odpowiednia baza, przestrzeni wektorowej.

Określić ruch punktu materialnego to znaczy określić zmianę jego położenia względem wybranego układu odniesienia w dowolnej chwili czasu. Ustalenie układu odniesienia (ciała odniesienia, układu laboratorium) stanowi podstawę

jakiegokolwiek opisu ruchu , jest zatem kluczowym dla całej kinematyki. Nie można mówić o jakimkolwiek ruchu bez wskazania układu odniesienia według którego taki ruch opisujemy, można zatem powiedzieć , że ruch jest pojęciem względnym tj. dotyczy co najmniej dwóch punktów materialnych – nie ma ruchu bezwzględnego, samego w sobie – jest to kluczowe stwierdzenie dla całej fizyki i stanowi podstawę dla zasad względności. Jest to naturalna konsekwencja

jednorodności przestrzeni – z każdym dowolnym punktem przestrzeni możemy związać - na zasadzie równouprawnienia - pewien układ odniesienia.

Układem odniesienia - nazywamy ciało materialne lub układ ciał materialnych, wyposażone w zestaw przyrządów pomiarowych (prętów pomiarowych, zegarów, źródeł sygnałów elektromagnetycznych lub podobnych - równoważnych) Układ odniesienia jest zatem pojęciem makroskopowym (ze wszystkimi tego fizycznymi konsekwencjami). Pomiar parametrów kinematycznych ruchu ciała takich jak np. czas ruchu, przesunięcie, długość musi być jednoznaczny i ograniczony jedynie przez możliwości użytych przyrządów pomiarowych. Przyrządy mikroskopowe podlegają zasadą kwantowym min. zasadzie nieoznaczoności ,zatem nie mogą być użytecznymi – przynajmniej jeśli chodzi o kinematykę Newtonowską (klasyczną), mającą do czynienia z odległościami ,

czasami, masami - ogólnie skalami makroskopowymi. Widać stąd również, że pojęcia ugruntowane w kinematyce makroskopowej nie mogą być bezkrytycznie przenoszone (stosowane) na inne działy fizyki – szczególnie dotyczy to mechaniki kwantowej, kwantowej teorii pola, lub pewnych zagadnień ogólnej teorii względności. Układ odniesienia w powyższym sformułowaniu jest jednak bardzo użytecznym pojęciem, i może być stosowany (z pewnymi modyfikacjami) w szczególnej i ogólnej teorii względności.

Z danym układem odniesienia wiążemy prawie nierozłącznie (w wielu sytuacjach nawet utożsamiamy – czasem słusznie czasem nie słusznie – w zależności od rozpatrywanego zagadnienia fizycznego) pojęcie – układu współrzędnych. I o ile

„układ współrzędnych” jest abstrakcją fizyczną (modelem), to „układ współrzędnych” jest ścisłym (definiowalnym) pojęciem matematycznym. Od razu należy dodać, że z danym układem odniesienia możemy związać nieskończenie wiele - na ogół - różnych układów współrzędnych. (sytuacja odwrotna raczej nie może mieć zastosowania).

Układ odniesienia możemy sobie wyobrazić jako pewne ciało materialne (punkt materialny, zobacz rys. 1) do którego

„przyczepiono” trzy nieskończenie długie, absolutnie sztywne, odpowiednio wyskalowane, ułożone prostopadle pręty odmierzające długości w przestrzeni, ciało to wyposażone jest również w zegar -odpowiednio wyskalowany, jego wskazania pokazują upływ czasu absolutnego i mogą być odczytywane z dowolnej odległości przestrzennej. To założenie równoważne jest postulatowi istnienia sygnału fizycznego o nieskończonej prędkości rozchodzenia. Równoważnie - możemy również umieścić zegar w każdym, dowolnym punkcie przestrzeni albo przemieszczać jeden zegar nieskończenie szybko do dowolnego punktu w przestrzeni Oczywiście postulujemy, że na chód takiego zegara nie zmienia się po takim przesunięciu – jest to cecha czasu absolutnego.

Rys. 2.1a Fizyczna konceptualizacja układu odniesienia.

Układem współrzędnych – nazywamy zbiór reguł które opisują (reprezentują, jednoznacznie) każdy obiekt (punkt) p, danej przestrzeni P (obszaru) , za pomocą odpowiedniego ciągu ( x1, ... , xn ), liczb rzeczywistych lub zespolonych ,

nazywanych współrzędnymi lub składowymi tego obiektu. Liczbę n – nazywamy wymiarem przestrzeni P.

Wybierając w przestrzeni Euklidesa pewien punkt – początek układu współrzędnych otrzymamy przestrzeń afiniczną.

Przestrzeń afiniczna umożliwia wprowadzenie ważnych dla kinematyki pojęć :

wektorów swobodnych i zaczepionych, długości wektorów oraz kątów między wektorami.

Wraz z aparatem analizy wektorowej (zwłaszcza teorii równań różniczkowych zwyczajnych) geometria afiniczna umożliwia wyprowadzenie wszystkich pojęć mechaniki.

Możemy wprowadzić następującą, abstrakcyjna definicję :

(21)

Niech { O, e1, ... , en }- będzie reperem przestrzeni afinicznej P tj. bazą {e1, ... , en } przestrzeni liniowej V razem z punktem O ∈ P – zwanym „początkiem układu współrzędnych” .

Definicja. Afiniczny (lub prostoliniowy) układ współrzędnych odpowiadający reperowi { O, e1, ... , en }, jest to zbiór funkcji :

x = ( x1, ... , xn ) , xi : P - > R zdefiniowanych następująco :

xi (p) - ei (Op→ ) , i = 1, ...n {e1, ... , en } – jest bazą V* dualną do bazy {e1, ... , en } przestrzeni V.

Funkcje xi nazywamy funkcjami współrzędnościowymi reperu. Dla punktu p P zbiór liczb :

x(p) = (x1(p) , ... , xn(p) ) nazywamy „współrzędnymi punktu p” w układzie współrzędnych x = (x1, ... , xn ) Zauważmy ,że (1.1) jest równoważne :

Op→ = xi(p) • ei

tj. współrzędne punktu p są to współrzędne wektora wodzącego Op→, w bazie {e1, ... , en }

We współrzędnych kartezjańskich, trójwymiarowych mamy reper o postaci : {O, i, j, k } gdzie : i, j, k – są wersorami układu współrzędnych, O – jest początkiem układu współrzędnych.

Każdemu punktowi przestrzeni P, możemy przyporządkować pewien wektor wodzący tj. zdefiniować pewną

wektorofunkcje. (dokładnie zobacz tekst „Podstawy geometrii różniczkowej”, który stanowi teoretyczną podstawę dla dalszej części artykułu ).

Położenie punktu w przestrzeni określa wektor (wektor wodzący tego punktu ) :

r = x(α)i + y(α)j + z(α)k , gdzie α - jest ustalonym parametrem

Rys. 2.1b Wektor wodzący punktu (geometrycznego) w przestrzeni Euklidesa we współrzędnych kartezjańskich ( Zobacz tekst pt. Kinematyka punktu materialnego w mechanice klasycznej )

W tym klasycznym ujęciu mechanika może być traktowana jako dział matematycznej teorii równań różniczkowych zwyczajnych. Podstawowymi pojęciami matematycznymi dla takiego sformułowania mechaniki jest przestrzeń wektorowa i teoria rrz. Siła modelowana jest przez odpowiednio dobrane pole wektorowe. Zmiennymi dynamicznymi mogą być wektor wodzący układu punktów materialnych lub środka ciężkości bryły sztywnej, energia, prędkość, przyspieszenie lub inna wielkość fizyczna. Standardowo zakłada się, że odpowiedni układ rrz jest układem mającym jednoznaczne

rozwiązania innymi słowy zakładamy, że zagadnienie jest dobrze ( matematycznie ) postawione.

Pozostaje oczywiście pytanie czy jest to jedyna możliwe sformułowanie zasad mechaniki ?

W fizyce teoretycznej zazwyczaj jest tak, że dany zespół faktów można wyrazić ( mniej lub bardziej elegancko ) poprzez różne struktury matematyczne. Zazwyczaj jest również tak, że w pierwszej kolejności zadowalamy się strukturą

najprostszą, a później wprowadzając odpowiednie uogólnienia wzbogacamy taką strukturę, otrzymując wielokrotnie bardzo zaawansowaną konstrukcje matematyczną. Przestrzeń Euklidesa jest bodaj najprostszą z możliwych i intuicyjnie ujmowanych przestrzeni stosowanych w matematyce ( co nie oznacza wcale iż jest ona matematycznie trywialna ), a dalej w fizyce matematycznej. Na poziomie elementarnego doświadczenia świat fizyczny „rozgrywa” się w przestrzeni Euklidesa. Przestrzeń ta, jako pierwsze przybliżenie jest bez wątpienia na tyle „rzeczywista” ( tj. zgodna z potocznym – codziennym doświadczeniem ) iż zdaje się być ona referentem dla każdego innego sformułowania mechaniki klasycznej.

Cytaty

Powiązane dokumenty

Uczestniczka/uczestnik, która/który na seminarium wysłuchuje wystąpienia, opracowuje pisemne sprawozdanie w edytorze MSWord zawierające od 2500 do 3000 znaków bez spacji,

Za dalszą form ę konsultacji może być uznana konsultacja „zew nętrzna“. Wiele ze spraw w szczególności karnych i cywilych wym aga od w ystępu­ jącego w

Jerzy Topolski proponuje takie ujęcie faktu historycznego, które uznawałoby jednocześnie istnienie obiektywnej rzeczywistości historycznej jako przed- miotu badania oraz twórczej

Nie dość wnikliwe śledzenie badań i wąski praktycyzm w zakresie metodyki mogą stać się przyczyną spowolnienia postępu w nauczaniu, mimo rozwoju dydaktyki matematyki jako

W prywatnej modlitwie przed snem pojawiaj si s owa: „króluj nad nami na wieki!” (s.. Uznanie królowania Boga przez Izrael rozci ga si w czasie na wszystkie

Oczywiście pytania takie są pozbawione sensu – każda z tych geometrii, a nawet geometrii jakie powstaną w dalszym toku rozwoju matematyki jest odpowiednia i prawdziwa w ramach

Ważna jest także jego komunikatywność oraz poziom opanowania profesjonalnej (prawniczej i metodologicznej) terminologii...