• Nie Znaleziono Wyników

Historia informatyki- wykłady cz. 2

N/A
N/A
Protected

Academic year: 2021

Share "Historia informatyki- wykłady cz. 2"

Copied!
9
0
0

Pełen tekst

(1)

ENIAC i inne

ENIAC (Electronic Numerical Integrator and Computer) opracowany został na zlecenie Armii USA, która potrzebowała go do wykonywania żmudnych, tabelarycznych obliczeń dla nowo produkowanych dział.

Zaprojektowali go John Presper Eckert i John William Mauchly. ENIAC został oficjalnie uruchomiony na Uniwersytecie w Pensylwanii 15 lutego 1945 roku. Ponownie uruchomiono go w Aberdeen 29 lipca 1947 roku. Pracował do października 1955 roku.

Składał się z ponad 18 000 lamp elektronowych szesnastu rodzajów, 6000 komutatorów i 1500 przekaźników. miał budowę typowo modułową. Każda z 42 szaf zawierała wymienialne panele, zawierające różne zestawy elementów elektronicznych. Podstawowe części składowe maszyny to:

akumulator, jednostka inicjująca, główny programator, układ mnożenia/pierwiastkowania, tablice funkcji oraz bufor i bramka.

Maszyna nie posiadała pamięci operacyjnej - dane mogły być przechowywane tylko w rejestrach akumulatora. Wykonywany program wynikał z ustawienia przełączników. Podstawowymi elementami maszyny były akumulatory, które potrafiły "pamiętać" liczby dziesiętne, dodawać je i przekazywać dalej;

każdy z takich akumulatorów zawierał 550 lamp elektronowych. Liczbę, przechowywaną akurat w danym akumulatorze, można było odczytać z układu zapalonych na czołowej części odpowiedniej szafy neonówek.

Średni czas bezawaryjnej pracy maszyny wynosił około pół godziny.

ENIAC rachował w systemie dziesiętnym, operując liczbami dziesięciocyfrowymi, dodatnimi lub ujemnymi, z ustalonym położeniem przecinka dziesiętnego. Jego szybkość, zawrotna dla ówczesnych naukowców, wyrażała się pięcioma tysiącami dodawań takich liczb w ciągu sekundy. W razie potrzeby maszyna mogła pracować na liczbach "podwójnej precyzji" (dwudziestocyfrowych) o zmiennym miejscu położenia przecinka dziesiętnego; oczywiście, w takim wypadku działała wolniej, a jej pojemność pamięci odpowiednio malała. Całość danych i instrukcji potrzebnych maszynie musiała być wprowadzona na pulpity sterownicze przed rozpoczęciem pracy. Zajmowało to około 2 dni.

Jednym z głównych problemów ENIAC-a było to, iż nie posiadał on żadnej wewnętrznej pamięci jako takiej, lecz musiał być fizycznie programowany przy pomocy przełączników, kabli i tarcz cyfrowych.

W latach czterdziestych XX wieku John von Neumann (1903-1957) i Julian Bigelow zbudowali dla Institute for Advanced Study (IAS, Instytut Badań Zaawansowanych) - niezależnej od władz i samorządu lokalnego prywatnej placówki naukowej, prowadzącej fundamentalne badania w wielu dziedzinach nauki.

komputer oparty na lampach elektronowych z pamięcią o dostępie swobodnym (5 kilobajtów) wykorzystującą lampy oscyloskopowe. Komputer przeznaczony był przede wszystkim do obliczeń związanych z energią reakcji jądrowych. Prowadzono na nim także badania związane z drganiem strun niejednorodnych, meteorologią i aparatami komórkowymi.

(2)

Architektura von Neumanna

W lecie roku 1943 Mauchly i Eckert rozważali pomysł utworzenia komputera wyposażonego w pamięć programu, w którym wewnętrzna pamięć do odczytu i zapisu używana byłaby zarówno do przechowywania danych jak i samego programu. Eckert wpadł na pomysł użycia rtęciowych linii opóźniających jako pamięci dla komputera. W sierpniu 1944 wraz z Mauchly'm zaproponowali zbudowanie innej maszyny zwanej Elektronicznym Automatycznym Komputerem z Dyskretnymi Zmiennymi (EDVAC - Electronic Discrete Variable Automatic Computer). Maszyna została uruchomiona dopiero w roku 1952.

John von Neumann –włączył się w prace nad komputerem ENIAC w sierpniu 1944 r. szybko stał się konsultantem zarówno w projekcie ENIAC jak i w projekcie EDVAC. W czerwcu 1945 opublikował pracę, w której przedstawił wszystkie podstawowe składniki komputera posiadającego pamięć programu. Taki system komputerowy powinien:

mieć skończoną i funkcjonalnie pełną listę rozkazów

mieć możliwość wprowadzenia programu do systemu komputerowego poprzez urządzenia zewnętrzne i jego przechowywanie w pamięci w sposób identyczny jak danych

dane i instrukcje w takim systemie powinny być jednakowo dostępne dla procesora

informacja w takim komputerze jest przetwarzana dzięki sekwencyjnemu odczytywaniu instrukcji z pamięci komputera i wykonywaniu tych instrukcji w procesorze.

Pierwszym oddanym do użytku komputerem pracującym w architekturze von Neumanna był EDSAC, czyli Electronic Delay Storage Automatic Calculator (Elektroniczny, Automatyczny Kalkulator z Pamięcią Opóźnioną), który wykonał swoje pierwsze obliczenia na Uniwersytecie Cambridge w Anglii w maju 1949 roku. EDSAC zawierał 3000 lamp elektronowych i używał rtęciowych linii opóźniających jako pamięci. Programy wprowadzano przy pomocy taśmy papierowej, a wyniki wyjściowe przekazywane były do dalekopisu. Dodatkowo uważa się że EDSAC był pierwszym komputerem, w którym zastosowano asembler zwany „Initial Orders", pozwalający na symboliczne programowanie zamiast stosowania kodu maszynowego.

Pierwszy handlowo dostępny komputer UNIVAC I, czyli Universal Automatic Computer, (Uniwersalny Komputer Automatyczny) został również oparty na projekcie EDVAC. Praca nad UNIVAC I rozpoczęła się w roku 1948, a pierwsza jednostka została dostarczona w 1951.

Maszyny lampowe budowane w architekturze von Neumanna nazywamy komputerami pierwszej generacji. Programowane były w języku maszynowym lub asemblerze. Zawierały pamięć wewnętrzną

(3)

(opartą np. na rtęciowych liniach opóźniających) oraz pamięć zewnętrzną w postaci tzw. bębnów magnetycznych. Budowane od połowy lat czterdziestych do późnych lat pięćdziesiątych. Duże i kosztowne, ze względu na lampy elektronowe wymagały klimatyzacji.

Połprzewodniki i komputery drugiej generacji

Półprzewodniki to ciała stałe, których opór elektryczny właściwy jest większy niż metali, a mniejszy niż dielektryków. Cechą charakterystyczną półprzewodników jest silna zależność przewodnictwa elektrycznego od warunków zewnętrznych. W czasie II wojny światowej odkryto, iż urządzenia zbudowane na bazie półprzewodników mogą być potencjalnymi wzmacniaczami i przełącznikami i mogą zastąpić panującą wtedy powszechnie technologię lamp próżniowych. Urządzenia oparte na półprzewodnikach byłyby dużo mniejsze, lżejsze i wymagały by mniej energii niż analogiczne konstrukcje lampowe.

Firma Bell Telephone Laboratories rozpoczęła badania nad półprzewodnikami w roku 1945, a fizycy William Shockley, Walter Brattain oraz John Bardeen odnieśli sukces tworząc pierwszy germanowy tranzystor ostrzowy 23 grudnia 1947 roku. W roku 1950 Shockley wynalazł nowy element półprzewodnikowy, zwany tranzystorem o złączu bipolarnym, który był bardziej niezawodny, łatwiejszy i tańszy w produkcji oraz posiadał bardziej stabilne parametry od elementów ostrzowo-złączowych.

W 1954 roku w Bell Telephone Laboratories rozpoczęto budowę komputera TRADIX, wykorzystując technikę tranzystorów. Dzięki tranzystorom komputery stawały się szybsze, bardziej niezawodne i co również bardzo ważne - znacznie mniejsze od swoich poprzedników.

Komputery budowane od połowy lat 50-tych oparte na tranzystorach nazywamy komputerami drugiej generacji. Należą do nich minikomputery firmy Digital Equipment Corporation oraz polski ZAM 41.

Na przełomie lat pięćdziesiątych i sześćdziesiątych firma DEC zaprojektowała maszyny PDP (Programmed Data Processor) omijając słowo „komputer”, kojarzone z dużymi i kosztownymi urządzeniami. Na początku lat sześćdziesiątych rozpoczyna się sprzedaż legendarnego, kojarzonego z początkiem „kultury hackerów” komputera PDP1 – wyposażonego w monitor i klawiaturę. Na ofiarowanym MIT PDP1 w 1961 student Steve Russel napisał interaktywną grę komputerową Spacewar, dołączaną do kolejnych komputerów DEC jako program testowy.

Maszyny PDP upowszechniły standard minikomputera – maszyny wykonanej na tranzystorach lub układach scalonych małej lub średniej skali integracji, charakteryzującej się prostą obsługą, niewielkimi wymiarami, modułową budową i nie wymagającej klimatyzacji. Minikomputery często były specjalizowane i służyły np. jako automat obrachunkowy albo analizator widma

(4)

Pierwsze polskie komputery

Od początku lat pięćdziesiątych, przede wszystkim w Państwowym Instytucie Matematycznym w Warszawie powstawały pierwsze komputery w zespole kierowanym przez prof. Leona Łukaszewicza (ur. w 1923 roku).

w 1950 roku komputer doświadczalny (zerowej generacji) GAM-1

w 1955 lampowy komputer analogowy ARR (Analizator Równań Różniczkowych)

w 1957 roku programowany mechaniczno-przekaźnikowy PARK (Programowany Automat Rachunków Krakowianowych – na Akademii Górniczo-Hutniczej)

w 1958 roku pierwszy polski komputer oddany do eksploatacji, lampowy XYZ

w 1961 roku w Zakładach Elektronicznych Elwro we Wrocławiu - Odra 1001, prototyp maszyn cyfrowych serii Odra (budowanych początkowo na licencji angielskiej). Komputery Odra produkowane były do lat siedemdziesiątych, pracowały do początku XXI wieku (np. w fabryce Hutmen na Dolnym Śląsku do 2003 roku).

w 1966 zbudowano pierwszy polski komputer zaprojektowany do przetwarzania danych – ZAM 41.

w latach osiemdziesiątych w zakładach ELWRO produkowano, wzorowane na ZX-ach firmy Sinclair, mikrokomputery Junior, przeznaczone dla szkół.

Układy scalone i komputery trzeciej generacji

Układ scalony (ang. integrated circuit, chip, potocznie kość) to zminiaturyzowany układ elektroniczny zawierający w swym wnętrzu od kilku do setek milionów podstawowych elementów elektronicznych, takich jak tranzystory, diody, rezystory, kondensatory. W 1958 Jack Kilby z Texas Instruments i Robert Noyce z Fairchild Semiconductor niezależnie od siebie zaprojektowali i zbudowali działające modele układów scalonych. Kilby zademonstrował swój wynalazek 12 września 1958 (za co otrzymał Nagrodę Nobla z fizyki w 2000), Noyce zbudował swój pierwszy układ scalony około pół roku później.

Komputery rodziny IBM 360 - typu mainframe, produkowane przez firmę IBM od 1964 roku uważane są za pierwsze komputery trzeciej generacji, czyli oparte na układach scalonych małej i średniej skali integracji (symbol 360 oznaczał „system trzeciej generacji na lata sześćdziesiąte”). Spopularyzowały ideę terminali, współpracujących z główną maszyną poprzez linie telefoniczne oraz problem wieloprogramowania i podziału czasu. Możliwości takich komputerów spowodowały konieczność

(5)

tworzenia systemów operacyjnych umożliwiających współpracę z urządzeniami wejścia/wyjścia, obsługę pamięci itp. Dla komputerów serii IBM 360 opracowane zostały systemy operacyjne DOS/360 i OS/360

W 1965 minikomputery trzeciej generacji wprowadziła na rynek firma DEC. Powstawały kolejne wersje PDP. Na PDP7 napisano latem 1969 pierwszą wersję Unix-a. W Polsce przedstawicielami tej generacji są komputery Odra 1305.

Nowości lat sześćdziesiątych

W 1963 roku Ivan Sutherland zaprezentował bardzo ciekawy program, nazwany Sketchpad. Aplikacja ta pozwalała na rysowanie na ekranie przedmiotów, a następnie ich przemieszczanie, kopiowanie oraz usuwanie. Do manipulacji przedmiotami służyło pióro świetlne – urządzenie wskazujące, kształtem przypominające zwykłe pióro, podłączone do jednostki wizualizującej. Wskazująca końcówka pióra posiada światłoczuły element, który umieszczony przy ekranie wykrywa światło pozwalając komputerowi zlokalizować położenie kursora. Sketchpad został uznany za pierwszy w historii graficzny interfejs użytkownika.

W 1964 roku Douglas Engelbart konstruuje „wskaźnik pozycji x-y do systemów ekranowych” i nazywa to urządzenie „myszą”. Pudełko z dwoma kółeczkami wykrywającymi ruch ręki w pionie i w poziomie pozwala wskazywać wybrane miejsce ekrany wygodniej niż znane wcześniej pióro świetlne, bez konieczności odrywania ręki od klawiatury i podnoszenia jej do ekranu. Oficjalna prezentacja myszy odbywa się w 1968 roku, a od 1984 mysz stanowi standardowe wyposażenie komputerów firmy McIntosh.

W 1963 roku zostaje zatwierdzony (a od następnego roku wprowadzony jako standard transferu danych) kod ASCII, czyli American Standard Code for Information Interchange (Standardowy Amerykański Kod Wymiany Informacji) – standard kodowania znaków w komputerach, przypisujący kolejne liczby naturalne znakom z określonego zbioru. W 1968 roku uzgodniony zostaje standard daty YYMMDD, który na koniec XX wieku doprowadzi do „problemu 2000”.

W 1965 roku pracownik wytwórni układów scalonych Fairchild w Palo Alto Gordon Moore sformułował hipotezę, że ekonomicznie optymalna liczba tranzystorów w układzie scalonym podwaja się co 18-24 miesiące. Popularniejsza wersja „prawa Moore’a” głosi, że moc obliczeniowa komputerów podwaja się co 24 miesiące. Podobnie (z innym okresem) mówi się o stosunku mocy obliczeniowej do kosztu, ilości tranzystorów w stosunku do powierzchni układu, rozmiarach RAM, pojemności dysków twardych i przepustowości sieci.

(6)

9 grudnia 1968 roku na sympozjum informatyków w San Francisco Douglas Engelbart z Uniwersytetu Stanforda pokazał rezultaty swoich badań nad usprawnieniem pracy zespołowej przy pomocy komputera. W trakcie wykładu zaprezentował:

• eksperymentalny edytor tekstu,

• koncepcję hipertekstu,

• pracę w sieci, połączoną z telekonferencją.

Koncepcja sieci rozproszonej. W 1966 roku Paul Baran wygłosił dla amerykańskiego stowarzyszenia marketingu wykład „Marketing roku 2000” opisując koncepcję zakupów realizowanych poprzez wielką sieć komputerową.

Zaproponował wojskowej agencji zaawansowanych technologii ARPA koncepcję sieci bez wyraźnej centrali, działającą na „zasadzie gorącego kartofla”. Wiosną 1968 roku istniał już teoretyczny opis sieci.

Pierwsze łącze, między uniwersytetem Kalifornijskim UCLA a odległym o 600 kilometrów Uniwersytetem Stanforda było gotowe jesienią. W grudniu dołączyły uniwersytety Santa Barbara i Utah.

Dolina Krzemowa

Dolina Krzemowa to nazwa nadana północnej części amerykańskiego stanu Kalifornia. Od 1885 w Stanford, niedaleko Palo Alto istnieje uczelnia Leland Stanford Junior University. Wokół uniwersytetu zaczęły powstawać firmy, zakładane przez jego absolwentów.

Po drugiej wojnie światowej władze USA zdecydowały się przenieść część ośrodków technologicznych i badawczych na zachodnie wybrzeże, umożliwiając jednocześnie zatrudnienie absolwentom Uniwersytetu Stanforda. Aby przyśpieszyć rozwój regionu powstała instytucja - Stanford Industrial Park - dzierżawiąca teren i budynki firmom zaawansowanych technologii. W 1954 roku do Stanford Industrial Park dołączyła (założona w garażu Dawida Packarda) firma Hewlett-Packard. W 1956 powstało Shockley Semiconductor Laboratory Williama Shockleya, współtwórcy tranzystora. W 1957 r., kiedy Shockley zakończył pracę nad tranzystorami krzemowymi, część jego współpracowników m. in. Robert Noyce i Gordon Moore stworzyli firmę Fairchild Semiconductor.

Termin „Dolina Krzemowa” został wymyślony przez kalifornijskiego przedsiębiorcę Ralpha Vaersta a spopularyzowany przez dziennikarza Dona Hoeflera. Seria artykułów zatytułowana „Silicon Valley, USA”

zaczęła się ukazywać w tygodniku „Electronic News” 11 stycznia 1971 roku. Pierwotnie nazwa kojarzona była z przedsiębiorstwami wytwarzającymi półprzewodniki i sprzęt komputerowy, później także z firmami tworzącymi oprogramowanie i usługi związane z Internetem

(7)

Języki programowania

Za pierwszy algorytmiczny język programowania uznaje się Plankalkull wymyślony przez Konrada Zusego w 1946 roku. Język pozwalał na użycie tablic i rekordów oraz na przyporządkowanie zmiennym wartości podanego wyrażenia algorytmicznego.

Komputery pierwszej generacji programowane są w językach wewnętrznych, zawierających polecenia zapisywane w formie ciągów zer i jedynek, dostosowane do budowy konkretnej maszyny. Kolejnym krokiem było wprowadzenie we wczesnych latach pięćdziesiątych (Initial Orders) asemblerów, w których tak samo szczegółowe instrukcje były wyrażane przy pomocy ciągów liter.

W 1949 roku John Mauchly wymyśla (na potrzeby komputera UNIVAC) Short Order Code. Jest to pierwszy język programowania wysokiego poziomu, czyli zawierający bardziej ogólne polecenia, tłumaczone następnie na język wewnętrzny.

Pierwszy kompilator języka proceduralnego FORTRAN (Formula Translator) stworzył zespół Johna Backhusa, który w latach 1954-1957 pracował dla IBM. Kompilator ten był pierwszym w historii kompilatorem języka wysokiego poziomu. Został starannie zoptymalizowany, ponieważ autorzy obawiali się, że nikt nie będzie go używał, jeśli wydajność programów nie będzie porównywalna do programów napisanych w asemblerze.

John Backus (miał wówczas 29 lat i był matematykiem na Uniwersytecie w Kolumbii), powiedział, że do stworzenia FORTRANu zainspirowała go kilkuletnia praca przy maszynach IBM 701 i 704. Złożoność procesu programowania tych komputerów skłoniła go do poszukania łatwiejszych metod. Język FORTRAN przerwał hermetyczność ośrodków obliczeniowych. Inżynierowie, ekonomiści, fizycy, chemicy itp. sami zaczęli układać programy i sami je uruchamiali.

FORTRAN posiadał proste typy danych i niewielki zestaw instrukcji. W języku tym można było używać tablic, istniało pojęcie podprogramu, nie był on jednak językiem strukturalnym – np. instrukcja warunkowa miała postać:

IF (warunek) GOTO etykieta

Już pod koniec lat pięćdziesiątych John McCarthy (MIT) zaczyna tworzyć LISP (List Processing) – język związany później z zagadnieniami sztucznej inteligencji. W maju 1960 roku opublikowany został raport Algola 60 (Algorythmic Language) – pierwszego języka zaprojektowanego we współpracy międzynarodowej. Przez następnych 20 lat w Algolu opisywane będą algorytmy w publikacjach naukowych.

W połowie lat sześćdziesiątych powstaje BASIC (Beginers All-Purpose Symbolic Instruction Code) – standardowy język przyszłych PC. Jednocześnie dynamicznie rozwija się FORTRAN.

(8)

W 1971 Niklaus Wirth opracowuje, pomyślany jako język do nauki programowania, Pascal W 1972 Dennis Ritchie w Bell Laboratories prezentuje, pomyślany jako narzędzie ułatwiające projektowanie UNIX-a, język C .W 1980 roku powstaje, opracowany przez Jean Ichbiah z Cii Honeywell Bull, język Ada (nazwany tak na pamiątkę Ady de Lovelace).

Świat UNIXa

W 1970 roku Dennis Ritchie i Kenneth Thomson z Bell Laboratories prezentują (wyrosły z CTSS i Multixa) system operacyjny UNIX (na potrzeby komputerów PDP7 i PDP9 firmy DEC). Po pierwszej wersji (pisanej w asemblerze) pojawiają się kolejne, pisane w specjalnie zaprojektowanym przez Richie’go i Thomsona języku C. Wersja Unix 6 Edition rozprowadzana nieodpłatnie w uczelniach dla zastosowań akademickich, daje początek rozszerzeniom BSD. W tym samym roku John Lions na Uniwersytecie Nowej Południowej Walii pisze komentarz do kodu Unixa, tzw. Lions Book zawierający pełny kod wersji 6, umożliwiając powstawanie wielu tysięcy niezależnych, tworzonych w różnych ośrodkach, nieodpłatnych wersji Unixa. W 1980 roku, na zamówienie firmy Microsoft powstaje Xenix, pierwszy Unix dla PC. W 1991, na bazie Unix, fiński programista, Linus Torvalds tworzy jądro nowego systemu operacyjnego przeznaczonego do pracy z procesorami rodziny 80386 firmy Intel – nazwanego wkrótce Linux. Unix i Linux używane są przez programistów związanych z projektem GNU – wolnego oprogramowania – zapoczątkowanego w latach osiemdziesiątych przez Richarda M. Stallmana.

Xerox Alto

W 1973 roku, w laboratorium firmy Xerox powstała prototypowa maszyna Xerox Alto, zaprojektowana jako mały, biurowy komputer osobisty o dużej mocy obliczeniowej. Alto był przystosowany do współpracy z drukarkami laserowymi i pracy w sieci lokalnej. Mógł pracować jako pojedyncza maszyna albo stacja robocza. Komputer Xerox Alto zawierał:

• pionowy, monochromatyczny wyświetlacz o rozdzielczości 606x808

• trzyklawiszową mysz z opcjonalnym zestawem pięciu klawiszy sterujących

• ośmiocalowe, wymienne dyski o pojemności 2,5 megabajta

• szesnastobitowy procesor

• przestrzeń adresową o rozmiarze 16K słów 16-bitowych.

System operacyjny Alto:

• obsługiwał długie nazwy plików

(9)

• zarządzał plikami poprzez program Neptun Directory Editor, wyposażony w przyciski graficzne oraz listy plików

• potrafił odtwarzać uszkodzone pliki

• mógł współpracować z siecią LAN

• współpracował z językami niskiego (BCLP i MESA) i wysokiego poziomu (Smaltalk i Lisp)

Komputer Xerox Alto nie był produkowany seryjnie. Kilkanaście egzemplarzy zostało przekazanych uniwersytetom. Na rynek, w roku 1981, trafił Alto Xerox Star 8010 (za 30 000 $). Rozwiązania Xeroxa i większość pracowników tworzących Alto przejął Steve Jobs, tworząc komputer Apple Lisa.

Cytaty

Powiązane dokumenty

(Jedno jest dość oczywiste: nie może to być „prawdziwa” historia, lecz raczej historia uprosz- czona ad usum Delphini.) Może prowadzi on na manowce, a może jest po prostu

Wyżej zaprezentowane wypisanie 5 pola (rozdzielanego :) z pliku /etc/passwd z eliminacją pustych linii oraz linii złożonych tylko ze spacji i przecinków, realizowane przy

Obie maszyny liczące Stanhope’a wykonywały po cztery działania, przy czym mnożenie i dzielenie uzyskiwano przez powtarzanie dodawania i odejmowania.. Konstrukcja

Niniejsze  lekcje pozwolą Ci poznać  tajniki programowania w Turbo Pascalu w sposób wystarczający  do  zaliczenia  przedmiotu.  Gdybyś  potrzebował 

Cel ćwiczenia: projektowanie algorytmów rekurencyjnych; rekurencja bezpośrednia i pośrednia; przekazywanie parametrów do procedur i funkcji; zarządzanie stosem programu1.

Wartość zmiennej krok jest wykorzystywana do zmiany kolejnych wartości zmiennej x w pętli for (początek wiersz 11) Pierwszą wartością zmiennej x jest: x=L. Kolejna to:

COMPARISON BETWEEN RAPID ID 32 STREP SYSTEM, MALDI-TOF AND 16S rRNA GENE SEQUENCE ANALYSIS FOR THE SPECIES IDENTIFICATION OF ENTEROCOCCUS SPP.. Lucasweg 2, 2031 BE Haarlem,

Skoiro jednak wiadomo, że rzekomy pozytywizm i mechanisty- cyzm „nauki" o „naturze" został usunięty na początku 'bieżącego stu- lecia 'dzięki Albertowi Einsteinowi