Historia informatyki

– wiek XX był bez wątpienia dla rozwoju techniki okresem niezwykle obfitującym w nowe wynalazki wytyczające kierunki rozwoju cywilizacji. Już osiągnięcia wieku XIX wydawały się ludziom wtedy żyjącym tak bardzo bogate w odkrycia, że jeden z urzędników amerykańskiego biura patentowego przewidywał jego rychłe zamknięcie, gdyż wszystko zostało już wynalezione. Dziś, siedząc przed komputerem lub telewizorem, wiemy, jak bardzo się mylił. Jesteśmy również mądrzejsi o tyle, że nie brak nam wiary w to, że lata następne przyniosą dalszy lawinowy wręcz rozwój nauki i techniki. Jeżeli próbowalibyśmy szukać wynalazku, który wywarł największy wpływ na cywilizację i różne dziedziny techniki w XX w., to mimo znaczących osiągnięć we wszystkich jej dziedzinach, np. w energetyce – opanowanie energii jądrowej, w transporcie – upowszechnienie indywidualnej, dającej poczucie wolności, komunikacji samochodowej, można byłoby osiągnąć powszechną opinię, że wynalazkiem takim był komputer. Trudno jest bowiem znaleźć taką dziedzinę techniki czy innego obszaru ludzkiej aktywności, na którą wynalazek komputera nie wywarł bezpośredniego lub choćby pośredniego wpływu. Człowiekowi urodzonemu w latach ”90 komputer towarzyszy od chwili narodzin, będąc obecny w sali porodowej jako element aparatury medycznej, w samochodzie wiozącym go do domu, czy w urzędzie, gdzie w komputerowej bazie danych zostaje zarejestrowany jako nowy obywatel. Zanim przedstawimy przykładowe dziedziny naszego życia, w których towarzyszą nam komputery, poświęćmy nieco uwagi historii rozwoju ich konstrukcji, a także rozwoju dziedziny wiedzy nazywanej w języku polskim informatyką, a obejmującej swoim zakresem dziedziny określane w języku angielskim jako teoria informacji i nauki komputerowe. Samo słowo „komputer” pochodzi od angielskiego słowa compute, czyli obliczać, takie było bowiem pierwotnie jego przeznaczenie i do niedawna z tego właśnie powodu nazywany był on w Polsce maszyną matematyczną. Komputer stosowany do obliczeń ma bardzo wielu, bardzo starych protoplastów. Od najdawniejszych czasów człowiek wykorzystywał do liczenia palce, z VI w p.n.e. pochodzą wzmianki z Persji i Chin o wykorzystywaniu do tego celu węzłów na sznurach, taki system rozwinęli również mieszkańcy Ameryki Płd., w języku Inków liczydło sznurowe nazywało się quipu. Ze starożytnego Egiptu wywodzi się, upowszechniona przez Rzymian, tzw. maszyna do liczenia, zwana abakus lub abak, a będąca pierwowzorem używanego jeszcze w latach ’50 i ’60 liczydła (szczoty), w którym przesuwano początkowo kamyki na drewnianej lub marmurowej płycie, a później krążki nanizane na zamocowane w drewnianej ramce pręty. Pierwszymi maszynami służącymi człowiekowi do liczenia, co prawda tylko upływającego czasu, były zegary mechaniczne. Ideę zębatych kółek wykorzystał francuski filozof B. Pascal, który w 1642 zbudował maszynę do dodawania i odejmowania. Arytmometr B. Pascala udoskonalony został w latach 1673-79 przez niemieckiego filozofa i matematyka G.W. Leibnitza (jak się okazuje filozofowie też przyczyniali się do rozwoju techniki). Kolejnym istotnym krokiem w rozwoju narzędzi usprawniających proces liczenia była maszyna analityczna, wymyślona przez brytyjskiego matematyka i wynalazcę Ch. Babbage’a, którego wspierała w pracy córka Lorda Byrona, zajmująca się matematyką Lady A.A. Byron-Lovelace. Maszyny analityczne Babbage’a, których dwie wersje zaprojektował w latach ’20 i ’30 ubiegłego stulecia, uważane są za pierwowzór współczesnego komputera. Choć przez twórcę nigdy w pełni nie zrealizowane, pozwalały na wprowadzanie danych liczbowych, ich zapamiętywanie, przetwarzanie i wyprowadzanie wyniku. W 1991 pracownicy Muzeum Techniki w Londynie zbudowali działający model w oparciu o oryginalne projekty Babbage’a. Polskim wybitnym konstruktorem maszyny rachunkowej był sekretarz S. Staszica, A. Stern, który swoją doskonałą, wykonującą cztery działania maszynę przedstawił Towarzystwu Nauk w Warszawie w 1812. Arytmometry, najczęściej kojarzone z kasami sklepowymi lub maszynami do księgowania, rozpowszechniły się na przełomie XIX i XX wieku i są czasami wykorzystywane do chwili obecnej. Innym ważnym wynalazkiem, wykorzystanym później do zapisywania i wprowadzania danych, pierwszym wynalazkiem „informatycznym”, były drewniane karty dziurkowane, wymyślone i zastosowane w 1808 przez francuza J.M. Jacquarda do zapisu wzoru i sterowania pracą krosna do tkanin o skomplikowanym splocie, zwanych później żakardami. Karty dziurkowane wykorzystał także amerykański statystyk H. Hollerith do zapisu danych spisu powszechnego w USA z 1890 i przeprowadzenia obliczeń na elektromechanicznych maszynach liczących. Karty dziurkowane i taśma dziurkowana były powszechnie wykorzystywane jako nośniki programów i danych jeszcze w latach ”70 XX wieku. Dalsze doskonalenie metod i narzędzi prowadzenia obliczeń związane jest nierozerwalnie z elektroniką – dziedziną, której dynamiczny rozwój był następstwem wynalezienia lampowej diody przez anglika Sir J.A. Fleminga w 1904 i triody przez amerykanina L. De Foresta w 1906 (opracował on także metodę zapisu dźwięku na taśmie filmowej), a później tranzystora i układu scalonego. Dla powstania pierwszych komputerów wykorzystujących lampy elektronowe wielkim bodźcem była, jak to się często w rozwoju techniki zdarza – wojna, a konkretnie druga wojna światowa. Jeszcze przed włączeniem się USA do działań zbrojnych powstał w 1939 prototyp komputera, zbudowany przez J.V. Atanasoffa (ur. 1903) i C. Berry”ego w Iowa State College. W Wielkiej Brytanii zbudowano w 1943 komputer „COLOSSUS” (1500 lamp), wykorzystywany do deszyfracji niemieckich komunikatów radiowych przez zespół pod kierunkiem A.M. Turinga, matematyka i teoretyka przetwarzania informacji (sformułował koncepcję teoretycznej „maszyny Turinga”, mogącej wykonywać dowolne operacje matematyczne). Na czołowej amerykańskiej uczelni technicznej MIT (Instytut Techniki w Massachusetts) w tym samym czasie, na polecenie dowództwa sił zbrojnych, zbudowano m.in. z lamp, przekaźników i elementów mechanicznych ogromną, ważącą 40 t maszynę, mogącą mnożyć dwie liczby dwudziestotrzycyfrowe w ciągu 6 sekund. Ten elektromechaniczny komputer o nazwie „MARK I” (przez konstruktorów nazywany bardziej pieszczotliwie „Bessie”) oddał nieocenione usługi armii amerykańskiej, wykonując również niektóre obliczenia związane z realizacją projektu „Manhattan” – wyprodukowania pierwszej bomby jądrowej. Pomysły zastosowane przez Atanasoffa zostały wykorzystane przez grupę konstruktorów z Uniwersytetu Harvarda przy budowie w 1945, wymienianego często jako pierwszy, komputera „ENIAC”. Ważył on 30 t i zajmował wielkie pomieszczenia. Zbudowany był z 500 000 elementów, w tym 18 000 lamp elektronowych, z pamięcią o pojemności 20 liczb i programem określanym przez zmieniane ręcznie połączenia elektryczne procesora. Następnym komputerem był EDVAC, mogący zapamiętać już 1000 liczb dzięki zastosowaniu pomysłów amerykańskiego matematyka (węgierskiego pochodzenia), wielce zasłużonego dla rozwoju informatyki J. von Neumanna (1903-57). Pierwszym komputerem, który był od 1951 sprzedawany i który mógł przetwarzać dane liczbowe i tekstowe, był zaprojektowany przez J. P. Eckerta i J. Mauchly’ego komputer UNIVAC. Prawdziwe upowszechnienie się komputerów związane było jednak z opracowaniem przez firmę IBM, pod koniec lat ’50, komputerów z rodziny 360, z oprogramowaniem pracującym na wszystkich komputerach tej klasy i podjęciem ich masowej produkcji. Dalsze upowszechnienie się komputerów stało się możliwe dzięki wynalezieniu tranzystora i jego masowej produkcji od lat ’50, a później pod koniec lat ’60 pierwszych układów scalonych. Elementy półprzewodnikowe – tranzystory i układy scalone małej i średniej skali integracji – pozwoliły na produkcję komputerów trochę tańszych i bardziej niezawodnych niż wielkie konstrukcje lampowe. Na początku lat ’70 komputery zbudowane w oparciu o układy scalone, z racji swoich niewielkich (mała szafa) wymiarów, zyskały miano minikomputerów, jednak ani ich przeznaczenie, ani możliwości obliczeniowe nie miały wiele wspólnego z maszynami, które dziś tak nazywamy. Światowym liderem w produkcji komputerów typu mainframe i minikomputerów biurowych była do lat ”80 firma IBM. Jak niewiarygodną ciekawostkę można dziś odbierać informację, że pamięci operacyjne komputerów do połowy lat ’70 wykonywane były z pierścieni ferrytowych, o średnicy zewnętrznej mniejszej niż średnica główki szpilki, przez otworki których przewlekano trzy cienkie druciki, „szyjąc” płaty pamięci rdzeniowych, w których pojedynczy pierścień – rdzeń pamiętał jeden bit informacji. Urządzeniami pamięci zewnętrznej były czytniki kart dziurkowanych (nośniki karty) i później napędy pamięci magnetycznej: bębnowej i dyskowej, a urządzeniami wyjściowymi, na które wyprowadzano wyniki, były dziurkarki kart lub w najlepszym razie drukarki dalekopisowe albo wierszowe. Pierwszym superkomputerem mogącym wykonywać 100 000 000 obliczeń (na liczbach zmiennoprzecinkowych) był skonstruowany przez S. Cray’a komputer CRAY-1. Obecnie jego moc obliczeniowa stała się nieformalną jednostką dla określania możliwości współczesnych superkomputerów, których moce dochodzą do 1000 Cray’ow. CRAY-1 wykorzystywany był m.in. do rozwiązywania tak złożonych problemów, jak analiza mowy i prognozowanie meteorologiczne, problemów, z którymi (także dzięki bardziej efektywnym algorytmom) radzą sobie dziś mocniejsze komputery osobiste. W Polsce pierwsze próby konstruowania komputerów podjęto w 1949, jednak aż do 1958 nie wyszły one poza badania laboratoryjne. Pierwszą ukończoną maszyną, nazywaną wówczas także „mózgiem elektronowym”, był zbudowany w Zakładzie Aparatów Matematycznych PAN komputer „XYZ”, który potrafił w ciągu l sekundy dodać 1000 liczb, a pomnożyć 350. Późniejszymi konstrukcjami były komputery serii ZAM i produkowane we Wrocławskim Elwro komputery serii „Odra”, które nie nadążały za światowymi rozwiązaniami, bazując na komputerach IBM, początkowo serii 360. Pewną szansą dla rozwoju polskiej informatyki, niestety zniweczoną przez komunistyczne władze, był minikomputer K-202, konstrukcja J. Karpińskiego, wyprzedzająca na początku lat ’70 ówczesne rozwiązania światowe. Działający prototyp został „zniszczony” razem z jego konstruktorem, który w końcu wyemigrował do Szwajcarii. Wraz z rozwojem sprzętu komputerowego, następował rozwój teorii informacji, opisującej prawa matematyczne rządzące przetwarzaniem i przesyłaniem informacji, której podstawy stworzył w 1948 amerykański inżynier C. E. Shannon. Sformułowana przez niego, w artykule „Matematyczna teoria komunikowania”, uniwersalna teoria obejmowała zarówno przetwarzanie informacji w systemach stworzonych przez człowieka, jak i przesyłanie oraz przetwarzanie informacji – bodźców w systemach nerwowych żywych organizmów, w tym również człowieka. Do przetworzenia i jednolitego zapisu różnych rodzajów i form informacji (tekstów, obrazów, dźwięków, filmów itp.) w postaci cyfrowej, stosuje się powszechnie system dwójkowy, w którym jedynce odpowiada impuls elektryczny o określonej amplitudzie, a zeru brak tego impulsu. Teoria informacji, bazując na pojęciach entropii informacyjnej (miary nieuporządkowania) i redundancji (nadmiarowości informacji), określa możliwości i sposoby kodowania oraz kompresji informacji, niezmiernie istotne dla efektywnego zapisu i szybkiego ich przesyłania. Wzrost możliwości obliczeniowych komputerów powodował zwiększanie się stopnia złożoności rozwiązywanych przez nie problemów, a to dalej związane było z coraz to większym stopniem złożoności algorytmów i koniecznością zapisywania ich w efektywny, a jednocześnie łatwy do interpretacji i poprawiania sposób. Programy pisane początkowo w kodzie maszynowym (jako ciągi zer i jedynek) stawały się zbyt złożone, zaczęto więc opracowywać języki programowania wysokiego poziomu, w tym także programowania strukturalnego, aby pracę programistów uczynić bardziej efektywną i umożliwić zrozumienie programu przez użytkownika. Pierwszym językiem wysokiego poziomu był stworzony przez G. Hopper język FLOW-MATIC do programowania komputerów UNIVAC I i II. Językami, które stały się pierwszymi standardami, w których program zapisywany był za pomocą słów angielskich i symboli, były: FORTRAN (opracowany w 1954), COBOL (1959) i ALGOL (1960). Językami stworzonymi do nauki programowania (ale stosowanymi nie tylko w tym celu) są PASCAL (1971) i LOGO (1968). W rozwiązywaniu zagadnień sztucznej inteligencji stosowane są LISP (1960), PROLOG oraz bardzo szeroko wykorzystywany nie tylko w tej dziedzinie C++. Językiem najbardziej popularnym wśród amatorów programowania, którego upowszechnienie związane było z powstaniem komputerów osobistych, jest niewątpliwie BASIC (1965). Ostatnio opracowane zostały języki HTML i JAVA opisu stron hipertekstowych i hipermedialnych, dostępnych poprzez sieci Internet i WWW. Powstanie mikroprocesora 8-bitowego w połowie lat ”70 i rozpoczęcie jego masowej produkcji spowodowały pojawienie się na rynku mikrokomputerów, które w szybkim tempie, dzięki łatwości obsługi i dostępnej cenie, zaczęły wreszcie trafiać do indywidaualnych użytkowników. Rozwój konstrukcji coraz to bardziej wydajnych mikroprocesorów, coraz bardziej pojemnych półprzewodnikowych pamięci RAM i błyskawiczny rozwój oprogramowania spowodowały, że pod koniec lat ”90 spełniło się marzenie B. Gatesa, współzałożyciela Microsoftu, o komputerze na każdym biurku i w każdym domu. Moce obliczeniowe mikrokomputerów dorównują możliwościom superkomputerów sprzed lat i zmieniły całkowicie sposób wykonywania pracy przez wielu ludzi. Inżynier wykorzystuje programy CAD-CAM, księgowa pakiety zintegrowane i specjalne oprogramowanie do prowadzenia ksiąg handlowych, a pracownik redakcji i sekretarka nie wyobrażają sobie pracy bez edytora tekstu i programu składu komputerowego DTP. Twórca filmowy, mający do dyspozycji potężne stacje robocze i programy do tworzenia animacji, zaskakuje nas obracającą się w kółko głową Meryl Streep, czy rozpadającym się na kawałki Arnoldem Schwarzeneggerem, a już można zobaczyć film, w którym występują obok siebie „jak żywi”, wykreowani przez komputer na podstawie zdjęć i obrazów z dawnych filmów: Marylin Monroe, Humphrey Bogart, Greta Garbo i James Dean. Wiele dzieci, a także osób dorosłych za najlepszy sposób spędzania czasu uważa gry komputerowe, szczególnie jeżeli zawierają elementy wirtualnej rzeczywistości. Komputery obecne są dziś w prawie każdej szkole. Myliłby się jednak ten, kto komputery i zastosowania informatyki kojarzy jedynie z kolorowym monitorem, klawiaturą i dyskietkami. Miliony mikroprocesorów pracują w ciszy, z dala od blasku monitorów, sterując pracą wielu wykorzystywanych na co dzień urządzeń, które ich pozbawione przestałyby pasować do naszych wyobrażeń i oczekiwań. W droższych modelach samochodów, mikrokomputer czuwa nad bezpieczeństwem jadących, odbierając sygnały z czujników umieszczonych przy kołach i sterując systemem zabezpieczającym je przed blokowaniem przy hamowaniu (ABS) czy systemem antypoślizgowym przy przyspieszaniu (ASR), a w sytuacji krytycznej, w razie wypadku, odcinając dopływ paliwa i uruchamiając poduszkę powietrzną. Komputer dba o nasz komfort, nadzorując urządzenie klimatyzacyjne, przestrajając radio na odbiór tej samej stacji z innego nadajnika (RDS) czy wreszcie, jeżeli mamy naprawdę drogi samochód, podpowiadając nam miłym kobiecym głosem systemu nawigacyjnego, którędy mamy jechać i gdzie skręcić, aby ominąć korki i dojechać punktualnie do celu. Te proste, pierwsze z brzegu przykłady wykorzystania wspomagających nas mikroprocesorów, pomagają nam uświadomić sobie, jak wiele może od nich zależeć, jak bardzo np. rozwój informatyki zmienił samochód. Wartość urządzeń elektronicznych dochodzi już do 25% jego ceny, a przecież nie powstałby bez innych komputerów, tych z programem CAD w pracowni projektantów, symulujących opory aerodynamiczne, sterujących robotami montującymi podzespoły i lakierującymi karoserię, czy wreszcie komputerów pracujących w działach zamówień i sprzedaży, w księgowości, sekretariacie. W podobny sposób można by poddać analizie wpływ komputerów na dowolny wycinek naszego życia, pracy, spędzania wolnego czasu. Nie uświadamiamy sobie ich roli, gdy oglądamy w kinie domowym program telewizyjny odbierany z satelity, który nie powstałby, nie został wystrzelony, nie utrzymywałby się na orbicie geostacjonarnej, czy wreszcie nie transmitowałby tego programu, gdyby nie było odpowiednio oprogramowanych mikroprocesorów. Istnieją już „inteligentne” systemy komputerowe, które nadzorują funkcjonowanie całego domu, rozpoznają, gdy budzimy się rano, włączają światło, gdy wchodzimy do łazienki, automatycznie uruchamiają ekspres do kawy i toster, abyśmy zdążyli ze śniadaniem. Jeżeli czujemy się „opieką” komputerów zbyt znużeni, to – np. w niedzielę – możemy je wyłączyć. Na zakończenie można zacytować porównanie, jakie poczyniono na temat takiego domu w jednym z tygodników; ktoś mówi: „Mam psa, który pilnuje mi domu”, a drugi: „A ja mam dom, który pilnuje mi psa”. Tak naprawdę, to psa pilnuje komputer.

Użytkownicy trafili tutaj szukając: historia rozwoju informatyki, rys historyczny techniki informacyjnej - i slownik, rys historyczny rozwoju techniki informacyjnej w xx wieku, wynalazki i osiągniecia XIX w i XX, Rys historyczny rozwój techniki informatyczny w 20 wieku, wynalazki informatyczne xx w, rys chstoryczny rozwój techniki w 20 wieku, rys chistoryczny rozwój techniki informacyjnej w 20 wieku, rozwój histori informatyki, leniek antoni krosno