BABBAGE CHARLES (1792–1871), bryt. matematyk i wynalazca; 1828–39 prof. uniw. w Cambridge; czł. Tow. Król. w Londynie i Petersburskiej Akad. Nauk; autor projektów maszyn liczących: 1822 — maszyny do liczenia metodą różnic skończonych („różnicowej”), częściowo skonstruowanej; 1833 — „maszyny analitycznej”, będącej właściwie prototypem współcz. komputerów. R. LIGONNIÈRE Prehistoria i historia komputerów, Wrocław 1992. KOMPUTER [ang.], elektroniczna maszyna cyfrowa, urządzenie elektron. służące do automatycznego przetwarzania informacji (danych) przedstawionych cyfrowo (tzn. za pomocą odpowiednio zakodowanych liczb). Istotną cechą odróżniającą komputer od innych urządzeń jest jego „programowalność”, tzn. wykonywanie konkretnych zadań (np. obliczeń) jest związane z wykonywaniem zapisanych w . Pojęcie komputer obejmuje obecnie zarówno komputery zaprogramowane na stałe, używane jako automaty sterujące, np. w urządzeniach gospodarstwa domowego, jak i komputery uniwersalne, dające się dowolnie zaprogramować. Tradycyjnie przyjął się podział komputerów na: superkomputery, duże komputery (ang. mainframe), minikomputery i mikrokomputery; podział ten opiera się przede wszystkim na odmiennych sposobach konstruowania komputerów i biorących się stąd różnicach w ich wydajności (mocy obliczeniowej) i sposobie użytkowania: superkomputery są stosowane do szybkich obliczeń nauk., produkcji grafiki film. itp. (np. CRAY), duże komputery są gł. przeznaczone do zastosowań bankowych, finansowych i adm. na szczeblu dużego przedsiębiorstwa (np. IBM 9000/ES), minikomputery obsługują małe instytucje lub grupy użytkowników (np. VAX), mikrokomputery są zwykle przeznaczone do obsługi pojedynczego użytkownika (np. IBM PS/2, MacIntosh). Budowa. Główne części sk postaci układu (zewnętrzne). Zadaniem procesora, zw. też czasem jednostką centr., jest wykonywanie rozkazów i sterowanie pracą pozostałych bloków funkcjonalnych komputera; na procesor składają się gł.: układ sterowania, jednostka arytm.-log., zw. arytmometrem, oraz zespół rejestrów: rejestr rozkazów, licznik rozkazów, akumulatory i in.; procesor wykonuje kolejne cykle rozkazowe pobierając rozkazy i dane bezpośrednio z pamięci operacyjnej, składającej się z peryferyjne, dołączone do komputera najczęściej za pośrednictwem układów wejścia–wyjścia, służą do komunikacji komputera ze światem zewn. (z użytkownikiem), np. klawiatura, monitor ekranowy, drukarka, mysz, joystick, pióro świetlne, skaner, ploter; do urządzeń peryferyjnych zalicza się też pamięci zewn., np. dyski magnet. i optyczne. Urządzenia peryferyjne w obecnie używanych komputerach pracują z reguły jako autonomiczne jednostki współbieżnie z procesorem. Zasada działania. Informacja w komputerze jest przedstawiona w postaci ciągu elementów ze itami i oznaczane symbolami 0 i 1; fizycznie są reprezentowane przez 2 różne stany elektr. lub magnet. układów komputera. Ciągi bitów o w komórkach pamięci bądź rejestrach komputera; ciąg taki jest zw. słowem maszynowym, a jego interpretację w danej chwili określa rodzaj wykonywanego na nim działania, np. gdy jest to działanie arytmetyczne, słowo jest traktowane jako zapis liczby (w określony dla danego yka komputera); gdy jest to działanie log. — słowo jest zapisem wartości log. itd. Każdy komputer ma ustalony zestaw działań, zw. listą rozkazów, z których są budowane programy. Rozkaz ma postać słowa maszynowego, składającego się z części operacyjnej (będącej zakodowanym działaniem) i części adresowej (informacja, na której to działanie ma być wykonane, lub jej adres, tzn. numer komórki pamięci zawierającej tę informację). W chwili gdy słowo znajduje się w rejestrze rozkazów, jest interpretowane jako rozkaz. Na wykonanie rozkazu składa się wiele operacji wykonywanych przez różne podzespoły komputera Operacje te tworzą tzw. cykl rozkazu — jedną z nich jest wskazanie słowa, które w następnym cyklu będzie wprowadzone do rejestru rozkazów jako następny wykonywany rozkaz. Przejście do następnego cyklu następuje zaraz po zakończeniu aktualnie realizowanego — w ten sposób przebiega samoczynne wykonanie sekwencji rozkazów, wymagające tylko zapoczątkowania (wprowadzenia do rejestru rozkazów pierwszego rozkazu). Program w języku wewnętrznym komputera to zatem zbiór słów, z którego wybiera on i wykonuje sekwencję rozkazów w Opisana powyżej zasada wewn. sterowania pochodzi od J. von Neumanna (1950). Oprogramowanie stanowi zespół programów wykonywanych przez komputer; określane często terminem ang. software, w połączeniu ze sprzętem komputerowym (elektron. i mech. części komputera), zw. dla przeciwieństwa hardware, tworzy system komputerowy. Do oprogramowania podstawowego zalicza się programy niezbędne do efektywnej eksploatacji operacyjnymi. Programy uruchamiane na danym komputerze pod danym systemem operacyjnym na kompilatory, tłumaczące algorytmy zapisane w wykonywane przez komputer (ciągi bitów); są to programy używane gł. przez programistów. Do także różne rodzaje gier komputerowych. Do bardziej także wspomagające inżynierów i najróżniejsze rodzaje działalności ludzkiej stale rośnie, przy czym ich cena (zwł. oprogramowania tworzonego na specjalne zamówienie użytkownika) często znacznie przewyższa cenę samego sprzętu komputerowego. Rys historyczny. Do XVII w. jedynymi przyrządami ułatwiającymi liczenie były różnego rodzaju liczydła. Znaczny postęp nastąpił po odkryciu logarytmów (pałeczki Nepera, suwak logarytmiczny). W tym okresie powstały też pierwsze maszyny liczące (W. Schickard, B. Pascal, S. Morland, G.W. Leibniz), wykonujące mechanicznie operacje dodawania i odejmowania, a niektóre także mnożenia i dzielenia. Prawdziwych początków informatyki można się jednak doszukiwać dopiero w XIX w., gdy Ch. Babbage stworzył koncepcję automatycznej i uniwersalnej maszyny liczącej (projekt maszyny „analitycznej”, po częściowo skonstruowanej maszynie „różnicowej”), odpowiadającej w swej strukturze współczesnemu komputerowi: z pamięcią (magazynem) i jednostką liczącą (młynem), sterowaną programem zapisanym na kartach dziurkowanych; ok. 1800 takie karty zostały użyte przez J.M. Jacquarda do sterowania krosnem tkackim, a ok. 1890 przez H. Holleritha do automatyzacji prac przy spisie powszechnym w Stanach Zjednoczonych. Idee Babbage'a zostały zrealizowane dopiero przez matematyka amer. H. Aikena, który 1944 zbudował z przekaźników elektromech. maszynę liczącą, znaną pod nazwą ASCC (ang. Automatic Sequence Controlled Calculator) lub MARK I i którą można uznać za pierwszy komputer. Era współczesnych komputerów rozpoczęła się w momencie zastosowania w nich elementów elektron. umożliwiających znaczne przyspieszenie wykonywanych działań; pierwszą całkowicie elektron. (zawierała 18 tys. lamp elektronowych) maszyną cyfrową był ENIAC (ang. Electronic Numerical Integrator And Calculator), zbud. 1946 przez amer. uczonych J. Mauchly'ego i J.P. Eckerta; ENIAC był ponad 1000 razy szybszy od MARKA I. W dalszym rozwoju komputerów rozróżnia się kilka etapów, zw. generacjami komputera: I. 1946–59, kiedy podstawowymi elementami komputera były lampy elektronowe, II. 1959–65 — tranzystory, III. 1965–75 — układy scalone, IV. od 1975 — układy scalone wielkiej skali integracji (VLSI). Pierwszym uruchomionym w Polsce komputer był XYZ, wykonany techniką lampową, pod kierunkiem L. Łukaszewicza (1958). R. LIGOMNIÉRE Prehistoria i historia komputerów, Wrocław 1992. GATES BILL (WILLIAM) HENRY III (ur. 1955), amer. przemysłowiec, programista komputerowy; założyciel i prezes Microsoft Corporation; współtwórca systemu operacyjnego MS-DOS; autor książki o Internecie i nowych możliwościach przekazu informacji Droga ku przyszłości (1996, wyd. pol. 1998). KOMPUTEROWA SIEĆ, zespół oddalonych od siebie komputerów i urządzeń peryferyjnych, połączonych liniami transmisji danych; w przypadku sieci specjalizowanych — również urządzeń o specjalnych funkcjach (np. uliczne automaty wydające gotówkę w sieci bankowej, punkty ogniowe w sieciach militarnych i in.). Zależnie od wielkości, rodzaju i stopnia złożoności sieci komputerowej, liniami transmisji danych mogą być zwykłe kable lub linie telekomunikacyjne. Sieć komputerowa może ograniczać się do jednego lub kilku budynków (sieci LAN — ang. Local Area Networks), do miasta, ale może też pokrywać wielkie obszary — kraje, a nawet kontynenty. Ważniejsze cele tworzenia sieci komputerowych 1) umożliwienie użytkownikom korzystania z odległych zasobów informacyjnych i urządzeń; 2) zwiększenie niezawodności działań, dzięki możliwości użycia kilku komputerów do wykonywania tego samego programu; 3) bardziej równomierne wykorzystanie mocy obliczeniowej sprzętu informatycznego (gdy dany komputer jest przeciążony zadaniami, można wykorzystać inny, w danej chwili nieobciążony); 4) usprawnienie zbierania, przetwarzania, rozprowadzania i wykorzystania na rozległych obszarach informacji o specjalnym przeznaczeniu, np. militarnym, informacji z różnych dziedzin, np. nauki; 7) usprawnienie pracy biur podróży, rezerwacji lotn., operacji bankowych, handlu, bibliotekarstwa, systemu ubezpieczeń i in. Sieci mniejsze bywają często podłączane do większych. Taki zhierarchizowany system teleinformatyczny znacznie zwiększa dostępność informacji, zwł. że rozpowszechniło się w prywatnych mieszkaniach. Szczególnie istotnym elementem przy tworzeniu sieci komputerowych jest ochrona informacji — ułatwiony dostęp do baz danych wiąże się bowiem z niebezpieczeństwem użycia (lub zmiany) pewnych informacji (dotyczących obronności, kont bankowych, sytuacji ekon. przedsiębiorstw i in.) przez osoby nieuprawnione („włamywaczy” komputerowych — ang. hacker). Pierwszą siecią komputerową, uruchomioną jeszcze w latach 50., była amer. sieć SAGE (ang. Semi Automatic Ground Environment), służąca do sterowania obroną kontynentu Ameryki Północnej. Obecnie w krajach rozwiniętych istnieje wiele sieci komputerowych, zarówno o charakterze ogólnodostępnym (sieci publ., abonenckie), jak i o charakterze zamkniętym (sieci wykorzystywane przez konkretne instytucje).