Docsity
Docsity

Przygotuj się do egzaminów
Przygotuj się do egzaminów

Studiuj dzięki licznym zasobom udostępnionym na Docsity


Otrzymaj punkty, aby pobrać
Otrzymaj punkty, aby pobrać

Zdobywaj punkty, pomagając innym studentom lub wykup je w ramach planu Premium


Informacje i wskazówki
Informacje i wskazówki

Informatyka - Notatki - Informatyk, Notatki z Informatyka

Informatyka: notatki z zakresu informatyka dotyczące „cudownego” narzędzia drugiej połowy XX wieku, który dawno już przestał być genialnym rachmistrzem oddanym na usługi wyspecjalizowanych grup działania m.in. naukowców i inżynierów itp.

Typologia: Notatki

2012/2013

Załadowany 17.06.2013

mila_dziewczyna
mila_dziewczyna 🇵🇱

3.7

(10)

153 dokumenty

Podgląd częściowego tekstu

Pobierz Informatyka - Notatki - Informatyk i więcej Notatki w PDF z Informatyka tylko na Docsity! INFORMATYKA Komputer to „cudowne” narzędzie drugiej połowy XX wieku, dawno już przestał być genialnym rachmistrzem oddanym na usługi wyspecjalizowanych grup działania m.in. naukowców i inżynierów itp. grup. Rozpowszechniony jest on wśród szerokich rzesz ludzi różnych zawodów i stał się przede wszystkim uniwersalnym CENTRUM INFORMACYJNO - KOMUNIKACYJNYM - bez którego trudno sobie wyobrazić funkcjonowanie tętniącego życiem świata. A skoro życie to wieczny ruch komputer „stara się” w nim uczestniczyć - zawsze towarzysząc swojemu użytkownikowi. Skoro nasz komputer to centrum INFORMACYJNO - KOMUNIKACYJNE to wyjątkową funkcjonalność tego systemu zapewnia sieciowa instalacja interaktywnego multimedialnego połączenia sprzętowego i programowego. Wykorzystując komputery, a jak wiemy znajdują one zastosowanie w wielu różnych dziedzinach naszego życia m.in. technice, medycynie, naukach ekonomicznych, zarządzaniu, - zyskujemy „niebywałe” zasoby twórczości i innowacyjności jeśli uświadomimy sobie i otoczeniu, w którym funkcjonujemy, że można myśleć jak i robić taki biznes (wykorzystując tą technikę) - który nie liczy się z ograniczeniami wynikającymi z czasu i przypisania do aktualnego miejsca pobytu. Możemy powiedzieć więc, że komputer jest jednym z narzędzi - instrumentów wspomagających zarządzanie i podejmowanie decyzji. Należy jednak pamiętać, że spełnia on tylko funkcję wspomagającą i usprawniającą procesy zarządzania, a nie zastępuje menedżera w wypełnianiu jego funkcji. Dlatego też „wyzwaniem” dla współczesnego menedżera jest kreowanie jego działalności w oparciu o stosowanie zaawansowanych technik, metod i narzędzi informatycznych, gdzie poprzez wkomponowaną wielość różnorodnych modeli optymalizacyjnych, ekonometrycznych, algorytmów, funkcji finansowych, ekonomicznych, statystycznych m.in. w arkuszach analityczno planistycznych, relacyjnych bazach danych i innych aplikacjach pozwalają na powiązanie wiedzy technicznej użytkownika komputera z oczekiwaniami i możliwościami doświadczonego pracownika danej organizacji. W warunkach gospodarki rynkowej każda decyzja gospodarcza, finansowa lub inwestycyjna zawiera w sobie elementy niepewności i ryzyka. Aby zmniejszyć ich wpływ na podejmowanie decyzji należy skorzystać z nowoczesnych narzędzi informatycznych pozwalających zarówno na nowoczesne sposoby zarządzania, kontrolowania, planowania, a więc najogólniej rzecz biorąc formułowania strategii taktyki działania obrębie organizacji gospodarczej. Wykorzystanie narzędzi informatycznych, a więc (programów, pakietów, systemów) w szeroko rozumianym wspomaganiu zarządzania możemy umiejscowić w wielu obszarach. W szczególności analiza działalności organizacji gospodarczej może być prowadzona w następujących obszarach: • obszar finansowy firmy; - przyjmuje się, że poprzez pryzmat finansów najlepiej oraz najszerzej można prześwietlić każdy profil działania firmy, zarówno sukcesy jak i te aspekty, które firma najchętniej by ukryła. Główny wysiłek w tym obszarze skupia się na określeniu wartości rozmaitych funduszy w czasie. Po określeniu wielkości środków nominalnie na wybrane okresy działalności firmy oblicza się wartość tych funduszy w chwili obecnej oraz na potrzebne do dalszych analiz chwile czasu. W ramach tych narzędzi możliwe jest również oszacowanie wartości firmy, a więc jej wycena, określenie rentowności itp. • obszar działalności podstawowej, (produkcyjnej, usługowej) - w ramach tych analiz można określić koszty wielu wariantów realizacji produkcji, czy też optymalizacji sposobu wykonywania działań jak i usług. Dla każdej działalności określa się wartości progowe oraz oszacowuje dźwignię operacyjną (wynikającą ze skali produkcji) i finansową. • obszar zarządzania; - w tym rodzaju analiz wykorzystuje się narzędzia oceniające funkcjonowanie systemów przepływu zasobów organizacji gospodarczej,. Wykorzystując narzędzia takie jak Visio, Microsoft Project, Optima., znajduje się ścieżki i punkty krytyczne tych przepływów, określa optymalne struktury, znajdując i szacując różnice pomiędzy teoretycznie najlepszym wariantem a występującym w rzeczywistości. Ostatnie lata przynoszą dynamiczny rozwój technologii informatycznych, które w dość istotny sposób mają wpływ na sposób prowadzenia działalności gospodarczej w organizacjach. Otwierając nowe możliwości stawiają coraz to nowe wyzwania dla organizacji jak i menedżerów. Aby wygrać w dynamicznie zmieniającym się otoczeniu organizacji, zdobyć przewagę na coraz to bardziej konkurencyjnym rynku, maksymalizować zysk firmy nie mogą zignorować postępu w rozwoju teleinformatyki. Postęp w technologii informacyjnej ma swój wyraz zarówno w sprzęcie komputerowym, jak i oprogramowaniu. Więcej zadań, niż dotychczas, może być realizowanych przy udziale programów komputerowych. Do najbardziej znamiennych cech w trendach rozwoju współczesnej informatyki zaliczyć możemy więc następujące elementy: • multimedia, hipertekst, • sieci komputerowe, • graficzny i przyjazny interfejs, • bazy danych o dostępie bezpośrednim oraz hurtownie danych, • integracja technologii, • optyczne skanowanie i elektroniczne publikacje, • wspólna praca z dokumentem. Pozyskiwanie i integracja danych potrzebnych do tworzenia i realizacji systemów; konsolidacji oprogramowania oraz procedur niezbędnych do ich eksploatacji jak i znacznego rozwoju sprzętu komputerowego powoduje, że cały system informacyjny organizacji przesuwa się w kierunku zintegrowanego SIZ (Systemu Informacyjnego Zarządzania) - komputerowo zintegrowanej organizacji (Computer Integrated Organisation). W ramach tak przedstawionej koncepcji ujmującej w sposób kompleksowy wszystkie procesy zachodzące w organizacji, gdzie głównym elementem projektu jest zintegrowana baza danych, z której korzystają wszystkie komórki przedsiębiorstwa mamy możliwość sprawnego i efektywnego zarządzania i kierowania organizacją. Systemy informacyjne wspomagające menedżera w jego działaniach służą dokonywaniu analiz decyzyjnych, kontroli funkcjonowania instytucji oraz koordynacji działań jej członków. Umożliwiają zatem rutynowe podejmowanie pewnej liczby decyzji o charakterze stałym i powtarzalnym, jak również wspomagają decydowanie i podejmowanie decyzji o pewnym stopniu ryzyka i niepewności (decyzje nie rutynowe). Systemy informacyjne mają również możliwość przechowywania danych dotyczących przeszłości, co może być punktem odniesienia do kontroli bądź weryfikacji ewolucji organizacji, jak również identyfikacji niesprawności. W ramach każdego procesu podejmowania decyzji można wyodrębnić specyficzny obieg informacji; • zbieranie informacji dotyczących sytuacji decyzyjnej, • przetwarzanie informacji w celu uzyskania większej użyteczności, • przekazywanie informacji o podjętej decyzji. Informacja dla zarządzania jest szczególnym rodzajem informacji, gdyż związana jest z realizacją podstawowych funkcji zarządzania takich jak: • planowanie, • organizowanie, • przewodzenie, • kontrolowanie. Efektywne zarządzanie jest możliwe tylko wtedy, kiedy posiadamy informacje o Dlatego też konkretny system informacyjny można analizować jako: • wielopoziomową strukturę, • element łańcucha decyzyjnego funkcjonujący w systemie zarządzania. Analizując system informacyjny z punktu widzenia jego struktury rozpatruje się przede wszystkim samo jego zachowanie niezależne od zadań, dla których został on zbudowany. Reasumując możemy powiedzieć, że system informacyjny organizacji to struktura, która pozwala użytkownikowi tego systemu na transformowanie określonych informacji wejścia na pożądane informacje wyjścia za pomocą odpowiednich procedur i modeli, w wyniku których usprawniamy funkcjonowanie organizacji i podejmowane są określone decyzje kierownicze. Pojęcie informacji jest jednym z najtrudniej definiowanych pojęć naukowych. Mimo że każdy intuicyjnie zdaje sobie sprawę z tego, co to jest informacja, to jednak jej zdefiniowanie napotyka wiele problemów. Podstawą funkcjonowania każdej organizacji jest posiadanie określonych informacji, które stanowią jej zasoby. Informacja we współczesnym świecie gospodarczym jest tym zasobem, którym dysponuje przedsiębiorstwo, wraz z ziemią, kapitałem i człowiekiem. Stanowi więc jego główną siłę. Nie istnieje jednak jedna uznana definicja informacji. N. Winer wprowadzając pojęcie informacji stwierdza, że „... Jest ona jak gdyby nazwą treści pochodzącą ze świata zewnętrznego w miarę jak do niego przystosujemy swoje zmysły...”. K. Krzakiewicz przez informację rozumie „...przekazywaną przez nadawcę do odbiorcy pewną treść będącą opisem, poleceniem, nakazem, zakazem lub poleceniem.” R. Aschby uważa, że „...informacja to przekazywanie różnorodności”. W. Głuszkow określa informację „...jako wszelkie wiadomości o procesach i stanach dowolnej natury, które mogą być odbierane przez organy zmysłowe człowieka lub przyrodę..”. Definicja podana przez W. Flakiewicza określa „informację jako czynnik, który zwiększa naszą wiedzę o otaczającej nas rzeczywistości”. Tsitchizris i Lochovsky definiują informację jako „przyrost wiedzy, który może być uzyskany na podstawie danych” E. Niedzielska przytacza francuskie przysłowie, które głosi : „bez materii nie ma nic, bez energii wszystko nieruchome, bez informacji jest chaos”. Uogólniając i odnosząc się raczej do intuicji w rozumieniu tego pojęcia możemy stwierdzić; Informacja to więc taki rodzaj zasobów, który pozwala na zwiększenie naszej wiedzy o nas i otaczającym nas świecie. Według B. Stefanowicza informacja wykorzystywana w organizacji przez menedżerów do procesów decyzyjnych powinna charakteryzować się następującymi własnościami: • Jest niezależna od obserwatora (obiektywna). • Przejawia cechę synergii. • Jest różnorodna. • Jest zasobem niewyczerpalnym. • Może być powielana i przenoszona w czasie i przestrzeni. • Można ją przetwarzać nie powodując jej zniszczenia (zużycia). • Ta sama informacja ma różne znaczenie dla różnych użytkowników (subiektywność ocen). • Każda jednostkowa informacja opisuje obiekt tylko ze względu na jego cechę. W informatyce przyjmuje się, że informacją nazywamy wielkość abstrakcyjną, która może być przechowywana w pewnych obiektach (np. komputerach), przesyłana między pewnymi obiektami (np. komputerami), przetwarzana w pewnych obiektach (np. komputerach) i stosowana do zarządzania pewnymi obiektami. Obiekt może być komputerem, ale nie musi być nim. Informatyka zajmuje się wtedy informacją, jeżeli jeden z obiektów, biorących udział w: przechowywaniu, przetwarzaniu, przesyłaniu, zarządzaniu związany jest, jak stwierdziliśmy wcześniej, z komputerem. Zamiennie z pojęciem informacja w literaturze bardzo często używa się pojęcia wiadomość i dana. Przyjmujemy więc, że informacja dla zarządzania ma charakter partykularny tzn. przedstawiona jest w postaci wiadomości wyrażonych w określonych językach, czy też systemach znakowych. Znakową postać informacji będziemy nazywali danymi. Dane są taką postacią informacji , którą możemy przetworzyć z użyciem sprzętu komputerowego. W literaturze przyjmuje się, że Dane są to surowe nie poddane analizie fakty, a więc np. liczby i fakty dotyczące określonych zjawisk lub wydarzeń. Informacja natomiast jest wynikiem uporządkowania danych lub ich przeanalizowania w jakiś znaczący sposób. Użytkownik otrzymuje dane w formie wiadomości. Wiadomości są to więc uporządkowane zbiory danych, które zawierają informacje dla zarządzania. J. A. F. Stoner i C. Wankel przedstawiają następujący łańcuch w procesie podejmowania decyzji: DANE (surowe fakty) mogą stać się - INFORMACJĄ (przeanalizowanymi danymi), które mogą stać się - INFORMACJĄ ZARZĄDCZĄ (wnioskami dotyczącymi działania), która może doprowadzić do - DECYZJI I DZIAŁANIA. dane - informacja (informacja zarządcza) - decyzja (działanie) - zarządzanie Rozwijając dalej tę myśl można stwierdzić, że dana jako jednostka jest to jeden lub kilka symboli użytych do reprezentowania „czegoś". Natomiast informacja to zinterpretowane dane, umieszczone w znaczącym kontekście. Informacja wykorzystywana w organizacjach do zarządzania jak i użyta w procesie decyzyjnym powinna mieć charakter subiektywny i musi być zawsze rozpatrywana w kontekście odbiorcy. Te same dane mogą być różnie interpretowane bowiem przez różnych użytkowników w zależności od posiadanej wiedzy i przeznaczenia. Informacja - może być więc interpretowana jako wynik uporządkowania danych lub ich określonego przeanalizowania w mniej lub bardziej znaczący sposób. Uogólniając możemy więc przyjąć, że podstawowe cechy wyróżniające informację dla zarządzania w stosunku do innych typów informacji są takie, że: • zawsze są one związane z realizacją podstawowych funkcji zarządzania, • pozwalają na podjęcie decyzji na różnych szczeblach zarządzania. Jako dziedzina naukowa INFORMATYKA - jest nauką o przetwarzaniu informacji za pomocą komputerów i przy użyciu odpowiedniego oprogramowania lub też możemy powiedzieć, że INFORMATYKA - jest to zespół dyscyplin naukowych i środków technicznych ukierunkowanych na przetwarzanie informacji przy użyciu środków technicznych. PRZEDMIOTEM BADAŃ INFORMATYKI są zatem: • środki techniczne • oprogramowanie • organizacja związana z przetwarzaniem informacji Algorytm przetwarzania - podaje pełny opis działania operatora przekształcenia danych i zawiera następujące elementy składowe: - charakterystykę danych wejściowych, - określenie reguł przetwarzania, - charakterystyką danych wyjściowych. Realizowane to jest więc w uporządkowanym ciągu działań i ustalonym czasie, ten uporządkowany ciąg działań w wyniku którego następuje przekształcenie danych wejściowych w dane wyjściowe nazywamy - PROCESEM PRZETWARZANIA DANYCH Każdy taki proces przekształcenia danych w WE/WY zawiera co najmniej jeden algorytm przetwarzania Elementami systemu przetwarzania danych są zatem: - określone grupy ludzi, - środki techniczne, - ustalony zestaw metod i technik przetwarzania Właściwy danemu systemowi zestaw metod i technik przetwarzania danych nazywamy więc SYSTEMEM PRZETWARZANIA DANYCH. INFORMACJA W KOMPUTERZE. Nośnikami informacji w komputerze są sygnały elektryczne. W odróżnieniu od stosowanego powszechnie systemu dziesiętnego, są one przedstawione w postaci dwójkowej (systemie binarnym). Możemy więc przyjąć, że sygnały są dwustanowe, tzn. takie, że ich parametry mieszczą się w jednym z dwóch dopuszczalnych przedziałów. Cyfry 0 i 1 zwane są bitami. Jest to przyjęty skrót terminu angielskiego Binary Digit. Jest to elementarna jednostka informacji. Wszystkie informacje wewnątrz komputera trzeba przedstawić za pomocą wybranych ciągów zero jedynkowych. Przyporządkowanie wybranych ciągów zero jedynkowych obiektom, które mają reprezentować, nazywa się kodowaniem, natomiast ciągi zero jedynkowe, reprezentujące określone informacje, nazywa się kodami. Bit jako element miary informacji jest jednostką małą i używa się w praktyce jej wielokrotność. Jednostką większą częściej używaną jest pojęcie bajtu, który równy jest 8 bitom. W większości współczesnych komputerów bajt stanowi podstawową jednostkę informacji. W praktyce mogą reprezentować np. liczbę, znak, rozkaz lub adres komórki. Istotą poznania miar informacji stosowanych w komputerze jest to, że aby właściwie odczytać pewne istotne parametry funkcjonalne, takie jak: - wielkość pamięci operacyjnej, - wielkość pamięci masowych, - wielkość folderów, - wielkość dokumentu, należy znać i prawidłowo interpretować miary informacji. Większymi jednostkami są kilobajt skrót - kB, megabajt - skrót MB oraz gigabajt - skrót GB, terabajt – skrót TB. 1 kB = 210 bajtów = 1024 bajtów, 1 MB = 210 kB = 1024 kilobajtów = 1048576 bajtów, 1 GB = 210 MB = 1024 megabajtów, 1 TB = 210 GB = 1024 gigabajtów. Praktycznie wielkości te zaokrągla się i przyjmuje w obliczeniach, że 1 MB równa się 1000 kB i 1000 000 bajtów. Jednak należy pamiętać, że jest to tylko pewne uproszczenie, natomiast faktyczne wielkości są nieco inne. Człowiek komunikuje się z otoczeniem, w tym również z komputerem za pomocą technik wygodnych dla siebie, a więc za pomocą: * znaków określonego alfabetu, * cyfr dziesiętnych, * pewnych znaków dodatkowych, jak interpunkcja działań arytmetycznych itp. Te trzy grupy znaków określa się w informatyce wspólnym mianem znaków alfanumerycznych. A więc przy zapisie liczb korzysta się z: • pozycyjnego systemu dziesiętnego gdzie 1998 = 1 ⋅ 10 3 + 9 ⋅ 10 2 + 9 ⋅ 10 1 + 8 ⋅ 10 0 7,53 = 7 ⋅ 10 0 + 5 ⋅ 10 - 1 + 3 ⋅ 10 - 2 komputerów jest umowny. Problemem jest wybór kryterium rozróżnienia poszczególnych typów komputera. Najczęściej stosowanym kryterium jest przeznaczenie, budowa, funkcjonalność i cena, jaką płacimy za kupno komputera. Według tego handlowego kryterium komputery można podzielić na: a) mikrokomputery, b) minikomputery, c) superkomputery, Mikrokomputery są typem komputerów, które spowodowały największe zmiany i spowodowały rozpoczęcie ery informacyjnej. Mikrokomputery można podzielić na dwie podstawowe grupy, a mianowicie: • specjalizowane, • uniwersalne. Uniwersalne z kolei można podzielić na: • domowe, • profesjonalne. Komputery profesjonalne, zwane popularnie komputerami personalnymi, są grupą najliczniejszą w różnego typu zastosowaniach. Komputery ze względu na sposób użytkowania można podzielić na: • biurowe (desk-top), które mogą pracować w zestawach, tzw. wieżach, • przenośne (portable), mieszczące się w jednej obudowie, • notatnikowe (notebook), przeznaczone do pracy w czasie podróży i które mogą być zasilane z akumulatorów o stosunkowo niewielkim ciężarze (2-3 kg), • podręczne (lap-top), również przeznaczone zwykle do pracy w podróży, jednak nieco cięższe niż notatnikowe. Specjalną grupę stanowią dostępne od 1992 r. komputery sterowane pisakiem, tzw. pen-komputery, pen pad. Użytkownik może go bardzo łatwo przekształcić w normalny komputer. Dokonuje się tego przez dołączenie monitora o normalnych rozmiarach, stacji, dysków, klawiatury, myszy. Minikomputery są to w zasadzie komputery, które w porównaniu z mikrokom- puterami charakteryzują się większą pojemnością pamięci operacyjnej, dłuższym słowem maszynowym, możliwością równoczesnej pracy wielu użytkowników. Podobnie jak produkcja personalnych komputerów zdominowana jest przez komputery firmy IBM i komputery z nimi kompatybilne. Głównie są to produkty firmy DEC (Digital Eguipment Corp.), przedstawicielem komputerów firmy DEC są komputery serii VAX. Popularnymi, również w Polsce są minikomputery firmy IBM serii AS/400 (Apllication System), oraz komputery firmy Hewlett - Packard, w tym popularny model P3000. Do minikomputerów zalicza się często tzw, stacje robocze (work-stations). Stacje roboczą łączą cechy sprzętu mikro i mini. Współczesne stacje robocze można określić następująco według funkcjonalności parametrów techniczno eksploatacyjnych: • moc obliczeniowa, najczęściej kilkakrotnie przewyższająca komputery osobiste, • monitor, najczęściej 19-calowe o wysokiej rozdzielczości, • szybkie i pojemne pamięci zewnętrzne, • możliwość pracy w zestawach. W grupie tej wyróżnić można stacje do: przetwarzania danych biurowych, obsługi procesów produkcyjnych, prac projektowo-inżynieryjnych, tzw. CAD/CAM, obsługi instytucji finansowych (szczególnie banków i giełd). Main-frame, czyli komputery duże i średnie. W latach osiemdziesiątych rozpo- wszechniony był pogląd, że personalne komputery wyprą komputery innych typów. Okazało się jednak, iż mimo że komputery personalne przejęły szereg zadań i mogą je samodzielnie realizować to średnie i duże komputery będą odgrywały znaczną rolę, zwłaszcza w bankach, supermarketach, administracji, ubezpieczeniach, jak i wszędzie tam, gdzie niezbędne są niezawodność, działanie w sieci, jak też ochrona danych. Komputery typu mainframe są jedno- lub wieloprocesorowe o bardzo dużej wydajności. Pamięć zewnętrzna jest w praktyce nieograniczona. Ich ujemną cechą jest to, że wymagają specjalnych klimatyzowanych pomieszczeń, jak też profesjonalnej obsługi. Superkomputery są obecnie komputerami o największej mocy obliczeniowej. Niekiedy o tego typie komputerów mówi się też: ultrakomputery, superserwery itp. Superkomputery produkuje niewiele firm, takich jak: Cray, NEC Hitachi, Fujitsu. Szybkość obliczeniowa superkomputerów mierzona jest w miliardach operacji na sekundę (gflops). Pamięci masowe w formie pakietów dysków są praktycznie nieograniczone, natomiast pamięć operacyjną cechuje pojemność rzędu miliardów bajtów. Wysoka cena superkomputerów jest tym czynnikiem, który powoduje ograniczenie ich zastosowań. Wielu nawet bardzo bogatych użytkowników dzierżawi tego typu komputery lub kupowane są przez wyspecjalizowane konsorcja. Także ich bardzo złożone konstrukcje wymagają specjalnych mediów chłodzących, np. ciekłego azotu, jak również innych wyspecjalizowanych mediów zabezpieczających ich funkcjonowanie. W superkomputerach zastąpiono klasyczny system przetwarzania danych związanych z nazwiskiem Von Neumanna (przetwarza się jeden strumień danych w jednym procesie i jednej pamięci) na tzw. system współbieżny, gdzie zadania są realizowane równolegle na kilku procesorach (tzw. superskalary). Człowiek ze zdrowym sercem i jasnym umysłem pozbawiony swoich zmysłów straciłby sens swojego istnienia, nie miałby żadnej możliwości komunikowania się z otaczającym go światem. Podobnie komputer złożony jedynie z pamięci i procesora, byłby głuchym, ślepym i nieczułym na żadne bodźce, a więc nikomu nie potrzebnym urządzeniem. Zasada działania naszych narządów zmysłów została już dawno poznana i umiemy budować urządzenia działające w podobny sposób. Poszczególne zmysły mają dla nas różne znaczenie - najcenniejszy jest wzrok, potem słuch, następnie smak, węch, dotyk. Ta hierarchia nie jest przypadkowa, odpowiada ilości informacji, jaką nam te zmysły dostarczają, odpowiada też stopniowi skomplikowania urządzeń, które imitują narządy zmysłów: • zmysł dotyku - klawiatura, ekran dotykowy, mysz • zmysł słuchu - mikrofon • wzrok - ekran, skaner, digitizer itp. Użytkowane, popularne programy w tym i systemy operacyjne np. typu Windows utrwalają obraz inteligencji maszyny. Ich zachowanie, prowadzenie „rozmowy” z użytkownikiem sprawia wrażenie, że komputer nie tylko wykonuje polecenia, ale potrafi także doradzić, którą drogę wybrać. Coraz częściej podczas instalacji systemu sam rozpoznaje typ sprzętu, ustawia właściwe przerwania optymalnie konfiguruje środowisko pracy. Takie - z pozoru inteligentne - działania maszyny w pewien sposób rozgrzeszają użytkowników z myślenia i odpowiedzialności. Powstaje zatem złudzenie, że tak zmyślny system potrafi sam o siebie ale również o użytkownika zadbać także w przyszłości. Samodzielność komputerów jest jednak „iluzją” wynikającą z nie dostrzeżenia roli człowieka w ich funkcjonowaniu. Komputer lub inaczej maszyna cyfrowa - jest to więc urządzenie służące do przetwarzania informacji, przy czym to przetwarzanie odbywa się automatycznie, według wprowadzonego uprzednio do jego pamięci programu. Treść tej definicji można przedstawić obrazowo w sposób następujący; * OPROGRAMOWANIE PRZETWARZANIE INFORMACJI (DANYCH) INFORMACJE (DANE) WEJŚCIOWE INFORMACJE (DANE) WYJŚCIOWE * SPRZĘT HARDWARE Zaś graf obrazujący system komputerowy tj. zestaw komputerowy ujmujący zespolenie sprzętu i oprogramowania można przedstawić następująco: KOMPUTER OPROGRAMOWANIESPRZĘT Przy czym komunikacja użytkownika z komputerem poprzez system operacyjny wyraża się wg załączonego rysunku. KOMPUTER SYSTEM OPERACYJNY ZASOBY KOMPUTERA Schemat funkcjonowania komputera. bitów szyny pozwala na szybsze odczytywanie lub wpisywanie informacji do pamięci, a więc szybszą pracę komputera. Jednostka centralna. Jak wcześniej stwierdzono elementem organizującym pracę całego systemu komputerowego jest procesor. Często też w przenośni nazywamy go sercem lub mózgiem. Nowoczesny komputer wyposażony jest zwykle w kilka procesorów, wyspecjalizowanych w wykonywaniu określonego rodzaju zadań. Każdy komputer zawiera jednak jeden główny mikroprocesor, określony często mianem CPU (Central Processing Unit). W najbardziej popularnych typach komputerów, a mianowicie w personalnych komputerach, takim „sercem" jest mikroprocesor umieszczony na płycie głównej o odpowiednich parametrach techniczno funkcjonalnych i otwartej architekturze. Przy zakupie procesora patrzymy na ogół na tzw. współczynnik wydajności - czyli porównanie do wydajności jakiegoś procesora Pentium. Ten współczynnik to: COMP - indeks wydajności komputera ustanowiony przez firmę INTEL do pomiaru wydajności procesorów. Mierzymy więc współczynnik szybkości COMP do ceny procesora. Wydajność komputera zależy więc bezpośrednio od: • szybkości - tj. ilości instrukcji, którą może wykonać procesor w ciągu sekundy, • ilości danych - które może objąć procesor w ramach jednej operacji. • od technologii wykonania procesora (jego możliwości w zakresie operacji arytmetycznych, logicznych oraz sterowania. Drugim z podstawowych elementów jednostki centralnej jest pamięć wewnętrzna. Jest to bardzo szybka pamięć, w której przechowywane są programy (w tym także system operacyjny), a także dane wejściowe oraz wyniki, uzyskane w trakcie przetwarza- nia. W tych sytuacjach, kiedy nie są one natychmiast potrzebne, przesłane są do tzw. pamięci zewnętrznych (o których będzie mowa w dalszej części poradnika). Pamięć wewnętrzna, jest zorganizowana jako ciąg komórek. Każda komórka ma swój adres. Duża pamięć pozwala na wykonanie bardzo złożonych programów. Pamięć ta może być zbudowana z różnych elementów. Stosuje się: pamięć ferrytową, pamięć na cienkich warstwach magnetycznych, pamięć optyczną, pamięć półprzewodnikową oraz pamięć kriogeniczną, która wykorzystuje zjawiska nadprzewodnictwa w niskich temperaturach. Dawniej najbardziej popularne były pamięci ferromagnetyczne, obecnie natomiast pamięci półprzewodnikowe. Wydaje się, że w niedalekiej przyszłości powszechnie będą stosowane pamięci optyczne, które mogą charakteryzować się dużą pojemnością i szybkością przekazywania danych. Największe możliwości w tym względzie powinna mieć pamięć holograficzna, która wykorzystuje zjawisko holografii i możliwości jakie daje światło laserowe. Obecną wadą takiej pamięci jest to, że zapisany hologram nie może być zmieniony, co utrudnia aktualizację zasobów informacyjnych. Obok wymienionych rodzajów pamięci istnieją również pamięci innego rodzaju, np. pamięć biologiczną, itp. Postęp w zakresie budowy pamięci wewnętrznych polega na ilości gromadzonych danych jak również minimalizacji czasu dostępu do zgromadzonych tam danych. Przyspiesza to bowiem proces przetwarzania przez mikroprocesor ze względu na to, że wszelkie dane oraz programy pobiera on z pamięci operacyjnej. W pamięci wewnętrznej wyróżniamy dwa podstawowe rodzaje pamięci: 1. Pamięć RAM (Random Access Memory), inaczej zwana pamięcią o dostępie swobodnym - bezpośrednim, typu zapis/odczyt wymaga ona stałego odświeżania – podania źródła zasilania. Przechowuje program i dane dla programu aktualnie realizowanego. Po wyłączeniu komputera informacje te znikają. Jej głównymi elementami funkcjonalnymi jest więc pojemność i czas dostępu do informacji tam zgromadzonych (zapis-odczyt). Pamięć ta jest zorganizowana jako ciąg elementarnych komórek związanych bitami pamięci z których każda jest zdolna do przechowywania jednego bitu informacji. Bity grupowane są w bajty pamięci. Każda komórka ma swój jednoznaczny numer i adres. Na rynku informatycznym występują następujące rodzaje pamięci, które stosuje się w komputerach: * pamięć ferrytową, * pamięć na cienkich warstwach magnetycznych, * pamięć optyczną, * pamięć półprzewodnikową, * pamięć kriogeniczną - która wykorzystuje zjawiska nadprzewodnictwa w niskich temperaturach. Pamięci powinny charakteryzować się dwoma istotnymi parametrami: * dużą pojemnością [GB] * szybkością przekazywania danych [ns]. Optymalnie zatem w przyszłości powszechnie będą stosowane pamięci optyczne. W tym względzie największe możliwości powinna mieć pamięć holograficzna, która wykorzystuje zjawisko holografii i możliwości jakie daje światło lasera. Obecnie wadą tych pamięci jest to, że hologram może być zmieniony, co utrudnia aktualizację zasobów informacyjnych. Postęp w zakresie budowy pamięci wewnętrznych dąży do koncentracji pamięci i układów logicznych związanych na bardzo małej powierzchni oraz przyspieszenia procesu przetwarzania. PAO (pamięć operacyjna) służy do przechowywania danych i programów i składa się z następujących modułów: REJESTRY PAO RAM (pamięć zapisywalna) ROM pamięć stała statyczna dynamiczny DRAM PROM jednokrotnego zaprogramowania TYPY SIMM EDO DIMM EPROM kasowalna wielokrotnie światłem ultrafioletowym 2. Pamięć ROM (Read Only Memory), inaczej zwana pamięcią tylko do odczytu. Pamięć ROM - jest to pamięć stała, nie ulotna - elementy programowalne typu EPROM. Zawarte są dane producenta tzn. ROM BIOS tj. informacje o systemie operacyjnym, do rozpoznania przez system, generator znaków, interpreter języka najczęściej języka BASIC. Pamięć ROM występuje również między innymi w następujących postaciach: • PROM (Programmable ROM) programowalna jednokrotnie, • EPROM (Erasable PROM) pamięć stała kasowalna wielokrotnie światłem ul- trafioletowym, • EAPROM (Electrically EPROM lub E2PROM) pamięć kasowalna. Kanały wejścia-wyjścia. Kanały te stanowią blok funkcjonalny pozwalający sterować przepływem danych pomiędzy pamięcią wewnętrzną a urządzeniami zewnętrznymi podłączonymi do procesora. Przez to umożliwiają procesorowi wykonywanie w tym samym czasie odczytu i zapisu informacji w pamięci operacyjnej i przetwarzanie danych. Kanały „kontaktują” się z urządzeniami zewnętrznymi poprzez łącze standardowe i jednostki sterujące urządzeń zewnętrznych. Stanowią funkcjonalny blok pozwalający na sterowanie przepływem danych pomiędzy pamięcią wewnętrzną, a urządzeniami zewnętrznymi podłączonymi do procesora. Umożliwiają przez to procesorowi w jego działaniu na wykonywanie w tym samym czasie odczytu i zapisu informacji w pamięci operacyjnej wraz z przetwarzaniem danych. Kanały kontaktują się z urządzeniami zewnętrznymi poprzez łącze standardowe i jednostki sterujące urządzeń zewnętrznych. Inaczej patrząc blok we/wy służy do komunikacji procesora z urządzeniami zewnętrznymi poprzez tzw. „porty” które są ogólnie rzecz biorąc programowalnymi układami logicznymi łącznie z liniami komunikacyjnymi (INTRFACE) przez które informacja przechodzi z i od urządzeń zewnętrznych. Realizowane jest to poprzez sterowniki i oprogramowanie. Pamięć zewnętrzna. Pamięci te mają za zadanie przechowanie danych i programów nie będących w danej chwili przetwarzane. Do najpopularniejszych rodzajów pamięci zewnętrznych należą: 1. Pamięć taśmowa (pamięć sekwencyjna). 2. Pamięć na dyskach (pamięć o dostępie bezpośrednim). 3. Płyta kompaktowa (czytnik CD). Pamięć ta składa się z dwóch następujących modułów funkcjonalnych: jednostki sterującej oraz z jednej lub kilku jednostek pamięci podłączonych do jednostki sterującej. Wymiana danych pomiędzy pamięcią wewnętrzną a jednostką pamięci zewnętrznej (zapisywanie danych) odbywa się na drodze: pamięć wewnętrzna - kanał (układ we/wy) - jednostka sterująca pamięcią - jednostka pamięci. Odczytywanie danych z pamięci zewnętrznych odbywa się w kierunku przeciwnym. Podstawowymi parametrami decydującymi o przydatności i zastosowaniu danego rodzaju pamięci są: • pojemność pamięci, • szybkość pracy pamięci (zapis-odczyt), • koszt przechowywania informacji, liczona jako stosunek kosztu urządzenia do jego pojemności (ilości danych jaka może być przechowana w pamięci). Pamięć na dyskach. Pamięć na dyskach, tzw. pamięć o dostępie bezpośrednim; można ją podzielić na następujące kategorie: • dyski twarde, • dyski elastyczne. Pamięć dyskowa jest pamięcią o dostępie bezpośrednim. Wprowadzenie dysków magnetycznych przyczyniło się do szybkiego postępu w wykorzystywaniu komputerów. Pojemności dysków są bardzo różne i wynoszą w pakietach od kilku megabąjtów do kilkudziesięciu gigabajtów i setek terabajtów. Najczęściej jest stosowany zestaw, w którym do jednostki sterującej można podłączyć do 8 jednostek dyskowych. Zestaw dysków zapewnia w praktyce nieograniczoną pojemność, ponieważ wymiana jednego pakietu jest niezwykle prosta. Pakiet dysków zawiera najczęściej 6 płyt, w których jest 10 powierzchni roboczych i 2 osłaniające. Przeciętnie czas dostępu do ścieżki sąsiedniej wynosi „~ 30 ms” (nowe tendencje zmieniają ten czas). Prace dysku obsługują instrukcje: * sterujące, zawierające instrukcje wyszukiwania, powrotu oraz „nic nie rób”, * p orównania, zawierające instrukcje porównania klucza i adresu (większy lub równy), * czytania, zawierające instrukcje czytania, * zapisu, zawierające instrukcje zapisu, Dla zrozumienia organizacji zbiorów na dysku istotne jest „wyczucie” różnicy między zbiorem logicznym a zbiorem fizycznym. Zbiór logiczny jest to pewna grupa dokumentów jednorodnych tematycznie. Istnienie zbioru fizycznego wynika stąd, że każdy dokument jest magazynowany w pamięci w pewnym przeznaczonym dla siebie obszarze. Każdy taki obszar ma identyfikator zwany adresem. W projektowaniu zbioru danych na dysku magnetycznym istotnymi parametrami są: 1. Liczba ścieżek na powierzchni dysku, która określa poprzeczną gęstość zapisu i ma decydujący wpływ na pojemność informacyjną dysku. Każda ścieżka na dysku jest podzielona na równe części, zwane blokami lub sektorami. Zapis i odczyt danych odbywa się całymi blokami. Blok stanowi najmniejszą „porcję” danych przesyłanych między dyskiem a pamięcią wewnętrzną systemu cyfrowego. wydruki. Pewną ich wadą jest to, że nie można stosować w nich np. papieru kredowego (wydruk rozlewa się). Również z tego samego powodu nie są rekomendowane dla grafiki, natomiast zdają egzamin dla użytkowników pracujących w trybie tekstowym. Drukarki laserowe są to obecnie najbardziej popularne typy drukarek. Są one droższe cenowo od atramentowych jednak coraz częściej instalowane ze względu na bezsporne zalety, jakimi są: wysoka jakość druku, cicha praca, większa szybkość realizacji. Zasada działania podobna jak w kserokopiarce. Różnica jest w tym, że obraz nie jest naświetlany światłem odbitym do oryginału, lecz przez laser, który jest w drukarce. W przeciwieństwie do drukarek atramentowych i mozaikowych drukowana jest cała strona (a nie linie po linii). Drukarka bezdotykowa. Jest to cała rodzina nowego typu drukarek o bardzo dużej wydajności. Drukarki te pracują z szybkością ponad 50% większą niż drukarki laserowe (drukują ponad 90 stron na minutę) i są odporne na wszelkiego rodzaju zakłócenia. Skanery - pozwalające na cyfrowe przetwarzanie dowolnego obrazu. Skanery występują w postaci skanera ręcznego lub stacjonarnego. Działanie skanera polega na płynnym przesunięciu po skanowanym obrazie lampy fluorescencyjnej lub kilkunastu fotodiod umieszczonych w urządzeniu. Skanery scharakteryzowane są przez następujące parametry: * rozdzielczość liczona w liczbie punktów na cal, tzw. dpi, większość skanerów ma około 600 dpi, * skala szarości decydująca o płynności przejścia od czerni do bieli, * szerokość skapowania określająca maksymalną szerokość oryginału przetwarzanego w pojedynczym cyklu pracy skanera, * szybkość skapowania. Plotery - są to urządzenia wyjścia wykorzystywane między innymi w pracach pro- jektowych. Przetwarzane w komputerze dane są wykreślane w postaci rysunku w układzie osi X i Y. Plotery należą do stosunkowo drogich urządzeń zewnętrznych. Przedstawione urządzenia nie wyczerpują wszystkich urządzeń wejścia i wyjścia. Istnieją urządzenia, które pozwalają przetwarzać mowę i dźwięki. W dużych hurtowniach stosowane są czytniki kodów paskowych. Postęp techniczny idzie w kierunku wzbogacenia o odkrywania wciąż nowych urządzeń dla poprawienia komunikacji z komputerem. PODSUMOWANIE. Komputer jest urządzeniem, które wykonuje automatycznie obliczenia, zgodne z zasadami jego funkcjonowania, określone przez zewnętrzną lub wewnętrzną informację, przekazywane w postaci danych i programów. Rozwój techniki komputerowej spowodował wydzielenie tzw. generacji komputerów. Generacja pierwsza oparta była na technice lampowej, druga zaś na tranzystorowej, trzecia - z kolei - na układach scalonych małej i średniej skali integracji. Obecnie funkcjonujące komputery zalicza się do czwartej generacji, opartej na układach scalonych o bardzo wysokiej skali integracji. Dalsze generacje oparte będą prawdopodobnie na jeszcze większej skali integracji mających inne niż dotychczas rozwiązania techniczne, jak przykładowo –neurokomputery, superskalary. Komputery można podzielić według różnych kryteriów. Stosując kryterium handlowo- funkcjonalne oraz cenę możemy umownie wyróżnić mikrokomputery, minikomputery średnie i duże oraz super i ultrakomputery. Obecnie najbardziej popularne są mikrokomputery przeznaczone dla pojedynczych użytkowników, czyli tak zwane personalne komputery. System komputerowy tworzony jest przez jednostkę centralną i gamę urządzeń peryferyjnych. Najbardziej istotnymi elementami jednostki centralnej są: procesor, pamięć wewnętrzna (operacyjna), kanały wejścia i wyjścia. Peryferia tworzą pamięć zewnętrzną oraz urządzenia wejścia i wyjścia. Elementem organizującym pracę całego systemu komputerowego jest procesor. Miniaturyzacja jest tak wielka, że przewiduje się iż mikroprocesor 786 firmy Intel, zawierający sto milionów tranzystorów, będzie to kostka krzemu o powierzchni około 6,5 cm. Istotnym elementem wpływającym na wydajność komputera są również urządzenia pamięci operacyjnej. Pamięć ta, nazywana jest często pamięcią RAM (pamięć dynamiczna o swobodnym, bezpośrednim dostępie wymagająca „stałego odświeżania”), pozwala na przechowywanie danych i programów, które są aktualnie przetwarzane – dostarczane do mikroprocesora. Pojemność zestawów dysków mierzona jest w gigabajtach (terabajtach) i charakteryzuje się bardzo krótkim czasem dostępu. Do urządzeń zewnętrznych, pozwalających na komunikację człowiek - komputer, należą: monitor. klawiatura, drukarka, skaner, mysz, ploter. Z punktu widzenia użytkownika najbardziej istotnym urządzeniem jest monitor. Monitor jest bowiem podstawowym urządzeniem do wizualizacji informacji wyprowadzanych i wyprowadzanych z komputera. Klawiatura natomiast podstawowym urządzeniem do wprowadzenia danych i rozkazów do komputera. KOMUNIKACJA CZŁOWIEK - KOMPUTER. Komunikacja między człowiekiem - użytkownikiem a systemem komputerowym odbywa się bezpośrednio. Jest to osiągnięcie ostatnich lat, poprzednio bowiem łańcuch pośredników był dość duży. W konsekwencji w takim układzie występowało wiele przekłamań, zmian i uproszczeń, co powodowało, że różnica między zadaniami sformułowanymi przez użytkownika a wykonanym przez system komputerowy była dość duża. Ujemnym zjawiskiem w tym względzie było to, że cała operacja trwała niekiedy bardzo długo. Wymagała bowiem opracowania dokumentacji systemu oraz wielu uzgodnień i zatwierdzeń. W rezultacie użytkownik otrzymywał rozwiązanie nie zawsze dotyczące problemu, który go interesował. Często rozwiązania były mu dostarczone wtedy, kiedy sytuacja zmieniła się i uzyskane informacje były nieaktualne. Aktualizacja wymagała znowu uzgodnień i zatwierdzeń. Obecnie w większości sytuacji użytkownik bezpośrednio „konsultuje się z komputerem”. Temu celowi służy zarówno sprzęt techniczny, jak też wygodne w użyciu oprogramowanie. W układzie człowiek - komputer można wyróżnić dwa poziomy: Pierwszy to bezpośredni układ człowiek - komputer, polegający na tym, że reakcja komputera i komunikat o efektach działania są natychmiastowe, a ewentualne opóźnienie wynika tylko z właściwości użytego sprzętu i rodzaju realizowanego zadania. Drugi - kiedy dla zadania czas nie ma znaczenia, ewentualnie jest dopuszczone opóźnienie reakcji. W pierwszym przypadku układy można przedstawić następująco: K-KR-M. K-KR-D, M-KR-M, M-KR-D. gdzie: K - konsola (klawiatura komputera), KR - komputer - jednostka centralna, M - monitor, D - drukarka. W drugim przypadku na wejściu lub wyjściu; ewentualnie i na wejściu i na wyjściu, pojawiają się maszynowe nośniki danych, takich ,jak dyski, dyskietki, taśmy magnetyczne. Można więc powiedzieć, że w tej drugiej sytuacji układ jest rozbudowany i wielostopniowy. W systemie tym szczególna rola przypada urządzeniom opisanym w poprzednim rozdziale, a więc klawiaturze i monitorom, wzbogaconym o zdalne manipulatory, np. mysz, pióro świetlne, ekran dotykowy. Komunikacja człowiek - komputer realizowana jest przez działania, które określamy terminem zwanym programowanie. Programowanie jest pewną sekwencją działań, składającą się z: a. opracowania algorytmu rozwiązania problemu, b. przetłumaczenia algorytmu na wybrany język komunikacji człowiek- komputer, c. uruchomienia i zrealizowania programu. ALGORYTM I FORMY JEGO PREZENTACJI. Algorytm to sposób postępowania przedstawiający jednoznacznie skończoną ilość kroków (etapów) niezbędnych dla rozwiązania określonego zadania. Algorytm jest tak sformułowany, żeby, postępując według jego wskazań, komputer mógł rozwiązać określony problem. Algorytmy są rozwiązaniami takich zadań, które określamy jako zadania algorytmiczne albo obliczeniowe (rys). Za podstawowe cechy algorytmu uznaje się (1): • uniwersalność, czyli zapewnienie rozwiązania każdego zadania należącego do określonego typu zadań, pod warunkiem konsekwentnego jego stosowania, • jednoznaczność, czyli prezentacji metody postępowania w postaci skończonej listy prostych j jednoznacznych rozkazów, dotyczących postępowania na kolejnych etapach wykonywania zadania. • zbieżność, czyli dla każdego dopuszczalnego zbioru danych początkowych liczba operacji prowadzących do poszukiwanego wyniku jest skończona, • powtarzalność, czyli każdy z użytkowników, stosując analogiczne dane i algorytm, uzyska analogiczne wyniki. Zadanie algorytmiczne i jego rozwiązanie Scharakteryzowanie wszystkich poprawnych danych wejściowych Scharakteryzowanie oczekiwań wyników jako funkcji danych wejściowych Nowe poprawne dane Wyniki Zadanie algorytmiczne Rozwiązanie algorytmiczne ALGORYTM Kolejność wykonywania działań, opisaną przy pomocy różnych instrukcji, nazywamy instrukcjami sterującymi. Do najważniejszych z nich należą następujące instrukcje: • następstwa, „wykonaj A, a następnie B", • warunku, tzw. instrukcja jeżeli („if” „jeżeli W to wykonaj A, a jeżeli nie. to wykonaj B", • skoku, „go to” „jeżeli W to skocz do A, jeżeli Q to skocz do B, jeżeli R to skocz do C", z tym że poszczególne wielkości A, B, C mogą być w różnych miejscach algorytmu. Instrukcja skoku jest przez niektórych specjalistów krytykowana jako nieelegancka i została przeprowadzona w odniesieniu do komputerów personalnych. Większość zagadnień ma charakter uniwersalny, jednakże przedstawione przykłady dotyczą najbardziej popularnych komputerów, jakimi są komputery personalne (osobiste użytkownika). W większości zatem sytuacji spotkamy się w praktyce właśnie z tego typu oprogramowaniem. Podział oprogramowania związany jest z rodzajem komputerów, dla których to oprogramowanie zostało zaprojektowane. Jak wiemy komputer jest urządzeniem działającym według ściśle określonych reguł. Aby go wykorzystać w swoich działaniach musi on posiadać określoną listę czynności do wykonania. Programowanie jest więc pewną sekwencją działań składających się m.in. z: 1. opracowania algorytmu rozwiązania problemu, 2. przetłumaczenia algorytmu na wybrany język komunikacji człowiek – komputer, 3. uruchomienia i zrealizowania programu. A zatem na udany nowoczesny i efektywny produkt informatyczny składają się trzy podstawowe moduły: 1. właściwy i dobrze zrealizowany produkt, 2. poprawne oprogramowanie, 3. odpowiedni sprzęt. Oprogramowanie komputera decyduje w dużej mierze o: 1. jego możliwościach wykorzystania, 2. wykonywania określonych (założonych) zadań. Dlatego też z punktu widzenia użytkownika sprzętu komputerowego „komputer jest tak dobry jak dobre jest jego oprogramowanie”, ono bowiem decyduje o rzeczywistej wartości komputera gdyż steruje pracą poszczególnych modułów sprzętu komputerowego, nadzoruje ich wykorzystanie i współdziałanie, sprawdza poprawność działania komputera a przede wszystkim współpracuje z użytkownikiem i realizuje jego zadania. Na koszt zrealizowania prawidłowo funkcjonującego systemu komputerowego około 70% kosztów to koszt produkcji programów umożliwiających pracę systemu. Reasumując można więc powiedzieć że od cech i jakości oprogramowania zależy łatwość posługiwania się komputerem jak i zakres wykonywanych przez niego zadań zadanych przez użytkownika. Z punktu widzenia użytkownika obsługującego komputer oprogramowanie jest jakby otuliną okrywającą komputer przy czym ta otulina programowa złożona jest z kilku warstw, w efekcie tego użytkownik komunikuje się zwykle nie bezpośrednio ze sprzętem, lecz z określonym programem należącym do jego otoczenia. Graficznie można to zilustrować w następujący sposób PROGRAMY UŻYTKOWE (USŁUGOWE) PROGRAMY NARZĘDZIOWE SYSTEM OPERACYJNY BIOS + SPRZĘT Z punktu widzenia użytkownika systemu komputerowego oprogramowanie możemy podzielić na następujące moduły: SYSTEMOWE (PODSTAWOWE) UŻYTKOWE (USŁUGOWE) SYSTEMY OPERACYJNE TRANSLATORY OPROGRAMOWANIE KOMUNIKACYJNE OPROGRAMOWANIE POMOCNICZE PROGRAMY NARZĘDZIOWE I DIAGNOSTYCZNE KOMPILATORY INTERPRETATORY ASEMBLERY PAKIETY OGÓLNEGO PRZEZNACZENIA OPROGRAMOWANIE STANDARDOWE OPROGRAMOWANIE BIBLIOTECZNE OPROGRAMOWANIE WŁASNE - UŻYTKOWE DIAGNOSTYKA NORTON UTILITY PC TOOLS Dla decydentów nie są istotne problemy funkcjonowania oprogramowania systemowego zarządzającego systemem. Decydent jako użytkownik sprzętu komputerowego wykorzystuje tylko oprogramowanie narzędziowe oraz użytkowe. Granica pomiędzy nimi jest jednak trudna do ustalenia gdyż na dynamicznym rynku oprogramowania pojawiają się programy będące aplikacjami programów narzędziowych oraz programy narzędziowe umożliwiające przystosowanie ich do potrzeb programów użytkowych. Oprogramowanie systemowe to zbiór programów, które są niezbędne w pracy komputerów niezależnie od ich zastosowania; są one opracowane najczęściej przez producentów sprzętu lub osoby zamawiające. Oprogramowanie systemowe, które będzie dalej przedstawione, nie jest pod kątem funkcjonalnym, jednoznaczne. Część oprogramowania czyli oprogramowanie, które możemy nazwać podstawowym (system operacyjny) jest tego typu, że bez ich udziału komputer nie byłby zdolny do pracy. Druga grupa ma mniejsze znaczenie, a ich zadaniem jest ułatwienie pracy użytkownika i pozwolenie na to aby ta praca była zgodna z przyjętymi standardami i wymaganiami. Podstawowe oprogramowanie systemowe jest dostarczane przez producenta wraz ze sprzętem, a jego cena jest zawarta w kontrakcie zakupu sprzętu. Oprogramowanie użytkowe obejmuje zbiór programów, które są opracowane pod kątem realizacji konkretnych zadań i spełniających określone potrzeby użytkownika. I tak, jeśli oprogramowanie systemowe realizuje powtarzalne zadania wspólne dla różnych zastosowań, to oprogramowanie użytkowe służy do rozwiązania i realizacji konkretnych potrzeb użytkownika. Podział na oprogramowanie systemowe i użytkowe nie zawsze jest ostry i jedno- znaczny. Istnieje wiele pakietów oprogramowania, które realizują zadania systemowe jak i użytkowe. Odnosi się to zwłaszcza to współczesnego oprogramowania komputerów personalnych takiego jak przykładowo pakiet WlNDOWS. Niezależnie od stosowanego stylu i typu programowania należy w konsekwencji dany algorytm napisać w takim języku, który będzie zrozumiały dla komputera. W tym sensie: • język programowania można określić jako zbiór znaków (słownik), oraz zbiór reguł posługiwania się nimi i ich interpretacji w procesie komunikowania się. Komputer, aby mógł przetworzyć problem opisany w postaci algorytmu musi być opisany językiem programowania. Na ogół język programowania składa się z notacji i reguł, według których pisze się program. B. Stefanowicz w podręczniku „Metody i techniki programowania komputerów” PWE, Warszawa 1987 - stawia językowi programowania - jako metodzie porozumiewania się człowieka z komputerem następujące wymagania: 1. Język musi być łatwy do opanowania przez człowieka i posługiwania się nim, 2. Sformalizowanie języka musi zapewnić jednoznaczność wszystkich jego elementów (znaków, wyrazów, zdań, zwrotów), co ułatwi opracowanie odpowiednich zasad wykonywania przez maszynę każdego polecenia, jakie w tym języku zostanie sformalizowane. 3. Język musi umożliwiać zakodowanie minimalnego zbioru operacji elementarnych, niezbędnych do wykonania określonych prac na komputerze, 4. Jest wskazane aby język umożliwiał także proste kodowanie operacji specyficznych dla danej klasy zastosowań. 5. Język powinien uwzględniać techniczne możliwości i wymagania dostępnego sprzętu oraz umożliwiać pisanie programów według znanych metod programowania. Uogólniając te wymagania względem języka komunikacji człowiek - komputer można to sprowadzić do tezy wymagań: • łatwość posługiwania się • pełność realizacji żądań A więc stan idealny to możliwość stosowania jako języka komunikacji człowiek - komputer JĘZYKA NATURALNEGO. Języki programowania można przedstawić z dwóch punktów widzenia: A. z punktu widzenia człowieka - a więc styl tworzenia programów, B. z punktu widzenia komputera - a więc formalnie języki programowania. Ad A. Z punktu widzenia stylu tworzenia programów możemy wyróżnić: • programowanie proceduralne, • programowanie deklaratywne, • programowanie obiektowe, • programowanie strukturalne. ♦ PROGRAMOWANIE PROCEDURALNE - charakteryzuje się tym, że program powinien zawierać pełny opis rozwiązania problemu opisanego danym algorytmem. Program składa się w tym przypadku z dwóch części: • deklaratywnej, w której opisuje się obiekty (dane), na których działa • proceduralnej, w której opisuje się czynności (instrukcje), które są wykonywane na tych danych. ♦ PROGRAMOWANIE DEKLARATYWNE - polega na określeniu związków czyli relacji pomiędzy danymi a wynikami. Przy tego typu programowaniu nie kładzie się nacisku na „JAK PRZETWARZAĆ” (programowanie proceduralne) ale „CO MA BYĆ PRZETWARZANE”. Przykładowym językiem jest język PROLOG. ♦ PROGRAMOWANIE OBIEKTOWE - jest próbą połączenia zarówno programowania proceduralnego i deklaratywnego. Jest to metoda programowania, w której program jest opisem działania zbioru wzajemnie powiązanych obiektów. Na opis obiektu składa się kilka następujących charakterystyk: metody, atrybuty, dziedziczenie, reguły, otoczenie. Przykładowe języki to: FRL, KEE, SMALLTALK do prezentacji wiedzy w bazach wiedzy. ♦ PROGRAMOWANIE STRUKTURALNE - powstało na odpowiedź na niedostatki oprogramowania tradycyjnego - celem tego programowania jest rygorystyczna organizacja procesu projektowania i kodowania programu w dążeniu do zapobieżenia błędów logicznych i innych. Ma ono następujące cechy: • jest zastępujące, • modułowe. Przykładowe języki to PASCAL i PL1 Ad B. Języki programowania z punktu widzenia stopnia uzależnienia się od komputera POWŁOKA - INTERPRETER POLECEŃ SYSTEMOWYCH • jego zadaniem jest rozpoznawanie i realizowanie poleceń użytkownika, • program wprowadzony zostaje na cały czas działania komputera - jego naczelne zadanie to rozpoznawanie poleceń, • niektóre sam wykonuje zaś pozostałe zleca programom pomocniczym. Programy te wprowadzane są do PAO wybiórczo i tylko na czas niezbędny do wykonania - dlatego mamy podział na polecenia systemowe − wewnętrzne - wykonywane przez COMMAND.COM − zewnętrzne - wykonywane przez programy pomocnicze - wywoływane z PM. - OTOCZENIE - to programy pomocnicze, programy komunikacyjne, aplikacje użytkownika. Programy pomocnicze uzupełniają plik COMMAND.COM nadając aktywność realizowanym przez użytkownika aplikacjom oraz realizacją poleceń zewnętrznych. Programy komunikacyjne - programowe sterowniki zwane drajwerami - są to programy do obsługi niestandardowych urządzeń zewnętrznych, takich jak: • rozszerzona pamięć, • myszka, skaner, pióro świetlne, • dysk wirtualny itp. SYSTEM OPERACYJNY MS DOS jest zorientowany na system komputerowy i stanowi jego część zaś MS WINDOWS zorientowany jest na użytkownika, który do komunikacji z komputerem wykorzystuje grafikę (ikony). W/g P. Nortona MS WINDOWS jest popularny gdyż: 1. Graficzny INTERFEJS użytkownika sprawia, że użytkowanie komputera i jego programów jest łatwiejsze (okna ikony) powtarzalność okien w aplikacjach zaś w komunikacji KOMPUTER-UŻYTKOWNIK - zamieniono słowa w grafikę. 2. Umożliwia bardzo dobrą współpracę między różnymi aplikacjami - a więc ułatwia obsługę i wymianę danych. • przełączanie się pomiędzy aplikacjami • technika OLE (połączenia i osadzania) • ikony reprezentują funkcje i instrukcje Wyjątkową funkcjonalność tego systemu zapewnia sieciowa instalacja interaktywnego, unikalnego, multimedialnego połączenia sprzętowego w ramach systemu. Realizacja współpracy między aplikacjami jest możliwa dzięki standardowej wymianie danych DDE (Dynamic Data Exchange) - Dynamiczna wymiana danych. Standard DDE tworzy realizowany na poziomie programisty Interfejs, który umożliwia aplikacjom dla Windows dostęp do danych pochodzących z innych aplikacji. W konsekwencji uzyskuje się narzędzia, które pozwalają na aktualizację informacji. Uruchomienie systemu operacyjnego dokonuje się po włączeniu zasilenia komputera. Włączając komputer uruchamia się podstawowy moduł tzw. BIOS (Basic lnput Output System), czyli Podstawowy System Wejścia Wyjścia. Moduł ten umieszczony jest w pamięci ROM i dzięki niemu istnieje możliwość wczytania pozostałej części systemu z dysku twardego bądź z dyskietki systemowej. W ten sposób nie musi być cały system operacyjny przechowywany w pamięci operacyjnej, lecz tylko jego niewielka część. Dla użytkownika taka organizacja nie ma znaczenia, ponieważ po włączeniu do sieci komputera czeka na meldunek systemu, że jest on gotów do pracy. Znak gotowości do pracy pojawia się po kilku lub kilkudziesięciu sekundach od momentu włączenia komputera. Gotowość do pracy jest sygnalizowana pojawieniem się na ekranie znaku C>_ lub podobnego. W sytuacji, gdy uruchomienie komputera nastąpi z dyskietki systemowej, włożonej do napędu dysków elastycznych A, na ekranie monitora pojawi się znak A>_. Litery A, C, lub inne litery mówią o tym, który dysk jest dyskiem aktualnym (inaczej bieżącym). Od tego momentu możemy wydawać systemowi operacyjnemu polecenia. Do najczęściej wydawanych poleceń systemowych należą: - Formatowanie dyskietki czyli przygotowanie dyskietki do pracy-polecenie to najczęściej jest podane w postaci FORMAT A. Uwaga! należy sprawdzić aby wpisać właściwy dysk, wpisanie bowiem niewłaściwego dysku, powoduje straty zapisanych na nim programów i danych. Nie należy formatować dysków, na których mamy zapisane potrzebne nam informacje. - Tworzenie katalogu dyskowego. a w tym: wyświetlanie jego zawartości poleceniem DIR (DlRectory), stworzenie katalogu - MD Katalog (Make Directory), zmiana katalogu - CD Katalog (Change Directory), usunięcie katalogu - RD Katalog (Remove Directory). - Kopiowanie plików przy pomocy polecenia COPY skąd/co dokąd ew. nowa nazwa lub też kopiowanie całego dysku DISKCOPY skąd/dokąd. Istnieje o wiele więcej poleceń realizowanych przy pomocy systemu operacyjnego. Wymienione polecenia są tylko przykładem niektórych z nich. Użytkownik kupując system komputerowy ma do dyspozycji wiele różnych systemów operacyjnych. Dla dużych komputerów popularne są szczególnie: ODS (Disk Operating System) i OS Operating System). Systemy te są stale udo- skonalane i występują w różnych wersjach oznaczonych odpowiednimi numerami. Wersje tych systemów różnią się tym dla jakich zadań są one przeznaczone. I tak: MFT przeznaczony jest dla stałej ilości zadań, a MVT dla zmiennej ilości zadań. Obok wymienionych systemów operacyjnych, dla dużych komputerów istnieją też inne systemy, tzw. wirtualne, np. SVS, MVS, VM. Dla komputerów personalnych najbardziej popularne są systemy, uznane jako standardy dla komputerów typu IBM, a mianowicie: • MS DOS dla pracy autonomicznej, • systemy bazujące na systemie UNIX (głównie wersja XENIX) dla konfiguracji sprzętowych wielodostępnych. Programy tłumaczące (translatory). Programy niezależnie od użytego języka pro- gramowania muszą być, jak już wcześniej wspomniano, przetłumaczone na instrukcję języka maszynowego. Istnieją trzy podstawowe sposoby tłumaczenia programów: inter- pretacja, kompilacja, asemblacja. Interpretacja wykonywana jest przez specjalne programy zwane interpreterami. Interpretator tłumaczy program w trakcie wykonania. Działanie interpretatora polega na tym, że program analizuje kolejne programy, krok po kroku, bada ich poprawność, rozpoznaje jakie czynności należy wykonać i realizuje je. Interpretatory są z natury powolne i mało wydajne. Wynika to z faktu, że tłumaczenie odbywa się bez przerwy - nie tylko podczas każdego uruchomienia programu, ale także, gdy któryś z jego kroków jest powtarzany. W realnych programach wiele elementów jest realizowanych na drodze powtarzania kroków, tzw. pętli. Dlatego też wiele instrukcji jest podczas interpretacji tłumaczonych kilkakrotnie. Zaletami interpretacji są: łatwość lokalizacji błędów i możliwość wprowadzenia poprawek w każdym momencie. Kompilacja wykonywana jest przez specjalne programy zwane kompilatorami. Kompilator analizuje program napisany w określonym języku zewnętrznym, nazywany programem źródłowym. W następnym etapie zamienia go na równoważny program w języku wewnętrznym, nazywany programem wynikowym. Po zakończeniu procesu transakcji do dalszej pracy używa się już wersji wynikowej. W ten sposób kompilacja jest krótsza niż interpretacja. Czas tłumaczenia zależy od języka oraz długości i złożoności programu źródłowego. Wiele kompilatorów ma wbudowane mechanizmy pozwalające na optymalizacje programów. Asemblacja wykonywana jest przez specjalny program zwany asemblerem. Asemblacja jest podobna do kompilacji, z tym, że programy tłumaczone są na język maszynowy, zaś samo tłumaczenie jest integralną częścią tworzenia programu. Oznacza to, że użytkownik nie musi oczekiwać na realizację tłumaczenia w jego trakcie i nie musi też posiadać programów tłumaczących. Programy przygotowane w taki sposób są kompletne i gotowe do uruchomienia, w przeciwieństwie do programów interpretowanych, które mogą być uruchomione tylko w obecności i przy pomocy interpretatora. Programy asemblerowe są jednak bardzo pracochłonne i w stosunku do kompilatorów dość proste. W języku asemblerowym programista musi wpisać treść każdej instrukcji języka maszynowego, która będzie realizować gotowy program. W językach wysokiego poziomu program budowany, jest z większych kroków, które w procesie translacji przetwarzane są na grupy instrukcji języka maszynowego. Według tego właśnie rozróżnienia translatory języków asemblerowych nazwano asemblerami, a języków wyższego rzędu - kompilatorami (porównaj rozdział o kodowaniu algorytmów). Programista asemblerowy współpracuje z komputerem na stosunkowo niskim poziomie i operuje elementarnymi instrukcjami języka maszynowego. Jak stwierdza P. Norton „kompilator okazuje się być narzędziem bardzo skomplikowanym, dopuszczającym ogromne zróżnicowanie jakości (jeden kompilator może generować kod bardzo wydajny - inny kiepski), w odróżnieniu od asemblerów, których różnice takie nie dotyczą". W zależności od punktu spojrzenia na proces tłumaczenia można uważać, jak w niektórych podręcznikach z zakresu oprogramowania, że kompilatory i asemblery są modyfikacją tego samego narzędzia, lub też - jak przedstawiono w tym rozdziale - że tworzą zupełnie różne. Oprogramowanie dla testów i diagnostyki komputerów (monitoring sprzętu i oprogramowanie), umożliwia sprawdzenie i sprawne działanie poszczególnych elementów systemu komputerowego. Oprogramowanie to stanowi zróżnicowany pakiet, którego zawartość zależy od konstrukcji i możliwości finansowych użytkownika; najczęściej elementami jego są następujące programy: • testy diagnostyczne sprzętu pozwalające na wykrywanie uszkodzeń, • testy dla usuwania awarii i umożliwienia stosowania dróg obejściowych, • programy antywirusowe. W ostatnich latach szczególnie te ostatnie są niezmiernie istotne i powodują, że użytkownik może utracić w niezamierzony sposób dane i programy. Wirus komputerowy jest to celowo napisany przez człowieka program, którego głównym zadaniem jest powielenie samego siebie, często z bardzo dużą szybkością i umieszczenie go w określonych miejscach. Najczęściej wirus umieszczony jest na dysku lub w pamięci operacyjnej. Wirusy bardzo często realizują zadanie, które im polecił jego twórca, np. generowanie komunikatów typu "kiss my... keyboard" (pocałuj mnie w ...klawiaturę), generowanie dźwięków, przykładowo piosenki „szła dzieweczka do laseczka", lub fałszowanie i niszczenie pliku. Niektóre wirusy powodują też fizyczne uszkodzenie sprzętu. Do walki z tego typu programami stosuje się programy antywirusowe oraz przed- sięwzięcia profilaktyczne. Przedstawimy niektóre z nich. Programy antywirusowe są następujących typów: • „szczepionki" które są przeznaczone do zwalczania konkretnego wirusa, • "szperacze" systematycznie analizujące dane i sygnalizujące wystąpienie wirusa, • „blokery", które uniemożliwiają rozmnożenie się wirusa na inne programy, • „lekarze", czyli programy pozwalające na eliminowanie wirusów już zakażonych programów. Jednym z takich najbardziej popularnych w Polsce programów do zwalczania wirusów jest program o nazwie MKS-VIR, którego autorem jest Marek Sell. Program ten usuwa kilkaset wirusów. Najlepiej jest jednak nie dopuścić do zakażenia wirusem poprzez działania profi- laktyczne. Zasady postępowania w tym zakresie powinny być następujące: 1. używać tylko licencjowanego oprogramowania, i funkcji komputera. W Windows obiektem jest każdy symbol na ekranie, którym można manipulować. Większość obiektów Windows ma postać ikon lub małych rysunków. Każdy program, który jest elementem Windows ma swoją własną strukturę menu lecz pewne jego elementy są wspólne dla wszystkich aplikacji. Są tam podmenu Plik (File), Edycja (Edit) oraz Pomoc (Help) i inne. Aplikacje użytkownik uruchamia zazwyczaj myszką i przy jej pomocy - wskaźnikiem myszki (mouse pointer) wskazuje się wybrany obiekt. Po wybraniu, obiekt można uruchomić lub zaznaczyć i wykonać z nim żądaną operację. W sytuacjach awaryjnych (uszkodzenie myszki lub chęć użytkownika do korzystania z aplikacji) można użyć klawiatury. Istotnym szczególnie klawiszem, jest klawisz funkcjonalny F1, którego użycie powoduje wywołanie pomocy. Ważna jest kombinacja klawiszy CTRL-TAB, którą stosuje się wtedy, kiedy nie widzi się na ekranie Menedżera programów, żądanej grupy itp. Oznaczać to może jedną z następujących sytuacji: grupa jest otwarta i zasłonięta przez inne okno, zamknięta lecz zasłonięta przez inne okno, ewentualnie okno Menedżera programów jest za małe. W takim przypadku wielokrotne naciskanie klawiszy CTRL-TAB umożliwia przejścia przez wszystkie dostępne grupy aż do momentu wybrania właściwej. Programy MS Windows umożliwiają realizację bardzo złożonych zadań, z którymi może w praktyce spotkać się użytkownik. OPROGRAMOWANIE UŻYTKOWE. Oprogramowanie użytkowe nosi cechy oprogramowania aplikacyjnego lub też zastosowaniowego. Jego zadaniem jest bezpośrednia realizacja polecenia sformułowanego przez użytkownika. W odróżnieniu od oprogramowania systemowego, oprogramowanie użytkowe tworzone jest przez użytkownika (tzw. software - house), które tworzy on jako oprogramowanie o przeznaczeniu typowym dla większej grupy potencjalnych użytkowników. Programy te są zakupywane lub dzierżawione przez poszczególnych użytkowników na określonych warunkach, takich jak: dostarczenie dokumentacji, szkolenie personelu użytkownika, konsultacje, dostarczanie nowych udoskonalonych wersji systemu. Zestaw programów zastosowalnych tworzy często tzw. pakiet, który stosuje się przy rozwiązywaniu problemów określonego typu. Popularność i powszechność stosowania komputerów personalnych wynika między innymi z faktu , że użytkownik może się posługiwać stosunkowo tanim i ogólnie dostępnym oprogramowaniem użytkowym. Posługiwanie się tym oprogramowaniem nie wymaga znajomości języka programowania, a jedynie poznania zasad używania prostych instrukcji. Oczywiście przy bardziej złożonych programach sytuacja jest bardziej skomplikowana, ale stosowane programy wspomagające powodują, że użytkownik jest prowadzony przez system „za rękę". Takie podejście do użytkownika spowodowało, że oprogramowanie to często nazywane jest oprogramowaniem przyjaznym. W ramach oprogramowania użytkowego wyróżnia się duże dwie ich klasy, a mianowicie: * Oprogramowanie własne, które opracowywane jest bezpośrednio przez użytkownika, lub na jego zlecenie. Zadaniem takiego oprogramowania jest bezpośrednie zaspokojenie konkretnych potrzeb indywidualnego klienta. Zastosowanie tego typu oprogramowania przez innych użytkowników powoduje trudności i wymaga poniesienia dodatkowych kosztów na jego adaptację. * Oprogramowanie biblioteczne, niekiedy i nie najszczęśliwiej zwane typowym, tworzone jest z przeznaczeniem dla różnych użytkowników. Ma ono ogólny charakter, a jego użytkownikami, jak w przypadku MS Office, są miliony klientów. Produkowane jest przez wyspecjalizowane komercyjne firmy. Oprogramowanie można też sklasyfikować biorąc za podstawę kryterium wielkości komputerów. Istnieje bowiem oprogramowanie, które może być realizowane na dużych i średnich komputerach oraz komputerach personalnych. Wiele pakietów projektuje się z myślą o dużych i personalnych komputerach. Dla tych drugich istnieją pewne pakiety o ograniczonych funkcjach. Inna klasyfikacja bierze z kolei za punkt wyjścia użytkownika i jego zadania. Będą to więc oprogramowania dla przedsiębiorstw, szkolnictwa, administracji i inne. Oprogramowanie można też analizować według podstawowych celów, któremu ma służyć, np. wspomaganie transakcji, tzw. systemy transakcyjne, systemy informowania kierownictwa, systemy wspomagania decyzji, systemy ekspertowe, systemy wspo- magania procesu projektowego. Nie roszcząc sobie pretensji do całościowej prezentacji (jest to niemożliwe ze względu na ograniczenie objętości tej pracy) przedstawione tu zostaną tylko podstawowe informacje o pakietach przydatnych użytkownikowi, w tym: • systemy Wspomagania Pracy Biurowej (edytory, arkusze kalkulacyjne), • programy graficzne, • systemy Zarządzania Bazą Danych. Te dwa ostatnie są podstawą bardzo dużej ilości różnorodnych zastosowań. SYSTEMY WSPOMAGANIA PRACY BIUROWEJ. Najbardziej popularnym pakietem dla wspomagania pracy biurowej jest produkt firmy Microsoft, przeznaczony dla komputerów personalnych zgodnych ze standardem IBM, czyli MS Office. Obecnie wprowadzana jest na rynek wersja MS Office 2000. Mimo, że w pakiecie znajduje się oprogramowanie dotyczące różnych funkcji pracy biurowej, to jednak każdy z programów można również użyć oddzielnie i niezależnie. Najbardziej popularnymi programami w pracy biurowej są programy operujące na tekstach. Programy operowania na tekstach w zależności od stopnia złożoności funkcji redakcyjnych można podzielić na dwie kategorie, a mianowicie: • edytory tekstów (text editors), • programy przetwarzania tekstów (word or text processors). Edytory tekstów służą do pisania i poprawiania tekstów, natomiast programy re- dagowania tekstów służą do przygotowania dokumentów drukowanych. W praktyce obie te grupy traktuje się łącznie i używa się nazwy edytory. Użytkownikami oprogramowania są: pracownicy biurowi oraz wszyscy, którzy przygotowują pracę dyplomową, magisterską, doktorską, czy też powieść. Przygotowując się do pisania dokumentu należy mu nadać odpowiedni format. Dlatego przed pisaniem tekstu określa się: marginesy, wielkości i krój czcionki, tzw. fonty, odstępy między wierszami, czy i w którym miejscu należy numerować strony tekstu, czy będą stosowane odnośniki. Formatowanie tekstu zależy od możliwości systemu komputerowego, jak i stosowanego programu edycyjnego. Również przed drukowaniem tekstu najczęściej włącza się program edycyjny sprawdzający, czy użyte w maszynopisie przez nas słowa są poprawne ortograficznie i czy nie piszemy dwukrotnie tego samego słowa, czy tekst ma odpowiedni format (marginesy, odstępy itp.) Korzystając z programu sprawdzającego musimy zadeklarować język, a w przypadku niektórych języków jego odmianę, np. w języku angielskim: brytyjską, amerykańską, czy australijską. W trakcie pisania tekstu możemy zmieniać wcześniejsze ustalenia i wykonywać tzw. przeformatowanie. Na tekście można wykonać następujące operacje: • operacje na plikach, • operacje pisania i redakcji tekstów, • formatowanie ekranowe, • formatowanie wydruków, Użytkownik ma do wyboru różne opcje, które są wyświetlane w linii menu. Menu ma strukturę hierarchiczną. Opracowany przy pomocy edytora tekst ma postać dokumentu tekstowego. Program pozwala na wykonanie drukiem różnorodnych opcji, a w tym: rozpoczęcie pisania tekstu (opcja nowy dokument z menu), zmiana nazwy już założonego tekstu, wykonanie połączenia z innym wcześniej już napisanym, tekstem, zapisanie tekstu i jego przechowywanie na dowolnym nośniku informacji (dyskietka, dysk twardy), wydrukowanie tekstu i jego skasowanie. Dlatego aby, przykładowo, awaria zasilania nie spowodowała utraty napisanego, a nie zabezpieczonego tekstu, komputer co pewien czas zapisuje automatycznie tekst na dysku, najczęściej co 20 minut, jednak można ustalić inny czas, np. co 5 minut lub 10 minut. Edytory umożliwiają też redagowanie kilku tekstów. Jest to wtedy pomocne, jeżeli chcemy odpowiedzieć na określony list i na jednej stronie ekranu mamy korespondencje, która do nas przyszła, a z drugiej strony list, który wysyłamy. Podobnie przy tłuma- czeniach lub powoływaniu się na akty prawne takie ustawienie jest bardzo pomocne. Tekst wprowadzony do programu edycyjnego przy użyciu klawiatury, jak również wprowadzane z klawiatury poprawki, czy też ich aktualizacja i kasowanie są możliwe dzięki wielości funkcji technologicznych danego edytora. Cenną pomocą, obok wspomnianego już wcześniej programu sprawdzającego, jest program, umożliwiający szukanie wyrazów bliskoznacznych. Jeżeli też nie chcemy powtarzać wielokrotnie tego samego słowa, wtedy komputer może pomóc w znalezieniu słowa pokrewnego. Pożyteczną opcją jest działanie na blokach - akapitach. Operacja na blokach czy akapitach wymaga uprzedniego ich zaznaczenia, co może objawić się ich podświetleniem. Zaznaczenie bloku wykonuje się zwykle przy pomocy myszki lub klawiatury. Taki blok może być usunięty, przesunięty w inne miejsce tekstu, powtórzony, lub zapamiętany w wydzielonym obszarze pamięci, czyli w tak zwanym buforze. Najnowsze wersje edytorów umożliwiają również pracę grupową. Praca grupowa w redakcji tekstu polega na tym, że poszczególne osoby zaznaczają wybranym kolorem fragment tekstu, piszą obok swoje uwagi, w tym i propozycje zmian. Osoba odpowiedzialna za redakcję całości, przyjmuje lub odrzuca poczynione uwagi i w konsekwencji powstaje wspólny tekst. Napisany w całości tekst jest ostatecznie redagowany. Przykładowo ma mieć wyrównany prawy lub lewy margines, lub być wypośrodkowany. Istnieje możliwość pogrubienia (bolding) części tekstu lub podkreślenia go linią. Niekiedy, jeżeli chce się zwrócić uwagę na wybraną część tekstu, można stosować wyróżniki np.: zmienić krój pisma np. użyć czcionek pochyłych lub prostych (kursywa lub antykwa), cienkich, półgrubych i grubych, drukować spacją (litery bądź wyrazy rozstrzelone) itd. Większość edytorów umożliwia wprowadzenie do tekstu: różnego typu tabel, zestawień i obiektów np. graficznych czy dźwięku. Edytory często realizują zadanie „drukuję tak jak mnie widzisz", gdyż odpowiada to sytuacji, że na ekranie otrzymuje się wierny obraz drukowanego tekstu. Na i ile będzie on identyczny, decydują możliwości drukarki. Jeżeli będzie to drukarka kolorowa i laserowa to otrzymamy zupełnie inny wygląd tekstu niż korzystając z 9-igłowej, czarno-białej drukarki. Zawsze należy się zastanowić czy wybrany edytor i sprzęt odpowiada naszym wymaganiom. Użytkownik ma do wyboru wiele edytorów tekstu. Problem wyboru jest zagadnieniem wielokryterialnym. Najbardziej popularnymi edytorami są: WORD PERFECT for WINDOWS, WORD for WINDOWS, AMI PRO, QRTEKST, PC WRITE. Niedawno bardzo popularny był również polski edytor TAG. Należy pamiętać, że każdy z edytorów ma wiele - coraz bardziej doskonałych - wersji. W zasadzie program napisany w wersji niższej może być przeczytany w wersji wyższej. Natomiast relacja ta nie jest zwrotna i program napisany przy pomocy edytora bardziej doskonałego nie może być przeczytany na komputerze, który ma zainstalowaną wersję niższą. Możliwości edytorów są znacznie rozszerzone o oprogramowanie biurowej poligrafii komputerowej DTP (DeskTop Publishing). Programy te umożliwiają przygotowanie do druku tekstu w postaci zbliżonej do składu uzyskanego w drukarniach profesjonalnych. Najbardziej znanymi programami tego typu są między innymi VENTURA PUBL., PAGE - MAKER. Dla wyboru właściwego edytora użytkownik może korzystać z analiz porównawczych prowadzonych przez specjalistyczną prasę, jak przykładowo: PC-Kurier, PC-Magazine, Enter itp. W analizie porównawczej analizowane są między innymi takie kryteria, jak: system kontrolujący pracę edytora, wymagania sprzętu, polskie fonty, dostępności wspomagającym pracę inżynierów i konstruktorów. Oprogramowanie nosi nazwę pakietów CAD/CAM czyli Computer Aided Design (Komputerowe wspomaganie projektowania) i Computer Aided Manafacture (Komputerowe wspomaganie produkcji). Oprogramowanie typu CAE (Computer Aided Enginering) czyli komputerowe wspomaganie konstruowania, umożliwiają dodatkowo planowanie produkcji i analizę kosztów. Oprogramowanie graficzne można podzielić według następujących kryteriów. 1. Specyfika rodzaju pracy: a) Grafika wektorowa - opiera się na matematycznym opisie punktów, linii i kolorów. Umożliwia to skalowanie elementów rysunku bez ich utraty, precyzję, kontrolę nad fragmentami grafiki. Programy zachowują najwyższą jakość rysunku, pamiętają przykładowo współrzędne początku i końca kreślonej linii, dla okręgu zaś grubość linii, środek i promień. Cechy te pozwalają na osiągnięcie gładkich krawędzi i pożądanego wyglądu powiększanych, przesuwanych i drukowanych obiektów. Do oprogramowania posługującego się grafiką wektorową należą m.in.. CHARISMA, CORELDRAW, WINDOWS- DRAW. b) Grafika rastrowa - polega na tym, że rysunek jest traktowany jako płaszczyzna wypełniona wieloma punktami, tzw. mapa bitowa. Im tych punktów na jednostkę powierzchni jest więcej tym jakość rysunku jest lepsza. Słabością oprogramowania jest to, że takie operacje jak przesuwanie, powiększanie, zniekształcają obiekt na ekranie monitora i wydruku. Dzieje się tak, ponieważ program wykonuje zadane funkcje pojedynczo na każdym punkcie. Przedstawicielem tej klasy oprogramowania jest program PHOTO MAGIC. c) Grafika prezentacyjna - wykorzystuje zarówno technikę wektorową, jak i ra- strową. Jest to najbardziej rozwojowa technika grafiki komputerowej i służy do wirtuali- zacji danych używanych dla opracowania materiałów szkoleniowych raportów i analiz. 2. Możliwości zastosowania: a) Oprogramowanie profesjonalne, gdzie autorzy tych produktów założyli wysoki poziom wiedzy informatycznej użytkowników. Programy zawierają funkcje dające duże możliwości, jednak dla ludzi mniej przygotowanych są trudne do stosowania. Programy używane są m.in. przez artystów - malarzy i grafików co pozwoliło na stworzenie nowych kierunków o nazwie grafika komputerowa i malarstwo komputerowe. W opracowaniu tego typu programów przoduje firma Digital, która sponsoruje artystów zajmujących się tym kierunkiem sztuki. b) Oprogramowanie amatorskie, które charakteryzuje się łatwością obsługi. Ma bardzo rozbudowaną bazę standardowych rysunków, którymi - po pewnych prze- kształceniach lub bez zmian - może posługiwać się użytkownik. Ich dużą zaletą jest stosunkowo niska cena i o wiele mniejsze, niż w przypadku oprogramowania profe- sjonalnego, wymagania sprzętowe. 3. Ilość obsługiwanych funkcji a) Programy pojedyncze, które wykonują jedną podstawową funkcję. Do tego typu programów należy program analizujący i rysujący wykresy statystyczne - STATGRAPHICS oraz CHART. b) Pakiety graficzne, które składają się z modułów będących odrębnymi programa- mi, sprzedawanymi niekiedy jako odrębne produkty. Moduły składowe z reguły należą do różnych grup klasyfikacji dokonanej ze względu na rodzaj pracy. Do tej grupy oprogramowania należy bardzo popularny program COREL DRAW. Zawiera on między in- nymi: program tworzenia prezentacji COREL-SHOW, program edycji obrazu i jego obróbki COREL PHOTO-PAINT, program tworzenia wykresów COREL CHART, program wygładzania krawędzi przekazywanych obrazów COREL TRACE. Dla wyboru odpowiedniego oprogramowania, podobnie jak dla edytorów i arkuszy kalkulacyjnych, należy odpowiedzieć na podstawowe pytania. Czego oczekujemy po oprogramowaniu? Jakie są nasze możliwości finansowe? Dla odpowiedzi na te pytania pomogą nam opracowania specjalistyczne, np. Enter lub Computerworld. Najczęściej stosowanymi kryteriami w ocenie oprogramowania graficznego są: atry- buty linii i powierzchni (grubość, styl, kolor), skalowanie, powiększanie (np. 200 razy), liczba gotowych rysunków w cenie pakietu (Charisma ma ich 2200, a Corel 1200), import danych z innych programów, typy wykresów, liczba obsługiwanych formatów plików, współpraca ze skanerem, możliwość łączenia fragmentów skanowanych obrazów. narzędzia malarskie, obrót obrazu, wymagania sprzętowe, cena. Większość programów graficznych pracuje w środowisku MS WINDOWS. Jest faktem. że bardzo przystępny graficzny interfejs, czyli wspomniany wcześniej GUI, i łatwość poruszania się po nim dzięki myszy - sprzyjają pracy z grafiką komputerową. 42 SIECI KOMPUTEROWE Co to są systemy sieciowe? - Najogólniej rzecz biorąc, systemem sieciowym przyjęto nazywać pewną strukturę informatyczną, w skład której wchodzi grupa elementów, powiązanych ze sobą na zasadzie wymiany informacji. Fizyczną realizacją systemu sieciowego jest sieć komputerowa. Stanowi ją zbiór różnego typu urządzeń oraz oprogramowania. Do urządzeń sieciowych zalicza się przede wszystkim komputery oraz urządzenia zapewniające komunikację między nimi. Sieć jest to więc struktura zmienna o otwartej architekturze. Komputery w sieci pełnią rolę stacji roboczych, serwerów sieciowych oraz mogą tworzyć platformę do instalacji oprogramowania zapewniającego dodatkowe usługi. Podstawowym oprogramowaniem zapewniającym funkcjonowanie sieci jest system operacyjny oraz oprogramowanie komunikacyjne. Wyższą warstwę stanowią programy udostępniające usługi sieciowe, najwyższą zaś aplikacje sieciowe. Sieć komputerowa jest pojęciem bardzo ogólnym i nie specyfikującym jej rozmiaru ani struktury. Dowolną sieć komputerową tworzy grupa komputerów połączonych ze sobą w taki sposób, że mogą przesyłać i wymieniać między sobą dane. Ze względu na szybkość działania i zasięg wykonywanych operacji sieci dzielą się na: Lokalne - LAN (ang. Local Area Network) - lokalna sieć komputerowa tworzona jest przez kilka do kilkudziesięciu komputerów rozmieszczonych na niewielkim obszarze przeważnie w jednym budynku, np. sieć obejmująca jeden wydział uniwersytetu, firmę itp. Metropolitarne - MAN (ang. Metropolitan Area Network) - metropolitarna sieć komputerowa łączy pojedyncze komputery i sieci lokalne na większym obszarze - mogą to być sieci akademickie, miejskie, regionalne, na przykład sieć łącząca wydziały uniwersytetu mieszczące się w jednym mieście. Rozlegle - WAN (ang. Wide Area Network) - rozległa sieć komputerowa obejmuje sieci lokalne, metropolitarne i pojedyncze komputery w obrębie kraju lub kontynentu; na przykład sieć łącząca siedziby firm rozprzestrzenione w całym kraju. Sieci lokalne charakteryzują się więc z reguły niewielką ilością komputerów rozmieszczonych na niewielkim obszarze. W związku z tym struktura połączeń między nimi jest prosta, zaś koszty eksploatacji niewielkie. Problemy zaczynają się w przypadku sieci rozległych, składających się z dużej liczby komputerów. Skomplikowana struktura połączeń sieciowych wymusza konieczność stosowania dodatkowych wyrafinowanych urządzeń, zapewniających poprawną oraz efektywną komunikację i transfer danych. Dodatkowo dochodzą problemy minimalizacji kosztów połączeń, gdy sieć rozległa korzysta z publicznych sieci teleinformatycznych. W praktyce zjawisko to jest bardzo zasadne. Istnieje bowiem bardzo duże zapotrzebowanie na sieci do obsługi małych i średnich przedsiębiorstw i instytucji. Po- nadto sieci lokalne stanowią podstawę do konstruowania sieci rozległych. Aby sieć mogła zafunkcjonować nie wystarczy samo połączenie komputerów kablem i kartami sieciowymi. Wymagany jest drugi element - oprogramowanie systemowe. Zasadniczym jego składnikiem jest sieciowy system operacyjny zawiadujący zasobami oraz koordynujący pracą sieci. Decyduje on o strukturze funkcjonowania sieci. Sieciowy system operacyjny Sieciowy system operacyjny jest podstawowym oprogramowaniem sieci komputerowej. Jego zadaniem jest stworzenie środowiska wspólnej pracy dla wielu urządzeń. Decyduje o charakterze sieci oraz o zakresie oferowanych usług. Sieciowy system operacyjny koordynuje pracą sieci, zapewnia efektywne gospodarowanie zasobami i udostępnianie ich użytkownikom według określonych reguł i zasad. Serwer - jako komputer centralny, na którym znajduje się całość oprogramowania jest najbardziej newralgicznym elementem systemu sieciowego. Ponieważ serwer musi obsłużyć wiele stacji roboczych, jest to z reguły komputer o dużej mocy obliczeniowej i dużej pamięci 45 rozpoczęcie lub zakończenie pracy. Nawet silne zakłócenia mogą być traktowane jak zwykłe kolizje, a więc zdarzenia w sieci tego typu normalne, na które sieć rutynowo reaguje decyzją o retransmisji. • Wielką zaletą Ethernetu jest to, że stacja może nadawać w każdej chwili, kiedy tylko łącze jest wolne, dzięki czemu czas oczekiwania na możliwość transmisji jest w większości przypadków bardzo krótki. Ethernet, podobnie jak i inne metody oparte na dostępie rywalizacyjnym, jest jednak efektywny jedynie w zakresie stosunkowo niewielkich obciążeń sieci. W przypadku, gdy ilość danych zlecanych do wysłania przez różne stacje wzrasta, rośnie prawdopodobieństwo kolizji i coraz większa część maksymalnej przepustowości sieci (10 Mbps) jest tracona na retransmisje. Dlatego, chociaż w większości przypadków transmisja zachodzi sprawnie, w sieciach tego typu nigdy nie można zagwarantować minimalnego okresu czasu, w którym transmisja zostanie zrealizowana (ani czy w ogóle zostanie zrealizowana). Takie sieci nie nadają się do transmisji głosu, wideo ani sterowania układami pracującymi w czasie rzeczywistym. Mówimy, że Ethernet nie jest siecią izochroniczną. Arcnet Alternatywą w stosunku do rywalizacyjnej metody dostępu do medium jest metoda przekazywania uprawnienia (token passing). Jeden z wariantów tej metody został zastosowany w sieci Arcnet. Arcnet jest przykładem standardu sieciowego, który określamy jako standard de facto, bowiem mimo swojej dużej popularności nigdy nie został oficjalnie uznany za żadną organizację zajmującą się standaryzacją. W sieci tego typu między poszczególnymi stacjami przekazywane jest uprawnienie, zwane również żetonem, znacznikiem lub tokenem. W sieci Arcnet każda stacja musi znać adres następnika, któremu ma przekazać uprawnienie. Kolejność przekazywania uprawnienia między stacjami nie ma związku z fizyczną topologią sieci - metoda ta może być stosowana w przypadku topologii liniowej, gwiaździstej czy drzewiastej. Kolejne stacje, między którymi jest przekazywany żeton, tworzą więc pierścień logiczny a nie, jak w przypadku sieci typu token ring, pierścień fizyczny. Adres stacji w sieci Arcnet ustala użytkownik ustawiając przełączniki na karcie sieciowej. Jest to adres ośmiobitowy, a więc dostępna przestrzeń adresowa jest stosunkowo niewielka. Oczywistą zaletą Arcnetu i innych metod opartych na przekazywaniu uprawnienia jest możliwość wyeliminowania zjawiska kolizji w warunkach normalnej pracy sieci. Dzięki temu sieć może sprawnie funkcjonować nawet w sytuacji silnego przeciążenia, gwarantując przewidzianą przez standard szybkość transmisji 2,5 Mbps. Poza tym jest to sieć izochroniczna, w przypadku której z góry można obliczyć maksymalny czas oczekiwania przez daną stację na możliwość nadawania. Wadą Arcnetu jest konieczność wprowadzenia dodatkowych typów ramek, służących wyłącznie do organizowania pracy sieci. Muszą być również stosowane stosunkowo skomplikowane procedury służące do zestawienia pierścienia logicznego. Każde wyłączenie stacji pracującej w sieci lub włączenie nowej prowadzi do zaburzenia normalnej pracy sieci i konieczności odtwarzania pierścienia. Praca sieci jest również mało efektywna w warunkach małego obciążenia - żeton musi być przekazywany kolejno wszystkim stacjom, bez względu na to, czy w danej chwili mają coś do nadania. SIEĆ ROZLEGŁA TYPU INTERNET Od dwóch, trzech lat jesteśmy świadkami gwałtownego rozwoju sieci Internet w Polsce. Na świecie rozwój ten trwa od prawie 30 lat. Chociaż Internet jest znany i używany w naszym kraju od początku lat dziewięćdziesiątych, to jednak dopiero teraz częściej zauważane są możliwości i zalety wynikające z korzystania z Internetu w działalności instytucji - zarówno przedsiębiorstw, jak i placówek niekomercyjnych, w tym także bibliotek i ośrodków informacji. Podobnie jak na całym świecie, początkowo rozwój tej sieci w Polsce związany był jedynie z ośrodkami akademickimi, gdzie wykorzystywano ją do wymiany informacji w celach naukowych oraz prowadzenia obliczeń na komputerach dużej mocy znajdujących się w innych ośrodkach, miastach lub krajach. 46 Internet można również traktować jako olbrzymią pamięć masową przechowującą ogromne ilości informacji w postaci tekstowej, graficznej lub dźwiękowej. Sieć daje możliwość łatwego dostępu do dokumentów o przeróżnej tematyce, do publikacji książek, przewodników i katalogów. Dzięki stronom WWW (ang. World Wide Web) możliwe jest prezentowanie informacji w sposób czytelny dla użytkownika, pozwalający na łatwe i szybkie docieranie do potrzebnych danych. Witryny - strony prezentujące instytucje lub osoby prywatne - oprócz tekstu mogą zawierać również zdjęcia, rysunki, muzykę. Internet (sieć sieci o światowym zasięgu) W niektórych dziedzinach działalności powoli staje się oczywiste, że sprawne posługiwanie się INTERNETEM - znajomość jego zasobów, usług i sposobów czerpania z niego korzyści już niedługo będą niezbędnymi warunkami efektywnej pracy każdego menedżera. Stosowanie tego medium dostępu i przekazu informacji oraz szybkie wykorzystanie nowych możliwości sieci, staje się koniecznością ! Wraz ze wzrostem tempa życia i pracy jest to więc szybki nośnik informacji - zmniejszający czas przepływu informacji niezbędnej do procesów decyzyjnych i dlatego Internet stał się nie tyle narzędziem, lecz zjawiskiem - bytem podobnym do telewizji, radia, prasy - a więc mediów elektronicznych, a więc środkiem masowego przekazu. Przyczyną wielkiego rozwoju lokalnych sieci komputerowych w latach osiemdziesiątych było dążenie do umożliwienia użytkownikom komputerów osobistych wzajemnego udostępnienia swoich zasobów. Obecnie to już nie wystarcza i wymaga się, aby sieci komputerowe zapewniały usługi komunikacyjne w skali globalnej. Sieci lokalne łączy się więc ze sobą - w ten sposób powstają sieci o dużym zasięgu, takie jak sieci metropolitalne i sieci rozległe. Przeszkodą, którą trzeba pokonać przy łączeniu różnych sieci, jest duża i stale rosnąca liczba stosowanych technologii sieciowych. Obok technologii tradycyjnych, takich jak Ethernet, Token Ring czy Arcnet, w ostatnich latach pojawiły się technologie FDDI, ATM, Fast Ethernet, Frame Relay, ISDN (Integrated Services Digital Network) i inne. Żadna z tych technologii nie spełnia jednak wszystkich wymagań. W wielu przypadkach względy ekonomiczne decydują o utrzymywaniu sieci zrealizowanej w starszej technologii, o ile tylko działa dobrze - dotyczy to zwłaszcza sieci lokalnych. |Równie istotnym problemem przy łączeniu sieci jest jednak i to, że nie sposób wymagać od zwykłych użytkowników sieci, aby znali się choćby w podstawowym zakresie na tych wszystkich technologiach sieciowych. Chodzi więc o to, aby struktura heterogeniczna, jaką jest system połączonych ze sobą sieci zrealizowanych w różnych technologiach, z punktu widzenia zwykłego użytkownika przedstawiała się jak zwykła homogeniczna sieć. Koncepcja tworzenia tego typu struktur określana jest nie mającym polskiego odpowiednika terminem internetworking. Tworzone w ten sposób struktury określane są terminem „intersieci” - internetwork lub w skrócie internet. Poszczególne sieci wchodzące w skład intersieci połączone są ruterami, realizującymi funkcję kierowania pakietów przesyłanych między tymi sieciami. Najbardziej spektakularnym przykładem intersieci jest ogólnoświatowa sieć Internet, wywodząca się z sieci ARPANET. Protokół TCP/IP Podstawą funkcjonowania Internetu jest współpraca wszystkich połączonych sieci fizycznych zgodnie z przyjętym zestawem protokołów. Ten zestaw protokołów określany jest skrótem TCP/IP od nazw dwóch najważniejszych spośród tych protokołów: Protokołu Intersieci IP (Internet Protocol) oraz Protokołu Sterowania Transmisją TCP (Transmission Control Protocol). Podobnie jak poszczególne komputery w przypadku zwykłej sieci komputerowej, z punktu widzenia protokołów TCP/IP wszystkie sieci wchodzące w skład Internetu są autonomiczne i równoprawne bez względu na ich wielkość, technologię i inne parametry. Poszczególne elementy sieci mogą pracować pod kontrolą różnych systemów operacyjnych, - jednakże w ramach Internetu komunikują się jednym wspólnym protokołem TCP/IP (Transmission Control Protocol / Internet Protocol ) są to reguły 47 przesyłania informacji w sieciach - wprowadza się więc STANDARD, który stanowi coś w rodzaju uniwersalnego języka konwersacji pomiędzy komputerami. Protokół TPC - steruje ruchem pakietów (porcji danych) w sieci i umożliwia: • ochronę przed zagubieniem, • sprawdzenie czy dotarły do celu, • porządkuje w takiej kolejności w jakiej zostały wysłane. PROTOKÓŁ IP - jest tą częścią protokołu komunikacyjnego, która odpowiada za przesyłanie po sieci datagramów (w pewnym przybliżeniu możemy określić datagram jako pakiet zaopatrzony w adres). Wędruje więc po sieci, aż do momentu znalezienia adresata. Dopuszczalna jest dowolna trasa - wcale nie musi być najkrótsza. Autorzy tak skonstruowanego protokołu orzekli, że datagram musi trafić do konkretnego urządzenia w sieci Internet, a zatem wszystkie urządzenia muszą posiadać unikatowy w skali całego Internetu identyfikator. Takim identyfikatorem jest adres IP Adres IP jest 32-bitową (4 bajtową) liczbą, Liczba ta zawiera określenie wskazujące jednoznacznie zarówno konkretny komputer jak i sieć, Adres składa się więc z dwóch części: - numeru sieci - numeru komputera. Obie części muszą być zapisane w jednym ciągu. Adres zapisywany jest w formie czterech liczb, oddzielonych od siebie kropkami np. 193.121.58.184 i taki numer może mieć tylko jeden komputer. Adresy IP nadają wyspecjalizowane instytucje. W przypadku połączenia się z serwerem poprzez modem, komputer otrzymuje automatycznie na czas połączenia swój adres z puli, którą posiada dostarczyciel usług internetowych (Internet Provident) czyli ten kto zarządza serwerem i umożliwia podłączenie się do niego innym użytkownikom którzy poprzez ten serwer chcą uzyskać dostęp do Internetu. Adres IP identyfikuje sieć i komputer w tej sieci. Ze względu na kombinację tych dwóch elementów wyróżnia się trzy klasy adresów: 1. KLASA A - adres rozpoczyna się liczbą 1 do 126 (może zaadresować 126 sieci i ponad 16,5 miliona komputerów); 2. KLASA B - adres rozpoczyna się liczbą 128 do 191 (może zaadresować 16 tysięcy sieci i 65 tysięcy komputerów); 3. KLASA C - adres rozpoczyna się liczbą 192 do 223 (może zaadresować ponad 2 miliony sieci i 254 komputery). ADRES SIECIKLASA A KLASA B KLASA C ADRES SIECI ADRES SIECI ADRES KOMPUTERA ADRES KOMPUTERA ADRES KOMPUTERA Adres oznaczony liczbą 127 jest zarezerwowany jako oznaczenie lokalnego komputera. W celu uproszczenia zapamiętywania adresów, - liczby zostały zastąpione ciągiem symboli - DOMEN. WWW - nowa jakość W 1992 roku powstał pomysł utworzenia WWW (ang. World Wide Web). Po Internecie przetoczyła się dyskusja na temat potrzeby istnienia takiego tworu. Tym razem nie użyto angielskiego słowa „net” (sieć), lecz „web” (pajęczyna), gdyż obecnie struktura połączeń Internetu bardziej przypomina pajęczynę niż regularną sieć. Wcześniej przedstawione narzędzia są bardzo pomocne i dają duże możliwości, ale nie są zbyt łatwe w obsłudze. Utworzeniu WWW towarzyszyła chęć udostępnienia zasobów i możliwości Internetu wszystkim, poprzez stworzenie bardzo przyjaznego dla użytkownika środowiska. Wielką zaletą WWW okazał się brak konieczności znajomości i pamiętania adresów różnych 50 bardzo zróżnicowane, ich wspólną cechą jest charakterystyczny model architektury oprogramowania, określanej jako architektura klient-serwer. Idea architektury klient- serwer polega na podzieleniu aplikacji realizującej daną usługę na dwie części: część odpowiedzialną za sformułowanie polecenia wykonania określonego zadania, zwaną klientem, oraz część mającą to zadanie zrealizować, zwaną serwerem. Obie części mogą być zlokalizowane na różnych komputerach połączonych poprzez sieć. Najczęściej występuje wiele serwerów realizujących daną usługę, rozproszonych po całym świecie i obsługujących poszczególne regiony. Usługi podstawowe Spośród wielu usług w Internecie usługami o charakterze podstawowym, w oparciu o które realizowane są inne, są: • Zdalne logowanie (telnet). • Transfer plików (FTP). • Poczta elektroniczna (e-mail). Zdalne logowanie (telnet) Telnet jest usługą umożliwiającą dostęp do odległego komputera poprzez utworzenie wirtualnego terminala. Dzięki temu użytkownik może korzystać z odległego systemu tak, jakby bezpośrednio zasiadał za jego konsolą - wprowadzane przez niego z klawiatury polecenia są przesyłane do odległego komputera, a wyniki przetwarzania informacji są wyświetlane na jego ekranie. Użytkownik korzystający ze zdalnego systemu musi posiadać na nim konto, tzn. w systemie tym w odpowiednich plikach musi być zawarta o nim odpowiednia informacja. W momencie otwierania sesji użytkownik jest proszony o podanie swojego identyfikatora, a następnie hasła potwierdzającego tożsamość. W Internecie istnieje także wiele systemów pozwalających na otwieranie zdalnej sesji użytkownikom nie posiadającym kont indywidualnych, w celu skorzystania z określonej usługi. Przykładem są systemy biblioteczne, pozwalające na zdalny dostęp do katalogów bibliotek. Transfer plików (FTP) FTP jest skrótem nazwy podstawowego protokołu w Internecie służącego do transmisji plików - Protokołu Przesyłania Plików (File Transfer Protocol). Podobnie jak w przypadku telnetu, ażeby otworzyć sesję FTP na odległym systemie, wymagane jest podanie identyfikatora i hasła danego użytkownika w tym systemie. W Internecie jest bardzo dużo serwerów FTP udostępniających swoje zasoby publiczne - są to tzw. serwery anonimowego FTP. Ażeby uzyskać dostęp do zasobów takiego serwera, jako identyfikator trzeba podać słowo anonymous lub ftp, zaś jako hasło - najczęściej swój adres poczty elektronicznej. Zasadniczym warunkiem poprawnej transmisji pliku poprzez sieć jest zastosowanie właściwego trybu transmisji - binarnego lub tekstowego. Podczas przesyłania w trybie binarnym plik jest przesyłany w niezmienionej postaci - w ten sposób należy przesyłać np. skomplikowane programy czy pliki graficzne. Inaczej jest w przypadku plików tekstowych, których postać zależy od przyjętego w danym systemie zestawu znaków (np. ASCII, EBCDIC) czy też konwencji dotyczących znaku końca linii. Pliki te należy przesyłać w trybie tekstowym , w którym podczas transmisji dokonywana jest odpowiednia konwersja. Oczywiście, jeśli w trybie tym zostałby przesłany plik binarny, konwersja pliku doprowadziłaby do jego uszkodzenia. Poczta elektroniczna (e-mail) Poczta elektroniczna jest usługą zaprojektowaną w celu umożliwienia przesyłania wiadomości tekstowych między użytkownikami posiadającymi odpowiednie konta pocztowe. Przesłana do użytkownika odległego systemu wiadomość jest dołączona do pliku pełniącego rolę jego skrzynki pocztowej, zlokalizowanego najczęściej na dużym włączonym przez całą dobę serwerze. Adresat może w dowolnym momencie połączyć się z tym serwerem i przeczytać listy zawarte w jego skrzynce. Dzięki tej wzorowanej na tradycyjnej poczcie zasadzie działania wiadomości można przesłać także tym 51 użytkownikom, którzy aktualnie nie pracują przy swoim komputerze. Natomiast w porównaniu do tradycyjnej poczta elektroniczna jest znacznie szybsza i bardziej niezawodna. Oferuje też funkcje umożliwiające częściową automatyzację pracy, takie jak: • jednoczesna wysyłka listu do wielu adresatów • odpowiedź na list (reply) z ewentualnym załączeniem jego treści • przesłanie listu na inny adres (forward) • automatyczne kopiowanie wysyłanego listu do archiwum • segregowanie listów w tzw. folderach. Adres pocztowy danego użytkownika składa się z dwóch części, oddzielonych znakiem @. Pierwszą część stanowi identyfikator danego użytkownika w systemie, w którym zlokalizowana jest jego skrzynka pocztowa, drugą nazwa danego komputera. Np.: [email protected] jest adresem pocztowym użytkownika rektor na komputerze wszim.edu.pl. Jak już wspomniano, poczta elektroniczna została stworzona do przesyłania wiadomości tekstowych. Przesyłanie pliku binarnego za pośrednictwem poczty elektronicznej jest możliwe pod warunkiem uprzedniego zakodowania pliku binarnego do postaci tekstowej. Można to zrobić w oparciu o tradycyjny standard kodowania uuencode lub bardziej nowoczesny MIME. Systemy organizowania i publicznego udostępniania informacji Gopher Na początku lat dziewięćdziesiątych gwałtowny rozwój Internetu doprowadził do sytuacji, że ilość zasobów zgromadzonych na tysiącach serwerów okazała się zbyt duża, aby ktokolwiek był w stanie zapoznać się z nimi i zapamiętać ich lokalizację. W związku z tym zaistniała silna potrzeba stworzenia systemu, który pozwoliłby na uporządkowanie przestrzeni informacyjnej Internetu i ułatwienie dostępu do niej. Pierwszym takim systemem był Gopher, który został opracowany na Uniwersytecie Minnesota. Gopher jest systemem organizującym informację w postaci tekstowej, jako hierarchiczne systemy menu stanowiące listy poszczególnych tematów. Poszczególne pozycje tych list stanowią odnośniki do innych list (podmenu) lub konkretnych dokumentów tekstowych, plików, sesji telnetu i in. Zestawienia tematów i dokumenty są opracowywane i gromadzone na rozrzuconych po całym świecie serwerach Gophera. Niezwykle istotną cechą Gophera jest to, że dostęp do zasobów wskazywanych przez daną pozycję menu jest zorganizowany w sposób jednolity, niezależnie od tego, czy są to zasoby lokalne, czy zlokalizowane na dowolnym innym serwerze. System ten umożliwia więc użytkownikowi wyszukiwanie potrzebnej mu informacji bez potrzeby interesowania się, gdzie jest ona fizycznie zlokalizowana. Cała przestrzeń informacyjna dostępna użytkownikowi systemu Gopher określana jest mianem przestrzeni gopherowej (Gopherspace). Ważną zaletą Gophera jest możliwość dostępu z jego poziomu do zasobów innych systemów informacyjnych, takich jak np. zasoby anonimowego FTP czy sesje telnetu. Zasadniczą wadą Gophera jest tekstowy sposób prezentowania informacji. Z tego względu system ten jest obecnie zastępowany przez umożliwiający prezentację informacji multimedialnej system WWW. Gopher nie jest dalej rozwijany, a jego znaczenie wynika z dużych ilości zasobów informacyjnych zgromadzonych na jego serwerach. Systemy wyszukiwania informacji Archie W miarę wzrostu ilości zasobów udostępnionych w Internecie powstała konieczność stworzenia systemów baz danych ułatwiających przeszukiwanie tych zasobów. 52 Pierwszym takim systemem był Archie, tworzący i umożliwiający przeszukiwanie baz danych o plikach zawartych na serwerach anonimowego FTP. Na świecie jest kilkadziesiąt serwerów Archie, których bazy danych są okresowo uaktualniane. Archie wyszukuje pliki (i katalogi) na podstawie podanej przez użytkownika nazwy lub jej fragmentu. System ten jedynie informuje o lokalizacji plików, natomiast do ich ściągnięcia konieczne jest użycie osobnego, specjalistycznego programu. Veronica Archie jest systemem informacyjnym przestrzeni FTP, natomiast VERONICA jest podstawowym narzędziem przeszukiwania przestrzeni Gophera. WERONICA tworzy i umożliwia przeszukiwanie bazy danych zawierającej informacje o zasobach zawartych na serwerach Gophera. Zawiera również odnośniki do zasobów innych systemów (WWW, telnet), jeśli zostały one wskazane w menu Gophera. Na świecie jest kilkanaście serwerów VERONICA, okresowo uaktualniających bazę danych. W odróżnieniu od usługi Archie, VERONICA nie tylko umożliwia odszukanie informacji, ale również natychmiastowy dostęp do niej poprzez dynamiczne tworzenie menu typu gopherowego. Systemy przeszukiwania przestrzeni WWW W przeciwieństwie do FTP czy Gophera, w przypadku przestrzeni WWW istnieje ogromna ilość systemów wyszukiwawczych. Podobnie jak VERONICA, systemy te są proste w obsłudze i wykonują przeszukiwanie na podstawie podanych przez użytkownika słów kluczowych, często oferując również możliwość formułowania bardziej złożonych zapytań. Oprócz tego autorzy wielu z tych systemów dokonują klasyfikacji zasobów Internetu, umożliwiając ich przeglądanie za pośrednictwem utworzonego swoistego katalogu tematycznego. Do największych i najpopularniejszych systemów tego typu należą: Yahoo, AltaVista, Lycos, InfoSeek i WebCrawler. Inne usługi Listy adresowe Jest to usługa opierająca się na wykorzystaniu poczty elektronicznej w celu umożliwienia szybkiej i łatwej wymiany poglądów przez użytkowników posiadających wspólne zainteresowania. Jej zasada polega na tym, że listy wysłane pocztą elektroniczną na adres serwera obsługującego daną listę są automatycznie rozsyłane do pozostałych członków tej listy. Liczba list adresowych na całym świecie jest bardzo duża i obejmują one najrozmaitsze tematy. Na większość z nich zapisać się może każdy, są jednak także listy dostępne tylko dla określonych użytkowników (np. lista dla administratorów sieci lokalnych Politechniki Łódzkiej). Niektóre listy działają na zasadzie automatycznego rozsyłania wszystkich nadesłanych listów, inne są objęte swoistą cenzurą w celu zapewnienia zgodności treści listów z tematyką danej listy. Listy adresowe są bardzo skuteczną formą wymiany informacji na dany temat. Podstawową wadą tej usługi jest konieczność nieustannego kontrolowania nadchodzącej poczty i usuwania nadchodzących listów ze swojej skrzynki pocztowej. Jest to szczególnie ważne w przypadku list obejmujących dużą liczbę osób i dotyczących popularnych tematów. Usenet Podobnie jak listy adresowe, Usenet jest usługą pomyślaną jako forum wymiany poglądów na dany temat, w ramach określonych grup dyskusyjnych. Różnica polega na tym, że w przypadku Usenetu artykuły wysłane do danej grupy dyskusyjnej pozostają na serwerze. W tym przypadku inicjatywa w dostępie należy do użytkownika, który przy pomocy specjalnego programu zwanego czytnikiem może łączyć się z serwerem i przeglądać treści artykułów, a także wysyłać własne. Usenet jest więc usługą tworzącą coś w rodzaju elektronicznej tablicy ogłoszeń. Tablica ta ma jednak zasięg globalny, gdyż poszczególne serwery na całym świecie wymieniają między sobą otrzymane artykuły. Podobnie jak w przypadku list adresowych, istnieją grupy 55 URZĄDZENIA SIECIOWE ORAZ TYPY POŁĄCZEŃ LITERATURA ZALECANA Model kontrolowany Wymagania: • okresowa kontrola sieci przez zewnętrznych kontrolerów • obserwacja i kontrola dostępu do serwera, stanowisk roboczych, okablowania, sprzętu sieciowego • okresowe szkolenie użytkowników oraz administratorów na temat ochrony Model zabezpieczony Wymagania: • usunięcie nieużywanych stacji dysków ze stanowisk roboczych • wprowadzenie ograniczeń fizycznych połączeń • zabezpieczenie wszystkich stanowisk roboczych • zabezpieczenie urządzeń sieciowych • wyeliminowanie niezabezpieczonych kont użytkowników 56 1. Bremmer L. M.: Intranet - Biblia. Warszawa, MIKOM 1997 2. Bułhak L.: Oficyna „HELP” uczy obsługi komputera. HELP 1997 3. Cielątkowski J., Porębski W.: IBM dla każdego. Warszawa, HELP 1992 4. Czajkowski M.: Excell 7.0. CROMA 1997 5. Czajkowski M.: Power Point 97 - prezentacje jak się patrzy. CROMA 1997 6. Dec Z, Konieczny R. ABC Komputera. Kraków, EDITION 2000 7. Filocha M.: Ćwiczenia z systemu Novell Netware. Warszawa, MIKOM 1995 8. Flakiewicz W.: Zarządzanie przez informację. Warszawa, BMK 1993 9. Głuszkowski T.: Arkusze kalkulacyjne, przykłady zastosowań, tricki. Łódź, BROKER 1993 10. Hart-Davis G.: ABC Microsoft Office 97. Warszawa, MIKOM 1997 11. Heskop B., Angell D.: WORD 97- Biblia. RM 1998 12. Hetzger P., Jałowiecki A.: Anatomia PC. HELION 1997 13. Kisielnicki J. Informatyczna infrastruktura zarządzania. Warszawa, PWN 1993 14. Kluczna K. ABC WINDOWS 98. Kraków, EDITION 2000 15. Koronkiewicz P.: Alchemia użytkownika Windows 95 czyli.... CROMA 1997 16. Krzymowski B.: OFFICE 97 PL. HELP 1997 17. Krzymowski B.: Pierwsze teksty w edytorze WORD. Warszawa, HELP 1994 18. Krzymowski B.: Pierwsze teksty w edytorze WORD. Warszawa, HELP 1994 19. Krzymowski B.: Works 4PL dla Windows 95, pierwsza pomoc. HELP 1996 20. Kuciński K. ABC EXCELA. Kraków, EDITION 2000 21. Metzeer P, Jełowiecki A. Anatomia PC. Warszawa, HELION 1999 22. Michalski W.: Arkusze kalkulacyjne w zastosowaniach praktycznych. Warszawa, MIKOM 1996 23. Microsoft: EXCELL – krok po kroku. READ ME 1995 24. Microsoft: WINDOWS - Podręcznik dla użytkownika wersja .... MICROSOFT CORPORATION 25. MICROSOFT-PRESS: Access 7.0 – krok po kroku. CATAPULT 1997 26. Nowakowski Z, Sikorski W. Informatyka bez tajemnic. Warszawa, MIKOM 1995 27. Płoszajski G. Elementy informatyki, użytkowanie komputera. Warszawa, WsiP 1999. 28. Sroka H. (red) Informatyka Akademia Ekonomiczna w Katowicach 1994 29. Stallings W.: Ochrona danych w sieci i intersieci. Warszawa, WNT 1997 30. Tor A. Nauka przez ćwiczenia EXCEL 97, ACCESS 97, WORD 97, podstawy z przykładami. Warszawa, TORTECH 1998. 31. Wojtuszkiewicz K. Urządzenia techniki komputerowej, jak działa komputer. Warszawa, MIKOM 1999. 32. Wróblewski P.: Algorytmy, struktury danych i techniki programowania. Gliwice, HELION 1997