Budowa komputera w szczegółach.pdf

(278 KB) Pobierz
40744039 UNPDF
SPIS TREŚCI
WSTĘP
HISTORIA KOMPUTERA
PŁYTA GŁÓWNA
Wewnętrzne gniazda
MAGISTRALE DANYCH PC (BUS)
ZEGAR
PROCESOR
Zasada działania
KOPROCESOR
BANKI PAMIĘCI
TYPY PAMIĘCI
Pamięć operacyjna
Dynamiczny RAM
Pamięć CACHE
Pamięci typu ROM, EPROM, EEPROM
KARTA GRAFIKI
DYSK TWARDY HDD
Budowa dysku twardego
STACJA DYSKÓW ELASTYCZNYCH FDD
Zasada działania
NAPĘD CD-ROM
DVD
KARTA DZWIĘKOWA
MONITOR
MODEM
INTERNET
Historia Internetu
Struktura Internetu
Składniki Internetu
BIBLIOGRAFIA
Wstęp
Komputer określany mianem PC (Personal Computer), czyli osobisty, zdobył największą
popularność, zarówno w różnych dziedzinach działalności zawodowej, jak i w domach. Określenie
PC spotyka cię w literaturze fachowej, reklamach i mowie potocznej od 1981 roku, kiedy to firma
IBM (International Business Machines Corporation) wprowadziła na rynek mikrokomputer serii
IBM PC. Komputer (mikrokomputer) jest to zestaw urządzeń elektronicznych, realizujący
przetwarzanie informacji (danych). Pojęcie przetwarzania danych jest bardzo szerokie, bo kryje się
pod nim zarówno przetwarzanie prostych i złożonych tekstów, organizacja baz danych, realizacja
obliczeń finansowych a także przetwarzanie grafiki oraz dźwięku w praktycznie dowolnej postaci.
Za pomocą komputera można sterować innymi urządzeniami takimi jak np. centrala telefoniczna.
Aby właściwie i efektywnie wykorzystywać komputer istnieje konieczność posiadania
odpowiedniego oprogramowania. Na zamówienie firmy IMB został opracowany przez firmę
Microsoft dziś już coraz rzadziej stosowany system operacyjny DOS (Disk Operating System).
Obecnie jego miejsce zajmuje opracowany także przez tą samą firmę system Windows 98,
Milenium, XP, NT,Vista Poza systemem operacyjnym do pracy komputera niezbędne są również
inne programy umożliwiające obsługę urządzeń zewnętrznych takich jak monitor czy drukarka. W
związku
z bardzo dynamicznie rozwijającym się rynkiem komputerów programy i systemy operacyjne stają
się coraz prostsze w obsłudze, przez co są bardziej przyjazne dla użytkownika.
Historia komputera
Dzisiejsze komputery to nie tylko maszyny liczące wspomagające prace badawcze,
ale także: kasy fiskalne sklepie, urządzenia sterujące miliardami połączeń telefonicznych,
pomagające w skomplikowanych operacjach bankowych i wykonujące wiele innych działań w
przemyśle, medycynie oraz wkraczające coraz częściej do naszych domów. Dla pełnego
zrozumienia znaczenia komputerów istotne jest poznanie historii ich rozwoju oraz wpływu na
rozwój cywilizacji.
Ludzkość wytwarza coraz więcej informacji. Tak wiele, że jej przetwarzanie, czyli pamiętanie,
klasyfikowanie, poszukiwanie, obrazowanie i zestawianie jest ponad ludzkie siły. Dlatego tak duże
znaczenie osiągnęły \"maszyny\", które radzą sobie z tym zadaniem lepiej
i szybciej od człowieka - komputery. Komputery, czyli maszyny liczące ( z ang. compute -
obliczać) mają więcej lat niż się na ogół przypuszcza. Za przodków komputera uznać, bowiem
należy wszystkie urządzenia służące do liczenia.
Prawie 5000 lat temu w środkowej Azji powstało urządzenie liczące nazywane Abacus i uznawane
za pierwsze mechaniczne urządzenie tego typu. Po polsku nazywamy
je liczydłami i o dziwo - liczydła w niektórych regionach świata używane są do dzisiaj. Zbudowane
w postaci nanizanych na sztywny pręt przesuwanych w trakcie wykonywania operacji kuleczek lub
talerzyków liczyło w kombinowanym systemie dwójkowo-piątkowym. Liczydła straciły nieco swą
popularność wraz z upowszechnieniem papieru i pióra. Niemniej jednak przetrwały w niektórych
biurach do połowy lat 50-tych naszego wieku ze względu na niewielką cenę i prostotę.
W roku 1642, Blaise Pascal (1623 -1662), mający wówczas 18 lat syn francuskiego poborcy
podatkowego, skonstruował maszynę liczącą, nazwaną \"Pascaline\", która miała ułatwić ojcu
obliczanie i sumowanie zebranych podatków. Pascal pracował nad nią wiele lat, ulepszał ją i
wykonał sam kilkanaście egzemplarzy tego urządzenia. Maszyna Pascala miała tylko możliwość
dodawania liczb ośmiocyfrowych. W 1694 r. niemiecki matematyk i filozof, Gottfried Wilhem von
Leibniz (1646 -1716), wykorzystał doświadczenia Pascala do stworzenia maszyny, która mogła
również wykonywać operacje mnożenia. Podobnie jak jego poprzednik, Leibniz wykorzystał do
wykonywania operacji system odpowiednio sprzężonych mechanicznie i obracających się
przekładni, krążków i dźwigni. Znając z notatek i opisów rozwiązanie Pascala mógł on udoskonalić
jego konstrukcję.
W 1820 francuski konstruktor Xavier Thomas de Colmar skonstruował urządzenie nazywane potem
popularnie arytmometrem, które mogło wykonywać cztery podstawowe operacje matematyczne.
Arytmometry były powszechnie używane do I wojny światowej,
a w wielu krajach w znacznie ulepszonej postaci (już jako urządzenia elektryczne) można je było
spotkać w biurach i urzędach jeszcze w latach 60-tych naszego stulecia.
Za najwybitniejszego twórcę maszyn liczących, żyjącego przed erą elektroniczną, uważa się
Anglika Charlesa Babbage\'a (1791 - 1871). Swoją pierwszą maszynę nazwaną - maszyną
różnicową, ( gdyż wykonywała obliczenia metodą różnicową), konstruował przez ponad 10 lat.
Trapiony jednak wieloma kłopotami rodzinnymi i finansowymi oraz nie mogąc do końca
porozumieć się ze swoim głównym wykonawcą - konstruktorem Clementem zaprzestał dalszych
prac nad nią w 1842 roku. Zmontowaną część maszyny (podobno nadal sprawną) można oglądać w
Muzeum Nauk w Londynie. Należy dodać, że w odróżnieniu od maszyn Leibniza i Pascala, po
ręcznym ustawieniu początkowego stanu, dalsze działania maszyny różnicowej nie wymagają już
żadnej ingerencji użytkownika poza kręceniem korbą.
Koniec XIX wieku był początkiem rozwoju urządzeń mechanograficznych, których głównym
przeznaczeniem było usprawnienie rachunków statystycznych, księgowych
i biurowych. Zaczęło się w Stanach Zjednoczonych od Hermana Holleritha, który postanowił
zautomatyzować prace statystyczne związane ze spisem ludności przeprowadzanym wtedy
w Stanach co dziesięć lat. Hollerith sięgnął po elektryczność, jako źródło impulsów i energii,
rozwinął postać karty perforowanej, na której zapisywano dane i zbudował elektryczny czytnik -
sorter kart. Olbrzymim sukcesem Holleritha okazał się spis 1890 roku, którego wyniki zostały
całkowicie opracowane za pomocą jego urządzeń na podstawie danych zebranych na jego kartach.
W następnych latach Hollerith dostarczał lub wypożyczał swoje urządzenia do przeprowadzenia
spisów w wielu krajach, w tym także w Europie, między innymi w Rosji. Na przełomie XIX i XX
wieku powstało wiele firm, które początkowo oferowały maszyny sterowane kartami
perforowanymi i z latami zyskiwały na swojej potędze a wiele z nich przetrwało do dzisiaj, jak na
przykład IBM, Bull, Remington - Rand, Burroughs, a także NCR (kasy), i Bell (telefony).
Udoskonalona i znormalizowana karta perforowana przez wiele dziesięcioleci była uniwersalnym
nośnikiem informacji, a pierwsze maszyny mechaniczne do przetwarzania danych zapoczątkowały
stale rosnący popyt na przetwarzanie informacji.
W latach II wojny światowej Alan Turing został włączony do grupy specjalistów zajmujących się w
Wielkiej Brytanii deszyfracją kodów Enigmy - maszyny, którą Niemcy używali do kodowania
meldunków i rozkazów rozsyłanych swoim jednostkom na wszystkich frontach. W 1941 roku
działalność tej grupy przyczyniła się do zredukowania brytyjskich strat na morzach o 50%.
Brytyjscy specjaliści korzystali z materiałów (wśród których był egzemplarz Enigmy oraz maszyna
deszyfrująca zwana bombą) przekazanych im w 1939 roku przez grupę Polaków kierowaną przez
Mariana Rejewskiego, zajmujących się od pięciu lat skonstruowaniem maszyny deszyfrującej.
Chociaż Brytyjczycy udoskonalili maszynę deszyfrującą otrzymaną od Polaków, pozostawała ona
nadal maszyną mechaniczną i jej działanie nie nadążało za ciągle udoskonalanymi i zmienianymi
przez Niemców egzemplarzami Enigmy. Ocenia się że w szczytowym okresie II wojny światowej
Niemcy używali ponad 70 tysięcy maszyn szyfrujących Enigma. Prace nad maszyną deszyfrującą
Enigmę przyczyniły się do powstania pod koniec wojny w Wielkiej Brytanii kalkulatorów
elektronicznych. Powstało kilka wersji maszyny o nazwie Coloss, których głównym konstruktorem
był T.H. Fowers. Były to już maszyny elektroniczne, w których wykorzystano arytmetykę binarną,
sprawdzane były warunki logiczne (a więc można było projektować obliczenia z rozgałęzieniami),
zawierały rejestry, mogły wykonywać programy (poprzez uruchomienie tablic rozdzielczych) i
wyprowadzać wyniki na elektryczną maszynę do pisania.
W 1941 roku Konrad Zuse ukończył w Niemczech prace nad maszyną Z3,
która wykonywała obliczenia na liczbach binarnych zapisanych w reprezentacji, nazywanej dzisiaj
zmiennopozycyjną, sterowane programem zewnętrznym podawanym za pomocą perforowanej
taśmy filmowej. Maszyna Z3 została całkowicie zniszczona w czasie bombardowania w 1945 roku.
Następny model maszyny Zusego, Z4 przetrwał i działał do końca lat pięćdziesiątych.
John von Neumann (1903 - 1957), z pochodzenia Węgier, był w swoich czasach jednym z
najwybitniejszych matematyków. W 1946 roku zainspirował on prace w projekcie EDVAC (ang.
Electronic Discrete Variable Automatic Computer), których celem było zbudowanie komputera bez
wad poprzednich konstrukcji. Zaproponowano architekturę, zwaną odtąd von neumannowską,
według której buduje się komputery do dzisiaj.
W komputerze von Neumanna można wyróżnić przynajmniej następujące elementy: pamięć
złożoną z elementów przyjmujących stan 0 lub 1, arytrometr zdolny wykonywać działania
arytmetyczne, logiczne i inne, sterowanie, wprowadzanie danych i wyprowadzanie wyników.
Program, czyli zbiór instrukcji, według których mają odbywać się obliczenia, jest wpisywany do
pamięci. Kolejne rozkazy programu są pobierane przez jednostkę sterującą komputerem w takt
centralnego zegara i rozpoznawane zgodnie z mikroprogramem wpisanym w układ elektroniczny.
Postęp w elektronice umożliwił dalszy rozwój komputerów. W latach sześćdziesiątych lampy
zastąpiono tranzystorami. Pierwszy tranzystorowy komputer zbudowano w 1956 roku w
Massachusettes Institute of Technology. Z kolei układy scalone zastąpiły tranzystory (układ scalony
zawierał w jednej obudowie kilkadziesiąt tranzystorów
i innych elementów elektronicznych). Dalszy postęp produkcji tych układów pozwolił umieszczać
w jednej \"kostce\" dziesiątki tysięcy tranzystorów. Obwody takie nazwano układami wielkiej skali
integracji (VLSI z ang. - Very Large Scale of Integration). Wymyślono termin: \" generacja
komputerów \" i nazwano komputery lampowe mianem pierwszej generacji, tranzystorowe -
drugiej, zbudowane z układów scalonych - trzeciej,
a w technologii VLSI komputerów odbywał się tak szybko, że zaczęto mówić o rewolucji
komputerowej. Wprowadzenie na rynek tanich układów scalonych umożliwiło powstanie
mikrokomputerów, w których elementy przetwarzające informacje umieszczono w jednym układzie
- mikroprocesorze.
Pierwsze komputery osobiste (PC z ang. Personal Computer) zostały opracowane przez IBM.
Ponieważ firma ta nie miała nic przeciwko temu, by inne przedsiębiorstwa skorzystały z jej
pomysłu i podążyły jej śladem, wielu producentów sprzedaje dziś własne komputery, które jednak
są wciąż budowane według tej samej koncepcji firmy IBM. Ponieważ na rynku pojawiało się coraz
więcej produktów, zaczęto pisać programy dla tego typu komputerów. Producenci sprzętu
odpowiedzieli na to kolejną falą unowocześnionych komputerów typu IBM - PC. Proces ten
rozwijał się na zasadzie lawiny: komputery, nowe komponenty i oprogramowanie są obecnie
tworzone przez setki najróżniejszych producentów. Tym sposobem PC stał się najbardziej
rozpowszechnionym typem komputera na świecie.
Niemal w tym samym czasie, którym narodził się PC, firma Apple zaczęła budować swój własny
typ komputera osobistego, dzieło Steve Woźniaka i Steve Jobsa. System Apple nie był jednak
zgodny z IBM - PC ani pod względem sprzętu, ani oprogramowania. Swój sukces zawdzięczał on
faktowi, iż po raz pierwszy wykorzystano tam graficzny sposób komunikowania się z
użytkownikiem bazujący na obrazkach i oknach - na rok przed rozpowszechnieniem się Windows
firmy Microsoft. Komputery Apple od samego początku były systemami kompletnymi. Oznaczało
to, że w ich przypadku nie było już konieczne kupowanie dodatkowych komponentów, aby na
przykład osiągnąć dźwięk odpowiedniej jakości. W przeciwieństwie do ówczesnych komputerów
PC - tów, komputery Apple były znacznie prostsze w obsłudze. Mac, jak chętnie nazywa się
komputer firmy Apple, szybko stał się ulubionym narzędziem ludzi z kręgów twórczych. Używali
go przede wszystkim architekci, muzycy i projektanci, którym najczęściej potrzebny był właśnie
wydajny i łatwy
w obsłudze komputer. Tak więc Mac wciąż pozostaje główną alternatywą dla komputerów typu
IBM - PC, a fakt, iż w porównaniu z PC -tem jest mniej dostępny na rynku, wynika głównie stąd, że
firma Apple nie udostępniła nikomu praw do kopii swojego projektu.
Większość producentów skorzystała co prawda z koncepcji peceta firmy IBM, niemniej niektórzy
wyłamali się i podążyli własną drogą tworząc komputery osobiste niezgodne ze standardem. Stąd
też oprogramowanie stworzone dla typowego komputera PC
z reguły nie może być na nich uruchamiane. W zupełnym oderwaniu od standardu IBM -
a powstały rozwiązania, które przewyższają pierwowzór czy to pod względem ceny, czy
przydatności do gier, czy też obróbki dźwięku czy też grafiki. Niejeden z tego typu systemów był i
wciąż jeszcze jest wspaniałym narzędziem, jednakże przeznaczonym wyłącznie dla specjalistów
skupiających się na wykonywaniu określonej grupy zadań. Pierwsze komputery ważyły tony, miały
znacznie mniejszą pamięć niż nowoczesne mikrokomputery oraz zużywały milion razy więcej
energii.
Płyta główna
Wewnątrz obudowy komputera znajduje się płyta główna, która łącznie z procesorem decyduje o
jakości komputera. Im lepsze są parametry płyty i procesora, tym szybszy jest komputer. Płyty
nowszej generacji posiadają pamięć podręczną (cache memory). Jest to dodatkowa pamięć
przyspieszająca współpracę z pamięcią dynamiczną RAM i dyskiem twardym. Do niedawna była
ona wydzielana z pamięci operacyjnej komputera. Starsze modele płyt miały obok miejsca na
procesor miejsce na koprocesor. Obecnie koprocesor jest wbudowany w procesor. Ponadto na
płycie znajdują się pamięci RAM oraz ROM, gniazda rozszerzające (sloty) i związany z nimi
standard magistrali komputera. Przez magistrale odbywa się wymiana danych między procesorem a
zainstalowanymi w komputerze kartami. Podstawową z nich jest karta graficzna. Inne karty
rozszerzeń to: Sterowniki obsługujące dyski optyczne (CD-ROM), Sterowniki modemowe i
faksowe, Sterowniki sieciowe pozwalające włączać mikrokomputer w struktury sieci w celu
korzystania ze wspólnych jej zasobów, Sterowniki skanerów stacjonarnych, Sterowniki dźwiękowe
umożliwiające wytwarzanie dźwięku HI-FI Inne wyspecjalizowane sterowniki np. przetworniki
cyfrowo-analogowe i analogowo-cyfrowe. Kolejnym urządzeniem znajdującym się na płycie jest
kontroler wejścia wyjścia zawierający sterowniki takich urządzeń jak: Stacja dyskietek Dyski
twarde Złącza do komunikacji szeregowej (porty COM). Podłącza się do nich takie urządzenia jak
mysz albo modem zewnętrzny Złącza komunikacji równoległej (centronics - drukarki) Starsze płyty
nie posiadały takiego kontrolera, więc był on montowany w postaci karty rozszerzeń. Płyta z
procesorem połączona jest za pomocą specjalnego gniazdka (Socket). Przez ostatnie półtora roku
jedynym gniazdem łączącym procesor z płytą główną było Socket 7. Dziś jednak wybierać możemy
między gniazdami Socket 7, Super 7, Slot 1, Socket 370, Slot A i Slot 2. Od rodzaju złącza
procesora zależy możliwość ewentualnego przełożenia go do innej płyty głównej. Wszechstronność
procesora w tym względzie zależy od liczby rodzajów płyt głównych obsługujących określony typ
złącza. Socket 7: Popularność gniazda tego typu zmalała w 1997 roku wraz z wprowadzeniem przez
Intela procesorów Pentium II ze złączem Slot 1. Powróciły one do łask z końcem 1998 roku, kiedy
Intel zakończył produkcję procesorów Pentium MMX. Procesory produkowane w tym roku
począwszy od Intela, poprzez AMD, IMB, IDT, Rise - mają gniazda Socket 7. Super 7: To
poprawiona wersja złącza Socket 7, taktowana jest częstotliwością magistrali 100 MHz
i obsługuje zarówno AGP jak i USB. Ze złączem Super 7 współpracują takie procesory,
jak K6-2 firmy AMD (wersje 300 MHz i więcej), K6-3 tej samej firmy, procesor M II 333 firmy
Cyrix oraz procesory Winchip 2 taktowane z częstotliwością 200, 233, i 266 MHz firmy IDT. Do
gniazda Super 7 można wmontować wszystkie procesory przy-stosowane
do gniazd Socket 7. Slot 1: Gniazdo do procesorów Pentium II, również Celeron, zarówno
w wersji z jak i bez pamięci podręcznej drugiego poziomu (podręczna L2). Istnieje wiele modeli
płyt głównych Slot 1. Procesory Pentium II produkowane są w dwóch wersjach różniących się od
siebie technologią wytwarzania (0,35 lub 0,25 mikrona), częstotliwością taktowania magistrali (66
MHz lub 100 MHz) oraz rozmiarem pamięci buforowej (512 MB lub 4 GB). Warto pamiętać, że
starsze procesory Pentium II taktowane są z częstotliwością do 333 MHz, podczas gdy nowa
generacja procesorów Pentium II częstotliwością 350 MHz wzwyż.
Płyta główna stanowi najważniejszy element całego komputera, stanowi bazę
do instalowania pozostałych elementów komputera. To za jej pośrednictwem odbywa
się wzajemna komunikacja między poszczególnymi zainstalowanymi w komputerze urządzeniami.
Od jej rodzaju zależy jakimi możliwościami rozbudowy będzie dysponował komputer, jakie
urządzenia będzie mógł obsługiwać oraz decyduje o wyborze komponentów
z jakimi będzie mógł współpracować - rodzaj procesora, pamięci, kart rozszerzających
czy obudowy. Z płyty głównej odchodzą złącza dla modułów pamięci RAM (SIMM, DIMM lub
RIMM), gniazd CPU, napędów dyskietek, urządzeń typu IDE lub EIDE, klawiatury czy monitora.
STANDARD ATX
Obecnie najbardziej popularnym standardem płyt głównych jest ATX. Charakteryzuje się on
zintegrowanymi z płytą wszystkimi gniazdami wyprowadzeń. Złącza portów szeregowych i
równoległych, klawiatury, myszy, USB czy IEEE są integralną częścią samej płyty co zwiększa jej
funkcjonalność, ułatwia instalację i korzystnie wpływa na ujednolicenie standardu. Płyty wykonane
w tym formacie mają bezpośrednio wlutowane gniazda portów, łatwo dostępne gniazda interfejsów
dysków, co skutecznie eliminuje zbędną plątaninę kabli. W najnowszych płytach głównych, dzięki
odpowiednim ustawieniom BIOS-u, możliwe jest włączanie komputera np. przez naciśnięcie
odpowiedniej kombinacji klawiszy lub jednego
z przycisków myszy. Dodatkowo płyty ATX wyposażone są w tzw. funkcję Soft Power (określaną
również jako soft-off power), dzięki któremu płyta steruje włączaniem
Zgłoś jeśli naruszono regulamin