Informatyka 1 - PB Wydział Elektryczny

advertisement
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
2/46
Plan wykładu nr 7
Informatyka 1
Architektura harwardzka
Architektura i organizacja systemu komputerowego
Struktura i funkcjonowanie komputera
Politechnika Białostocka - Wydział Elektryczny
Elektrotechnika, semestr II, studia stacjonarne I stopnia
procesor, rozkazy, przerwania
struktura połączeń, magistrala, DMA
systemy pamięci komputerowych
hierarchia pamięci, pamięć podręczna
Rok akademicki 2010/2011
Wykład nr 7 (04.04.2011)
dr inż. Jarosław Forenc
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
3/46
Architektura harwardzka
Architektura komputera, w której pamięć danych programu jest
oddzielona od pamięci instrukcji
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
zaprojektowany przez Howarda Aikena
pamięć instrukcji - taśma dziurkowana,
pamięć danych - elektromechaniczne liczniki
4/46
Architektura harwardzka
Nazwa architektury pochodzi komputera Harward Mark I:
dr inż. Jarosław Forenc
Pamięci danych i instrukcji mogą różnić się:
technologią wykonania
strukturą adresowania
długością słowa
Przykład:
ATmega16 - 16kB Flash, 1 kB SRAM, 512 B EEPROM
Pamięć na instrukcje jest zazwyczaj większa niż pamięć na dane
Pamięć instrukcji i danych zajmują inną przestrzeń adresową
Procesor może w tym samym czasie czytać instrukcje oraz
uzyskiwać dostęp do danych
Architektura ta jest szybsza od architektury von Neumanna
Stosowana w mikrokomputerach jednoukładowych, procesorach
sygnałowych oraz przy dostępie procesora do pamięci podręcznej
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
5/46
Architektura harwardzka i von Neumanna
zajmują różne przestrzenie adresowe
mają oddzielne szyny (magistrale) do procesora
zaimplementowane są w inny sposób
Pamięć programu
(instrukcje programu)
Architektura von Neumanna
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
Magistrala danych
Zmodyfikowana architektura harwardzka łączy w sobie cechy
architektury harwardzkiej i architektury von Neumanna
W architekturze tej oddzielone są pamięci danych i rozkazów,
lecz wykorzystują one wspólną magistralę danych i adresową
Architektura ta pozwala na dostęp do pamięci instrukcji tak jakby
były to dane
Część pamięci instrukcji może zawierać stałe dane, np. łańcuchy
znaków, które mogą być przesyłane bezpośrednio do procesora
z pominięciem pamięci na dane - zapewnia to oszczędność
pamięci na dane
Pamięć danych
(dane programu)
Architektura harwardzka
dr inż. Jarosław Forenc
7/46
Architektura von Neumanna i harwardzka
6/46
Procesor
Magistrala instrukcji
dr inż. Jarosław Forenc
Zmodyfikowana architektura harwardzka
W architekturze harwardzkiej pamięć instrukcji i pamięć danych:
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
W obecnie stosowanych procesorach występują elementy obu
architektur:
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
8/46
Architektura i organizacja systemu komputerowego
Przedstawienie struktury i zasady działania komputerów jest
zagadnieniem dość skomplikowanym, gdyż:
pamięć operacyjna (RAM) komputera jest to typowa architektura
von Neumanna
istnieje ogromna różnorodność sprzętu komputerowego
(od komputerów masywnie równoległych do komputerów PC)
pamięć podręczna (cache) podzielona jest na pamięć instrukcji
i pamięć danych
technika komputerowa rozwija się bardzo szybko, ciągle pojawiają
się nowe technologie, interfejsy, standardy
komputer jest systemem złożonym z bardzo dużej liczby elementów
Z punktu widzenia programisty posługujemy się architekturą
von Neumana, zaś implementacje sprzętowe zawierają
architekturę harwardzką
Stosowane obecnie mikrokontrolery są oparte na zmodyfikowanej
architekturze harwardzkiej (AVR, ZiLOG Z8Encore!)
Z powyższych powodów zazwyczaj przedstawia się hierarchiczną
strukturę systemu komputerowego
system hierarchiczny jest to układ wzajemnie powiązanych
podsystemów, z których każdy ma również strukturę hierarchiczną
na każdym poziomie określana jest struktura składników systemu
(sposób ich wzajemnego powiązania) oraz funkcje składników
systemu (działanie poszczególnych składników jako części struktury)
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
9/46
Architektura komputera a organizacja komputera
Architektura komputera
odnosi się do atrybutów systemu, które są widzialne dla programisty
i mają bezpośredni wpływ na logiczne wykonywanie programu
do atrybutów architektury należą m.in. lista rozkazów, liczba bitów
wykorzystywanych do prezentacji różnych typów danych,
mechanizmy wejścia/wyjścia, metody adresowania pamięci
odnosi się do jednostek operacyjnych i ich połączeń, które stanowią
realizację specyfikacji typu architektury
atrybuty organizacyjne są to rozwiązania sprzętowe niewidzialne dla
programisty, np. sygnały sterujące, interfejsy między komputerem
a urządzeniami peryferyjnymi, wykorzystywana technologia pamięci
dr inż. Jarosław Forenc
11/46
Struktura komputera
Komputer składa się z czterech głównych składników:
procesor (jednostka centralna, CPU)
- steruje działaniem komputera
i realizuje funkcje przetwarzania danych
pamięć główna - przechowuje dane
wejście-wyjście - przenosi dane
między komputerem a jego
otoczeniem zewnętrznym
połączenia systemu - wszystkie
mechanizmy zapewniające komunikację
między jednostką centralną, pamięcią
główną a wejściem-wyjściem
Wszystkie powyższe składniki mogą występować w komputerze
pojedynczo lub w większej liczbie
10/46
Funkcje realizowane przez komputer:
przetwarzanie danych
przechowywanie danych
(krótkotrwałe lub długotrwałe)
przenoszenie danych
(pomiędzy komputerem
a światem zewnętrznym)
Organizacja komputera
dr inż. Jarosław Forenc
Funkcjonowanie komputera
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
urządzenia peryferyjne
(proces wejścia-wyjścia)
duża odległość
(transmisja danych)
sterowanie
(powyższymi funkcjami)
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
Struktura procesora
Główne składniki strukturalne procesora to:
jednostka sterująca - steruje działaniem
procesora i pośrednio całego komputera
jednostka arytmetyczno-logiczna (ALU)
- realizuje funkcję przetwarzania danych
przez komputer
rejestry - realizują wewnętrzne
przechowywanie danych w procesorze
połączenia procesora - wszystkie
mechanizmy zapewniające komunikację
między jednostką sterującą, ALU
i rejestrami
dr inż. Jarosław Forenc
12/46
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
13/46
Działanie komputera
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
14/46
Działanie komputera
Podstawowe zadanie komputera to wykonywanie programu
Podstawowe zadanie komputera to wykonywanie programu
Program składa się z rozkazów przechowywanych w pamięci
Program składa się z rozkazów przechowywanych w pamięci
Rozkazy są przetwarzane w dwu krokach:
Rozkazy są przetwarzane w dwu krokach:
Cykl pobierania (ang. fetch):
odczytanie rozkazu z pamięci
do śledzenia, który rozkaz ma
być pobrany służy rejestr zwany
licznikiem rozkazów (PC) lub
wskaźnikiem instrukcji (IP)
jeśli procesor nie otrzyma innego
polecenia, to powoduje
inkrementację licznika PC
po każdym pobraniu rozkazu
i wykonuje następny rozkaz
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
15/46
Działanie komputera
CW1
CP1
CW1
CP2
CP2
CW2
CW2
CP3
CW3
może zawierać kilka operacji,
jest zależny od natury rozkazu
pobrany rozkaz jest ładowany
do rejestru w procesorze
zwanego rejestrem rozkazu (IR)
rozkaz ma formę kodu binarnego
określającego działania, które ma
podjąć procesor
procesor interpretuje rozkaz
i przeprowadza wymagane działania
dr inż. Jarosław Forenc
16/46
Działanie komputera
W celu przyspieszenia pracy systemu stosuje się tzw. wstępne
pobranie instrukcji (ang. prefetching)
CP1
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
Cykl wykonywania (ang. execution):
CP3
CW3
Graf stanów cyklu wykonania rozkazu ma następującą postać:
CP - cykl pobierania
CW - cykl wykonywania
prefeching
czas
Działania procesora można podzielić na cztery grupy:
przesłanie danych z procesora do pamięci lub odwrotnie
przesłanie danych z procesora do modułu we-wy lub odwrotnie
operacje arytmetyczne lub logiczne na danych
sterowanie (np. zmiana sekwencji wykonywania programu)
Wykonywanie rozkazów może zawierać kombinacje powyższych
działań
(3) - analiza rozkazu w celu określenia rodzaju operacji, która ma być
wykonana oraz w celu określenia argumentu (jednego lub kilku)
(8) - zapisanie wyniku w pamięci lub skierowanie go do we/wy
Nie wszystkie stany z powyższego schematu muszą występować
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
17/46
Działanie komputera
dr inż. Jarosław Forenc
18/46
Działanie komputera
Graf stanów cyklu wykonania rozkazu ma następującą postać:
Każdy rozkaz przechowywany jest w postaci binarnej, ma
określony format i używa określonego trybu adresowania
Format to sposób rozmieszczenia informacji w kodzie rozkazu
Rozkaz zawiera kod operacji (rodzaj wykonywanej operacji)
i argumenty (lub adresy argumentów) wykonywanych operacji
Tryb adresowania jest to sposób określania miejsca
przechowywania argumentów rozkazu (operandów):
Mogą wystąpić sytuacje, w których jeden rozkaz może określać
operacje na wektorze liczb lub na szeregu znaków, co wymaga
powtarzania operacji pobrania i/lub przechowywania
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
19/46
Działanie komputera - przerwania
Wykonywanie kolejnych rozkazów przez procesor może być
przerwane poprzez wystąpienie tzw. przerwania
Można wyróżnić kilka klas przerwań:
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
programowe - generowane po wystąpieniu błędu podczas
wykonania rozkazu (np. dzielenie przez zero)
zegarowe - generowane przez wewnętrzny zegar procesora
we-wy - generowane przez sterownik we-wy w celu
zasygnalizowania normalnego zakończenia operacji lub błędu
uszkodzenie sprzętu - generowane przez uszkodzenie,
np. defekt zasilania, błąd parzystości pamięci
Przerwania zostały zaimplementowane w celu poprawienia
efektywności przetwarzania - procesor może wykonywać inne
rozkazy, gdy jest realizowana operacja we-wy
natychmiastowe - argument znajduje się w kodzie rozkazu
bezpośrednie - adres argumentu znajduje się w kodzie rozkazu
rejestrowe - argument znajduje się w rejestrze
pośrednie - adres argumentu znajduje się w rejestrze
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
20/46
Działanie komputera - przerwania
Aby dostosować się do przerwań do cyklu rozkazu jest dodawany
cykl przerwania:
Po sygnale przerwania procesor:
zawiesza wykonanie bieżącego
programu i zachowuje jego
kontekst
ustawia licznik programu na
początkowy adres programu
obsługi przerwania
wykonuje program obsługi
przerwania
wznawia wykonywanie
programu użytkowego
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
21/46
Działanie komputera - przerwania
dr inż. Jarosław Forenc
22/46
Działanie komputera - przerwania wielokrotne
Jak działa przerwanie?
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
23/46
Działanie komputera - struktura połączeń
Podczas obsługi jednego przerwania może pojawić się sygnał
kolejnego przerwania
Problem przerwań wielokrotnych rozwiązywany jest na dwa
sposoby:
uniemożliwienie innych przerwań,
jeśli jakiekolwiek inne przerwanie
jest przetwarzane
określenie priorytetów przerwań przerwanie o wyższym priorytecie
powoduje przerwanie programu
obsługi przerwania o niższym
priorytecie
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
24/46
Działanie komputera - struktura połączeń
Struktura połączeń jest to zbiór ścieżek łączących podstawowe
moduły komputera, tj. procesor, pamięć i urządzenia we-wy
Struktura połączeń jest to zbiór ścieżek łączących podstawowe
moduły komputera, tj. procesor, pamięć i urządzenia we-wy
Pamięć:
Procesor:
odczytuje rozkazy i dane
wysyła dane po przetworzeniu
słowa umieszczone są pod
konkretnymi adresami
steruje pracą całego systemu
poprzez sygnały sterujące
słowo może być odczytane
z pamięci lub do niej zapisane
otrzymuje sygnały przerwań
typ operacji określają sygnały
sterujące odczyt i zapis
pamięć składa się z określonej
liczby słów o jednakowej długości
Rozkazy
Sygnały ster.
Dane
Procesor
Dane
Sygnały przerw.
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
25/46
Działanie komputera - struktura połączeń
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
Struktura połączeń jest to zbiór ścieżek łączących podstawowe
moduły komputera, tj. procesor, pamięć i urządzenia we-wy
Moduł wejścia-wyjścia:
Struktura połączeń musi umożliwiać przesyłanie następujących
danych:
DMA - bezpośredni dostęp do pamięci:
Odczyt
istnieją dwie operacje:
zapis i odczyt
każdy z interfejsów z urządzeniem
zewnętrznym określany jest
portem i ma jednoznaczny adres
Zapis
Adres
Dane zew.
w pewnych przypadkach pożądane jest
umożliwienie bezpośredniej wymiany
danych między we-wy a pamięcią
podczas takiego przesyłania moduł we-wy
odczytuje lub zapisuje rozkazy w pamięci,
uwalniając procesor od odpowiedzialności
za tę wymianę
powyższe operacje nazywane są
bezpośrednim dostępem do pamięci
(ang. DMA - Direct Memory Access)
Sygnał przerw.
Dane zew.
D
an
e
moduł może wysyłać sygnały
przerwań do procesora
an
e
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
27/46
Działanie komputera - magistrala
Najczęściej stosowana struktura połączeń to magistrala
Magistrala jest wspólnym nośnikiem transmisji, do którego
dołączonych jest wiele urządzeń, a sygnały wysyłane przez jedno
z nich mogą być odbierane przez pozostałe urządzenia
Magistrala składa się z wielu linii komunikacyjnych, którym
przypisane jest określone znaczenie i określona funkcja
Fizycznie magistrala jest zbiorem równoległych połączeń
elektrycznych
System komputerowy zawiera pewną liczbę różnych magistrali
najczęściej procesor bezpośrednio
odczytuje dane z pamięci i zapisuje
oraz komunikuje się z urządzeniami we-wy
D
Dane wew.
Moduł
we/wy
Dane wew.
26/46
Działanie komputera - struktura połączeń
dr inż. Jarosław Forenc
Magistrala łącząca główne zasoby komputera (procesor, pamięć,
wejście-wyjście) nazywana jest magistralą systemową
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
28/46
Działanie komputera - magistrala
Linie dzielą się na trzy grupy: linie danych, adresów i sterowania
Linie danych:
przenoszą dane między modułami systemu
wszystkie linie danych nazywane są szyną danych
liczba linii określa szerokość szyny danych (8, 16, 32, 64 bity)
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
29/46
Działanie komputera - magistrala
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
30/46
Działanie komputera - magistrala
Linie dzielą się na trzy grupy: linie danych, adresów i sterowania
Linie dzielą się na trzy grupy: linie danych, adresów i sterowania
Linie adresowe:
Linie sterowania:
służą do określania źródła i miejsca przeznaczenia danych
przesyłanych magistralą
liczba linii adresowych (szerokość szyny adresowej) określa
maksymalną możliwą pojemność pamięci systemu
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
31/46
Działanie komputera - struktury wielomagistralowe
W przypadku większej liczby urządzeń podłączonych do
magistrali znacząco spada jej wydajność
Rozwiązaniem tego
problemu są struktury
wielomagistralowe
o określonej hierarchii
służą do sterowania dostępem do linii danych i linii adresowych
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
32/46
Działanie komputera - typy magistral
ISA (ang. Industry Standard Architecture)
1981 rok
8-bitowa (XT) i 16-bitowa (AT) szyna danych
24-bitowa szyna adresowa
teoretyczna przepustowość: 8 MB/s (praktycznie: 1,6-1,8 MB/s)
PCI (ang. Peripheral Component Interconnect)
Wersja
Rok
Szyna danych
Przepustowość
PCI 2.0
1993
32-bitowa
133 MB/s
PCI 2.1
1994
64-bitowa
528 MB/s
PCI 2.2
1999
64-bitowa
528 MB/s
PCI 2.3
2002
64-bitowa
528 MB/s
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
33/46
Działanie komputera - typy magistral
2004 rok
magistrala lokalna typu szeregowego, łącząca dwa punkty
występuje w kilku wariantach: x1 (250 MB/s), x2 (500 MB/s),
x4 (1000 MB/s), x8 (2000 MB/s), x16 (4000 MB/s), x32
(8000 MB/s)
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
35/46
Systemy pamięci komputerowych
dr inż. Jarosław Forenc
34/46
Systemy pamięci komputerowych
PCI-Express (PCIe, PCI-E)
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
Ze względu na sposób dostępu do danych wyróżniamy:
Ze względu na położenie pamięci w stosunku do komputera
wyróżniamy pamięć:
procesora (rejestry)
wewnętrzną (pamięć główna)
zewnętrzną (pamięć pomocnicza - pamięci dyskowe i taśmowe)
Parametry charakteryzujące pamięć:
pojemność - maksymalna liczba informacji jaką można
przechowywać w danej pamięci
czas dostępu - czas niezbędny do zrealizowania operacji
odczytu lub zapisu
czas cyklu pamięci - czas dostępu plus dodatkowy czas, który musi
upłynąć zanim będzie mógł nastąpić kolejny dostęp
szybkość przesyłania (transferu) - maksymalna liczba danych jakie
można odczytać z pamięci lub zapisać do pamięci w jednostce czasu
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
36/46
Systemy pamięci komputerowych
Dostęp bezpośredni:
dostęp sekwencyjny (pamięci taśmowe)
odczyt i zapis realizowany jest za pomocą tego samego mechanizmu
dostęp bezpośredni (pamięci dyskowe)
dostęp swobodny (pamięć główna)
poszczególne bloki (rekordy) mają unikatowy adres oparty na
fizycznej lokacji
dostęp skojarzeniowy (pamięć podręczna)
dostęp jest realizowany przez bezpośredni dostęp do najbliższego
otoczenia, po którym następuje sekwencyjne poszukiwanie, liczenie
lub oczekiwanie w celu osiągnięcia lokacji finalnej
Dostęp sekwencyjny:
jednostka danych to rekord
dostęp do rekordów jest możliwy w określonej sekwencji liniowej
przejście z jednego rekordu do następnego następuje poprzez
przepuszczenie i odrzucenie rekordów pośrednich
czas dostępu do różnych rekordów może bardzo różnić się
Dostęp swobodny:
każda adresowalna lokacja w pamięci ma unikatowy fizycznie
wbudowany mechanizm adresowania
czas dostępu jest stały i niezależny od poprzednich operacji dostępu
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
37/46
Systemy pamięci komputerowych
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
38/46
Hierarchia pamięci
Dostęp skojarzeniowy:
każda lokacja ma własny mechanizm adresowania
Istnieją wzajemne zależności pomiędzy parametrami pamięci:
kosztem, pojemnością i czasem dostępu:
czas dostępu jest stały i niezależny od poprzednich operacji dostępu
słowa są wprowadzane na podstawie części swojej zawartości, a nie
na podstawie całego adresu
mniejszy czas dostępu - większy koszt na bit
większa pojemność - mniejszy koszt na bit
większa pojemność - dłuższy czas dostępu
W systemach komputerowych nie stosuje się jednego typu
pamięci, ale hierarchię pamięci
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
39/46
Półprzewodnikowa pamięć główna
RAM (Random Access Memory) - pamięć o dostępie swobodnym
Rozpatrując hierarchię od góry
do dołu obserwujemy zjawiska:
malejący koszt na bit
rosnącą pojemność
rosnący czas dostępu
malejącą częstotliwość dostępu
do pamięci przez procesor
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
Półprzewodnikowa pamięć główna
ROM (ang. Read-Only Memory) - pamięć stała
odczyt i zapis następuje za pomocą sygnałów elektrycznych
pamięć o dostępie swobodnym przeznaczona tylko do odczytu
pamięć ulotna - po odłączeniu zasilania dane są tracone
dane są zapisywane podczas procesu wytwarzania
DRAM:
pamięć nieulotna
przechowuje dane podobnie jak kondensator ładunek elektryczny
wymaga operacji odświeżania
PROM (ang. Programmable ROM) - programowalna pamięć ROM
jest mniejsza, gęściej upakowana i tańsza niż pamięć statyczna
pamięć nieulotna, może być zapisywana tylko jeden raz
stosowana jest do budowy głównej pamięci operacyjnej komputera
zapis jest realizowany elektrycznie po wyprodukowaniu
SRAM:
przechowuje dane za pomocą przerzutnikowych konfiguracji bramek
logicznych
nie wymaga operacji odświeżania
jest szybsza i droższa od pamięci dynamicznej
stosowana jest do budowy pamięci podręcznej
40/46
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
41/46
Półprzewodnikowa pamięć główna
EPROM - pamięć wielokrotnie programowalna, kasowanie następuje
przez naświetlanie promieniami UV
EEPROM - pamięć kasowana i programowana na drodze czysto
elektrycznej
Flash - rozwinięcie koncepcji pamięci EEPROM, możliwe kasowanie
i programowanie bez wymontowywania pamięci z urządzenia,
występuje w dwóch odmianach:
Zastosowanie pamięci podręcznej ma na celu przyspieszenie
dostępu procesora do pamięci głównej
W systemie komputerowym występuje względnie duża i wolniejsza
pamięć główna oraz mniejsza i szybsza pamięć podręczna
pamięć podręczna zawiera kopię części
zawartości pamięci głównej
przed odczytaniem słowa z pamięci
następuje sprawdzenie czy znajduje się
ono w pamięci podręcznej
jeśli tak, to jest przesyłane do procesora
jeśli nie, to blok pamięci głównej
(ustalona liczba słów) jest wczytywany
do pamięci podręcznej, a następnie słowo
jest przesyłane do procesora
NAND (pen drive, karty pamięci)
dr inż. Jarosław Forenc
43/46
Pamięć podręczna
42/46
NOR (Flash BIOS)
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
Pamięć podręczna
Inne typy pamięci:
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
Do pamięci podręcznej jest przesyłany cały blok, gdyż ze względu
na tzw. zjawisko lokalności odniesień, istnieje duże
prawdopodobieństwo, że przyszłe odniesienia będą dotyczyły
innych słów w tym samym bloku
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
44/46
Pamięć podręczna
Porównanie różnych typów pamięci
Level
Access Time
Typical Size
Technology
Managed By
Registers
1-3 ns
~1 KB
Custom CMOS
Compiler
Level 1 Cache
(on-chip)
2-8 ns
8 KB-128 KB
SRAM
Hardware
Level 2 Cache
(off-chip)
5-12 ns
0.5 MB - 8 MB
SRAM
Hardware
Main Memory
10-60 ns
64 MB - 1 GB
DRAM
Operating
System
Hard Disk
3,000,000 10,000,000 ns
20 - 100 GB
Magnetic
Operating
System/User
źródło: http://arstechnica.com/old/content/2002/07/caching.ars/2
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
Pamięć zewnętrzna
dr inż. Jarosław Forenc
45/46
Informatyka 1, studia stacjonarne I stopnia
Rok akademicki 2010/2011, Wykład nr 7
dr inż. Jarosław Forenc
Koniec wykładu nr 7
Do pamięci zewnętrznych zaliczane są:
dyski twarde - HDD
pamięci optyczne - CD, DVD
magnetyczne pamięci taśmowe
Budowa dysku twardego:
nośnik danych
część mechaniczna
kontroler
Dziękuję za uwagę!
46/46
Download