Kiến trúc máy tính và hợp ngữ - Bộ nhớ
Khi cần đọc 1 ô nhớ từ bộ nhớ:
– Kiểm tra xem có trong cache chưa?
• Nếu chưa có (cache miss): chép ô nhớ đó và 1 số ô nhớ lân
cận từ bộ nhớ chính vào cache
• Nếu đã có (cache hit): đọc từ cache, không cần truy xuất bộ
nhớ chính
• Cache là bản copy một phần của bộ nhớ chính
53 trang |
Chia sẻ: huyhoang44 | Lượt xem: 800 | Lượt tải: 0
Bạn đang xem trước 20 trang tài liệu Kiến trúc máy tính và hợp ngữ - Bộ nhớ, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
Môn học: Kiến trúc máy tính & Hợp ngữ
• Từ trái sang phải:
– Dung lượng tăng dần
– Tốc độ giảm dần
– Giá thành trên 1 bit giảm dần
2
Bộ nhớ trong
3
4
• Phương pháp truy cập
– Tuần tự (băng từ)
– Trực tiếp (các loại đĩa)
– Ngẫu nhiên (bộ nhớ bán dẫn như RAM, ROM)
– Liên kết (cache)
• Kiểu vật lý
– Bộ nhớ bán dẫn (cache, thanh ghi, RAM, ROM)
– Bộ nhớ từ (HDD, FDD)
– Bộ nhớ quang (CD-ROM, DVD)
5
• Một số bộ nhớ ngoài thông dụng:
– Băng từ (Magnetic tape)
– Đĩa từ (Magnetic disk)
– Đĩa quang (Optical disk)
– Flash disk
6
7
8
9
10
• Digital Video Disk: chỉ
dùng trên ổ đĩa xem
video
• Ghi 1 hoặc 2 mặt, mỗi
mặt có 1 (single layer)
hoặc 2 lớp (double
layer)
• Thông dụng: 4.7 GB/lớp
11
12
13
14
• Redundant Array of Inexpensive
(Independent) Disks
• Tập các đĩa cứng vật lý được OS xem như
1 ổ logic duy nhất có dung lượng lớn
• Dữ liệu được lưu trữ phân tán trên các ổ
đĩa vật lý truy cập song song (nhanh)
• Có thể sử dụng dung lượng dư thừa để lưu
trữ các thông tin kiểm tra chẵn lẻ, cho
phép khôi phục lại thông tin khi đĩa bị hỏng
an toàn thông tin
• Có 7 loại phổ biến (RAID 0 – 6)
15
16
17
18
19
• Bộ nhớ chính
– Tồn tại dưới dạng các module nhớ DRAM
(Dynamic Random Access Memory)
• Bộ nhớ đệm
– Tích hợp trên chip của CPU
– Sử dụng công nghệ lưu trữ SRAM (Static Random
Access Memory)
20
SRAM (Static RAM) DRAM (Dynamic RAM)
- Các bit được lưu trữ bằng các Flip-Flop
Thông tin ổn định
- Cấu trúc phức tạp
- Dung lượng chip nhỏ
- Tốc độ nhanh
- Đắt tiền
- Dùng làm bộ nhớ Cache
- Các bit được lưu trữ trên tụ điện Cần
phải có mạch refresh
- Cấu trúc đơn giản
- Dung lượng lớn
- Tốc độ chậm hơn
- Rẻ tiền hơn
- Dùng làm bộ nhớ chính
21
• Chứa các chương trình đang thực hiện và các dữ liệu
đang thao tác
• Tồn tại trên mọi hệ thống máy tính
• Bao gồm các ngăn nhớ được đánh địa chỉ trực tiếp
bởi CPU
• Dung lượng của bộ nhớ chính < Không gian địa chỉ
bộ nhớ mà CPU quản lý
• Sử dụng công nghệ lưu trữ DRAM
22
• SIMM (Single Inline Memory Module): Cũ, chậm
• DIMM (Dual Inline Memory Module): Phổ biến
• RIMM (Rhombus Inline Memory Module): Mới, nhanh nhất
23
• Là loại bộ nhớ trung gian giữa CPU và bộ nhớ chính, có
tác dụng làm giảm thời gian truy xuất bộ nhớ RAM
24
• Khi cần đọc 1 ô nhớ từ bộ nhớ:
– Kiểm tra xem có trong cache chưa?
• Nếu chưa có (cache miss): chép ô nhớ đó và 1 số ô nhớ lân
cận từ bộ nhớ chính vào cache
• Nếu đã có (cache hit): đọc từ cache, không cần truy xuất bộ
nhớ chính
• Cache là bản copy một phần của bộ nhớ chính
• Cache (dùng công nghệ SRAM) có tốc độ truy xuất
cao hơn so với bộ nhớ chính (dùng công nghệ DRAM)
25
• Temporal locality (Cục bộ về thời gian)
– Nếu một ô nhớ được dùng đến ở thời điểm hiện tại,
nó dễ có khả năng được dùng đến lần nữa trong
tương lai gần
• Spatial locality (Cục bộ về không gian)
– Nếu một ô nhớ được dùng đến ở thời điểm hiện tại,
những ô lân cận dễ có khả năng sắp được dùng đến
26
• Khi cần truy xuất 1 ô nhớ, làm sao biết ô
nhớ đó đã có trong cache hay chưa? Nếu
đã có thì ở chỗ nào trong cache?
• Những ô nhớ nào sẽ được lựa chọn để
đưa vào cache? Việc lựa chọn xảy ra khi
nào?
27
28
• Bộ nhớ chính có 2n byte nhớ, đánh số từ 0 2n – 1
• Bộ nhớ chính và Cache được chia thành thành các
khối có kích thước bằng nhau
– 1 Block của bộ nhớ chính = 1 Line của cache
• Một số Block của bộ nhớ chính được nạp vào các Line
của cache
• Nội dung Tag (thẻ nhớ) cho biết Block nào của bộ
nhớ chính hiện đang được chứa ở Line đó (chứ không
phải số thứ tự của Line đó trong Cache)
29
• Direct mapping (ánh xạ trực tiếp)
• Associative mapping (ánh xạ liên kết toàn phần)
• Set associative mapping (ánh xạ liên kết tập
hợp)
30
• Mỗi Block của BNC chỉ có thể được nạp vào 1 Line
của cache:
– B0 L0
– B1 L1
–
– Bm-1 Lm-1
– Bm L0
– Bm+1 L1
–
• Tổng quát:
– Bj chỉ có thể nạp vào Lj mod m
– m là số Line của cache
31
• Mỗi một địa chỉ X trong bộ nhớ chính gồm N
bit chia thành 3 trường:
– Trường Word gồm W bit xác định kích thước 1 từ
nhớ (ô) trong 1 Block = 1 Line:
Kích thước của Block / Line = 2W
– Trường Line gồm L bit xác định địa chỉ 1 Line trong
cache
Số Line trong cache = 2L
– Trường Tag gồm T bit
T = N – (W + L)
• Xác định X có nằm trong Cache không (cache
hit) hay vẫn đang nằm ở bộ nhớ chính (cache
miss)
32
• Không gian địa chỉ bộ nhớ chính = 4 GB
• Dung lượng cache = 256 KB
• Kích thước 1 Line = 1 Block = 32 byte
Xác định cụ thể số bit cho 3 trường địa
chỉ của X (W, L, T) nếu tổ chức theo kiểu
direct mapping
33
• Bộ nhớ chính = 4 GB = 232 byte N = 32 bit
• Cache = 256 KB = 218 byte
Ta có thể dùng 18 bit để đánh địa chỉ từng từ nhớ (ô) trong Cache
• Line (bao gồm nhiều từ nhớ) = 32 byte = 25 byte W = 5 bit
(Dùng 5 bit để đánh địa chỉ nội bộ các từ nhớ (ô) trong 1 Line)
Số Line trong cache = 218 / 25 = 213 Line
L = 13 bit (Dùng 13 bit để đánh địa chỉ từng Line trong Cache)
• Tag = T = N – (L + W) = 32 – (13 + 5) = 14 bit
34
• Ta có thể suy ra tổng số Block trong bộ nhớ chính
= Kích thước bộ nhớ chính / Kích thước 1 block
= 232 / 25 = 227
Dùng 27 bit để đánh địa chỉ 1 Block (= 14 + 13)
• Giả sử ta có Block thứ M (27 bit, giá trị từ 0 227 -
1) muốn lưu vào cache thì sẽ lưu ở:
– Line thứ: L = M % Số Line trong cache = M % 213 (13 bit)
– Tag tại Line đó: T = M / Số Line trong cache = M / 213 (14
bit)
35
36
• Bộ so sánh đơn giản
• Xác suất cache hit thấp
• Giả sử muốn truy xuất đồng thời từ nhớ (ô) X tại
Block thứ 0 và ô thứ Y tại Block thứ 2L thì sao?
(L: Tổng số Line trong Cache)
Bị xung đột thì cả 2 ô này đều sẽ được lưu ở Line
thứ 0
(0 % 2L = 2L % 2L = 0)
37
• Mỗi Block có thể nạp vào bất kỳ
Line nào của Cache
• Địa chỉ của bộ nhớ chính bao gồm
2 trường
– Trường Word giống như trường hợp
Direct Mapping
– Trường Tag dùng để xác định số
thứ tự Block của bộ nhớ chính
được lưu ở Cache
• Tag xác định Block nào trong bộ
nhớ chính đang nằm ở Line đó
38
• Không gian địa chỉ bộ nhớ chính = 4 GB
• Kích thước 1 Line = 1 Block = 32 byte
Xác định cụ thể số bit cho 2 trường địa
chỉ của X (W, T) nếu tổ chức theo kiểu
associative mapping
39
• Bộ nhớ chính = 4 GB = 232 byte N = 32
bit
• Line (bao gồm nhiều từ nhớ) = 32 byte = 25
byte W = 5 bit (Dùng 5 bit để đánh địa
chỉ nội bộ các từ nhớ (ô) trong 1 Line)
• Tag = T = N – W = 32 – 5 = 27 bit
40
• Ta có thể suy ra tổng số Block trong bộ nhớ chính
= Kích thước bộ nhớ chính / Kích thước 1 block
= 232 / 25 = 227
Dùng 27 bit để đánh địa chỉ 1 Block (= 14 + 13)
• Giả sử ta có Block thứ M (27 bit, giá trị từ 0 227
- 1) muốn lưu vào cache thì sẽ lưu ở bất kỳ Line
nào miễn sao có Tag tại Line đó là:
– T = M (27 bit)
41
42
• Để tìm ra Line chứa nội dung của 1 Block,
cần dò tìm và so sánh lần lượt với Tag của
tất cả các Line của Cache
Mất nhiều thời gian
• Xác suất cache hit cao
• Cần bộ so sánh phức tạp
43
• Cache được chia thành các Tập (Set)
• Mỗi một Set chứa 1 số Line (2,4,8,16 Line)
– Ví dụ: 4 Line / Set 4-way associative mapping
• Ánh xạ theo nguyên tắc sau:
– B0 S0
– B1 S1
– B2 S2
–
• Địa chỉ của bộ nhớ chính bao gồm 3 trường
– Trường Word xác định kích thước 1 Block (= 1 Line)
– Trường Set xác định thứ tự Set trong Cache
– Trường Tag dùng để xác định số thứ tự Block của bộ nhớ chính
được lưu ở Cache
44
• Không gian địa chỉ bộ nhớ chính = 4 GB
• Dung lượng cache = 256 KB
• Kích thước 1 Line = 1 Block = 32 byte
Xác định cụ thể số bit cho 3 trường địa
chỉ của X (W, S, T) nếu tổ chức theo kiểu
4-way associative mapping
45
• Bộ nhớ chính = 4 GB = 232 byte N = 32 bit
• Cache = 256 KB = 218 byte
Ta có thể dùng 18 bit để đánh địa chỉ từng từ nhớ (ô) trong Cache
• Line (bao gồm nhiều từ nhớ) = 32 byte = 25 byte W = 5 bit (Dùng 5 bit
để đánh địa chỉ nội bộ các từ nhớ (ô) trong 1 Line)
Số Line trong cache = 218 / 25 = 213 Line
L = 13 bit (Dùng 13 bit để đánh địa chỉ từng Line trong Cache)
• Một Set trong Cache có 4 Line = 22 Line
Số Set trong Cache = 213 / 22 = 211 Set S = 11 bit (Dùng 11 bit để địa
chỉ các Set trong Cache)
• Tag = T = N – (S+ W) = 32 – (11 + 5) = 16 bit
46
47
• Block size
– Nhỏ quá: giảm tính lân cận (spatial locality)
– Lớn quá: số lượng block trong cache ít, thời gian chuyển block
vào cache lâu (miss penalty)
• Cache size
– Nhỏ quá: số lượng Block có thể lưu trong cache quá ít, làm tăng
tỷ lệ cache miss
– Lớn quá: tỷ lệ giữa vùng nhớ thực sự cần thiết so với vùng nhớ
lưu vào cache sẽ thấp, nghĩa là overhead (tổng chi phí) sẽ cao,
tốc độ truy cập cache giảm
48
• Khi cần chuyển 1 Block mới vào trong Cache mà không tìm được
Line trống, vậy phải bỏ Line nào ra?
• Một số cách chọn:
– Random: Thay thế ngẫu nhiên
– FIFO (First In First Out): Thay thế Line nào nằm lâu nhất trong
Cache
– LFU (Least Frequently Used): Thay thế Line nào trong Cache có số
lần truy cập ít nhất trong cùng 1 khoảng thời gian
– LRU (Least Recently Used): Thay thế Line nào trong Cache có thời
gian lâu nhất không được tham chiếu đến
• Tối ưu nhất: LRU
49
• Nếu 1 Line bị thay đổi trong Cache, khi nào sẽ thực hiện thao tác
ghi lên lại RAM ?
– Write Through: ngay lập tức
– Write Back: khi Line này bị thay thế
• Nếu nhiều processor chia sẻ RAM, mỗi processor có cache riêng:
– Bus watching with WT: loại bỏ Line khi bị thay đổi trong 1 cache
khác
– Hardware transparency: tự động cập nhật các cache khác khi Line
bị 1 cache thay đổi
– Noncacheable shared memory: phần bộ nhớ dùng chung sẽ không
được đưa vào cache 50
• Có thể sử dụng nhiều mức cache (gọi là level):
L1, L2, L3
• Các cache ở mức thấp gọi có thể là on-chip, trong
khi cache mức cao thường là off-chip và được
truy cập thông qua external bus hoặc bus dành
riêng
• Cache có thể dùng chung cho cả data và
instruction hoặc riêng cho từng loại
51
• 80486: 8 KB cache L1 trên chip (on-chip)
• Pentium: có 2 cache L1 trên chip
– Cache lệnh: 8 KB
– Cache dữ liệu: 8 KB
• Pentium 4 (2000): có 2 level cache L1 và L2 trên chip
– Cache L1:
• 2 cache, mỗi cache 8 KB
• Kích thước Line = 64 byte
• 4-way associative mapping
– Cache L2:
• 256 KB
• Kích thước Line = 128 byte
• 8-way associative mapping
52
53
Các file đính kèm theo tài liệu này:
- ch08_bo_nho_5869.pdf