Kiến trúc máy tính và hợp ngữ - Bộ nhớ

Khi cần đọc 1 ô nhớ từ bộ nhớ: – Kiểm tra xem có trong cache chưa? • Nếu chưa có (cache miss): chép ô nhớ đó và 1 số ô nhớ lân cận từ bộ nhớ chính vào cache • Nếu đã có (cache hit): đọc từ cache, không cần truy xuất bộ nhớ chính • Cache là bản copy một phần của bộ nhớ chính

pdf53 trang | Chia sẻ: huyhoang44 | Lượt xem: 700 | Lượt tải: 0download
Bạn đang xem trước 20 trang tài liệu Kiến trúc máy tính và hợp ngữ - Bộ nhớ, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
Môn học: Kiến trúc máy tính & Hợp ngữ • Từ trái sang phải: – Dung lượng tăng dần – Tốc độ giảm dần – Giá thành trên 1 bit giảm dần 2 Bộ nhớ trong 3 4 • Phương pháp truy cập – Tuần tự (băng từ) – Trực tiếp (các loại đĩa) – Ngẫu nhiên (bộ nhớ bán dẫn như RAM, ROM) – Liên kết (cache) • Kiểu vật lý – Bộ nhớ bán dẫn (cache, thanh ghi, RAM, ROM) – Bộ nhớ từ (HDD, FDD) – Bộ nhớ quang (CD-ROM, DVD) 5 • Một số bộ nhớ ngoài thông dụng: – Băng từ (Magnetic tape) – Đĩa từ (Magnetic disk) – Đĩa quang (Optical disk) – Flash disk 6 7 8 9 10 • Digital Video Disk: chỉ dùng trên ổ đĩa xem video • Ghi 1 hoặc 2 mặt, mỗi mặt có 1 (single layer) hoặc 2 lớp (double layer) • Thông dụng: 4.7 GB/lớp 11 12 13 14 • Redundant Array of Inexpensive (Independent) Disks • Tập các đĩa cứng vật lý được OS xem như 1 ổ logic duy nhất có dung lượng lớn • Dữ liệu được lưu trữ phân tán trên các ổ đĩa vật lý  truy cập song song (nhanh) • Có thể sử dụng dung lượng dư thừa để lưu trữ các thông tin kiểm tra chẵn lẻ, cho phép khôi phục lại thông tin khi đĩa bị hỏng  an toàn thông tin • Có 7 loại phổ biến (RAID 0 – 6) 15 16 17 18 19 • Bộ nhớ chính – Tồn tại dưới dạng các module nhớ DRAM (Dynamic Random Access Memory) • Bộ nhớ đệm – Tích hợp trên chip của CPU – Sử dụng công nghệ lưu trữ SRAM (Static Random Access Memory) 20 SRAM (Static RAM) DRAM (Dynamic RAM) - Các bit được lưu trữ bằng các Flip-Flop  Thông tin ổn định - Cấu trúc phức tạp - Dung lượng chip nhỏ - Tốc độ nhanh - Đắt tiền - Dùng làm bộ nhớ Cache - Các bit được lưu trữ trên tụ điện Cần phải có mạch refresh - Cấu trúc đơn giản - Dung lượng lớn - Tốc độ chậm hơn - Rẻ tiền hơn - Dùng làm bộ nhớ chính 21 • Chứa các chương trình đang thực hiện và các dữ liệu đang thao tác • Tồn tại trên mọi hệ thống máy tính • Bao gồm các ngăn nhớ được đánh địa chỉ trực tiếp bởi CPU • Dung lượng của bộ nhớ chính < Không gian địa chỉ bộ nhớ mà CPU quản lý • Sử dụng công nghệ lưu trữ DRAM 22 • SIMM (Single Inline Memory Module): Cũ, chậm • DIMM (Dual Inline Memory Module): Phổ biến • RIMM (Rhombus Inline Memory Module): Mới, nhanh nhất 23 • Là loại bộ nhớ trung gian giữa CPU và bộ nhớ chính, có tác dụng làm giảm thời gian truy xuất bộ nhớ RAM 24 • Khi cần đọc 1 ô nhớ từ bộ nhớ: – Kiểm tra xem có trong cache chưa? • Nếu chưa có (cache miss): chép ô nhớ đó và 1 số ô nhớ lân cận từ bộ nhớ chính vào cache • Nếu đã có (cache hit): đọc từ cache, không cần truy xuất bộ nhớ chính • Cache là bản copy một phần của bộ nhớ chính • Cache (dùng công nghệ SRAM) có tốc độ truy xuất cao hơn so với bộ nhớ chính (dùng công nghệ DRAM) 25 • Temporal locality (Cục bộ về thời gian) – Nếu một ô nhớ được dùng đến ở thời điểm hiện tại, nó dễ có khả năng được dùng đến lần nữa trong tương lai gần • Spatial locality (Cục bộ về không gian) – Nếu một ô nhớ được dùng đến ở thời điểm hiện tại, những ô lân cận dễ có khả năng sắp được dùng đến 26 • Khi cần truy xuất 1 ô nhớ, làm sao biết ô nhớ đó đã có trong cache hay chưa? Nếu đã có thì ở chỗ nào trong cache? • Những ô nhớ nào sẽ được lựa chọn để đưa vào cache? Việc lựa chọn xảy ra khi nào? 27 28 • Bộ nhớ chính có 2n byte nhớ, đánh số từ 0  2n – 1 • Bộ nhớ chính và Cache được chia thành thành các khối có kích thước bằng nhau – 1 Block của bộ nhớ chính = 1 Line của cache • Một số Block của bộ nhớ chính được nạp vào các Line của cache • Nội dung Tag (thẻ nhớ) cho biết Block nào của bộ nhớ chính hiện đang được chứa ở Line đó (chứ không phải số thứ tự của Line đó trong Cache) 29 • Direct mapping (ánh xạ trực tiếp) • Associative mapping (ánh xạ liên kết toàn phần) • Set associative mapping (ánh xạ liên kết tập hợp) 30 • Mỗi Block của BNC chỉ có thể được nạp vào 1 Line của cache: – B0  L0 – B1  L1 – – Bm-1  Lm-1 – Bm  L0 – Bm+1  L1 – • Tổng quát: – Bj chỉ có thể nạp vào Lj mod m – m là số Line của cache 31 • Mỗi một địa chỉ X trong bộ nhớ chính gồm N bit chia thành 3 trường: – Trường Word gồm W bit xác định kích thước 1 từ nhớ (ô) trong 1 Block = 1 Line:  Kích thước của Block / Line = 2W – Trường Line gồm L bit xác định địa chỉ 1 Line trong cache  Số Line trong cache = 2L – Trường Tag gồm T bit  T = N – (W + L) • Xác định X có nằm trong Cache không (cache hit) hay vẫn đang nằm ở bộ nhớ chính (cache miss) 32 • Không gian địa chỉ bộ nhớ chính = 4 GB • Dung lượng cache = 256 KB • Kích thước 1 Line = 1 Block = 32 byte  Xác định cụ thể số bit cho 3 trường địa chỉ của X (W, L, T) nếu tổ chức theo kiểu direct mapping 33 • Bộ nhớ chính = 4 GB = 232 byte  N = 32 bit • Cache = 256 KB = 218 byte  Ta có thể dùng 18 bit để đánh địa chỉ từng từ nhớ (ô) trong Cache • Line (bao gồm nhiều từ nhớ) = 32 byte = 25 byte  W = 5 bit (Dùng 5 bit để đánh địa chỉ nội bộ các từ nhớ (ô) trong 1 Line)  Số Line trong cache = 218 / 25 = 213 Line  L = 13 bit (Dùng 13 bit để đánh địa chỉ từng Line trong Cache) • Tag = T = N – (L + W) = 32 – (13 + 5) = 14 bit 34 • Ta có thể suy ra tổng số Block trong bộ nhớ chính = Kích thước bộ nhớ chính / Kích thước 1 block = 232 / 25 = 227  Dùng 27 bit để đánh địa chỉ 1 Block (= 14 + 13) • Giả sử ta có Block thứ M (27 bit, giá trị từ 0  227 - 1) muốn lưu vào cache thì sẽ lưu ở: – Line thứ: L = M % Số Line trong cache = M % 213 (13 bit) – Tag tại Line đó: T = M / Số Line trong cache = M / 213 (14 bit) 35 36 • Bộ so sánh đơn giản • Xác suất cache hit thấp • Giả sử muốn truy xuất đồng thời từ nhớ (ô) X tại Block thứ 0 và ô thứ Y tại Block thứ 2L thì sao? (L: Tổng số Line trong Cache)  Bị xung đột thì cả 2 ô này đều sẽ được lưu ở Line thứ 0 (0 % 2L = 2L % 2L = 0) 37 • Mỗi Block có thể nạp vào bất kỳ Line nào của Cache • Địa chỉ của bộ nhớ chính bao gồm 2 trường – Trường Word giống như trường hợp Direct Mapping – Trường Tag dùng để xác định số thứ tự Block của bộ nhớ chính được lưu ở Cache • Tag xác định Block nào trong bộ nhớ chính đang nằm ở Line đó 38 • Không gian địa chỉ bộ nhớ chính = 4 GB • Kích thước 1 Line = 1 Block = 32 byte  Xác định cụ thể số bit cho 2 trường địa chỉ của X (W, T) nếu tổ chức theo kiểu associative mapping 39 • Bộ nhớ chính = 4 GB = 232 byte  N = 32 bit • Line (bao gồm nhiều từ nhớ) = 32 byte = 25 byte  W = 5 bit (Dùng 5 bit để đánh địa chỉ nội bộ các từ nhớ (ô) trong 1 Line) • Tag = T = N – W = 32 – 5 = 27 bit 40 • Ta có thể suy ra tổng số Block trong bộ nhớ chính = Kích thước bộ nhớ chính / Kích thước 1 block = 232 / 25 = 227  Dùng 27 bit để đánh địa chỉ 1 Block (= 14 + 13) • Giả sử ta có Block thứ M (27 bit, giá trị từ 0  227 - 1) muốn lưu vào cache thì sẽ lưu ở bất kỳ Line nào miễn sao có Tag tại Line đó là: – T = M (27 bit) 41 42 • Để tìm ra Line chứa nội dung của 1 Block, cần dò tìm và so sánh lần lượt với Tag của tất cả các Line của Cache  Mất nhiều thời gian • Xác suất cache hit cao • Cần bộ so sánh phức tạp 43 • Cache được chia thành các Tập (Set) • Mỗi một Set chứa 1 số Line (2,4,8,16 Line) – Ví dụ: 4 Line / Set  4-way associative mapping • Ánh xạ theo nguyên tắc sau: – B0  S0 – B1  S1 – B2  S2 – • Địa chỉ của bộ nhớ chính bao gồm 3 trường – Trường Word xác định kích thước 1 Block (= 1 Line) – Trường Set xác định thứ tự Set trong Cache – Trường Tag dùng để xác định số thứ tự Block của bộ nhớ chính được lưu ở Cache 44 • Không gian địa chỉ bộ nhớ chính = 4 GB • Dung lượng cache = 256 KB • Kích thước 1 Line = 1 Block = 32 byte  Xác định cụ thể số bit cho 3 trường địa chỉ của X (W, S, T) nếu tổ chức theo kiểu 4-way associative mapping 45 • Bộ nhớ chính = 4 GB = 232 byte  N = 32 bit • Cache = 256 KB = 218 byte  Ta có thể dùng 18 bit để đánh địa chỉ từng từ nhớ (ô) trong Cache • Line (bao gồm nhiều từ nhớ) = 32 byte = 25 byte  W = 5 bit (Dùng 5 bit để đánh địa chỉ nội bộ các từ nhớ (ô) trong 1 Line)  Số Line trong cache = 218 / 25 = 213 Line  L = 13 bit (Dùng 13 bit để đánh địa chỉ từng Line trong Cache) • Một Set trong Cache có 4 Line = 22 Line  Số Set trong Cache = 213 / 22 = 211 Set  S = 11 bit (Dùng 11 bit để địa chỉ các Set trong Cache) • Tag = T = N – (S+ W) = 32 – (11 + 5) = 16 bit 46 47 • Block size – Nhỏ quá: giảm tính lân cận (spatial locality) – Lớn quá: số lượng block trong cache ít, thời gian chuyển block vào cache lâu (miss penalty) • Cache size – Nhỏ quá: số lượng Block có thể lưu trong cache quá ít, làm tăng tỷ lệ cache miss – Lớn quá: tỷ lệ giữa vùng nhớ thực sự cần thiết so với vùng nhớ lưu vào cache sẽ thấp, nghĩa là overhead (tổng chi phí) sẽ cao, tốc độ truy cập cache giảm 48 • Khi cần chuyển 1 Block mới vào trong Cache mà không tìm được Line trống, vậy phải bỏ Line nào ra? • Một số cách chọn: – Random: Thay thế ngẫu nhiên – FIFO (First In First Out): Thay thế Line nào nằm lâu nhất trong Cache – LFU (Least Frequently Used): Thay thế Line nào trong Cache có số lần truy cập ít nhất trong cùng 1 khoảng thời gian – LRU (Least Recently Used): Thay thế Line nào trong Cache có thời gian lâu nhất không được tham chiếu đến • Tối ưu nhất: LRU 49 • Nếu 1 Line bị thay đổi trong Cache, khi nào sẽ thực hiện thao tác ghi lên lại RAM ? – Write Through: ngay lập tức – Write Back: khi Line này bị thay thế • Nếu nhiều processor chia sẻ RAM, mỗi processor có cache riêng: – Bus watching with WT: loại bỏ Line khi bị thay đổi trong 1 cache khác – Hardware transparency: tự động cập nhật các cache khác khi Line bị 1 cache thay đổi – Noncacheable shared memory: phần bộ nhớ dùng chung sẽ không được đưa vào cache 50 • Có thể sử dụng nhiều mức cache (gọi là level): L1, L2, L3 • Các cache ở mức thấp gọi có thể là on-chip, trong khi cache mức cao thường là off-chip và được truy cập thông qua external bus hoặc bus dành riêng • Cache có thể dùng chung cho cả data và instruction hoặc riêng cho từng loại 51 • 80486: 8 KB cache L1 trên chip (on-chip) • Pentium: có 2 cache L1 trên chip – Cache lệnh: 8 KB – Cache dữ liệu: 8 KB • Pentium 4 (2000): có 2 level cache L1 và L2 trên chip – Cache L1: • 2 cache, mỗi cache 8 KB • Kích thước Line = 64 byte • 4-way associative mapping – Cache L2: • 256 KB • Kích thước Line = 128 byte • 8-way associative mapping 52 53

Các file đính kèm theo tài liệu này:

  • pdfch08_bo_nho_5869.pdf