Tải bản đầy đủ (.docx) (20 trang)

Tài liệu phần cứng máy tính

Bạn đang xem bản rút gọn của tài liệu. Xem và tải ngay bản đầy đủ của tài liệu tại đây (361.11 KB, 20 trang )

Nguyen Tien Long

NHÓM X :
1. Nguyễn Tiến Long
2. Đinh Quang Sáng
3. Dương Mai Hương
4. Trần Tiến Mạnh
5. Phạm Tiến Dự
6. Phạm Huy Hùng

ĐHKHTN - ĐHQGHN

I.

Cách làm việc

Một máy tính sẽ hồn tồn vơ dụng nếu bạn khơng bắt bộ vi
xử lý (CPU) thực hiện một nhiệm vụ nào đó. Cơng việc sẽ
được thực hiện thơng qua một chương trình, chương trình
này lại gồm rất nhiều các chỉ lệnh để ra lệnh cho CPU làm
việc.
CPU lấy các chương trình từ bộ nhớ RAM. Tuy nhiên có một vấn đề với
bộ nhớ RAM đó là khi nguồn ni của nó bị cắt thì các thành phần dữ
liệu được lưu trong RAM cũng sẽ bị mất – chính điều này nên một số
người nói rằng bộ nhớ RAM là một mơi trường “dễ bay hơi”. Các
chương trình và dữ liệu như vậy phải được lưu trên môi trường không
“dễ bay hơi” sau khi tắt máy tính (giống như các ổ đĩa cứng hay các thiết
bị quang như đĩa CD và DVD).
Khi kích đúp vào một biểu tượng trong Windows để chạy một chương
trình nào đó. Các chương trình thơng thường được lưu trên ổ đĩa cứng
của máy tính, khi được gọi nó sẽ được nạp vào bộ nhớ RAM sau đó từ


Hanoi university of science 2008 -2012

Page 1


Nguyen Tien Long
bộ nhớ RAM, CPU nạp chương trình thơng qua một mạch có tên gọi là
memory controller, thành phần này được đặt bên trong chipset (north
bridge chip- chíp cực bắc) trên các bộ vi xử lý Intel hoặc bên trong CPU
trên các bộ vi xử lý AMD.
CPU không thể tìm nạp dữ liệu trực tiếp từ các ổ đĩa cứng vì tốc độ truy
suất dữ liệu của ổ đĩa cứng là q thấp với nó, thậm chí nếu nếu bạn có
cả ổ đĩa cứng với tốc độ truy suất lớn nhất. Hãy lấy một số ví dụ làm dẫn
chứng cho điều này, ổ cứng SATA-300 – một loại ổ đĩa cứng có tốc độ
nhanh nhất hiện đang được cung cấp ngày nay đến phần lớn người dùng
– có tốc độ truyền tải theo lý thuyết là 300 MB/s. Một CPU chạy với tốc
độ 2GHz với đường dữ liệu* 64-bit sẽ truyền tải dữ liệu bên trong với
tốc độ 16GB/s – như vậy là lớn gấp 50 lần.
- Đường dữ liệu: Các đường giữa các mạch bên trong CPU. Chỉ cần một
phép tốn đơn giản bạn cũng có thể biết được rằng mỗi CPU có một số
đường dữ liệu khác nhau bên trong, mỗi một đường trong chúng lại có
chiều dài khác nhau. Ví dụ với các bộ vi xử lý AMD thì đường dữ liệu
giữa L2 memory cache và L1 memory cache có độ rộng 128-bit, trong
khi đó của Intel là 256-bit. Đây chỉ là giải thích con số mà chúng tôi đã
công bố trong đoạn trên không cố định, nhưng dẫu sao CPU luôn nhanh
hơn rất nhiều so với các ổ đĩa cứng.
Sự khác nhau trong tốc độ cũng bắt nguồn từ một thực tế đó là các ổ đĩa
cứng cịn bao gồm cả hệ thống cơ khí, các hệ thống cơ khí này bao giờ
cũng chậm hơn hệ thống điện tử thuần túy, các thành phần cơ khí phải
chuyển động để dữ liệu mới có thể được đọc ra (điều này chậm hơn rất

nhiều so với việc chuyển động của điện tử). Hay nói cách khác, bộ nhớ
RAM là 100% điện tử, có nghĩa là nó sẽ nhanh hơn tốc độ của ổ đĩa
cứng và quang.
Tuy nhiên đây chính là vấn đề, thậm chí bộ nhớ RAM nhanh nhất cũng
không nhanh bằng CPU. Nếu bạn sử dụng các bộ nhớ DDR2-800, chúng
truyền tải dữ liệu ở tốc độ 6.400 MB/s – 12.800 MB/s nếu sử dụng chế
độ hai kênh. Thậm chí con số này cịn có thể lên đến 16GB/s trong ví dụ
Hanoi university of science 2008 -2012

Page 2


Nguyen Tien Long
trước, vì các CPU hiện nay cịn có thể tìm nạp dữ liệu từ L2 memory
cache ở tốc độ 128- bit hay 256-bit, chúng ta đang nói về 32 GB/s hoặc
64 GB/s nếu CPU làm việc bên trong với tốc độ 2GHz. Bạn không nên
lo lắng về những vấn đề với “L2 memory cache”, chúng tôi sẽ giải thích
vấn đề này sau. Tất cả những gì bạn cần nhớ là bộ nhớ RAM chậm
hơn CPU.
Bằng cách đó, tốc độ truyền tải có thể được tính bằng sử dụng cơng thưc
dưới đây (trong tất cả các ví dụ từ đầu tới giờ, “dữ liệu trên một clock”
vẫn được tính bằng “1”):
[Tốc độ truyền tải] = [Độ rộng (số lượng bít)] x [tốc độ clock] x [dữ liệu
trên một clock] / 8
Vấn đề không chỉ dừng lại ở tốc độ truyền tải mà còn cả độ trễ. Độ trễ
(thời gian truy cập) là lựợng thời gian mà bộ nhớ giữ chậm trong việc
chuyển ngược trở lại dữ liệu mà CPU đã u cầu trước đó – điều này
khơng thể thực hiện được ngay lập tức. Khi CPU yêu cầu chỉ lệnh
(hoặc dữ liệu) được lưu tại một địa chỉ nào đó thì bộ nhớ sẽ giữ chậm
một khoảng thời gian để phân phối lệnh này (hoặc dữ liệu) trở ngược

lại. Trên các bộ nhớ hiện nay, nếu nó được dán nhãn có CL bằng 5 (CAS
Latency, đây chính là độ trễ mà chúng ta đang nói đến) thì điều đó có
nghĩa rằng bộ nhớ sẽ cung cấp dữ liệu đã được yêu cầu sau 5 chu kỳ
clock nhớ - nghĩa là CPU sẽ phải chờ đợi.
Việc chờ đợi sẽ làm giảm hiệu suất của CPU. Nếu CPU phải đợi đến 5
chu kỳ clock để nhận được chỉ lệnh hoặc dữ liệu mà nó đã u cầu thì
hiệu suất của nó sẽ chỉ còn 1/5 so với hiệu suất sử dụng bộ nhớ có khả
năng cung cấp dữ liệu tức thời. Nói theo cách khác, khi truy cập bộ nhớ
DDR2-800 với CL5 thì hiệu suất của CPU bằng với hiệu suất của CPU
làm việc với bộ nhớ 160 MHz (800 MHz / 5) với khả năng cung cấp dữ
liệu tức thời. Trong thế giới thực, việc giảm hiệu suất không nhiều vì các
bộ nhớ làm việc dưới chế độ có tên gọi là chế độ truyền loạt (burst
mode), ở nơi mà dữ liệu được tập trung lần thứ hai có thể được cung cấp
một cách ngay lập tức, nếu dữ liệu này được lưu trên một địa chỉ nối tiếp
Hanoi university of science 2008 -2012

Page 3


Nguyen Tien Long
nhau (thường thì chỉ lệnh của chương trình nào đó được lưu trong các
địa chỉ liên tục). Điều này được diễn tả bằng cơng thức “x-1-1-1” (có
nghĩa “5-1-1-1” là cho bộ nhớ dùng trong ví dụ của chúng ta), có nghĩa
là dữ liệu đầu tiên được cung cấp sau 5 chu kỳ xung clock, nhưng từ dữ
liệu thứ hai trở đi thì chúng được cung cấp chỉ trong một chu kỳ clock –
nếu nó được lưu trên địa chỉ liên tiếp giống như những gì chúng ta đã
nói.
RAM động và Ram tĩnh
Có hai kiểu bộ nhớ RAM đó là RAM động (DRAM) và RAM tĩnh
(SRAM). Bộ nhớ RAM đã sử dụng trên các máy tính là loại RAM

động. Kiểu RAM này, mỗi bit dữ liệu được lưu bên trong chip nhớ
bằng một tụ điện nhỏ, các tụ điện này là thành phần rất nhỏ, nghĩa là có
đến hàng triệu tụ điện trên một vùng diện tích mạch điện nhỏ, điều này
vẫn được người ta gọi là “mật độ cao”. Các tụ điện này có thể bị mất
điện áp tích tụ sau một thời gian, chính vì vậy các bộ nhớ động cần phải
có q trình nạp lại, q trình này vẫn thường được chúng ta gọi là “làm
tươi” (refresh). Trong suốt chu kỳ này dữ liệu không thể được đọc ra
hoặc được ghi vào. Bộ nhớ động rẻ hơn so với bộ nhớ tĩnh và cũng tiêu
thụ ít năng lượng hơn bộ nhớ tĩnh. Tuy nhiên như chúng ta đã biết, trên
RAM động, dữ liệu không được cung cấp một cách sẵn sàng và nó có
thể khơng làm việc nhanh bằng CPU.
Với bộ nhớ tĩnh, đây là kiểu bộ nhớ có thể làm việc nhanh bằng CPU,
vì mỗi bit dữ liệu đều được lưu trên một mạch có tên gọi flip-flop (FF), mỗi một F-F này lại có thể cung cấp dữ liệu với độ trễ rất nhỏ, vì các
F-F khơng u cầu đến chu trình làm tươi. Vấn đề ở đây là các F-F này
lại yêu cầu một số transistor, có kích thước to hơn so với một tụ điện
trên RAM động. Điều này có nghĩa là trên cùng một diện tích giống
nhau, nơi mà ở bộ nhớ tĩnh chỉ có một F-F tồn tại thì trên bộ nhớ động
sẽ có đến hàng trăm tụ điện. Chính vì vậy các bộ nhớ tĩnh thường có
mật độ thấp hơn – các chíp có dung lượng thấp hơn. Hai vấn đề khác
với bộ nhớ tĩnh nữa là: nó thường đắt hơn nhiều và tiêu tốn nhiều
năng lượng hơn (do đó nóng hơn) so với bộ nhớ tĩnh.
Hanoi university of science 2008 -2012

Page 4


Nguyen Tien Long
Mặc dù Ram tĩnh có tốc độ nhanh hơn RAM động nhưng những nhược
điểm của nó vẫn ngăn cản nó trở thành RAM chính.


Giải pháp đã tìm thấy để giảm sự ảnh hưởng trong việc sử
dụng bộ nhớ RAM chậm hơn CPU là sử dụng một số lượng
nhỏ các RAM tĩnh giữa CPU và bộ nhớ RAM. Công nghệ
này được gọi là bộ nhớ Cache và ngày nay có một số lượng
nhỏ bộ nhớ tĩnh này được đặt bên trong CPU.
Bộ nhớ Cache copy hầu hết các dữ liệu đã được truy cập gần đây từ
bộ nhớ RAM vào bộ nhớ tĩnh và đốn dữ liệu gì CPU sẽ hỏi tiếp theo,
tải chúng đến bộ nhớ tĩnh trước khi CPU yêu cầu thực sự. Mục đích là
làm cho CPU có thể truy cập vào bộ nhớ Cache thay vì truy cập trực tiếp
vào bộ nhớ RAM, vì nó có thể truy vấn dữ liệu từ bộ nhớ Cache một
cách tức thời hoặc cũng hầu như ngay lập tức thay vì phải đợi khi truy
cập vào dữ liệu được đặt trong RAM. CPU càng truy cập vào Cache nhớ
thay cho RAM nhiều hơn thì hệ thống sẽ càng hoạt động nhanh hơn.
Cũng theo đó, chúng ta sẽ sử dụng hoán đổi hai thuật ngữ “dữ liệu” và
“chỉ lệnh” cho nhau vì những gì được lưu bên trong mỗi địa chỉ nhớ
khơng có gì khác biệt đối với bộ nhớ.
Khối tìm nạp của CPU sẽ tìm kiếm chỉ lệnh kế tiếp để được thực thi
trong Cache chỉ lệnh L1. Nếu khơng có ở đó thì nó sẽ tìm kiếm trên
Cache L2. Sau khi đó nếu cũng khơng có thì nó sẽ phải truy cập vào bộ
nhớ RAM để nạp chỉ lệnh.
Chúng tôi gọi là một “hit” khi CPU nạp một chỉ lệnh đã được yêu cầu
hoặc dữ liệu từ Cache, và gọi là một “miss” nếu chỉ lệnh hoặc dữ liệu
được u cầu khơng có ở đó và CPU cần phải truy cập trực tiếp vào bộ
nhớ RAM để lấy dữ liệu này.
Rõ ràng khi bạn mới bật máy tính thì Cache là hồn tồn trống rỗng, vì
vậy hệ thống sẽ phải truy cập vào bộ nhớ RAM – đây là một miss đối
Hanoi university of science 2008 -2012

Page 5



Nguyen Tien Long
với Cache không thể tránh. Tuy nhiên sau khi chỉ lệnh đầu tiên được
nạp, thì quá trình này sẽ bắt đầu.
Khi CPU nạp một chỉ lệnh từ một vị trí nhớ nào đó thì mạch đã gọi bộ
điều khiển Cache nhớ sẽ nạp vào trong Cache nhớ một khối dữ liệu nhỏ
bên dưới vị trí hiện hành mà CPU vừa mới nạp. Do các chương trình
thường được thực hiện theo cách tuần tự nên vị trí nhớ tiếp theo mà CPU
sẽ u cầu có thể là vị trí ngay bên dưới vị trí nhớ mà nó vừa nạp. Cũng
do bộ điều khiển Cache nhớ đã nạp một số dữ liệu bên dưới vị trí đầu
tiên được đọc bởi CPU rồi nên dữ liệu kế tiếp sẽ có thể nằm ở bên trong
Cache nhớ, chính vì vậy CPU khơng cần phải truy cập vào RAM để lấy
dữ liệu trong đó: nó đã được nạp vào bên trong Cache nhớ nhúng trong
CPU, điều này làm cho nó có thể truy cập với tốc độ clock bên trong.
Lượng dữ liệu này được gọi là dịng và nó thường có chiều dài 64 byte.
Bên cạnh việc nạp một số lượng nhỏ dữ liệu này, bộ điều khiển nhớ cũng
ln tìm cách đốn xem những gì CPU sẽ yêu cầu tiếp theo. Một mạch
có tên gọi là mạch tìm nạp trước, sẽ nạp nhiều dữ liệu được đặt sau 64
byte đầu tiên hơn từ RAM vào Cache nhớ. Nếu chương trình tiếp tục
nạp chỉ lệnh và dữ liệu từ các vị trí nhớ theo cách tuần tự như vậy thì các
chỉ lệnh và dữ liệu mà CPU sẽ hỏi tiếp theo đã được nạp vào trong
Cache nhớ từ trước rồi.
Chúng ta có thể tóm tắt cách Cache nhớ làm việc như sau:
1. CPU yêu cầu chỉ lệnh hoặc dữ liệu đã được lưu tại địa chỉ “a”.
2. Do nội dung từ địa chỉ “a” khơng có bên trong Cache nhớ nên CPU
phải tìm nạp nó trực tiếp từ RAM.
3. Bộ điều khiển Cache sẽ nạp một dòng (thường là 64 byte) bắt đầu từ
địa chỉ “a” vào Cache nhớ. Nó sẽ nạp nhiều hơn dữ lượng dữ liệu mà
CPU u cầu, chính vì vậy nếu chương trình tiếp tục chạy tuần tự (nghĩa
là yêu cầu địa chỉ a +1) thì chỉ lệnh hoặc dữ liệu kế tiếp mà CPU sẽ hỏi

Hanoi university of science 2008 -2012

Page 6


Nguyen Tien Long
đã được nạp trong Cache nhớ từ trước đó rồi.
4. Mạch có tên gọi là tìm nạp trước sẽ nạp nhiều dữ liệu được đặt sau
dịng này, có nghĩa là bắt đầu việc nạp các nội dung từ địa chỉ a + 64
trở đi vào Cache. Để cho bạn một ví dụ thực tế là các CPU của
Pentium 4 có bộ tìm nạp trước 256-byte, chính vì vậy nó có thể nạp
được 256byte kế tiếp sau dịng dữ liệu đã được nạp vào trong Cache.
Nếu chương trình chạy một cách tuần tự thì CPU sẽ khơng cần phải
tìm nạp dữ liệu bằng cách truy cập trực tiếp vào bộ nhớ RAM, ngoại
trừ nạp mỗi chỉ lệnh đầu tiên – vì các chỉ lệnh và dữ liệu được yêu
cầu bởi CPU sẽ luôn nằm bên trong Cache nhớ trước khi CPU u
cầu đến chúng.
Mặc dù các chương trình khơng chạy ln giống như vậy, đơi khi chúng
có thể nhảy từ một vị trí nhớ này sang vị trí nhớ khác. Thách thức
chính của bộ điều khiển Cache chính là việc đốn những địa chỉ gì
mà CPU sẽ nhảy đến, và từ đó nạp những nội dung của địa chỉ này
vào trong Cache nhớ trước khi CPU yêu cầu để tránh trường hợp
CPU phải truy cập vào bộ nhớ RAM là giảm hiệu suất của hệ thống.
Nhiệm vụ này được gọi là dự đoán rẽ nhánh và tất cả các CPU hiện đại
đều có tính năng này.
Các CPU hiện đại có tốc độ hit ít nhất cũng là 80%, nghĩa là 80% của
thời gian CPU không truy cập trực tiếp vào bộ nhớ RAM, mà thay vào
đó là Cache nhớ.

II. Tổ chức Cache nhớ

Cache nhớ được chia thành các dòng bên trong, mỗi một dòng dữ từ 16
đến 128byte, phụ thuộc vào CPU. Đối với đại đa số các CPU hiện hành
thì Cache nhớ được tổ chức theo các dịng 64byte (512bit), chính vì
vậy chúng tơi sẽ xem xét đến Cache nhớ đang sử dụng dịng 64byte
trong các ví dụ xuyên suốt từ đầu hướng dẫn này. Phần dưới chúng tơi sẽ
trình bày các chi tiết kỹ thuật chính của Cache nhớ cho tất cả các CPU
Hanoi university of science 2008 -2012

Page 7


Nguyen Tien Long
hiện đang có trên thị trường.
Cache nhớ 512 KB L2 được chia thành 8.192 dòng. Bạn nên lưu ý rằng
1KB là 2^10 hay 1.024 byte chứ không phải là 1.000byte, chính vì vậy
524.288 / 64 = 8.192. Chúng ta sẽ xem xét đến CPU một lõi có Cache
nhớ 512 KB L2 trong các ví dụ. Trên hình 5 chúng tôi mô phỏng cách tổ
chức bên trong của Cache nhớ này.

Hình 5: Cách tổ chức Cache nhớ L2 512 KB
Cache nhớ có thể làm việc dưới ba kiểu cấu hình khác nhau: bản đồ hóa
trực tiếp, liên kết tồn bộ và tập liên kết (theo nhiều dịng).
Bản đồ hóa trực tiếp
Bản đồ hóa trực tiếp là cách đơn giản nhất để tạo một Cache nhớ. Trong
cấu hình này, bộ nhớ RAM chính được chia thành các dịng bằng nhau
nằm bên trong Cache nhớ. Nếu chúng ta có một hệ thống 1GB RAM thì
1GB này sẽ được chia thành 8.192 khối (giả dụ rằng Cache nhớ sử dụng
cấu hình mà chúng ta đã mô tả ở trên), mỗi một khối có 128KB
(1.073.741.824 / 8.192 = 131.072 – lưu ý rằng 1GB là 2^30 bytes, 1 MB
là 2^20 byte và 1 KB sẽ là 2^10 byte). Nếu hệ thống của bạn có 512MB

thì bộ nhớ cũng sẽ được chia thành 8.192 khối nhưng mỗi một khối này
chỉ có 64 KB. Chúng tơi có minh chứng cách tổ chức này trong hình 6
bên dưới.
Hanoi university of science 2008 -2012

Page 8


Nguyen Tien Long

Hình 6: Cách bản đồ hóa trực tiếp các làm việc của Cache
Ưu điển của phương pháp bản đồ hóa trực tiếp là nó là cách đơn giản
nhất.
Khi CPU yêu cầu một địa chỉ nào đó từ bộ nhớ RAM (ví dụ địa chỉ
1.000) thì bộ điều khiển Cache sẽ nạp một dòng (64byte) từ bộ nhớ
RAM và lưu dòng này trên Cache nhớ (nghĩa là từ địa chỉ 1.000 đến
1.063, giả dụ rằng chúng ta đang sử dụng lược đồ địa chỉ 8 bit). Vì vậy
nếu CPU lại yêu cầu các nội dung của địa chỉ này hoặc của một số địa
chỉ tiếp theo sau đó (nghĩa là các địa chỉ từ 1.000 đến 1.063) thì chúng
sẽ được nằm sẵn bên trong Cache.
Hanoi university of science 2008 -2012

Page 9


Nguyen Tien Long

Vấn đề ở đây là nếu CPU cần đến hai địa chỉ được bản đồ hóa đến cùng
một dịng Cache giống nhau, thì lúc này một miss sẽ xuất hiện (vấn đề
này được gọi là hiện tượng xung đột). Tiếp tục ví dụ của chúng ta, nếu

CPU yêu cầu địa chỉ 1.000 và sau đó yêu cầu địa chỉ 2.000 thì một miss
cũng sẽ xuất hiện vì hai địa chỉ này đều nằm trong cùng một khối
128KB, và những gì bên trong Cache là một dịng bắt đầu từ địa chỉ
1.000. Chính vì vậy bộ điều khiển Cache sẽ nạp một dịng từ địa chỉ
2.000 và lưu nó trên dịng đầu tiên của Cache nhớ, xóa các nội dung
trước đó, trong trường hợp của chúng ta thì đó là dòng từ địa chỉ 1.000.
Cũng một vấn đề nữa. Nếu chương trình có một vịng lặp nhiều hơn 64
bytes thì lúc này cũng có một miss xuất nhiện trong tồn bộ khoảng thời
gian của vịng lặp.
Ví dụ, nếu vịng lặp thực hiện từ địa chỉ 1.000 đến địa chỉ 1.100 thì CPU
sẽ phải nạp tất cả các chỉ lệnh trực tiếp từ bộ nhớ RAM trong suốt
khoảng thời gian của vịng lặp. Vấn đề này sẽ xảy ra vì Cache sẽ có nội
dung từ các địa chỉ 1.000 đến 1.063 và khi CPU yêu cầu các nội dung từ
địa chỉ 1.100 thì nó sẽ phải vào bộ nhớ RAM để lấy dữ liệu, và sau đó
bộ điều khiển Cache sẽ nạp các địa chỉ từ 1.100 đến 1.163. Khi CPU u
cầu lại địa chỉ 1.000 thì nó sẽ phải quay trở lại bộ nhớ RAM, vì lúc này
Cache sẽ khơng có các thành phần dữ liệu từ địa chỉ 1.000. Nếu vịng lặp
này được thực thi 1.000 lần thì CPU sẽ phải vào bộ nhớ RAM để nạp dữ
liệu cũng 1.000 lần.
Đó chính là lý do tại sao việc bản đồ hóa trực tiếp Cache nhớ lại ít hiệu
quả và ít được sử dụng nữa.
Sự liên kết tồn bộ
Hanoi university of science 2008 -2012

Page 10


Nguyen Tien Long

Cấu hình liên kết tồn bộ, hay nói theo cách khác là khơng có sự khó

khăn trong việc liên kết giữa các dòng của Cache nhớ và vị trí của bộ
nhớ RAM. Bộ điều khiển Cache có thể lưu bất kỳ địa chỉ nào. Như vậy
các vấn đề đã được nói ở trên sẽ khơng xảy ra. Cấu hình này là cấu hình
hiệu quả nhất (nghĩa là cấu hình có tốc độ hit cao nhất).
Nói theo cách khác, mạch điều khiển sẽ phức tạp hơn nhiều, vì nó cần
phải giữ được việc kiểm tra xem các vị trí nhớ nào được nạp bên trong
Cache nhớ. Điều này là lý do cho ra đời một giải pháp lai – có tên gọi là
tập liên kết – được sử dụng rộng rãi ngày nay
Bộ nhớ Cache là kiểu bộ nhớ tốc độ cao có bên trong CPU để tăng tốc
độ truy cập cho dữ liệu và các chỉ lệnh được lưu trong bộ nhớ RAM.
III. Cấu trúc Cache

Các Cache có hai đặc trưng quan trọng là cấu trúc đọc (Read
architecture) và cách ghi (Write policy). Cấu trúc đọc có thể là “Look
Aside” hoặc “Look Through”. Cách ghi có thể là “Write-Back” hoặc
“Write-Through”. Cả hai loại cấu trúc đọc có thể sử dụng cùng một
trong hai cách ghi tùy vào thiết kế.
A. Cấu trúc đọc :
3.1 Cấu trúc đọc “Look Aside”

Hanoi university of science 2008 -2012

Page 11


Nguyen Tien Long

Hình 2 Cấu trúc đọc Look Aside
Trong cấu trúc này, bộ nhớ chính có vị trí đối diện với giao diện hệ
thống. Đặc điểm dễ nhận thấy của đơn vị cache (SRAM) này là nó nằm

song song với bộ nhớ chính. Điều quan trọng cần chú ý là cả bộ nhớ
chính và bộ nhớ cache đều nhìn thấy một chu kỳ bus trong cùng một thời
điểm. vì vậy mới có tên “Look Aside”, tạm dịch là "nhìn một bên."
- Cấu trúc này không phân cách bus của CPU với bus hệ thống.
- Khi CPU bắt đầu 1 chu kỳ bus thì tất cả thiết bị trong hệ thống đều
cảm nhận được giống như khi khơng có cache. Riêng bộ phận điều khiển
giám sát các yêu cầu của CPU và xem cache có chứa 1 bản sao của
thơng tin đang cần không?
Bộ phận điều khiển cache kết thúc chu kỳ bus nếu tác vụ là trúng tủ à
thông báo cho bộ nhớ chính, bỏ qua u cầu vì đã tìm thấy thơng tin
trong cache rồi.
Cịn nếu tác vụ là miss à thì chu kỳ bus hồn thành theo bình thường
từ bộ nhớ chính.
Hanoi university of science 2008 -2012

Page 12


Nguyen Tien Long

CPU

CACHE

Bus Master 1
Main Memory

Bus Master 2

Bus Master 3


Ưu điểm của Cache look - aside:
- Ít tốn thời gian trong các chu kỳ cache miss so với cấu trúc look through do bus hệ thống được nối thẳng với Cache và bộ nhớ chính.
- Thiết kế đơn giản ( trong khi đó thiết kế look - through phải giao diện
với cả bus của CPU và bus hệ thống).
- Do đơn giản à giá thành cài đặt thấp.
- Tốc độ cao trong chương trình ứng dụng chạy độc lập (Stand alone).

Nhược điểm:

Hanoi university of science 2008 -2012

Page 13


Nguyen Tien Long
- Việc sử dụng bus hệ thống không được giảm nhẹ đi (Vì mỗi truy xuất
dẫn đến cả cache và bộ nhớ chính).
- Tất cả các yêu cầu dù là hít hay miss đều gây ra sự khởi đầu của 1
chu kỳ làm việc trong bộ nhớ chính à tức là khởi đầu 1 chu kỳ nạp điện
lại (Precharge) à Điều này ngăn cản không cho các thiết bị khác truy
xuất bộ nhớ chính cho tới khi thời gian nạp lại đã quá hạn.
- Các thao tác đồng thời khơng thể xảy ra vì tất cả các bộ phận điều
khiển bus chỉ nằm trên cùng 1 bus.
- Không thích hợp cho máy quản gia có nhiều bộ phận quản lý bus.

Sau đây là một ví dụ về Cache có cấu trúc “Look Aside”, khi một CPU
bắt đầu một chu kỳ đọc, Cache sẽ kiểm tra xem có địa chỉ làm “Cache
hit” hay khơng.
• HIT: Nếu Cache chứa vị trí bộ nhớ cần truy xuất thì nó sẽ đáp ứng chu

kỳ đọc và kết thúc chu kỳ bus.
• MISS: Nếu Cache khơng chứa vị trí bộ nhớ cần truy xuất thì bộ nhớ
chính sẽ đáp ứng cho CPU và kết thúc chu kỳ bus. Cache sẽ snarf dữ
liệu, vì vậy nếu CPU tiếp tục yêu cầu dữ liệu này thì sẽ có “Cache hit”.
Cache có cấu trúc Look Aside ít phức tạp nên giá thành thấp. Cấu trúc
này cung cấp một đáp ứng tốt hơn đối với trường hợp “Cache miss” do
cả DRAM và Cache (trong hình là SRAM) cùng “nhìn thấy” một chu kỳ
bus trong cùng một thời điểm. Nhưng, qua hình vẽ ta thấy rằng CPU
khơng thể truy cập Cache nếu có một Bus master (Bus chủ - thành phần
có quyền điều khiển bus hệ thống) khác đang truy cập bộ nhớ chính.
3.2. Cấu trúc đọc “Look Through”

Hanoi university of science 2008 -2012

Page 14


Nguyen Tien Long

Hình 3 Cấu trúc đọc Look Through
Bộ nhớ chính vẫn có vị trí đối diện với giao diện hệ thống. Ta dễ nhận
ra là đơn vị Cache này là nó nằm giữa CPU và bộ nhớ chính. Điều quan
trọng cần chú ý là Cache nằm giữa CPU và bộ nhớ chính và nó “thấy”
chu kỳ bus CPU trước khi cho phép đi tiếp đến bus hệ thống.
Sau đây là ví dụ về cấu trúc đọc “Look Through”, CPU bắt đầu truy cập
bộ nhớ và Cache kiểm tra xem có địa chỉ “Cache hit” hay khơng.
• HIT: Cache đáp ứng u cầu của CPU mà khơng có một truy cập nào
đến bộ nhớ chính.
• MISS: Cache đưa chu kỳ bus đến bus hệ thống. Bộ nhớ chính đáp ứng
yêu cầu của vi xử lý. Cache snarf dữ liệu nên nếu có yêu cầu từ vi xử lý

đối với dữ liệu này thì sẽ có “Cache hit”.
Như vậy :
- Cache hit à Lấy thông tin giữ lại ngay cho CPU với zero wait state. Ở
đây các yêu cầu của CPU không tự động chuyển đến bus hệ thống à bus
hệ thống rảnh rỗi để các hệ thống quản lý bus khác có thể sử dụng bus
được.
- Chỉ khi có 1 cache miss thì yêu cầu mới được chuyển đến bus hệ
thống. Trong cấu trúc này cache phân cách bus cục bộ và bus hệ thống à

Hanoi university of science 2008 -2012

Page 15


Nguyen Tien Long
Vì vậy có thể cho phép thực hiện đồng thời 2 tác vụ trên bus cục bộ và
trên bus hệ thống.
Cấu trúc này cho phép CPU chạy với Cache trong khi Bus master khác
vẫn truy cập bộ nhớ chính, khi đó CPU tách riêng khỏi phần cịn lại của
hệ thống. Tuy nhiên, cấu trúc Cache này phức tạp hơn do phải kiểm
soát các truy cập phần đến phần còn lại của hệ thống. Điều này làm
tăng giá thành sản phẩm. Một điểm yếu khác là sự truy cập bộ nhớ khi
“Cache miss” sẽ chậm hơn vì bộ nhớ chính sẽ khơng được truy cập cho
đến khi Cache kiểm tra xong. Điều này sẽ không là vấn đề nếu Cache
có tỷ lệ (hay tốc độ) HIT cao và các truy cập bộ nhớ chính là của các
Bus master khác.
Từ đây có thể kết luận rằng :
Ưu điểm:
- Giảm nhẹ việc sử dụng bus hệ thống vì hầu hết các truy xuất ô nhớ
của CPU đều tới Cache. Bus hệ thống rảnh rỗi cho các bộ phận quản lý

giao diện bus quản lý.
- Cho phép truy xuất đồng thời cả CPU và 1 bộ phận quản lý bus khác
cùng thực hiện.
- Hoàn tất các tác vụ ghi trong zero wait state khi sử dụng các tác vụ
ghi sau (Posted Write) (nó ghi vào cache và thực hiện ghi sau vào bộ
nhớ chính).
- Hiệu suất tồn diện của Look - through cao hơn look - aside.

Nhược điểm:
- Trong trường hợp cache miss qua việc tìm kiếm rồi mới truy xuất trên
bus hệ thống tới bộ nhớ chính sẽ lâu hơn cấu trúc look - aside.
Hanoi university of science 2008 -2012

Page 16


Nguyen Tien Long
- Phức tạp và khó thiết kế cũng như cài đặt hơn look - aside.
- Giá thành cao
B) Các chiến lược ghi (writing policies)
Cache là bản sao của 1 phần dữ liệu trong bộ nhớ chính, nếu nội dung
mới cập nhật vào cache mà trong bộ nhớ lại khơng thì sẽ làm cho việc
lấy thơng tin sai lệch nhau, mất tính nhất qn. Do đó phải đảm bảo duy
trì tính thống nhất giữa cache và bộ nhớ.
Ngun nhân gây khơng thống nhất:
 Cache được cập nhật cịn bộ nhớ chính thì khơng
 Bộ nhớ chính được cập nhật cịn cache thì khơng
Để khắc phục cần có các chiến lược ghi sao cho thông tin giữa cache và
bộ nhớ là thống nhất, ko có thơng tin lỗi thời.
Có 2 chiến lược ghi chính: write-through, write-back


3.3 Chiến lược ghi write-through (cập nhật ghi tức thời)

Hanoi university of science 2008 -2012

Page 17


Nguyen Tien Long

Với chiến lược ghi này, mỗi khi cpu thực hiện 1 tác vụ ghi trên 1 ô nhớ
của bộ nhớ chính mà đã có thơng tin tương ứng trong cache (cache hit)
thì cả thơng tin trong bộ nhớ chính và trên cache đều sẽ được cập nhật
(ghi đè). Cịn nếu ơ nhớ của bộ nhớ chính chưa có thơng tin tương ứng
trong cache (cache miss) thì thơng tin sẽ được cập nhật vào bộ nhớ
chính.
Chiến lược ghi này đảm bảo được tính nhất quán giữa bộ nhớ và cache
nhưng hiệu suất rất kém vì mỗi thao tác ghi đều phải truy suất đến bộ
nhớ chính =>chậm chạp.

3.2 Chiến lược ghi write-back
Hanoi university of science 2008 -2012

Page 18


Nguyen Tien Long

với chiến lược ghi này, mỗi khi cần thực hiện tác vụ ghi lên 1 ô nhớ của
bộ nhớ chính mà đã có thơng tin tương ứng trên cache (cache hit), dữ

liệu mới sẽ chỉ được cập nhật lên cache mà ko ghi ngay lên bộ nhớ
chính. Vị trí cache đó sẽ được “đánh dấu” (như ở sơ đồ trên thì nó được
dán nhãn là “dirty”) để ghi nhớ là dữ liệu tại đó mới chỉ nằm trên cache
mà chưa được ghi vào bộ nhớ chính. Sau đó, nếu như cpu cần truy cập
thông tin trùng khớp với vị trí đánh dấu đó (cache hit) thì nó sẽ được sử
dụng ngay (vẫn chưa cần ghi vào bộ nhớ chính). Chỉ khi mà vị trí cache
Hanoi university of science 2008 -2012

Page 19


Nguyen Tien Long
đó cần được sử dụng để lưu thơng tin từ 1 ơ nhớ khác trên bộ nhớ chính
thì thơng tin trên vị trí “đánh dấu” đó mới được ghi ngược vào bộ nhớ
chính, nhường lại vị trí đó cho thông tin mới.
Bằng cách này, dữ liệu trên bộ nhớ chính sẽ chỉ được cập nhật khi cần
thiết do đó cải thiện được hiệu suất của máy. Bus hệ thống rảnh rỗi để
phục vụ cho cpu và các bộ phận quản lý bus khác hoạt động.
Nhược điểm của phương pháp này là việc thiết kế phức tạp hơn nhiều so
với write-through vì nó phải biết khi nào thì phải cập nhật bộ nhớ.

Hanoi university of science 2008 -2012

Page 20



×