Tải bản đầy đủ (.docx) (19 trang)

BỘ Đệm WEb WEBCACHING

Bạn đang xem bản rút gọn của tài liệu. Xem và tải ngay bản đầy đủ của tài liệu tại đây (302.85 KB, 19 trang )

MỤC LỤC
DANH MỤC HÌNH VẼ
MỤC LỤC
1
I. GIỚI THIỆU CHUNG
Trình duyệt Web được sử dụng rất rộng rãi trong Internet ngày nay. Hơn 2/3 lượng
lưu lượng trên mạng được tạo ra bởi Web. Khi xem xét làm thế nào để nâng cao chất
lượng dịch vụ cung cấp bởi mạng Internet thì việc đầu tiên là kiểm tra việc thực hiện các
giao dịch web. Chính ở đây, bộ nhớ đệm Web có thể đóng một vai trò quan trọng trong
việc cải thiện chất lượng dịch vụ cho một phạm vi rộng lớn của người sử dụng Internet.
Có hai loại bộ nhớ đệm Web là bộ nhớ đệm là browser cache và proxy cache.
Browser cache là một phần của tất cả các trình duyệt Web. Nó lưu giữ một bản copy của
tất cả các trang vừa mới truy cập và khi người sử dụng quay lại một trong các trang đó thì
bản copy này sẽ được dùng lại. Ngược lại, proxy cache là một thiết bị mạng chia sẻ, nó
có thể thực hiện các giao dịch Web thay mặt cho client và giống như browser cache, nó
lưu trữ thông tin. Lúc này, proxy cache hoặc các bộ nhớ cache khác sẽ được kích hoạt để
cung cấp các bản sao lưu trữ nội dung, tránh việc tải về từ các nguồn nội dung gốc. Trong
bài báo này, chúng ta xem xét proxy cache một cách chi tiết hơn, đặc biệt là ở khía cạnh
triển khai proxy cache trong mạng ISP.
II. PROXY WEB CACHING
1. Ý tưởng
Khi một trình duyệt muốn tìm kiếm một URL, nó lấy hostname và dịch sang địa
chỉ IP. Một phiên HTTP được mở ra và client yêu cầu URL từ server.
Khi sử dụng proxy cache, việc trao đổi cũng không có gì khác biệt. Client mở một
phiên HTTP với proxy cache và lập tức yêu cầu URL gửi đến proxy cache (Hình ).
Hình : Một giao dịch Web Proxy
Internet & Các giao thức Nhóm 1 Web caching
Nếu bộ nhớ cache chứa URL tương ứng, nó sẽ kiểm tra đây có phải là bản mới
nhất không bằng cách so sánh với “Expires” (trường ngày của nội dung) nếu có hoặc
bằng một số cách khác được xác định tại cục bộ. Sau đó thì các thành phần cũ được làm
mới lại và nếu server làm mới lại nội dung thì thành phần đó được đánh dấu lại là mới


nhất. Các đối tượng mới nhất được gửi cho client. Nếu như cache không có bất kỳ bản
copy local của URL hoặc thành phần đã hết hạn thì lúc này ta gọi là cache miss. Trong
trường hợp này, hoạt động của cache giống như agent cho client, mở phiên làm việc riêng
với máy chủ có tên trong URL và có gắng truyền trực tiếp vào bộ nhớ cache.
2. Đặc điểm truy cập web dựa trên mô hình end-to-end
Nguyên tắc thiết kế ban đầu của kiến trúc Internet là mô hình end-to-end. Trong
mô hình đó thì mạng là một công cụ thụ động trong việc thực hiện một nỗ lực tốt nhất để
truyển tiếp các gói tin đến đích. Giả sử rằng các gói tin gửi đi sẽ được truyền đến đúng
đích và các đáp ứng được gửi bởi đúng đích (tránh trướng hợp một bên thứ 3 đứng giữa
đóng giả để trao đổi thông tin với client)
Giao thức giao dịch World Wide Web (WWW), HTTP được xây dựng trên mô hình
này. Nó là nơi một phiên TCP được mở ra với máy chủ. Cuộc trao đổi HTTP tiếp theo
xác định các yêu cầu dữ liệu trên các host đích và các dữ liệu này sau đó được truyền lại
cho client. Mô hình chuyển giao này được thể hiện tốt nhất như một mô hình chuyển giao
tránh lãng phí tài nguyên khi chỉ xét trong khoảng thời gian dữ liệu được truyền trực tiếp
đến khách hàng theo yêu cầu.
Mô hình chuyển giao này có nhiều lợi thế đáng kể. Máy chủ dữ liệu có thể chỉnh
sửa nội dung và toàn bộ yêu cầu của client phía sau để được cung cấp với các thông tin
cập nhật và các cập nhật ngay lập tức được thể hiện trong các dữ liệu gửi. Máy chủ dữ
liệu cũng có thể theo dõi tất cả các yêu cầu nội dung, cho phép các nhà cung cấp nội dung
theo dõi những nội dung cụ thể được yêu cầu, nhận dạng yêu cầu của mỗi người và mức
độ thường xuyên của mỗi mục nội dung được tham chiếu. Các nhà cung cấp nội dung
cũng có thể phân biệt giữa các khách hàng khác nhau, và sử dụng một số hình thức của
mô hình bảo mật, các nhà cung cấp nội dung có thể xác thực khách hàng và cung cấp
thông tin đặc quyền cho các khách hàng nhất định. Trong mô hình này các nhà cung cấp
nội dung cũng có thể phân biệt giữa các khách hàng nhằm cung cấp thông tin nhất định
đển một số khách hàng đặc biệt và các thông tin khác cho các khách hàng khác của máy
chủ nội dung.
Nhiều hệ thống web được xây dựng dựa trên khả năng của mô hình chuyển giao
end-to-end này. Liên tục cập nhật các trang web theo kiểu hoặc là server đẩy hoặc là

client kéo để cập nhật thông tin nội dung trên màn hình client một cách đều đặn đặc biệt
Internet & Các giao thức Nhóm 1 Web caching
được sử dụng để hiển thị giá cổ phiếu trên thị trường, bản đồ thời tiết, hoặc màn hình
quản lý mạng.
Nhận dạng client có thể được sử dụng để tạo ra các máy chủ thông tin cá nhân
công khai và ảo kết hợp. Trong đó, một số nhóm người sử dụng xác định có thể được
hướng đến môi trường nội dung nội bộ trong khi các client khác được hướng đến môi
trường có nội dung công khai. Hệ thống như vậy là cơ sở của môi trường mạng diện rộng
và có thể cũng được sử dụng làm một phần cơ sở của mạng ảo nội bộ. Nếu thông tin được
xác định cục bộ, thì công cụ này rất có ích. Bảo mật và xác thực cũng được sử dụng để
cung cấp dịch vụ đối với những trường hợp yêu cầu trao đổi ở mức độ riêng tư cao hơn ví
dụ như hệ thống giao dịch điện tử, giao dịch thẻ tín dụng, và hệ thống liên quan đến tài
chính trên web. Các giao dịch cá nhân có thể được mã hóa bằng cách sử dụng mã hóa
socket-level, hoặc toàn bộ phiên TCP được mã hóa sử dụng công cụ mã hóa IP session-
level ví dụ như IPSec (IP security).
Trong mô hình end-to-end có một số điểm hạn chế. Một server mà cung cấp các
thông tin phổ biến thì sẽ phải chịu áp lực nặng nề, cả về số lượng người truy cập cùng lúc
tại nhiều thời điểm và cả về số lượng dữ liệu được gửi từ máy chủ cho các mạng xung
quanh. Lưu lượng lúc này giống như là tải của hệ thống máy chủ hoặc tải của mạng xung
quanh máy chủ. Để cải thiện hiệu năng của hệ thống như vậy có thể cải thiện máy chủ
bằng cách tăng số lượng máy chủ thông qua việc sử dụng các cụm server kết hợp với
máy chủ quản lý traffic và giúp cải thiện dung lượng của mạng cục bộ. Tuy nhiên, tất cả
các biện pháp này có thể không giải quyết tất cả các vấn đề trong việc duy trì chất lượng
của việc cung cấp nội dung. Hệ thống khách hàng dùng modem và hệ thống khách hàng
dùng wireless băng thông thấp đều bị hạn chế bởi băng thông và trễ trong quá trình giao
tiếp end-to-end với server. Cải thiện dung lượng của các máy chủ có thể không nhất thiết
phải giảm số lượng các kết nối của khách hàng mà cùng hoạt động đồng thời. Trong khi
giảm trễ giữa khách hàng và các điểm phân phối nội dung sẽ giúp cải thiện hiệu suất của
việc phân phối nội dung.
Thêm vào đó, bản thân mạng không được sử dụng hiệu quả, lưu lượng web tại

cùng một thời điểm có khá nhiều nhân bản và mạng phải mang các bản sao của cùng một
dữ liệu đến mỗi khách hàng gây ra lãng phí đường truyền. Đối với một nhà cung cấp thì
dung lượng truyền tải là một chi phí kinh doanh nên việc xuất nhập nội dung chỉ xảy ra
lần đầu, sau đó thì thông qua bản copy cục bộ của nội dung sẽ được gửi đến cho khách
hàng. Đây là một phương pháp giúp cải thiện hiệu năng của mạng.
Xét về khả năng cải thiện hiệu suất của dịch vụ cung cấp nội dung cho một mạng
lưới toàn cầu của các khách hàng, và về khả năng nâng cao hiệu quả vận chuyển mạng,
Internet & Các giao thức Nhóm 1 Web caching
bộ nhớ đệm đem lại nhiều ý nghĩa với các nhà cung cấp nội dung, các ISP, và cuối cùng
là cho khách hàng.
3. Đặc điểm của proxy web caching
Các lợi ích tương tự của cải thiện hiệu suất và giảm traffic đi ra ngoài có thể được
thực hiện cho lưu lượng WWW thông qua việc triển khai web cache. Web cache về cơ
bản không khác với bất kỳ hình thức của bộ nhớ đệm nào khác. Các yêu cầu của client
được truyền thông qua cache agent sau đó từ đây mới tạo yêu cầu gửi đến nguồn giống
như một đại diện cho client. Đáp ứng của máy chủ được giữ lại trong bộ nhớ cache cục
bộ, và một bản sao được chuyển cho client. Nếu cùng một yêu cầu được chuyển đến
cache agent ngay sau khi yêu cầu ban đầu được phục vụ thì đáp ứng có thể được tạo ra từ
bộ nhớ cache mà không cần tham khảo thêm với nguồn gốc.
Hình : Mô hình web cache
Dựa vào dữ liệu đo đạt về lưu lượng dữ liệu của ISP, có thể thấy rằng khoảng 70%
lưu lượng truy cập là lưu lượng trên nền Web. Phân tích các yêu cầu về Web cho thấy
rằng mức độ giống nhau của các yêu cầu có thể xấp xỉ 50%.
Có hai tỷ lệ hit là tỷ lệ hit trang và tỉ lệ hit byte. Tỷ lệ hit trang là tỷ lệ các yêu cầu
HTTP có thể được phục vụ nhờ vào cache mà không cần quan tâm đến kích thước của
trang. Tỷ lệ hit byte là tỷ lệ số lượng byte được truyển từ cache với số lượng byte không
hit. Kinh nghiệm cho đến nay đã chỉ ra rằng tỷ lệ hit trang của một nơi nào đó từ 40 đến
55 phần trăm là có thể đạt được đối với một bộ nhớ cache cấu hình tốt. Trong trường hợp
Internet & Các giao thức Nhóm 1 Web caching
như vậy tỷ lệ hit byte là từ 20 đến 35 phần trăm. Một phần lớn trong tỷ lệ hit là do các tập

tin hình ảnh.
Với nhiều ISP, đặc biệt là những ISP hoạt động bên ngoài Bắc Mỹ, chi phí truyền
tải chiếm vị trí chi phối trong cấu thành chi phí hoạt động. Nếu bộ nhớ cache chỉ cần thực
hiện được 60% của hiệu suất cache lý thuyết tối đa thì các ISP có thể giảm được các yêu
cầu lưu lượng ra bên ngoài khoảng 13%. Khi chi phí của cache so sánh được với chi phí
truyền tải, sự khác biệt có thể chiếm một phần quan trọng trong chi phí hoạt động cơ bản
của ISP.
Ví dụ, nếu chi phí truyền tải trung bình là $150 cho mỗi gigabyte và ISP mua lưu
lượng 1.000 gigabyte mỗi tháng từ một ISP nguồn với 70% lưu lượng là truy cập web;
khi đó nếu một bộ nhớ cache hoạt động với tỉ lệ hit byte là 25% có thể tiết kiệm cho ISP
$26.250 chi phí thường xuyên mỗi tháng. Nếu bộ nhớ cache có giá vốn $100,000 và chi
phí hoạt động $2000 mỗi tháng cho các dịch vụ, thực hiện các phân tích kinh doanh sẽ
thấy hoạt động của bộ nhớ cache đem lại $18.000 mỗi tháng cho các doanh nghiệp.
Khách hàng cũng có lợi ích là tốc độ tải trang web tăng lên (với các nội dung đã
được lưu đệm) do độ trễ của mạng giữa khách hàng và bộ nhớ cache cục bộ giảm.
Kích thước trung bình của một giao dịch web là khoảng 16 gói dữ liệu trên luồng
TCP. Trong một quá trình điều khiển lưu lượng TCP theo kiểu tăng chậm (slow-start),
chu kỳ đầu tiên sẽ truyền tải một gói tin và chờ đợi ACK. Việc nhận được ACK sẽ kích
hoạt truyền hai gói RTT (round-trip-time) thứ hai, và sau đó người gửi sẽ chờ đợi hai
ACK. Tiếp nhận hai ACK này sẽ kích hoạt thêm bốn gói trong chu kỳ thứ ba và tám trong
chu kỳ tiếp theo, và các gói tin còn lại trong chu kỳ thứ năm. Do đó, giao dịch web cần
trung bình 5 RTT để đạt trạng thái tối ưu của thuật toán TCP tăng chậm. Nếu một người
dùng ở khá xa trang web, và RTT tới nguồn là 300 ms, trễ tải trang sẽ là 1,5 giây. Trong
khi đó, nếu thời gian truy cập Web cache cục bộ là 2 mili giây, thì trễ tải trang chỉ là 10
ms. Những con số này thu được với giả sử mạng không nghẽn trong cả hai trường hợp.
Trong trường hợp này, miễn là tìm kiếm Web cache có thể hoàn thành trong vòng 1 giây,
cache sẽ cho tốc độ tải trang nhanh hơn nhiều so với khi không có cache.
Có thể có một phân tích hơi khác là khi so sánh hiệu suất của một bộ nhớ cache
được cấu hình tại điểm cuối (Headend) của một hệ thống cáp-IP (cable-IP) so với việc
thực hiện truy cập trực tiếp. Sự khác biệt về độ trễ trong trường hợp này là do vị trí bộ

nhớ cache tới người sử dụng gần hơn và băng thông hiệu quả từ bộ nhớ cache tới người
dùng tăng lên rất nhiều. Một tác vụ tải có bộ nhớ cache có thể hoạt động ở tốc độ hàng
megabit/s, so với vài kilobit hoặc hàng chục kilobits mỗi giây khi sử dụng modem quay
số hoặc các dịch vụ ISDN. Khi tải về một hình ảnh nặng 100K, người sử dụng modem
Internet & Các giao thức Nhóm 1 Web caching
quay số có thể gặp trễ 60 giây, và cùng hình ảnh đó tải về một bộ nhớ cache cục bộ thông
qua cáp - IP có thể chỉ mất ít hơn một nửa giây.
Sự đánh đổi của lưu đệm cache là cân đối các chi phí về dung lượng vận chuyển,
cả về chi phí của việc vận chuyển và chi phí hiệu năng của thời gian giao dịch ứng dụng,
so với chi phí của việc sử dụng cache. Với các ISP ngoài Bắc Mỹ, thường có tỉ lệ hit lớn
của cache đối với máy chủ đặt tại Bắc Mỹ, những lợi ích của việc sử dụng rộng rãi cache
là khá đáng kể. Đối với các nhà khai thác cáp-IP, lợi ích của bộ nhớ cache cục bộ nằm ở
khả năng khai thác được lợi ích của bước nhảy (hop) cuối tốc độ rất cao từ Headend tới
người dùng cuối. Với các ISP khác, những lợi ích của cache có thể là ít hơn đáng kể, tuy
nhiên, có những kết quả tích cực của cache về hiệu suất và chi phí có thể khai thác được.
Cũng như các mô hình truy cập trực tiếp, phương pháp này cũng có nhược điểm.
Chúng tôi đã lưu ý những cách khác nhau, trong đó mô hình phân phối nội dung Web từ
đầu đến cuối (end-to-end) được khai thác để cung cấp nội dung theo thời gian, nội dung
dựa trên khách hàng, và đảm bảo an toàn nội dung. Cache chèn vào trong ngữ cảnh end-
to-end của mô hình giao dịch ban đầu, và ngăn chặn các giao dịch bằng cách đưa ra một
đại diện (proxy) của điểm cuối gốc. Nội dung chuyển giao từ bộ nhớ cache là nội dung
dựa trên thời gian cache thực hiện yêu cầu của nó đến máy chủ, và nội dung cung cấp từ
các máy chủ dựa trên cái nhìn về máy chủ trên định danh của bộ nhớ cache, chứ không
phải là định danh của khách hàng cuối.
Khi hoạt động với các dữ liệu cache, server có cache không có được bức tranh
chính xác về thời gian truy cập các nội dung, và người truy cập. Server không thể xác
thực máy khách, server cũng không thể phân phối các thông tin dựa trên thông tin nhận
thực được cấp cho máy khách. Tại máy khách cũng có các vấn đề tiềm tàng, do máy
khách không nhận ra là nội dung được phân phối từ một cache đại diện. Nội dung đó có
thể không phản ánh đúng định danh của máy khách, và thông tin đó có thể là dựa trên mô

hình bảo mật từ server tới cache, hơn là từ server tới máy khách ở đầu cuối, và máy
khách có thể không nhận ra các thay đổi đó trong tên miền bảo mật. Nếu nội dung là phụ
thuộc thời gian thì nó sẽ phản ánh thời gian cache lấy nội dung hơn là khi máy khách
thực hiện yêu cầu.
Những điều vừa chỉ ra cho thấy cache không phải là một công cụ có thể áp dụng
trong mọi trường hợp. Một phần thách thức của việc triển khai các cache server là hiểu
được các mô hình triển khai cache và phân phối nội dung Web, và đảm bảo cache không
gây nhầm lẫn theo cách làm thay đổi tính thống nhất của nội dung phân phối tới người sử
dụng đầu cuối.
Internet & Các giao thức Nhóm 1 Web caching
4. Web cache hits - Web server hits
Một trong những vấn đề lớn nhất là cân bằng giữa hoạt động của cache để tối đa tỉ
lệ cache hits và mong muốn của người phát hành nội dung web là đảm bảo đếm chính
xác số lượt truy cập trang và xuất phát của truy cập. Trong hầu hết các trường hợp, đây là
yêu cầu cần được xem xét hơn là điều khiển việc phân phối nội dung. Nhà cung cấp nội
dung web không nhất thiết phải quan tâm tới tỉ lệ hit của nội dung web. Hơn nữa, nhiều
nhà cung cấp nội dung web thấy được giá trị từ việc phân phối các nội dung tĩnh tới máy
khách hơn là họ phải chịu nhiều chi phí phân phối nội dung từ trang cục bộ.
Các trang tĩnh, gồm các nội dung ảnh và chữ đơn giản đã được lưu cache sẵn, do
vậy, các nhà phân phối nội dung gốc có thể không biết chính xác số lần trang được hiển
thị khi khảo sát bản ghi trên server. Một số nhà thiết kế web đặt các thông tin trong
đường dẫn web, thông tin này làm cho server web cache không thể tái sử dụng trang đã
lưu cache, Cách thông dụng nhất để làm việc này là đặt header mang thông tin "hết hạn"
(expire) theo thời gian, do vậy trang sẽ được tải lại vào lần kế tiếp khi nó được truy cập.
Và một trong những thủ thuật của cache server để tăng tỉ lệ hit là bỏ qua phần đó trong
đường dẫn.
Vấn đề đếm truy cập của server đã ngăn cản sự triển khai cache nhiều năm nay.
Dù có những yêu cầu thực tế về xác thực, bảo mật, nội dung thời gian thực, và dữ liệu
theo máy khách dẫn tới chắc chắn có các dạng dữ liệu được gắn cờ không lưu cache
được, nhưng nhiều dữ liệu được gắn cờ đó đơn giản chỉ để server theo dõi định danh của

máy khách. Những dạng tránh cache này là không cần thiết và tiêu tốn tài nguyên mạng,
có thể gây quá tải cho server nội dung. Có một Chuẩn internet mở rộng cho HTTP nhằm
cung cấp một header đo lường ("Meter" header), để cache có thể truy cập các.thông tin
liên quan và gửi lượng truy cập về cho server nội dung gốc, mở rộng này đưa ra các giới
hạn sử dụng, nêu ra một cache server có thể cung cấp nội dung một số giới hạn lần trước
khi phải xác nhận lại với server nội dung.
III. CÁC MÔ HÌNH WEB-CACHING
1. Explicit Caching
Một vài hệ thống cache ủy quyền được triển khai theo dạng tùy chọn được thiết
lập bởi người dùng. Người dùng chỉ định một cache server cho browser như một proxy
agent, sau đó browser sẽ chuyển tất cả các request đến proxy cache. Người dùng có thể
bật hoặc tắt tùy chọn này tại mọi thời điểm, đảm bảo client được truyền thông trực tiếp
với server gốc. Khi gặp phải lỗi, một số trình duyệt hiện đại cũng có cơ chế tự động tắt
proxy cache để truy cập trực tiếp. Trong chế độ proxy cache, địa chỉ đích nằm dưới tầng
transport là địa chỉ của server cache, trong khi nội dung HTTP không đổi. Kiểu mô hình
Internet & Các giao thức Nhóm 1 Web caching
cache như trên có thể được triển khai bên trong một mạng cục bộ của client, với mục đích
giảm thiểu lưu lượng (traffic) đến ISP. Thêm vào đó, ISP có thể hoạt động như cache tự
nguyện(voluntary cache) phục vụ các client của nó. Nếu ISP hoạt động ở chế độ này, giữa
người dùng (client) và ISP phải có sự ngầm định cũng như client phải nhận biết được vị
trí của cache khi cấu hình local browser.
2. Forced Explicit Caching
Một vài ISP đặc biệt là các ISP dạng dialup hoạt động trong môi trường cạnh tranh
về giá rất cao. Hiệu năng và giá dịch vụ là một nhân tố kinh tế rất quan trọng, và rất có
thể các ISP lựa chọn chế độ hoạt động caching hiện hữu cho mạng của mình mà không
cần đến quyết định của người dùng, vì thế chế độ này là chế độ caching hiện hữu ép
buộc. Ví dụ: ISP sẽ khóa tất cả các luồng lưu lượng mạng đi qua cổng TCP 80 (cổng
được sử dụng bởi giao thức vận tải HTTP Web), chuyển hướng chúng vào các proxy
cache khi client truy cập Web ngoài vùng mạng.
3. Transparent Caching

Việc sử dụng cache đối với toàn bộ lưu lượng Web có thể được chỉ định bởi ISP
mà không cần cấu hình hiện hữu để nhận dạng các proxy cache trong các browser của
người dùng (client). Nguyên tắc đã chỉ ra rất rõ ràng, tuy nhiên có rất nhiều cách khác
nhau để triển khai. Kĩ thuật caching này được gọi là Transparent caching. Với việc
caching này, người dùng, browser của người dùng không cần nhận thức chính xác rằng
việc ISP đang sử dụng caching khi xử lý các request của họ. Ở đây mạng sẽ phải cắt đi
các bản tin HTTP có đích đến các Web server từ xa (remote Web server), thay vào đó sẽ
gửi trả lại các bản tin có trong proxy cache. Một khi page đã được xác định, tùy theo các
sự kiện “hit” hay “miss” mà cache sẽ trả lại yêu cầu ban đầu của client bằng cách giả
định là đích đến ban đầu của bản tin request (Hình ).
Cần lưu ý là các cơ chế trên không phải hoàn toàn trong suốt đối với Web client và
Web Server. Nếu Web server sử dụng mô hình truy cập bảo mật đầu cuối, việc
Transparent caching có thể không thực hiện được vì cache sẽ đưa ra địa chỉ của nó chứ
không phải địa chỉ của client. Việc này dẫn đến các page bị từ chối khi yêu cầu cache,
trong khi client có thể hoàn toàn giao dịch trực tiếp với server. Những tình huống sử dụng
cache được ủy quyền do các chức năng lọc và ép buộc, qua hệ thống chuyển hướng
Transparent, người dùng sẽ không thể nhìn thấy cách khắc phục, làm cho sự thất vọng về
toàn bộ dịch vụ cache tăng lên nhanh chóng.
Internet & Các giao thức Nhóm 1 Web caching
Hình : Transparent Caching
Một vài trường hợp ta vẫn có thể giải quyết vấn đề này. Một cách tiếp cận là khi
có lỗi lấy dữ liệu cache (cache fetch error) thì ta sẽ kích khởi hệ thống con cache, thiết
lập ra một phiên HTTP với nội dung gửi đến server có địa chỉ nguồn là của client, sau đó
truyền đi bản tin yêu cầu HTTP GET đến server. Phản hồi (respone) của server sau đó sẽ
được truyền đến client thông qua một cầu TCP (một cầu TCP là nơi thiết bị kết nối được
yêu cầu để dịch ra các chuỗi sequence number của các TCP header giữa hai phiên TCP).
Các hệ thống con cache chặn bắt các packet của server gửi đến client đòi hỏi sự phối hợp
chặt chẽ với cả cache router, nên hoạt động của TCP bridge khá phức tạp, vì vậy mà
phương pháp này thiếu đi sự ổn định. Một cách tiếp cận nữa là chỉ định cache server
truyền ngược trở lại client một bản tin TCP RST, chỉ dẫn cho cache router thêm một đầu

vào tạm thời trong bộ lọc chuyển hướng để tất cả các kết nối TCP cổng 80 từ client sẽ
được đến server gốc mà không bị chuyển hướng đến cache nữa.
Nếu cách thiết lập cache chỉ có một lợi ích duy nhất là tăng cường tốc độ truy
nhập mạng của khách hàng thì ISP phải biết rõ hiệu năng của hệ thống cache phải được
duy trì để đáp ứng được tất cả các Web request, nằm trong khả năng của ISP. Sự kiện
cache “hit” duy trì ở mức ổn định sẽ cho phép client truy cập nhanh hơn khi truy cập đến
server gốc. Sự kiện cache “miss” phải ở mức độ nhất định để tốc độ truy cập không thấp
hơn quá nhiều khi so sánh với phương pháp truy cập trực tiếp đến trang web gốc. Nếu
hiệu năng của cache không được đảm bảo cho người dùng, thì lợi ích hướng đến người
dùng sẽ mất. Trong trường hợp đã lựa chọn kĩ thuật caching, thì người dùng sẽ tắt tùy
chọn cache trong browser của họ và quay lại cách thức truy cập trực tiếp.
Mô hình kinh doanh của cache là giá thành hoạt động và vốn bỏ ra đi cùng với lưu
lượng cục bộ tại các vùng để giảm thiểu chi phí cho ISP, khi so sánh với mạng không
cache. Việc cắt giảm chi phí có thể được chuyển cho tất cả người dùng thông qua hoạt
động của toàn bộ dịch vụ với một mức giá thấp hơn hoặc chuyển chọn lọc cho những
Internet & Các giao thức Nhóm 1 Web caching
khách hàng sử dụng bộ nhớ cache thông qua một số hình thức cước sử dụng cache. Mô
hình chung của việc áp dụng giảm chi phí cước dịch vụ của ISP chắc chắn là một lợi thế
trong một thị trường cạnh tranh giá. Tuy nhiên, trừ khi hiệu suất của bộ nhớ cache rất
cao, và độ trong suốt của cache là gần hoàn hảo, mỗi người dùng cá nhân vẫn có thể sử
dụng phương pháp truy cập trực tiếp.
Mô hình kinh doanh khác là phải vượt qua các khoản tiết kiệm chi phí cận biên
cho những khách hàng sử dụng bộ nhớ cache, và ở một mức độ tương ứng với sử dụng bộ
nhớ cache của khách hàng và hiệu quả của nó trong hoạt động ở tốc độ truy cập cache
cao. Ví dụ, các ISP sử dụng một mô hình tính phí bao gồm một thành phần thuế dựa trên
số lượng dữ liệu chuyển cho khách hàng trong thời gian tính phí, phần thuế này có thể
được điều chỉnh bằng lượng sử dụng của khách hàng được thực hiện bởi hệ thống bộ nhớ
cache và hiệu quả hoạt động của các bộ nhớ cache trong việc tạo ra lượt truy cập bộ nhớ
cache.
Ví dụ, nếu lưu lượng bị tính phí $ 100 cho mỗi gigabyte được truyền tới khách

hàng, sự giảm giá có thể được tính cho lưu lượng nhận được từ bộ nhớ cache web. Nếu
tốc độ truy cập trung bình bộ nhớ cache 30 %, sau khi thanh toán chi phí thiết bị và hỗ trợ
hoạt động, lưu lượng từ bộ nhớ cache có thể được tính 80$ cho mỗi gigabyte. Ở đây, lợi
ích của việc sử dụng bộ nhớ cache Web được thể hiện trực tiếp với những khách hàng sử
dụng bộ nhớ cache, cả hai bên đều được hưởng mức thuế thấp hơn và tỷ lệ thuận với việc
sử dụng bộ nhớ cache và đồng thời có được hiệu suất cao nhờ sử dụng bộ nhớ cache. Quá
trình thanh toán theo mô hình tiếp thị này chắc chắn liên quan nhiều hơn đến quá trình,
liên quan đến hệ thống thanh toán bổ sung và xử lý việc sử dụng bộ nhớ cache để có cái
nhìn chính xác về lượng sử dụng cache của người dùng.
Ngày càng trở nên rõ ràng rằng một mô hình kinh doanh mạnh mẽ kết hợp với một
mô hình sử dụng tùy ý của một bộ nhớ cache Web là cách tiếp cận đến một đơn vị tính
giá thấp hơn cho lưu lượng. Bằng cách này, người dùng thấy động lực lợi ích tài chính
trực tiếp trong việc lựa chọn sử dụng hệ thống bộ nhớ cache. Khi các nhà cung cấp triển
khai bộ nhớ đệm ẩn hoặc bắt buộc, điều đó đã chuyển những lợi ích của bộ nhớ đệm vào
một cấu trúc giảm giá chung cho tất cả các khách hàng và tạo ra một mô hình kinh doanh
tốt hơn.
IV. HỆ THỐNG WEB CACHE
Hệ thống cache có thể có nhiều dạng. Các máy chủ web gốc từ CERN, nơi bắt
nguồn của sự phát triển phần mềm Web, đã cho phép một chế độ của hành vi proxy. Mô
hình máy chủ cache này được phát triển rõ rệt trong dự án Harvest, một dự án nghiên cứu
tại Đại học Colorado. Sau đó trở thành một hướng phát triển, các máy chủ cache Harvest
Internet & Các giao thức Nhóm 1 Web caching
đang được tiếp tục phát triển trong phạm vi phát triển các phần mềm máy chủ cache
Squid và giao thức cache internet liên kết (Caching Internet Protocol) (ICP).
Hiện nay có rất nhiều hệ thống bộ nhớ cache proxy khả dụng, chẳng hạn như
Squid, và các hệ thống thương mại có sẵn như Cache Engine Cisco Systems. Một số các
hệ thống này là các gói phần mềm hoạt động trên nền tảng hệ điều hành thông thường,
trong khi một số sử dụng một nền tảng với nhân riêng, được tối ưu hóa cho nhu cầu môi
trường truyền bộ nhớ cache.
Nhiều đặc điểm của hệ thống bộ nhớ đệm web có liên quan đến hiệu năng môi

trường bộ nhớ cache. Đầu tiên là kích thước của máy chủ cache. Mối quan hệ giữa kích
thước của bộ nhớ cache và tốc độ truy cập không phải là một mối quan hệ tuyến tính. Từ
các đặc tuyến điển hình của việc sử dụng Web được rút ra từ một lượng lớn người sử
dụng, một bộ nhớ cache dung lượng 1 GB hoặc cao hơn sẽ mang lại tốc độ hit hợp lý.
Tăng thêm kích thước bộ nhớ cache sẽ mang lại những cải tiến đáng kể tốc độ truy cập, tỉ
lệ gia tăng được mô tả tốt nhất bởi mối quan hệ theo cấp số mũ âm.
Do đó, bộ nhớ đệm hệ thống với 100 GB dung lượng lưu trữ đem lại hiệu suất
thay đổi không đáng kể nếu so với hệ thống bộ nhớ đệm 10 GB. Như vậy việc tăng bộ
nhớ không phải là một mục tiêu được xác định, bởi vì với các môi trường địa phương
khác nhau thì tất cả đều cho thấy quy luật trở lại giảm dần (diminishing return), trong đó
việc tăng thêm dung lượng cache nhiều hơn nữa không tạo ra sự khác biệt rõ rệt trong
hiệu quả bộ nhớ cache. Bộ nhớ Cache lớn mất nhiều thời gian hơn, từ vày ngày hoặc
thậm chí cả tuần, để xây dựng một kho lưu trữ đủ lớn để chứa các dữ liệu nhằm tạo ra
một bộ nhớ cache có tốc độ hit cao hơn. Nhìn chung, từ 10 đến 100 GB bộ nhớ cache là
đủ để hệ thống cung cấp hiệu suất bộ nhớ cache hiệu quả, miễn là bộ nhớ cache hoạt
động ổn định trong vài tuần sau khi khởi động. Yêu cầu bộ nhớ trong một bộ nhớ cache
cũng cần phải được cấu hình một cách cẩn thận. Chỉ số URL của hệ thống lưu trữ được
lưu trong bộ nhớ ở hầu hết các kiến trúc bộ nhớ cache nhằm mục đích thực hiện tra cứu
bộ nhớ cache nhanh, do đó các đĩa lưu trữ nhiều cấu hình sẽ yêu cầu bộ nhớ lớn hơn.
Tham số tiếp theo là số lượng yêu cầu bộ nhớ cache đồng thời mà máy chủ bộ nhớ
cache có thể quản lý hiệu quả. Lưu ý rằng giá trị này là khác với số lượng yêu cầu mỗi
giây mà máy chủ có thể quản lý được. Số lượng các phiên truy cập đồng thời mà máy chủ
bộ nhớ cache có thể hỗ trợ liên quan đến số lượng tài nguyên được phân bổ cho các yêu
cầu bộ nhớ cache và tổng công suất nguồn.
Môi trường triển khai có liên quan mật thiết đến việc hiệu năng môi trường cache.
Giá trị liên quan đến số lượng các yêu cầu đồng thời có thể quản lý được là thời gian
trung bình để xử lý một yêu cầu. Kết hợp hai giá trị này cung cấp cho ta số lượng yêu cầu
Internet & Các giao thức Nhóm 1 Web caching
mỗi giây mà hệ thống bộ nhớ cache có thể xử lý. Cùng một đơn vị nhưng sẽ có sư khác
biêt về giá trị hiệu năng đối với số yêu cầu mỗi giây khi được triển khai ở các môi trường

khác nhau của Internet. Nếu hệ thống bộ nhớ cache được triển khai với một nguồn cấp dữ
liệu dựa là vệ tinh, thì do đó thời gian trung bình để xử lý một cache là lâu hơn vì độ trễ
của đường truyền vệ tinh là cao hơn. Kịch bản dẫn đến quá trình quản lý các yêu cầu ban
đầu diễn ra trong một khoảng thời gian dài, và ngăn chặn các yêu cầu khác sử dụng khe
quá trình này.
Nếu cùng một đơn vị được triển khai ở một vị trí nơi bộ nhớ cache chỉ mất 1 phần
của một giây để xử lý, khe quá trình có thể nhanh chóng được tái sử dụng. Mỗi khách
hàng kết nối hoạt động cũng tiêu thụ bộ nhớ và kết nối sẽ vẫn mở cho đến khi nào hoàn
tất giao dịch web, hoặc khi hit hoặc miss. Số lượng phiên hoạt động đồng thời càng nhiều
trong bộ nhớ cache thì độ trễ vòng với một sự kiện miss sẽ tăng lên càng lớn. Tương tự
như vậy, càng nhiều modem tốc độ thấp hoặc trạm không dây, thì càng nhiều số lượng
phiên hoạt động đồng thời trong bộ nhớ cache. Cho dù khách hàng hoạt động ở chế độ ẩn
hoặc trong chế độ bộ nhớ đệm ủy nhiệm thì rõ ràng đó cũng là một yếu tố quan trọng.
Khách hàng sử dụng một trình duyệt có proxy cache với một kết nối liên tục, trong khi
nếu bộ nhớ cache là một bộ nhớ cache ẩn, bộ nhớ cache sẽ thấy khách hàng mang đến và
thả các kết nối HTTP mỗi lần thay đổi URL gốc. Tái lập phiên này, cùng với hệ thống tên
miền bổ sung (DNS) độ phân giải tải đối với khách hàng, có thể tăng lên đến nửa giây để
thời gian đáp ứng bộ nhớ cache ẩn khi so với phản ứng tức thời của bộ nhớ cache.
V. MÔ HÌNH TRIỂN KHAI WEB CACHE
Trong phần này, chúng ta xem xét vấn đề mở rộng các cấu hình bộ nhớ cache được
tham chiếu một cách rõ ràng, và sau đó nhìn vào những thay đổi trong mô hình giới thiệu
thông qua bộ nhớ đệm ẩn.
Mô hình triển khai đơn giản nhất của một bộ nhớ cache rõ ràng là triển khai một
hệ thống bộ nhớ cache duy nhất mà một trình duyệt có thể lựa chọn. Hệ thống này có thể
được triển khai trong môi trường máy chủ của ISP với một giao diện cổng TCP - 80 mở
cho truy cập của khách hàng. Mô hình triển khai được thể hiện trong hình 4.
Internet & Các giao thức Nhóm 1 Web caching
Hình : Một web cache có lựa chọn
Hệ thống bộ nhớ cache proxy web đơn được đưa vào có thể chịu tải đáng kể, và
một bộ nhớ cache quá tải và kém hiệu quả có lẽ là còn tồi tệ hơn là không có bộ nhớ

cache. Tuy nhiên, nhân rộng mô hình triển khai này có thể chứng minh thách thức. Một
ISP hoạt động với đa điểm truy cập, hoặc điểm hiện diện (POPs), một trong những giải
pháp mở rộng quy mô là triển khai một máy chủ tại mỗi POP và sử dụng cùng địa chỉ IP
cho mỗi máy chủ. Giải pháp này cho phép các ISP cung cấp một cấu hình phù hợp cho tất
cả các khách hàng và tăng thêm dung lượng ở bất kỳ vị trí liền mạch. Nếu bộ nhớ cache
tự chịu trách nhiệm cho việc quảng bá địa chỉ IP chung vào hệ thống định tuyến, các
cache cũng có thể hoạt động trong vai trò dự phòng cho nhau. Nếu có một máy chủ hỏng
thì quảng cáo tuyến đường địa phương sẽ tắt. Lưu lượng truy cập trực tiếp đến địa chỉ này
sau đó được vận chuyển bằng hệ thống định tuyến đến bộ nhớ cache proxy gần nhất. Có
thể có một số cấp phiên TCP khởi tạo lại các phiên hoạt động trên các phần tử hỏng,
nhưng trong tất cả các trường hợp khác, switchover là liên túc cho các khách hàng gốc,
và sự phục hồi trạng thái hoạt động từ trong tập hợp các máy chủ như vậy có thể được
chuyển sang cho hệ thống định tuyến. Mô hình triển khai này được chỉ ra trong Hình 5.
Các máy chủ như vậy có thể được cấu hình như một tập hợp các hệ thống truyền hình vệ
tinh địa phương với một lõi bộ nhớ đệm lớn hơn, sử dụng một giao thức cấu hình cache
internet (ICP) để thiết lập một hệ thống phân cấp bộ nhớ đệm.
Internet & Các giao thức Nhóm 1 Web caching
Hình : Các web cache tái tạo
ICP là một định dạng thông điệp trọng số thấp dành cho giao tiếp giữa web cache.
Định dạng tin nhắn là một sư trao đổi hai gói tin đơn giản, với một bộ nhớ Web cache
qua một truy vấn URL để tới bộ nhớ cache khác. Phản hồi là một hit hoặc miss, nhằm cho
thấy sự hiện diện của đối tượng URL trên bộ nhớ cache từ xa. Trên phần đầu của giao
thức này có thể được xây dựng phân cấp bộ nhớ cache, nhằm cho phép nhiều cache lân
cận đóng góp nguồn lực của họ một cách hiệu quả.
Phương thức cấu hình cache đề xuất sẽ được tổ chức theo dạng phân cấp. Khi
phân cấp, tất cả các cache server sẽ kết nối với hàng xóm của nó, và với ICP parent. Khi
có một cache request không được local cache đáp ứng, đầu tiên, cache sẽ sử dụng tập các
luật cấu hình cục bộ để quyết định xem server có phải cục bộ hay không. Nếu đúng,
cache sẽ truy vấn trực tiếp server. Ngược lại, cache sẽ phát ra một tập đồng thời các truy
vấn ICP tới tất cả các cache peer của nó. Nếu bất cứ peer nào trả lời với một ICP hit,

cache sau đó sẽ yêu cầu peer này cung cấp nội dung liên quan. Tuy nhiên, nếu tất cả các
peer không thể trả lời truy vấn ICP, hoặc khoảng thời gian gian timeout hai giây trôi qua,
cache sẽ request URL từ parent được chỉ định của nó, hoặc cuối cùng sẽ dựa trên request
ban đầu để thực hiện lấy cache từ Internet (cache retrieval). Parent này có thể hoặc hỏi
các peer, hoặc tiếp tục gửi truy vấn lên parent của nó. Mục đích của phương thức hoạt
Internet & Các giao thức Nhóm 1 Web caching
động này là request lần lượt, từ cấp thấp lên cấp cao. Những thuật toán liên cache khác
cũng đã được đề nghị, ví dụ như Hyper Text Caching Protocol (HTCP) và Cache Array
Routing Protocol (CARP). Nó thường thực hiện các chức năng khi hoạt động liên cache,
tương tự như chức năng ở ICP.
Một phương pháp mở rộng khác, chính là thay đổi cách thức hoạt động từ một
server thành nhiều server, dựa trên TCP. Cụ thể hơn, kỹ thuật cân bằng tải trong hệ thống
chuyển mạch sẽ giúp tải được chia đều cho các server. Cấu trúc hệ thống được chỉ ra
trong Hình 6.
Hình : Mô hình cân bằng tải cho hệ thống web cache
Với cách cấu hình này, từng cache sẽ tận dụng được nguồn dữ liệu ở những cache
hàng xóm. Nghĩa là, các server sẽ hỏi nhau, trước khi khởi tạo truy vấn lên các server
chứa thông tin khác. Ngoài ra, cách thức này sẽ cho phép cân bằng tải giữa các server,
các server sẽ thông báo trạng thái tải của mình tới bộ chuyển mạch cân bằng, qua đó
tránh quá tải. Một hướng khác để mở rộng các cache server là chuyên biệt hóa, nghĩa là
mỗi cache server sẽ lưu trữ theo từng nội dung riêng biệt. Nhưng, đây cũng chưa hẳn là
một cách hay, bởi địa chỉ đích không thể giúp server quyết định URL nào được request.
Khi cấu hình explicit cache, trình duyệt sẽ gửi TCP session vào địa chỉ TCP bên ngoài
của cụm server (như ở hình 6 sẽ là 172.16.0.1). Thông tin URL sẽ được gắn bên trong
vùng HTTP payload. Ở vấn đề này cũng được nhiều nhà nghiên cứu quan tâm. Với sự kết
hợp của TCP spoofing và TCP session bridging, một server chuyển mạch có thể lựa chọn
cache thích hợp cho từng URL tham chiếu HTTP, và sau đó kết nối logic TCP session của
client tới TCP session của cache được lựa chọn, để truyền URL tới client.
Việc triển khai transparent cache cũng gặp nhiều thách thức. Yêu cầu về chức năng
là phải chuyển tất cả các Web request thông qua một proxy cache server mà không cần

Internet & Các giao thức Nhóm 1 Web caching
một sự hiểu biết rõ ràng về client. Hai kỹ thuật thông dụng nhất hiện nay hướng đến
những mục tiêu sau:
• Cache phẳng (Inline caches): Cách tiếp cận này sẽ chuyển tất cả các traffic qua 2
port của cache server. Các traffic không phải HTTP sẽ đơn giản chỉ chuyển qua
thiết bị mà không cần thay đổi cấu trúc. Còn HTTP traffic sẽ được chặn lại và
chuyển tới module cache. Vấn đề chính cần quan tâm trong cách tiếp cận này là
ảnh hưởng của một điểm lỗi lên toàn bộ thực thể mạng. Bất cứ lỗi nào ở cache có
thể khiến ngăn chặn tất cả những traffic khác vào hoặc ra mạng con.
• Cache chuyển hướng (Redirection caches): Với cách này có thể khắc phục nhược
điểm của Inline cache. Nó sẽ dùng chính sách chuyển hướng được gắn trong
router. Nghĩa là, nó sẽ chuyển hướng tất cả các traffic có port 80 tới cache server.
Thông thường, với chính sách chuyển hướng này thì cache sẽ được đặt cách router
một hop. Do đó, chuyển hướng đơn giản chỉ là một chính sách cục bộ. Lỗi khi
hoạt động vẫn là một vấn đề đáng lưu tâm, bởi kỹ thuật chuyển hướng trong router
thông thường không biết được tình trạng hoạt động của cache.
Transparent cache sẽ cần đảm bảo một URL đầy đủ được gắn vào HTTP level
request. Khi trình duyệt cho rằng request được gửi trực tiếp tới content server, bản tin
GET request có thể chỉ định URL có liên quan tới server. Trong những trường hợp như
vậy, transparent server sẽ cần thực hiện tra cứu DNS của địa chỉ IP đích của TCP session
để dựng lại một URL đầy đủ.
Vấn đề chủ yếu khi sử dụng transparent cache, là phải tạo ra một kỹ thuật dự
phòng lỗi. Nghĩa là, nếu cache server dừng hoạt động với bất cứ lý do nào, thì việc
chuyển hướng cache cũng bị vô hiệu hóa. Một giải pháp là sử dụng chức năng chuyển
hướng gắn với router kết hợp cùng giao thức quản lý Web cache dựa trên bản tin
keepalive. Ý tưởng này chính là nền tảng của Web Cache Coordination Protocol
(WCCP). WCCP đã cung cấp thêm khả năng chia sẻ tải thông qua đa cache server với nội
dung được phân phối. Transparent cache sẽ hỗ trợ nhiệm vụ này, bởi địa chỉ đích trong
gói tin IP có thể được sử dụng như là yếu tố cơ bản của việc lựa chọn cache. Bản tin
keepalive sẽ được trao đổi giữa router và hệ thống cache server, nhằm cho phép router

dừng không chuyển hướng Web traffic nếu server lỗi.
Một giải pháp thay thế dựa trên việc cache tự nó tham gia vào môi trường định
tuyến cục bộ. Router chuyển hướng sẽ sử dụng các chính sách chuyển hướng, nhằm
chuyển tiếp tất cả các traffic có cổng 80 tới một địa chỉ được thông báo bởi hệ thống
cache tại mức ưu tiên định tuyến cao. Một địa chỉ tương tự cũng sẽ được thông báo bởi
default route của router tại mức ưu tiên định tuyến thấp. Nếu hệ thống cache gặp lỗi,
Internet & Các giao thức Nhóm 1 Web caching
đường đi có độ ưu tiên cao sẽ bị hủy bỏ, và nếu chức năng chuyển hướng tiếp tục được
dùng ở router, việc chuyển hướng sẽ đi theo default route.
Bây giờ, ta sẽ xét đến khía cạnh xử lý cache miss ở tốc độ có thể so sánh được khi
không dùng cache. Tất nhiên, quá trình kéo dữ liệu về cache và sau đó cung cấp dữ liệu
này cho người dùng sẽ không thể đạt được mục tiêu đó. Transparent cache sẽ phải cấp dữ
liệu cho người dùng, trong khi đồng thời lưu trữ một bản copy nhằm phục vụ cho các yêu
cầu trong tương lai.
Tuy vậy, đó vẫn chưa phải là vấn đề lớn nhất với transparent cache. Thách thức
lớn nhất chính là các transparent cache sẽ chỉ cung cấp một nội dung cụ thể, mà không
xét tới nhận dạng của nơi request. Các web server thường sử dụng mô hình truy nhập đầu
cuối (end-to-end), dựa vào sự nhận dạng địa chỉ nguồn, hoặc các web server sẽ cố gắng
đưa ra những nội dung khác nhau cho các client dựa trên địa chỉ nguồn của client, và điều
này thì không phù hợp với mô hình transparent cache.
Trong trường hợp lỗi xảy ra, cần phải có giải pháp để transparent cache dừng hoạt
động, và cho phép request ban đầu kết nối trực tiếp tới server. Dù cho các giải pháp mạng
đóng vai trò quan trọng, nhưng các browser cũng phải có sự trợ giúp nhất định. Một mô
hình hoạt động khác là transparent cache sẽ ghi lại nhận dạng lỗi, và gửi tín hiệu thử lại
cho browser đã request, đồng thời cũng chuyển nhận dạng luồng này trở lại cho bộ
chuyển hướng, như là bộ lọc đầu vào tạm thời. Khi có tín hiệu truy vấn lại theo tín hiệu
từ cache, redirecting router sẽ có nhiệm vụ chuyển luồng tới cache, và cho phép thiết lập
phiên dạng end-to-end.
VI. KẾT LUẬN
Web cache, và đặc biệt là proxy cache, là một ứng dụng rất phổ biến hiện nay. Nó

đóng một vai trò quan trọng trong việc cải thiện chất lượng dịch vụ cho một phạm vi rộng
lớn người sử dụng trên Internet. Web cache giúp giảm gánh nặng cho các server, đồng
thời làm cho các website dường như được đáp ứng nhanh hơn, tốc độ phục vụ client cũng
được tăng lên. Proxy cache gồm có hai loại chính: explicit và transparent caching. Trên
thực tế, cũng có rất nhiều cách để triển khai hai loại hình proxy cache này. Kiến trúc
chung ngày nay là sử dụng cache network, nhằm đặt các hệ thống cache nằm gần biên
truy nhập của mạng hơn. Bên cạnh những ưu điểm, proxy cache vẫn còn tồn tại rất nhiều
nhược điểm, cần phải giải quyết.
Internet & Các giao thức Nhóm 1 Web caching
TÀI LIỆU THAM KHẢO
[1] T. Geoff Huston, "Web caching," The Internet Protocol Journal, vol. 2, no. 3, p. 2, Sep. 1999.
[2] "Web Caching," Packet Pushers, 26 11 2004. [Online]. Available:
[Accessed 10 10 2013].
Internet & Các giao thức Nhóm 1 Web caching

Tài liệu bạn tìm kiếm đã sẵn sàng tải về

Tải bản đầy đủ ngay
×