Tải bản đầy đủ (.pdf) (9 trang)

Định Nghĩa Duplicate Content Và Các Cách Khắc Phục Lỗi Hiệu Quả Nhất. pptx

Bạn đang xem bản rút gọn của tài liệu. Xem và tải ngay bản đầy đủ của tài liệu tại đây (121.96 KB, 9 trang )


Định Nghĩa Duplicate
Content Và Các Cách
Khắc Phục Lỗi Hiệu Quả
Nhất.

Trong thực tế có rất nhiều trang web đang mắc lỗi trùng lặp
nội dung. Sự cạnh tranh là rất lớn và kiến thức thì có hạn đôi
khi khiến chúng ta phải đi sao chép lại các nội dung để thu
hút được người truy cập. Tuy nhiên sau khi google tung ra
Panda đặc biệt trong đợt cập nhật gần đây đã khiến cho nhiều
website trùng lặp nội dung bị phạt. Điều này có thể gây ảnh
hưởng đến kết quả seo.

Với những trang web bị phạt sẽ không tránh được việc đặt
câu hỏi vì sao và làm thế nào để giải quyết vấn đề duplicate
hiệu quả nhất ?

I) Vậy nội dung trùng lặp là gì ?


Duplicate content bạn loại bỏ không ^^.

Nói ra thì hơi thừa mình xin tóm gọn lại : Nội dung trùng lặp
là những nội dung xuất hiện trên hai hay nhiều địa chỉ trang
web hoặc trên các lĩnh vực giống nhau. Ngoài ra nội dung mà
tương tự về ý cũng sẽ được xếp vào danh sách nội dung trùng
lặp.
Cụ thể thì mình chia làm 3 loại :
 Bản sao Gốc : đây là dạng website có nội dung trùng
lặp hoàn toàn, giống hệt với một trang web khác. Sự khác


biệt giữa hai trang chỉ là đường URL.
 Gần giống với bản gốc : Đây là một dạng biến tấu về
nội dung . Nó gần giống bản gốc chỉ có sự khác biệt rất nhỏ
về một số ngôn ngữ , một đoạn văn, hình ảnh hay kể cả thay
đổi xáo trộn các cụm văn.
 Cross Domain : Dạng giống một phần của nội dung.
Cách này thường xảy ra khi một nội dung được chia sẻ trên 2
trang web khác nhau với mỗi trang web là một phần nội dung
gốc. Nên nó có thể là dạng bản gốc hoặc dạng gần giống với
bản gốc.


II) Tại sao trùng lặp nội dung lại bị google panda phạt ?

Theo quy định google, nội dung trùng lặp rõ nguồn gốc tác
giả không mang tính lừa đảo không bị xếp vào nội dung xấu.
Sau đây là một số nội dung trùng lặp không xấu :

Tại diễn đàn, blog website : khi tạo ra 2 đoạn nội dung gần
giống nhau, một nội dung là nguyên bản, một nội dung được
rút gọn để hướng đến cho người sử dụng trên các phương tiện
khác như mobile…
Lưu trữ các thông tin hiển thị và liên kết thông qua nhiều
URL , thông tin tốt cho người dùng.
Chỉ in duy nhất một phiên bản của nội dung trên trang đó…
Tuy nhiên đó chỉ là một số trang cơ bản, nhiều webmaster
trong nỗ lực để nâng cao thứ hạng website , tăng lượng truy
cập đã cố tình sử dụng các nội dung trùng lặp. Cách làm này
không tốt và không thể tạo sự thân thiện với người dùng khi
khách hàng thường xuyên gặp những bài trùng lặp như vậy.

Trong phiên bản gần đây của google panda , việc đánh giá
nội dung trùng lặp này khá là quan trọng. Nếu trang web của
bạn bị google panda đánh giá là không tốt , các thuật toán của
nó sẽ tác động đến website của bạn, làm cho trang trùng lặp
mất điểm thậm chí bị phạt mất nội dung, thứ hạng trên SERP.

III ) Những phương pháp giúp bạn có thể sửa lỗi duplicate
content một cách hiệu quả

Nếu bạn muốn khách hàng của mình luôn hài lòng với những
thông tin mà họ có thể tìm được trên website hãy đảm bảo
chỉnh sửa các lỗi duplicate content xấu.

1) 404 (Not Found)

Nếu bạn cảm thấy nội dung dung trùng lặp thực sự không
đem lại lợi ích cho người tìm kiếm hay nó không đem lại cho
bạn những liên kết hay traffic cách đơn giản là cứ xóa nó đi
và để lỗi 404.

2) Redirect 301

Khi sử dụng chuyển hướng 301 đồng nghĩa với việc bạn
thông báo cho cả người dùng và bọ tìm kiếm rằng trang web
mà họ trang truy cập đã chuyển đến một địa chỉ khác. Và
công cụ này sẽ chuyển hướng người dùng đến một url mới.
Đây là một cách làm tốt nếu nội dung trùng lặp đó nằm
trên URL gắn thẻ canonical.

3) Robot.txt


Đây là phương pháp được dùng khi bạn muốn nội dung trùng
lặp hiển thị với người dùng nhưng ngăn chặn không cho bọ
tìm kiếm thu thập thông tin. Điều này được thực hiện khá
đơn giản. Tuy nhiên nó chỉ hiệu quả với các trang chưa index
, còn với các trang đã được index thì nó vô tác dụng.

4) Meta Robots Tag

Cách này được áp dụng nếu bạn muốn điều hướng khả năng
tìm kiếm thông tin của bots tại trang. Nó sẽ thông báo cho
bots tìm kiếm không index trang này hoặc các liên kết trong
đó. Cái này được khá nhiều công ty SEO áp dụng và làm cho
trang thân thiện hơn với search engine so với sử dụng
Robot.txt

5) Rel=canonical

“Rel-Ca nàynonical” hoặc là “Canonical Tag” là cách làm
giúp webmaster có thể tạo ra canonical cho bất kỳ trang nào.
Vì vậy, khi bots tìm kiếm thu thập thông tin trên một trang có
gắn thẻ canonical nó sẽ hiểu và loại bỏ nội dung trùng lặp
trên URL đó.

6) Google URL Removal

Cách làm này theo tôi là phương pháp cuối cùng nếu phải
thực hiện việc xóa bỏ các nội dung trùng lặp. Nó được sử
dụng trong google webmaster tool. Để làm được bạn làm
theo các bước sau : Vào google webmaster tool rồi Click vào

“Site Configuration” => click tiếp “Crawler Access” . Sau
bước này bạn sẽ thấy hiển thị ra 3 tab. Hãy click vào cái thứ
3 “Remove URL” . Bác nào hay sử dụng webmaster tool sẽ
rất rõ.
Tuy nhiên bạn sẽ cần làm một số việc trước để có thể thực
hiện xóa là với trang cần xóa bạn cần 404, Robots.txt blog
hay thẻ meta Noindex.



×