Tầm quan trọng của liên kết sâu

Một liên kết là khi bạn liên kết đến một top domain name[1], ví dụ như phamen.com. Một liên kết sâu là khi bạn liên kết đến một bài viết ở trong một top level domain, ví dụ như: Tạo blog với tên miền riêng. Google và các bộ

tìm kiếm khác, khi quyết định xếp hạng và vị trí trên các kết quả tìm kiếm đều tính đến 2 yếu tố này.

Khi viết một bài trên blog, bạn nên luôn cố gắng liên kết sâu đến một hoặc một số bài viết trước đây. Bạn không thể điều khiển được link từ các site khác đến blog của bạn nhưng bạn có thể kiểm soát được bạn liên kết đến đâu. Bằng việc liên kết sâu đến các bài viết trước đây, bạn giúp người đọc phát hiện ra các bài viết mà có thể họ bỏ lỡ chưa đọc và đồng thời bạn cũng giúp cả Google tìm ra các bài này. Để thấy ví dụ tôi đã sử dụng liên kết sâu như thế nào, hãy xem tóm tắt Kiếm tiền từ blog - Tháng 2 năm 2007. Trong bài viết đó tôi đã sử dụng liên kết sâu đến 12 bài viết khác trên John Chow dot com.

Như là một quy luật, bạn nên sử dụng các liên kết sâu khi các bài viết trước đây mà bạn muốn liên kết đến có liên quan đến bài viết hiện tại của bạn. Nhưng vẫn có ngoại lệ. Trong bài viết Blast From The Past, điều duy nhất liên quan tới những bài viết mà tôi liên kết đến chỉ là những gì thuộc về quá khứ. Bạn cần phải sáng tạo khi sử dụng liên kết sâu. Bạn có thể liên kết sâu đến hầu hết các bài bạn đã từng viết tùy vào việc bạn sử dụng từ ngữ trong bài viết như thế nào.

Chiến đấu với những Scraper[2]

Một lý do khác tôi thường sử dụng liên kết sâu trong hầu như mọi biết viết là bọn scraper. Tôi cung cấp cho mọi người feed RSS đầy đủ, do vậy bọn scraper rất dễ lấy hết toàn bộ nội dung trên blog của tên và post lại trên blog của họ. Hầu hết các scraper này đều copy lấy bộ nội dung của bài viết còn nguyên tất cả các liên kết trong đó. Nếu bài viết của bạn có rất nhiều link liên kết sâu trở lại blog của mình, thì bạn sẽ có thêm một số lợi ích về SEO và khách xem từ blog của bọn scraper.

Liên kết sâu đồng thời cũng giúp bạn tìm ra ai đã đánh cắp nội dung của bạn. Tôi luôn nhận được pingback từ blog của scraper bởi vì tôi đã sử dụng liên kết sâu đến các bài viết khác. Hầu hết các scraper này sử dụng Blogger.com và tôi chỉ cần nhấn vào liên kết thông báo “flag this blog” để thông báo cho Blogger.com và hi vọng họ sẽ đóng cửa blog đó. Nhưng nếu chúng không bị đóng cửa, thì ít nhất tôi cũng có các liên kết trên những blog đó quay lại blog của mình. Điều này không có nghĩa là tôi không luôn cố gắng để làm cho những nội dung bị đánh cắp không được phép tồn tại - đó là cách giảm những tổn hai do bọn scraper gây ra. Nếu quá nhiều nội dung của bạn bị đánh cắp, nó có thể có ảnh hưởng tiêu cực tới sếp hạng trên Google của bạn vì nội dung bị trùng lặp và bởi vì Google nghĩ bạn đang spam liên kết.

Sử dụng từ ngữ có sức kết dính tốt khi liên kết sâu

Tôi đã viết hết những điều này trong bài Từ ngữ có sức kết dính tốt hơn = Kết quả tìm kiếm tốt nhất nên tôi sẽ không tốn thời gian nhiều để nói lại nữa. Bạn đừng bao giờ nên liên kết đến các

cũ với từ “Click here”. Thay vì thế, bạn hãy luôn sử dụng một từ ngữ miêu tả có sức kết dính để tối ưu hơn cho bộ máy tìm kiếm. Đây cũng là nguyên tắc cho các liên kết đến các blog khác.

Đây là phần 31 trong cuốn Ebook “Hướng dẫn kiếm tiền trên mạng” của John Chow.

Tất cả các phần: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35


Hãy tạo file robots.txt cho blog

File robots.txt dùng để hướng dẫn cho các con robot của các bộ máy tìm kiếm biết trang hoặc phần nào trên website hay blog của bạn nên đọc và thường xuyên đến để đánh chỉ mục, trang hoặc phần nào không nên đọc. Hầu hết các website và các blog đều có các thư mục chẳng liên quan gì hoặc chẳng có tác dụng gì cho các bộ máy tìm kiếm như là các file ảnh và các file admin. Vì thế việc tạo một file robots.txt hoàn toàn có thể cải thiện được việc đánh chỉ mục cho website hay blog của bạn.

File robots.txt là một file văn bản đơn giản, bạn có thể tạo nó bằng Notepad. Nếu như bạn sử dụng Wordpress thì file robots.txt mẫu có thể tạo như sau:

User-agent: *
Disallow: /wp-
Disallow: /feed/
Disallow: /trackback/

“User-agent: *”: câu lệnh này có nghĩa là cho phép tất cả các con bot tìm kiếm (từ Google, Yahoo, MSN và các bộ máy tìm kiếm khác) sẽ dùng lệnh hướng dẫn này để đọc website hay blog của bạn. Trừ khi website hay blog của bạn quá phức tap, nếu không bạn không cần đặt các chỉ dẫn khác nhau cho các spider khác nhau. Bạn chỉ cần đặt y như trên là đủ.

“Disallow: /wp-“: câu lệnh này giúp các con bot của các bộ máy tìm kiếm bỏ qua tất cả các file của Wordpress (các file trong các folder như: wp-admin, wp-content, wp-includes) khi đánh chỉ mục cho blog của bạn. Nó giúp bạn tránh bị trùng lặp nội dung và đọc các file admin nhạy cảm.

Còn nếu các bạn không dùng Wordpress, hãy thay thế những dòng Disallow bằng các file hay các folder trên website mà bạn không muốn các con bot này nhòm ngó đến. Ví dụ:

User-agent: *
Disallow: /images/
Disallow: /cgi-bin/
Disallow: /bất cứ file hay folder nào mà bạn không muốn crawler đọc/

Sau khi bạn đã tạo xong file robots.txt, hãy upload nó lên thư mục gốc trên web host của bạn. Thế là xong thôi. Bây giờ thì bạn có thể an tâm là các con robot của các bộ máy tìm kiếm chỉ đọc nội dung trên blog của bạn chứ không đọc nội dung của các file Wordpress. Điều này là thực sự quan trọng vì nó giúp nội dung trên blog của bạn sẽ không bị trùng lặp, và các thông tin của các file nhạy cảm cần bảo mật trên web host sẽ không bị chúng nhòm ngó.

Phamen