15 phần mềm bảo mật miễn phí giá trị

15 phần mềm bảo mật miễn phí giá trị

ZoneAlarm là bức tường lửa không mất tiền phổ biến nhất thế giới, nhưng AVG Anti-Rootkit mới là công cụ diệt rootkit hiệu quả số một, còn File Shredder 2 lại giúp người dùng xóa file vĩnh viễn.

5 công cụ chặn phần mềm nguy hiểm

ZoneAlarm

ZoneAlarm.
ZoneAlarm.

Phiên bản ZoneAlarm mới nhất đã được cập nhật để bảo vệ các hệ thống Windows Vista. Bất cứ khi nào một chương trình cố tạo ra một kết nối Internet, ZoneAlarm sẽ hiện popup hỏi người sử dụng có chấp nhận kết nối đó không. Người dùng cũng chỉ mất công di chuyển thanh trượt vài lần nếu muốn thiết lập lại chế độ bảo mật.

Comodo Firewall Pro

ZoneAlarm có thể phổ biến nhất nhưng không có nghĩa nó là tường lửa tốt nhất. Một phần mềm uy tín khác là Comodo Firewall Pro đã được trang đánh giá Matousec xếp hạng nhất khi cung cấp chế độ bảo vệ máy tính 2 chiều, dễ cấu hình lại.

Avast

Avast.

Avast quét hệ thống theo thời gian thực để ngăn các mã độc định tấn công máy tính. Nó còn hạn chế cả nguy cơ xuất hiện trong webmail, tin nhắn nhanh và các mạng chia sẻ ngang hàng.

AVG Anti-Rootkit

Rootkit có khả năng ẩn mình để tránh sự truy quét của các công cụ diệt virus. Do đó, hacker thường lợi dụng chúng để che giấu Trojan hòng xâm nhập và khống chế máy tính. Mục đích của AVG Anti-Rootkit là tìm và diệt roorkit, tuy nhiên, chương trình này không hoạt động với Windows Vista.

Spyware Blaster

Một số phần mềm gián điệp có khả năng tự cài chúng vào máy tính như là những ActiveX controls. Blaster sẽ giúp chặn hành động này, đồng thời loại bỏ nguy cơ hacker dò ra cookies để xâm phạm bí mật của người dùng. Chương trình hoạt động trên Firefox, Opera và Internet Explorer.

5 công cụ đánh giá độ an toàn

Active Security Monitor

Active Security Monitor.
Active Security Monitor.

Ứng dụng đơn giản này của AOL kiểm tra mức độ bảo mật trên máy tính, thông báo những gì nó thấy có vấn đề và đề xuất phương án xử lý. Chẳng hạn, nó kiểm tra xem bạn đã cài phần mềm diệt virus chưa, có phải bản cập nhật mới nhất không… Tuy nhiên, Active Security Monitor cũng không tương thích Vista.

McAfee SiteAdvisor

Một website trông gọn gàng và bắt mắt có khi lại là nơi cập bến của đủ loại mã độc hại. Khi đó, McAfee SiteAdvisor sẽ cảnh báo người dùng rằng trang đó nguy hiểm. Hoặc nếu họ tìm kiếm thông tin thông qua các công cụ search, SiteAdvisor sẽ hiển thị mã màu ngay cạnh mỗi kết quả, như màu xanh (an toàn), vàng (nghi vấn) và đỏ (không an toàn).

LinkScanner Lite

Nếu muốn biết một website có chứa nội dung đáng ngờ hay không, người sử dụng mở LinkScanner Lite và gõ địa chỉ URL, ứng dụng đó sẽ lập tức phân tích và đưa ra kết quả. Nó cũng cảnh báo site lừa đảo (phishing) trong kết quả tìm kiếm như SiteAdvisor nhưng không kiểm tra được phần mềm quảng cáo và phần mềm gián điệp.

Internet Threat Meter

Chương trình này thông báo cho người dùng những nguy cơ mới xuất hiện trên Internet, kèm đường link dẫn đến website của Symantec để sửa lỗi. Internet Threat Meter hoạt động dưới dạng một ứng dụng nhỏ (widget) trên Windows XP hay Sidebar Gadget trong Windows Vista.

Trend Micro HijackThis

Nếu nghi ngờ hệ thống của mình gặp nguy hiểm nhưng các chương trình diệt virus có sẵn trong máy lại không phát hiện ra nguy cơ nào, hãy thử dùng HijackThis để phân tích Registry và các thiết lập file.

5 công cụ bảo vệ dữ liệu

Kruptos 2

Kruptos 2.
Kruptos 2.

Nếu lo lắng ai đó có thể truy cập đến những file thầm kín nhất trong máy tính, bạn có thể cài công cụ Kruptos 2 với mã hóa 128 bit để cô lập file mà chỉ bạn mới được phép đọc. Kruptos 2 đặc biệt phát huy lợi thế khi bảo vệ file lưu trong ổ USB và các thiết bị lưu trữ di động.

Transaction Guard

Transaction Guard của hãng Trend Micro trước hết là một bộ dò tìm và loại bỏ spyware theo thời gian thực. Thứ nữa, nó chứa “bàn phím bí mật” để đảm bảo mật khẩu và các thông tin nhạy cảm không bị ăn cắp. Khi người sử dụng truy cập một website đòi nhập password, họ sẽ gõ nó trên bàn phím ảo, sau đó dán trực tiếp vào phần điền thông tin trên trang.

CCleaner

Máy tính lưu các hoạt động lướt web của người sử dụng dưới dạng file tạm thời, history, cookies… Nhưng kẻ xấu có thể dễ dàng kiểm soát được lượng thông tin này của họ. CCLeaner giúp hệ thống của người dùng thoát khỏi những rắc rối đó.

NoScript

Nhiều hacker ngụy trang lệnh Java và JavaScript như là những công cụ hữu ích để thực hiện hành vi xấu. NoScript sẽ chặn tất cả các ứng dụng JavaScript và Java, trừ trên những website mà người dùng đã xác nhận là an toàn.

File Shredder 2

File Shredder 2.
File Shredder 2.

Một số người lầm tưởng chỉ cần nhấn “Delete” là file đó biến mất trên máy tính. Nhưng ngay cả khi họ dọn sạch Recycle Bin, những phần mềm chuyên dụng vẫn có thể khôi phục lại file đó. File Shredder 2 sẽ giúp ghi đè và xé lẻ bất cứ tệp tin nào với chuỗi nhị phân ngẫu nhiên.

Phamen

Tầm quan trọng của liên kết sâu

Một liên kết là khi bạn liên kết đến một top domain name[1], ví dụ như phamen.com. Một liên kết sâu là khi bạn liên kết đến một bài viết ở trong một top level domain, ví dụ như: Tạo blog với tên miền riêng. Google và các bộ

tìm kiếm khác, khi quyết định xếp hạng và vị trí trên các kết quả tìm kiếm đều tính đến 2 yếu tố này.

Khi viết một bài trên blog, bạn nên luôn cố gắng liên kết sâu đến một hoặc một số bài viết trước đây. Bạn không thể điều khiển được link từ các site khác đến blog của bạn nhưng bạn có thể kiểm soát được bạn liên kết đến đâu. Bằng việc liên kết sâu đến các bài viết trước đây, bạn giúp người đọc phát hiện ra các bài viết mà có thể họ bỏ lỡ chưa đọc và đồng thời bạn cũng giúp cả Google tìm ra các bài này. Để thấy ví dụ tôi đã sử dụng liên kết sâu như thế nào, hãy xem tóm tắt Kiếm tiền từ blog - Tháng 2 năm 2007. Trong bài viết đó tôi đã sử dụng liên kết sâu đến 12 bài viết khác trên John Chow dot com.

Như là một quy luật, bạn nên sử dụng các liên kết sâu khi các bài viết trước đây mà bạn muốn liên kết đến có liên quan đến bài viết hiện tại của bạn. Nhưng vẫn có ngoại lệ. Trong bài viết Blast From The Past, điều duy nhất liên quan tới những bài viết mà tôi liên kết đến chỉ là những gì thuộc về quá khứ. Bạn cần phải sáng tạo khi sử dụng liên kết sâu. Bạn có thể liên kết sâu đến hầu hết các bài bạn đã từng viết tùy vào việc bạn sử dụng từ ngữ trong bài viết như thế nào.

Chiến đấu với những Scraper[2]

Một lý do khác tôi thường sử dụng liên kết sâu trong hầu như mọi biết viết là bọn scraper. Tôi cung cấp cho mọi người feed RSS đầy đủ, do vậy bọn scraper rất dễ lấy hết toàn bộ nội dung trên blog của tên và post lại trên blog của họ. Hầu hết các scraper này đều copy lấy bộ nội dung của bài viết còn nguyên tất cả các liên kết trong đó. Nếu bài viết của bạn có rất nhiều link liên kết sâu trở lại blog của mình, thì bạn sẽ có thêm một số lợi ích về SEO và khách xem từ blog của bọn scraper.

Liên kết sâu đồng thời cũng giúp bạn tìm ra ai đã đánh cắp nội dung của bạn. Tôi luôn nhận được pingback từ blog của scraper bởi vì tôi đã sử dụng liên kết sâu đến các bài viết khác. Hầu hết các scraper này sử dụng Blogger.com và tôi chỉ cần nhấn vào liên kết thông báo “flag this blog” để thông báo cho Blogger.com và hi vọng họ sẽ đóng cửa blog đó. Nhưng nếu chúng không bị đóng cửa, thì ít nhất tôi cũng có các liên kết trên những blog đó quay lại blog của mình. Điều này không có nghĩa là tôi không luôn cố gắng để làm cho những nội dung bị đánh cắp không được phép tồn tại - đó là cách giảm những tổn hai do bọn scraper gây ra. Nếu quá nhiều nội dung của bạn bị đánh cắp, nó có thể có ảnh hưởng tiêu cực tới sếp hạng trên Google của bạn vì nội dung bị trùng lặp và bởi vì Google nghĩ bạn đang spam liên kết.

Sử dụng từ ngữ có sức kết dính tốt khi liên kết sâu

Tôi đã viết hết những điều này trong bài Từ ngữ có sức kết dính tốt hơn = Kết quả tìm kiếm tốt nhất nên tôi sẽ không tốn thời gian nhiều để nói lại nữa. Bạn đừng bao giờ nên liên kết đến các

cũ với từ “Click here”. Thay vì thế, bạn hãy luôn sử dụng một từ ngữ miêu tả có sức kết dính để tối ưu hơn cho bộ máy tìm kiếm. Đây cũng là nguyên tắc cho các liên kết đến các blog khác.

Đây là phần 31 trong cuốn Ebook “Hướng dẫn kiếm tiền trên mạng” của John Chow.

Tất cả các phần: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35


Hãy tạo file robots.txt cho blog

File robots.txt dùng để hướng dẫn cho các con robot của các bộ máy tìm kiếm biết trang hoặc phần nào trên website hay blog của bạn nên đọc và thường xuyên đến để đánh chỉ mục, trang hoặc phần nào không nên đọc. Hầu hết các website và các blog đều có các thư mục chẳng liên quan gì hoặc chẳng có tác dụng gì cho các bộ máy tìm kiếm như là các file ảnh và các file admin. Vì thế việc tạo một file robots.txt hoàn toàn có thể cải thiện được việc đánh chỉ mục cho website hay blog của bạn.

File robots.txt là một file văn bản đơn giản, bạn có thể tạo nó bằng Notepad. Nếu như bạn sử dụng Wordpress thì file robots.txt mẫu có thể tạo như sau:

User-agent: *
Disallow: /wp-
Disallow: /feed/
Disallow: /trackback/

“User-agent: *”: câu lệnh này có nghĩa là cho phép tất cả các con bot tìm kiếm (từ Google, Yahoo, MSN và các bộ máy tìm kiếm khác) sẽ dùng lệnh hướng dẫn này để đọc website hay blog của bạn. Trừ khi website hay blog của bạn quá phức tap, nếu không bạn không cần đặt các chỉ dẫn khác nhau cho các spider khác nhau. Bạn chỉ cần đặt y như trên là đủ.

“Disallow: /wp-“: câu lệnh này giúp các con bot của các bộ máy tìm kiếm bỏ qua tất cả các file của Wordpress (các file trong các folder như: wp-admin, wp-content, wp-includes) khi đánh chỉ mục cho blog của bạn. Nó giúp bạn tránh bị trùng lặp nội dung và đọc các file admin nhạy cảm.

Còn nếu các bạn không dùng Wordpress, hãy thay thế những dòng Disallow bằng các file hay các folder trên website mà bạn không muốn các con bot này nhòm ngó đến. Ví dụ:

User-agent: *
Disallow: /images/
Disallow: /cgi-bin/
Disallow: /bất cứ file hay folder nào mà bạn không muốn crawler đọc/

Sau khi bạn đã tạo xong file robots.txt, hãy upload nó lên thư mục gốc trên web host của bạn. Thế là xong thôi. Bây giờ thì bạn có thể an tâm là các con robot của các bộ máy tìm kiếm chỉ đọc nội dung trên blog của bạn chứ không đọc nội dung của các file Wordpress. Điều này là thực sự quan trọng vì nó giúp nội dung trên blog của bạn sẽ không bị trùng lặp, và các thông tin của các file nhạy cảm cần bảo mật trên web host sẽ không bị chúng nhòm ngó.

Phamen