Mẫu file robots.txt chuẩn dành cho website WordPress, có thể áp dụng cho tất cả các website.
Nếu các bạn chưa biết thì robots.txt là một trong những file có vai trò rất quan trọng đối với việc SEO website. Nó không những quy định cách thức các công cụ tìm kiếm có thể thu thập và lập chỉ mục trên website mà còn có thể ảnh hưởng tới khả năng hiển thị của website (tính thân thiện với thiết bị di động) khi Google Bots truy xuất dữ liệu. Do đó, có một file robots.txt chuẩn là bước đầu tiên mà các bạn cần làm khi tối ưu website cho các công cụ tìm kiếm.
Tham khảo thêm:
File robots.txt là gì?
Robots Exclusion Standard được phát triển từ năm 1994, nhằm giúp các webmaster có thể “tư vấn” cho các công cụ tìm kiếm cách thu thập thông tin từ website của họ. Nó hoạt động theo cách tương tự như các robot meta tag. Điểm khác biệt chính giữa chúng là các file robots.txt sẽ ngăn cản việc công cụ tìm kiếm truy cập vào một trang hoặc thư mục, trong khi các robot meta tag chỉ kiểm soát việc lúc nào thì trang hoặc thư mục đó được lập chỉ mục (index).
Đặt một file robots.txt trong thư mục gốc của tên miền cho phép bạn ngăn chặn công cụ tìm kiếm lập chỉ mục các tập tin và thư mục nhạy cảm. Ví dụ, bạn có thể ngăn chặn một công cụ tìm kiếm thu thập dữ liệu từ thư mục hình ảnh của bạn hoặc lập chỉ mục một tập tin PDF nằm trong một thư mục bí mật.
Các công cụ tìm kiếm lớn sẽ thực hiện theo các quy tắc mà bạn thiết lập. Tuy nhiên, không phải lúc nào các quy tắc mà bạn xác định trong tập tin robots.txt cũng được thi hành. Trình thu thập dữ liệu của các phần mềm độc hại và các công cụ tìm kiếm nhỏ có thể không tuân thủ các quy tắc và index bất cứ điều gì họ muốn. Rất may, các công cụ tìm kiếm lớn hoạt động theo các tiêu chuẩn này, bao gồm cả Google, Bing, Yandex, Ask và Baidu.
Các bạn có thể tham khảo thêm tài liệu về file robots.txt do chính Google cung cấp tại đây.
Các quy tắc cơ bản của Robots Exclusion Standard
Không mất quá nhiều thời gian để có được một sự hiểu biết đầy đủ về Robots Exclusion Standard. Chỉ có một vài quy tắc mà bạn cần phải tìm hiểu. Những quy tắc này thường được gọi là “chỉ thị”.
Ba chỉ thị chính của Robots Exclusion Standard là:
- User-agent: xác định các công cụ tìm kiếm mà quy tắc được áp dụng.
- Disallow: ngăn cản các công cụ tìm kiếm thu thập thông tin và lập chỉ mục.
- Allow: cho phép các công cụ tìm kiếm thu thập thông tin và lập chỉ mục.
Dấu hoa thị (*) có thể được sử dụng như một ký tự đại diện cho tất cả các công cụ tìm kiếm. Ví dụ, bạn có thể thêm dòng sau vào file robots.txt để ngăn chặn các công cụ tìm kiếm thu thập thông tin trên toàn bộ website của bạn.
User-agent: *
Disallow: /
Các chỉ thị trên là hữu ích nếu bạn đang phát triển một website mới và không muốn các công cụ tìm kiếm lập chỉ mục khi nó chưa được hoàn thiện.
Một số website sử dụng chỉ thị Disallow mà không có dấu gạch chéo (/) để biểu thị một trang web có thể được thu thập dữ liệu. Điều này cho phép các công cụ tìm kiếm có đầy đủ quyền truy cập vào toàn bộ website của bạn.
User-agent: *
Disallow:
Để ngăn chặn việc thu thập dữ liệu với các thư mục hoặc đường dẫn cụ thể, bạn chỉ cần thêm đường dẫn hoặc tên thư mục vào sau chữ Disallow . Trong ví dụ dưới đây, tôi đã quy định các công cụ tìm kiếm không được phép thu thập thông tin của thư mục /images/ và toàn bộ các tập tin cũng như thư mục con chứa trong nó:
User-agent: *
Disallow: /images/
Điều này có được là do robots.txt sử dụng đường dẫn tương đối, không sử dụng đường dẫn tuyệt đối. Các dấu gạch chéo (/) thay thế cho thư mục gốc của tên miền và do đó áp dụng quy tắc cho toàn bộ website của bạn. Đường dẫn là trường hợp nhạy cảm, vì vậy hãy chắc chắn sử dụng đúng trường hợp khi xác định các tập tin, các trang và thư mục.
Cách tạo file robots.txt trong WordPress
Có 2 cách khác nhau để làm điều này: tạo bằng phương pháp thủ công hoặc sử dụng plugin.
Tạo file robots.txt bằng phương pháp thủ công
Một tập tin robots.txt có thể được tạo ra trong vài giây. Tất cả những gì bạn phải làm là mở một trình soạn thảo văn bản (NotePad hoặc NotePad++) và lưu một tập tin trống với tên “robots.txt”.
Sau khi thêm một số quy tắc vào tập tin, hãy lưu nó lại và upload lên thư mục gốc của tên miền, tức là tại địa chỉ https://yourwebsite.com/robots.txt
. Hãy đảm bảo bạn đã upload tập tin robots.txt vào thư mục gốc của tên miền, ngay cả khi WordPress được cài đặt trong một thư mục con.
Tạo file robots.txt bằng plugin
Các plugin hỗ trợ SEO website WordPress (Yoast SEO, Rank Math, AIOSEO…) hầu hết đều được trang bị sẵn tính năng tạo file robots.txt. Ví dụ đối với plugin Yoast SEO, các bạn có thể truy cập SEO => Tools => File editor => click vào nút Create robots.txt file.
Sau khi file robots.txt mặc định được tạo ra, các bạn có thể tùy chỉnh nội dung của nó rồi click vào nút Save changes to robots.txt để lưu lại.
Công cụ tìm kiếm sẽ kiểm tra tập tin robots.txt ở thư mục gốc của tên miền mỗi khi chúng bắt đầu tiến hành thu thập thông tin từ website của bạn. Lưu ý, các bạn sẽ cần phải tạo các file robots.txt riêng biệt cho mỗi tên miền phụ (subdomain) và các giao thức khác nhau.
File robots.txt chuẩn cho website WordPress
Đây là một trong những mẫu file robots.txt chuẩn nhất, tối ưu nhất, được nhiều blogger WordPress nổi tiếng tin dùng. Bạn cũng có thể sử dụng nó cho website WordPress của mình. Tuy nhiên, hãy nhớ tùy biến nó cho phù hợp với từng hoàn cảnh cụ thể.
User-agent: *
Disallow: /wp-admin/
Disallow: /readme.html
Disallow: /license.txt
Disallow: /?s=*
Allow: /wp-admin/admin-ajax.php
Allow: /wp-admin/images/*
Sitemap: https://wpcanban.com/sitemap_index.xml
Lưu ý:
- Thay
https://wpcanban.com/sitemap_index.xml
bằng đường link đến XML sitemap của bạn. - Không nên chặn Google và các công cụ tìm kiếm khác thu thập dữ liệu trong các thư mục
/wp-content/themes/
và/wp-content/plugins/
. Điều đó sẽ cản trở việc Google có một cái nhìn chính xác nhất về giao diện website của bạn. Ngoài ra, nó cũng có thể gây ra lỗi website không thân thiện với thiết bị di động.
Bạn đang sử dụng mẫu file robots.txt nào cho website WordPress của mình? Theo bạn, mẫu file robots.txt đó có thực sự tối ưu hay không? Hãy chia sẻ nó với chúng tôi thông qua khung bình luận bên dưới.
Nếu bạn thích bài viết này, hãy theo dõi blog của tôi để thường xuyên cập nhật những bài viết hay nhất, mới nhất nhé. Cảm ơn rất nhiều. :)
Admin cho e hỏi.. Nếu mình không cho google index website của mình thì có bị google phạt ko ạ..
User-agent: *
Disallow: /
Cám ơn admin.
Không bạn nhé. Vì chặn index đâu có phải là vi phạm chính sách của Google. :)
Em định cập nhật lại tất cả url bài viết và chuyên mục
Nếu vậy thì bạn nên dùng plugin redirect 301 từ link cũ về link mới sẽ tốt hơn. Dùng tính năng Redirect của Yoast SEO Premium chẳng hạn.
Thank anh. Trước h e toàn để nguyên, thỉnh thoảng check thì thấy google index những trang đâu đâu.
Bữa đang tạo, sẵn lên Website của bạn lấy y cái của bạn về dùng ! Cho tất cá các Website !
Phải chỉnh sửa tí cho phù hợp với từng site chứ. Bê y nguyên không tốt lắm đâu. :)
Hi hi … Mình cũng có tùy chỉnh của mình vào đó, chứ không Copy y nguyên !!!
Kiểu như vầy nè ! AD thấy có đúng không?
” User-agent: *
Disallow: /wp-admin/
Disallow: /search/?q=*
Allow: /wp-admin/admin-ajax.php
Allow: /wp-admin/images/*
Sitemap: http:// fontviet.com / sitemap_index.xml
Thực ra cái dòng
Disallow: /search/?q=*
là dành riêng cho blog của mình. Mình dùng Google Custom Search và hiển thị kết quả tìm kiếm trên trang /search/ nên mới có cái đó. :PÀ, mình hiểu rồi, để sửa lại! Mà không sửa, cũng đâu ảnh hưởng gì đến vì có cấm cái không tồn tại cũng như không cấm vậy thôi !
Mình muốn không cho robots index hình ảnh trong bài viết. Vậy làm thế nào hả admin..
Thanks
Yoast SEO có tính năng chặn index hình ảnh và redirect link hình ảnh về link bài viết mà bạn. :P Hoặc bạn có thể disallow thư mục /wp-content/uploads/
Mục feed có cần chặn không anh ơi!
Không cần chặn Feed đâu bạn nhé. :P
Vâng anh, nhưng trong Search Console nó báo bị loại bởi thẻ noindex nghe khó chịu quá, mặc dụ nó vẫn không index :D
Xin chào Ad!
Mình có thêm file robot.txt theo như cách của bạn nhưng không thấy hiển thị mà nó chỉ lặp đi lặp lại đúng như file này & không thể thêm gì
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Và mình test sitemap cho trang http://www.vinacom.biz/sitemap.xml
Bị báo lỗi nhưng mình không tìm ra cách để khắc phục
Mong được AD giúp đỡ. Hix
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Sitemap: https://wpcanban.com/sitemap_index.xml
Vì hiện tại mình đang làm web bán hàng nên có seo cả ảnh nữa. Nên mình bỏ
Allow: /wp-admin/images/*
đi để google có thể index ảnh đúng không hiếu?
Bạn nhầm rồi. Allow: /wp-admin/images/* là cho phép index ảnh trong thư mục /wp-admin/. Nó ghi đè lên dòng Disallow: /wp-admin/. Nên bạn không cần phải bỏ gì cả. :P
À à rồi, cảm ơn bạn nhiều nhé :))
Rât nhiệt tình! (y)
Cho mình hỏi thêm cái này nữa với. cái này tức là mình chặn những trang mà không cần gg index. Có phải là mục đích giúp gg làm việc hiệu quả hơn trên site của mình? vậy mình có những trang như liên hệ, chính sách… mình cũng cần chặn luôn đúng không bạn?
Mấy trang như liên hệ, chính sách… thì nên chặn index bạn nhé. :P
OK cảm ơn bạn nhiều.
Tình hình là mình đã tải file lên thư mục gốc trong host. Nhưng 2 ngày kiểm tra lại trên Webmaster tool vẫn không thấy nó cập nhật Hiếu ơi. Tư vấn cho mình với
Bạn upload đúng thư mục chứa mã nguồn web chưa? Sau khi upload, bạn đã thử truy cập link robots.txt chưa? Bạn đã vào Google Search Console và yêu cầu cập nhật file robots.txt chưa? :P
Link ảnh bạn xem giúp mình. Mình cũng up lên chỗ tệp Html. Xong vào Webmaster tool nhấp vào gửi -> nhấp vào cái thứ 3 là yêu cầu google cập nhật rồi. mà sao vẫn không được nhỉ?
http://www.upsieutoc.com/image/p9bRwb
http://www.upsieutoc.com/image/p9bDpL
Anh Hiếu cho em hỏi sitemap của e như thế này có ổn không ạ?
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Allow: /wp-admin/js/
E thấy google webmasters tool báo lỗi tài nguyên bị chặn:
/wp-admin/js/password-strength-meter.min.js?ver=4.8.1
Nên E có thêm /wp-admin/js/ để bỏ chặn mục này ạ. Em cám ơn anh!
Được bạn nhé. Không vấn đề gì. :)
Dạ. E cám ơn anh!
trong file robots.txt của website bán hàng có nên Disallow: /images/ k bạn nhỉ?
Website nào thì cũng không nên chặn index hình ảnh bạn nhé. Thay vào đó bạn có thể dùng Yoast SEO để redirect từ link của hình ảnh về link của bài viết/ sản phẩm khi bots tìm kiếm thu thập dữ liệu. :)
Chào a! Em muốn hỏi là khi em cài SSL thì http sẽ chuyển thành https lúc đó e sẽ phải khai báo lại với Google search console. Nếu như vậy thì sitemap của e cũng phải thay đổi lại thành https, vậy a chỉ cách e làm sao thay đổi sitemap thành https (cả nội dung sitemap), đồng thời robots.txt cũng phải được đổi lại https, vậy robots.txt (của http cũ) sẽ để nguyên hay xóa cài cái https?
Hi vọng a trả lời sớm nhất. Nếu được a có thể làm 1 bài viết về đề tài này thì tốt quá. Cảm ơn a :D
Mình đã có bài viết về vấn đề này rồi mà bạn. Bạn tham khảo “Hướng dẫn chuyển từ HTTP sang HTTPS không bị mất thứ hạng” nhé. :P