click

Robots txt คืออะไร สำคัญต่อเว็บไซต์และ SEO แค่ไหน

2 Mins read
2 Mins read
Apr 10, 2024
Robots.txt คืออะไร มีวิธีการสร้างยังไง รวมถึงประโยชน์ของไฟล์นี้ และข้อควรระวังในการใช้
Apr 10, 2024

หัวใจของการทำ SEO เพื่อให้เว็บไซต์ติดอันดับไม่ใช่เพียงแค่เลือก Keyword แต่แท้ที่จริงแล้วคือการเข้าใจพื้นฐานโครงสร้างต่าง ๆ ไปพร้อม ๆ กัน โดยโครงสร้างต่าง ๆ ของการทำ SEO นั้น มีอยู่มากมายหลายเรื่องมาก ซึ่งในบทความนี้เราจะมาทำความรู้จักกับ robots.txt อีกหนึ่งเทคนิคที่จะช่วยให้คุณทำ SEO ได้อย่างมีประสิทธิภาพมากขึ้น

Robots.txt คืออะไร?

Robots.txt คืออะไร ส่วนนี้จะอธิบายความหมายของ Robots.txt

เป็นไฟล์สคริปต์ที่ถูกสร้างขึ้นเพื่อบอกให้บอทของ Search Engine ทราบว่าเว็บไซต์หน้าไหนที่เราอยากให้เข้ามาเก็บข้อมูลหรือไม่ต้องการที่จะเก็บข้อมูล ซึ่งปกติ Search Engine Crawler จะเข้ามาค้นเว็บไซต์และจัดทำดัชนีอัตโนมัติ ดังนั้นเราจึงต้องทำเครื่องหมายกำกับไว้เพื่อไม่ให้บอทเข้าไปค้นทุกอย่างรวมถึงข้อมูลที่เราไม่อยากเปิดเผยนั่นเอง

ซึ่งหากเจ้าของธุรกิจมองว่าการทำ SEO ในเรื่องนี้นั้น เป็นเรื่องที่ซับซ้อน และต้องใช้ความชำนาญในการทำ Cotactic สามารถช่วยคุณแก้ไขปัญหาได้อย่างง่ายดาย เพราะเราเป็น SEO Agency ทำให้คุณหมดห่วงเรื่องการทำ SEO ไปได้เลย

ประโยชน์สำหรับการทำ SEO

ประโยชน์ของ Robots.txt จะอธิบายถึงประโยชน์ว่าไฟล์ Robots.txt มีประโยชน์อย่างไร สำคัญไหมต่อ SEO

ช่วยป้องกันไม่ให้บอทเข้ามาค้นหาและเอาหน้าเพจหรือข้อมูลบางอย่างที่เราไม่ต้องการไปแสดงเป็นผลลัพธ์ของการค้นหา เพื่อให้ผู้ที่เข้ามาใช้งานบนเว็บไซต์เข้ามายังหน้าเพจที่เราต้องการจริง ๆ

ป้องกันไฟล์หรือข้อมูลที่ไม่ต้องการเปิดเผย

เราอาจมีบางไฟล์ที่เราต้องการเก็บเป็นความลับเช่นข้อมูลส่วนตัว ข้อมูลสมาชิก ไฟล์เอกสารของสมาชิกหรือข้อมูลที่ไม่ต้องการให้ปรากฏในเครื่องมือค้นหา ซึ่งเราสามารถใช้ Robots.txt บล็อกไม่ให้บอทเข้าถึงเนื้อหาเหล่านี้ได้

ช่วยลดการเข้าถึงหน้าที่ไม่จำเป็น

ช่วยบล็อกไม่ให้บอทเข้ามาค้นหาเพจที่ซ้ำซ้อน เพจที่ไม่ได้ถูกเผยแพร่ หรือหน้าที่ไม่ควรแสดงผลบนการค้นหาที่อาจจะทำให้เครื่องมือค้นหาทำการประเมินลดลง เช่น หน้าที่เป็นส่วนของเว็บแอปพลิเคชัน หรือหน้าเข้าสู่ระบบ

ช่วยลดปริมาณการใช้ Crawl

ช่วยให้บอทเก็บข้อมูลได้ดีขึ้น มีความเจาะจงมากขึ้น ส่งผลให้เว็บไซต์มีโอกาสถูกจัดอันดับในผลการค้นหาได้มากขึ้น และ Web Performance ที่ดีขึ้น

ป้องกันบอทไม่ให้ทำ Index ไฟล์บนเว็บไซต์

บางครั้งอาจต้องการแยกไฟล์ เช่น PDF วิดีโอ และรูปภาพออกจากผลการค้นหา เพื่อเก็บไว้เป็นส่วนตัวหรือให้ Google มุ่งเน้นไปที่เนื้อหาที่สำคัญกว่า

สคริปต์และคำสั่ง Robots.txt ที่ควรรู้

สามารถถูกสร้างขึ้นผ่านเครื่องมือ Noteped, Sublime Text, Visual Studio Code เป็นต้นโดยหลัก ๆ จะมีคำสั่งที่จะทำหน้าที่บล็อก (Disallow) หรืออนุญาต (Allow) ให้บอทเข้ามา Crawl เว็บไซต์ทั้งเว็บไซต์หรือเฉพาะบางเพจที่เราเลือกไว้ รวมไปถึงคำสั่งที่บอกโลเคชันหรือ URL ของ Sitemap ด้วย

User-agent

คำสั่งนี้จะเป็นการบอกว่า Search Engine Crawler ต่าง ๆ ได้แก่ Googlebot, Bingbot, Yahoobot, AdsBot-Google, Googlebot-Image ฯลฯ ให้สามารถเข้าเก็บข้อมูลภายในเว็บไซต์ของเราได้ (ถ้าหากใช้เครื่องหมาย ดอกจัน (*) จะเป็นการบ่งบอกถึงให้ Crawler ทุกตัวเข้ามาเก็บข้อมูลได้)

Disallow

เป็นคำสั่งที่ไม่อนุญาตให้ Crawler ของ Search Engine (หรือ User-agent) เข้ามาเก็บข้อมูลในไฟล์หรือเข้าถึงโฟลเดอร์ เช่น Disallow: /users-account/ หมายความว่าเราไม่ต้องการให้บอทเข้ามาเก็บข้อมูลใน Subfolder ที่ชื่อ users-account

Allow

เป็นคำสั่งที่อนุญาตให้ Crawler ของ Search Engine (หรือ User-agent) เข้ามาเก็บข้อมูลในไฟล์หรือเข้าถึงโฟลเดอร์ เช่น Allow: /users-account/information.php หมายความว่าเราต้องการให้บอทเข้ามาเก็บข้อมูลใน Subfolder ดังกล่าว หรือแบบมีเงื่อนไข Disallow เช่น

Disallow: /users-account/

Allow: /users-account/information.php

หมายความว่าใน Folder ที่ชื่อ users-account ทั้งหมดเราไม่ต้องการให้บอทเข้ามาเก็บข้อมูลได้ยกเว้น /users-account/information.php

Sitemap

เป็นคำสั่งบอกตำแหน่งของ Sitemap ของเว็บไซต์ เพื่อให้ Crawler เข้าถึงโครงสร้างของเว็บไซต์ที่สร้างขึ้น ซึ่งคำสั่งนี้ อาจจะใส่หรือไม่ใส่ก็ได้ โดยคำสั่งดังกล่าวต้องเป็น URL ที่ถูกต้องสมบูรณ์เช่น https://www.test.com/sitemap.xml

วิธีการสร้างไฟล์ Robots.txt

การสร้าง Robots.txt มีวิธีการสร้างยังไง

หลังจากที่เรารู้คำสั่งต่าง ๆ เบื้องต้นแล้ว แต่หากยังไม่มีไฟล์ หรือหาไม่เจอ เราสามารถทำการสร้างไฟล์ขึ้นมา โดยมี 2 วิธีด้วยกัน 

สร้างด้วยตัวเอง

ใช้โปรแกรม notepad , notepad++ หรือ TextEdit (Mac) ก็ได้ ไฟล์ที่สร้างนี้จะต้องชื่อ robots.txt เท่านั้น และต้องเอาไฟล์นี้ไปวางไว้ที่ public_html โดยจะมีขั้นตอนดังนี้

  1. ไปที่ ControlPanel หรือหน้าต่างจัดการ Hosting ของเราซึ่งเข้าผ่านเว็บ Hosting
  2. เข้า “File” และคลิกที่ “File Manager”
  3. จากนั้นให้เลือกเว็บโดเมนที่เราต้องการนำไฟล์ไปติด
  4. สร้างโฟลเดอร์ชื่อว่า “robots.txt” โดยสร้างไว้ในโฟลเดอร์ /public_html/
  5. เมื่อสร้างเสร็จแล้วให้คลิกขวาที่โฟลเดอร์อันที่เราพึ่งสร้างและเลือก “Edit”
  6. จากนั้นจะมีหน้าต่างขาว ๆ ขึ้นมา ให้เรา Copy ไฟล์ที่เราเขียนไว้ มาวาง จากนั้นกด “Save” เป็นอันเสร็จสิ้น

สร้างด้วย Plugin

สำหรับผู้ที่ใช้งาน WordPress สามารถสร้างไฟล์ได้จาก Plugin “All In One SEO”ซึ่งจำเป็นต้องติดตั้งปลั๊กอินตัวนี้กับ WordPress ของเราก่อนโดยมีขั้นตอนทั้งหมดดังนี้

  1. เลือกเมนู “Plug-in” ในหน้า WordPress ของเราแล้วค้นหาปลั๊กอิน All In One SEO จากนั้น Install ให้เรียบร้อยและกด Activate เพื่อให้ Plug-in ทำงาน
  2. เมื่อติดตั้งเรียบร้อยแล้ว กลับไปที่หน้า Dashboard ที่เมนูด้านซ้ายคลิกที่ All in One SEO จากนั้นคลิกที่ Tools
  3. หาส่วนที่เขียนว่า “Enable Custom Robots.txt” และกด Activate ปลั๊กอินจะปรากฏช่องสำหรับเขียนไฟล์โรบอทขึ้นมาให้
  4. ใส่ User Agent, Rule (เลือกระหว่าง Allow กับ Disallow), และ Directory Path หรือ URLs ที่เราต้องการ
  5. หากต้องการเพิ่ม Rule ให้กด “Add Rule” เมื่อเสร็จกด “Save Change” เป็นอันเสร็จสิ้น

ซึ่งยังมีอีกหลาย Plug-in อาทิเช่น Yoast และ Rankmath ที่สามารถสร้างไฟล์ได้เช่นเดียวกัน

ข้อควรระวังในการทำ

ข้อควรระวังในการทำ Robots.txt มีข้อควรระวังอะไรบ้าง และจะส่งผลอย่างไร

 

เป็นการเขียน Script คำสั่ง หาก Script ไม่ถูกต้อง หรือใช้คำสั่งผิด จะส่งผลต่อการเก็บข้อมูลและรวมไปถึงการจัดทำ Index บนเว็บไซต์ทั้งหมดของบอท ซึ่งอาจจะส่งผลเสียต่อเว็บไซต์ที่เราต้องการให้ติดอันดับ

เบื้องต้นสามารถตรวจสอบความถูกต้องของ Script ได้ที่ Google Search Console ด้วยเครื่องมือ Robots Testing Tool หากมีข้อผิดพลาดหรือน่าสงสัย Robot Testing Tool จะเตือนจำนวน Errors และ Warnings ให้ แต่ถ้าไม่มีข้อผิดพลาด จะขึ้นเป็น 0

สรุป

เป็นเครื่องมือสำคัญที่ช่วยในเรื่องของการประเมินคะแนน SEO ของเว็บไซต์ เนื่องจากเป็นเครื่องมือที่ช่วยควบคุมการเข้าถึงของบอทและทำให้เราสามารถกำหนดสิ่งที่ต้องการและไม่ต้องการในการแสดงผลบนเครื่องมือค้นหาได้ ดังนั้นหากเรานำมาใช้อย่างถูกต้องเชื่อว่าจะส่งผลดีต่อ คะแนน SEO ของเว็บไซต์ได้ไม่มากก็น้อย

ต้องการที่ปรึกษา หรือทีมงานมืออาชีพรับทำ SEO มาช่วยจัดการแก้ไขปัญหาและดันเว็บไซต์ให้ธุรกิจติดอันดับ 1 ติดต่อ Cotactic เลยวันนี้

โทร.065-095-9544

Inbox: m.me/cotactic  

Line: @cotactic

ให้ COTACTIC ดูแลธุรกิจของคุณ

เหมือนทีมการตลาดส่วนตัว


[wpdevart_facebook_comment curent_url="https://www.cotactic.com/" order_type="social" title_text="Facebook Comment" title_text_color="#000000" title_text_font_size="22" title_text_font_famely="Montserrat" title_text_position="left" width="100%" bg_color="#d4d4d4" animation_effect="random" count_of_comments="3" ]

บทความที่เกี่ยวข้อง

แนวคิด Mobile First เพื่อประสบการณ์ใช้งานบนมือถือที่ดีขึ้น

พฤติกรรมผู้บริโภคเปลี่ยนไปอย่างรวดเร็วในยุคดิจิทัล โดยเฉพาะการใช้อินเทอร์เน็ตผ่านสมาร์ตโฟนที่เพิ่มขึ้นต่อเนื่อง ข้อมูลล่าสุดชี้ว่าผู้คนใช้เวลาในการท่องเว็บผ่านมือถือมากกว่าคอมพิวเตอร์ถึง 60% ซึ่งสะท้อนให้เห็นว่าอุปกรณ์มือถือกลายเป็นช่องทางหลักในการเข้าถึงข้อมูล การซื้อขาย และการตัดสินใจของผู้บริโภค จากแนวโน้มนี้ธุรกิจไม่สามารถมองข้ามเรื่องดังกล่าวได้ การปรับตัวให้ทันพฤติกรรมผู้บริโภคช่วยให้ก้าวผ่านความเปลี่ยนแปลงได้ง่ายขึ้น ปัจจุบันการมีเพียงเว็บไซต์ที่แสดงผลบนมือถือได้ดีไม่เพียงพออีกต่อไป แต่ต้องเริ่มออกแบบโดยให้มือถือเป็นศูนย์กลางของประสบการณ์ผู้ใช้ แนวคิดนี้เรียกว่า Mobile First Design หรือการออกแบบโดยคำนึงถึงหน้าจอมือถือก่อน แล้วค่อยขยายไปยังอุปกรณ์อื่น ๆ Mobile First ไม่ได้ช่วยแค่ประสบการณ์ผู้ใช้งานเท่านั้น แต่ยังส่งผลโดยตรงต่อประสิทธิภาพเว็บไซต์ด้าน SEO เว็บไซต์ที่โหลดเร็ว ใช้งานง่ายบนมือถือ และมีโครงสร้างเหมาะสมกับพฤติกรรมผู้ใช้ จะได้รับคะแนนจาก Google สูงขึ้น ทำให้มีโอกาสติดอันดับผลการค้นหาได้ดีและดึงลูกค้าใหม่โดยไม่ต้องเสียค่าโฆษณาเพิ่มเติม บทความนี้จะพาไปทำความเข้าใจ Mobile First อย่างลึกซึ้ง ทั้งความสำคัญต่อธุรกิจในยุคดิจิทัล และเทคนิคการออกแบบหรือปรับปรุงเว็บไซต์ให้ตอบโจทย์ผู้ใช้งานมือถืออย่างมีประสิทธิภาพสูงสุด Mobile First คืออะไร? คือ แนวทางออกแบบเว็บไซต์โดยเริ่มจากการวางแผนสำหรับหน้าจอมือถือเป็นอันดับแรก ก่อนขยายไปยังหน้าจอใหญ่กว่า เช่น แท็บเล็ตหรือเดสก์ท็อป หลักการของ Mobile First คือให้ความสำคัญกับข้อมูลและฟังก์ชันสำคัญที่สุด เนื่องจากพื้นที่หน้าจอมือถือจำกัด นักออกแบบจึงต้องคัดสรรเฉพาะสิ่งจำเป็นและมีประโยชน์สูงสุดต่อผู้ใช้ วิธีนี้แตกต่างจากแนวทาง Desktop First แบบเดิม ซึ่งเริ่มออกแบบบนหน้าจอใหญ่แล้วค่อยย่อให้เหมาะกับมือถือ วิธีเดิมมักก่อปัญหาเรื่องประสบการณ์ผู้ใช้และประสิทธิภาพของเว็บไซต์ […]

ทำไม Content is King ถึงยังสำคัญในยุคดิจิทัล

ทุกวันนี้มีข้อมูลมากมาย AI ช่วยให้ผู้คนสร้างสิ่งต่าง ๆ ได้ง่ายขึ้น การแข่งขันทางธุรกิจบนโลกออนไลน์กำลังทวีความรุนแรงมากขึ้นทุกวัน หลายแบรนด์พยายามดึงดูดความสนใจจากผู้บริโภคด้วยเทคโนโลยีและกลยุทธ์การตลาดใหม่ ๆ มากมาย แต่สิ่งหนึ่งที่ยังคงความสำคัญเหนือกว่าคือคอนเทนต์ที่มีคุณภาพ หลายคนอาจสงสัยว่าทำไมแนวคิด Content is King ถึงยังคงได้รับการยอมรับและนำมาใช้อย่างแพร่หลาย แม้ว่าจะผ่านมาหลายปีแล้วก็ตาม ความจริงแล้วการสร้างคอนเทนต์ที่ดีไม่ได้หมายถึงเพียงการเขียนข้อความที่สวยงามเท่านั้น แต่คอนเทนต์คุณภาพ คือ การสร้างมูลค่าที่แท้จริงให้กับกลุ่มเป้าหมาย รวมถึงการเชื่อมต่อระหว่างแบรนด์กับลูกค้า และการสร้างความน่าเชื่อถือในระยะยาว วันนี้เราจะมาทำความเข้าใจกันว่าทำไม Content is King จึงยังคงเป็นหัวใจสำคัญของการตลาดดิจิทัลสมัยใหม่ และแบรนด์จะนำหลักการนี้มาประยุกต์ใช้ให้เกิดประโยชน์สูงสุดได้อย่างไร Content is King คืออะไร? Content is King เป็นแนวคิดพื้นฐานที่เน้นย้ำว่าคอนเทนต์ที่มีคุณภาพคือกุญแจสำคัญในการประสบความสำเร็จบนแพลตฟอร์มดิจิทัล ไม่ว่าจะเป็นเว็บไซต์ โซเชียลมีเดีย หรือช่องทางการตลาดออนไลน์อื่น ๆ หลักการนี้มองว่าคอนเทนต์ที่ดีต้องสามารถให้ข้อมูลที่มีประโยชน์ สร้างความบันเทิง หรือแก้ไขปัญหาให้กับผู้อ่าน มากกว่าการเป็นเพียงเครื่องมือส่งเสริมการขายเท่านั้น เมื่อแบรนด์สร้างคอนเทนต์ที่ตอบโจทย์ความต้องการของกลุ่มเป้าหมายได้อย่างแท้จริง ผู้บริโภคจะเกิดความไว้วางใจ กลับมาติดตามข้อมูลอย่างสม่ำเสมอ และในที่สุดก็จะตัดสินใจซื้อสินค้าหรือใช้บริการ นอกจากนี้ Content is King ยังครอบคลุมถึงการนำเสนอข้อมูลในรูปแบบที่หลากหลาย ไม่ว่าจะเป็นบทความ วิดีโอ อินโฟกราฟิก พอดแคสต์ […]