ทำความเข้าใจและแก้ไข 'ค้นพบแล้ว - ยังไม่ได้จัดทำดัชนี'

เผยแพร่แล้ว: 2023-02-07

หากคุณเห็น “ค้นพบแล้ว – ขณะนี้ยังไม่ได้จัดทำดัชนี” ใน Google Search Console แสดงว่า Google รู้จัก URL ดังกล่าวแล้ว แต่ยังไม่ได้รวบรวมข้อมูลและจัดทำดัชนี

ไม่ได้แปลว่าหน้านั้นจะไม่ถูกประมวลผลเสมอไป ตามที่เอกสารระบุไว้ พวกเขาอาจกลับมาดูในภายหลังโดยที่คุณไม่ต้องออกแรงมาก

แต่ปัจจัยอื่นๆ อาจทำให้ Google รวบรวมข้อมูลและจัดทำดัชนีหน้าไม่ได้ ได้แก่

  • ปัญหาเกี่ยวกับเซิร์ฟเวอร์และปัญหาทางเทคนิคในสถานที่จำกัดหรือขัดขวางความสามารถในการรวบรวมข้อมูลของ Google
  • ปัญหาเกี่ยวกับตัวเพจเอง เช่น คุณภาพ

คุณยังสามารถใช้ Google Search Console Inspection API เพื่อจัดคิว URL สำหรับสถานะ coverageState (รวมถึงจุดข้อมูลที่เป็นประโยชน์อื่นๆ) จำนวนมาก

ขอการจัดทำดัชนีผ่าน Google Search Console

นี่เป็นวิธีแก้ไขที่ชัดเจนและสำหรับกรณีส่วนใหญ่ วิธีนี้จะช่วยแก้ปัญหาได้

บางครั้ง Google ก็รวบรวมข้อมูล URL ใหม่ได้ช้า ซึ่งก็เกิดขึ้น แต่บางครั้งปัญหาพื้นฐานเป็นตัวการ

เมื่อคุณร้องขอการจัดทำดัชนี อาจมีหนึ่งในสองสิ่งนี้เกิดขึ้น:

  • URL กลายเป็น "รวบรวมข้อมูลแล้ว - ยังไม่ได้จัดทำดัชนี"
  • การทำดัชนีชั่วคราว

ทั้งสองเป็นอาการของปัญหาพื้นฐาน

ประการที่สองเกิดขึ้นเนื่องจากบางครั้งการร้องขอการจัดทำดัชนีทำให้ URL ของคุณ “เพิ่มความใหม่” ชั่วคราว ซึ่งอาจทำให้ URL สูงกว่าเกณฑ์คุณภาพที่จำเป็น และนำไปสู่การจัดทำดัชนีชั่วคราวในที่สุด


รับจดหมายข่าวรายวันที่นักการตลาดไว้วางใจ

กำลังดำเนินการ...โปรดรอสักครู่

ดูข้อกำหนด


ปัญหาคุณภาพของเพจ

นี่คือที่คำศัพท์อาจทำให้เกิดความสับสน มีคนถามฉันว่า "Google จะระบุคุณภาพของหน้าได้อย่างไรหากยังไม่ได้รวบรวมข้อมูล"

นี่เป็นคำถามที่ดีและคำตอบก็คือไม่สามารถทำได้

Google กำลังตั้งสมมติฐานเกี่ยวกับคุณภาพของเพจโดยอ้างอิงจากเพจอื่นๆ ในโดเมน การจัดประเภทยังขึ้นอยู่กับรูปแบบ URL และสถาปัตยกรรมเว็บไซต์

ด้วยเหตุนี้ การย้ายหน้าเหล่านี้จาก "การรับรู้" ไปยังคิวการรวบรวมข้อมูลจึงอาจลดความสำคัญลงได้เนื่องจากขาดคุณภาพที่พบในหน้าที่คล้ายกัน

เป็นไปได้ว่าหน้าเว็บที่มีรูปแบบ URL ที่คล้ายกันหรือที่อยู่ในพื้นที่ที่คล้ายคลึงกันของสถาปัตยกรรมเว็บไซต์จะมีการนำเสนอที่มีคุณค่าต่ำเมื่อเทียบกับเนื้อหาส่วนอื่นๆ ที่กำหนดเป้าหมายไปที่ความตั้งใจของผู้ใช้และคำหลักเดียวกัน

สาเหตุที่เป็นไปได้ ได้แก่ :

  • ความลึกของเนื้อหาหลัก
  • การนำเสนอ.
  • ระดับของเนื้อหาที่รองรับ
  • เอกลักษณ์ของเนื้อหาและมุมมองที่นำเสนอ
  • หรือแม้แต่ปัญหาที่บิดเบือนมากขึ้น (เช่น เนื้อหามีคุณภาพต่ำและสร้างขึ้นโดยอัตโนมัติ ปั่นหรือทำซ้ำเนื้อหาที่สร้างไว้แล้วโดยตรง)

การทำงานเพื่อปรับปรุงคุณภาพเนื้อหาภายในคลัสเตอร์ของไซต์และหน้าเฉพาะอาจมีผลในเชิงบวกในการดึงความสนใจของ Google ในการรวบรวมข้อมูลเนื้อหาของคุณด้วยจุดประสงค์ที่มากขึ้น

คุณยังสามารถไม่จัดทำดัชนีหน้าอื่นๆ บนเว็บไซต์ที่คุณรับทราบว่าไม่มีคุณภาพสูงสุด เพื่อปรับปรุงอัตราส่วนของหน้าคุณภาพดีกับหน้าคุณภาพแย่ในไซต์

รวบรวมข้อมูลงบประมาณและประสิทธิภาพ

งบประมาณการรวบรวมข้อมูลเป็นกลไกที่มักเข้าใจผิดใน SEO

เว็บไซต์ส่วนใหญ่ไม่จำเป็นต้องกังวลเกี่ยวกับเรื่องนี้ ในความเป็นจริง Gary Illyes จาก Google ได้ทำบันทึกโดยอ้างว่า 90% ของเว็บไซต์ไม่จำเป็นต้องคิดเกี่ยวกับงบประมาณในการรวบรวมข้อมูล มักถูกมองว่าเป็นปัญหาสำหรับเว็บไซต์องค์กร

ในทางกลับกัน ประสิทธิภาพการรวบรวมข้อมูลอาจส่งผลต่อเว็บไซต์ทุกขนาด การถูกมองข้ามอาจนำไปสู่ปัญหาเกี่ยวกับวิธีที่ Google รวบรวมข้อมูลและประมวลผลเว็บไซต์

เพื่อแสดงให้เห็นว่าเว็บไซต์ของคุณ:

  • URL ซ้ำกับพารามิเตอร์
  • แก้ไขโดยมีและไม่มีเครื่องหมายทับต่อท้าย
  • มีอยู่ใน HTTP และ HTTPS
  • ให้บริการเนื้อหาจากหลายโดเมนย่อย (เช่น https://website.com และ https://www.website.com)

…จากนั้นคุณอาจพบปัญหาซ้ำซ้อนที่ส่งผลกระทบต่อสมมติฐานของ Google เกี่ยวกับลำดับความสำคัญในการรวบรวมข้อมูลตามสมมติฐานของไซต์ที่กว้างขึ้น

คุณอาจใช้งบประมาณในการรวบรวมข้อมูลของ Google ด้วย URL และคำขอที่ไม่จำเป็น เนื่องจากการที่ Googlebot รวบรวมข้อมูลเว็บไซต์เป็นส่วนๆ อาจทำให้ทรัพยากรของ Google ไม่กว้างพอที่จะค้นพบ URL ที่เผยแพร่ใหม่ทั้งหมดได้เร็วเท่าที่คุณต้องการ

คุณต้องการรวบรวมข้อมูลเว็บไซต์ของคุณเป็นประจำ และตรวจสอบให้แน่ใจว่า:

  • หน้าแก้ไขเป็นโดเมนย่อยเดียว (ตามต้องการ)
  • หน้าแก้ไขเป็นโปรโตคอล HTTP เดียว
  • URL ที่มีพารามิเตอร์ถูกกำหนดเป็นรูท (ตามต้องการ)
  • ลิงก์ภายในไม่ใช้การเปลี่ยนเส้นทางโดยไม่จำเป็น

หากเว็บไซต์ของคุณใช้พารามิเตอร์ เช่น ตัวกรองผลิตภัณฑ์อีคอมเมิร์ซ คุณสามารถระงับการรวบรวมข้อมูลของเส้นทาง URI เหล่านี้ได้โดยการไม่อนุญาตในไฟล์ robots.txt

เซิร์ฟเวอร์ของคุณยังสามารถมีความสำคัญต่อวิธีที่ Google จัดสรรงบประมาณเพื่อรวบรวมข้อมูลเว็บไซต์ของคุณ

หากเซิร์ฟเวอร์ของคุณโอเวอร์โหลดและตอบสนองช้าเกินไป อาจเกิดปัญหาในการรวบรวมข้อมูล ในกรณีนี้ Googlebot จะไม่สามารถเข้าถึงหน้าเว็บได้ ส่งผลให้เนื้อหาบางส่วนของคุณไม่ได้รับการรวบรวมข้อมูล

ดังนั้น Google จะพยายามกลับมาจัดทำดัชนีเว็บไซต์ในภายหลัง แต่ไม่ต้องสงสัยเลยว่าจะทำให้กระบวนการทั้งหมดเกิดความล่าช้า

การเชื่อมโยงภายใน

เมื่อคุณมีเว็บไซต์ สิ่งสำคัญคือต้องมีลิงก์ภายในจากหน้าหนึ่งไปอีกหน้าหนึ่ง

โดยปกติแล้ว Google จะให้ความสำคัญกับ URL ที่ไม่มีลิงก์ภายในเพียงพอหรือน้อยเกินไป และอาจแยกออกจากดัชนีด้วย

คุณสามารถตรวจสอบจำนวนลิงก์ภายในไปยังหน้าต่างๆ ผ่านโปรแกรมรวบรวมข้อมูล เช่น Screaming Frog และ Sitebulb

การมีโครงสร้างเว็บไซต์ที่เป็นระเบียบและสมเหตุสมผลพร้อมลิงก์ภายในเป็นวิธีที่ดีที่สุดในการเพิ่มประสิทธิภาพเว็บไซต์ของคุณ

แต่ถ้าคุณประสบปัญหานี้ วิธีหนึ่งที่จะทำให้แน่ใจว่าเพจภายในทั้งหมดของคุณเชื่อมต่อกันคือการ "เจาะ" เข้าสู่ความลึกของการรวบรวมข้อมูลโดยใช้แผนผังไซต์ HTML

สิ่งเหล่านี้ออกแบบมาสำหรับผู้ใช้ ไม่ใช่เครื่องจักร แม้ว่าตอนนี้อาจถูกมองว่าเป็นโบราณวัตถุ แต่ก็ยังมีประโยชน์

นอกจากนี้ หากเว็บไซต์ของคุณมี URL จำนวนมาก คุณควรแบ่ง URL ออกเป็นหลายๆ หน้า คุณไม่ต้องการให้เชื่อมโยงทั้งหมดจากหน้าเดียว

ลิงก์ภายในยังต้องใช้แท็ก <a> สำหรับลิงก์ภายใน แทนที่จะใช้ฟังก์ชัน JavaScript เช่น onClick()

หากคุณใช้เฟรมเวิร์ก Jamstack หรือ JavaScript ให้ตรวจสอบว่า Jamstack หรือไลบรารีที่เกี่ยวข้องจัดการกับลิงก์ภายในอย่างไร สิ่งเหล่านี้ต้องแสดงเป็นแท็ก <a>


ความคิดเห็นที่แสดงในบทความนี้เป็นความคิดเห็นของผู้เขียนรับเชิญและไม่จำเป็นต้องเป็น Search Engine Land ผู้เขียนเจ้าหน้าที่อยู่ที่นี่