Google Search Console 常見錯誤:解決方法全攻略

文章目錄

分享給更多人知道

Google Search Console 作為網站管理員的利器,提供豐富的分析數據和工具,幫助我們了解網站的搜尋表現,並找出需要優化的地方。其中,索引錯誤正是影響網站搜尋排名的重要因素。

本文將深入解析常見的 Google Search Console 索引錯誤,並提供解決方案,讓你掌握網站優化的關鍵,提升搜尋排名,達成行銷目標。

伺服器錯誤 (Server Error)

伺服器錯誤是搜尋引擎爬蟲無法成功存取網頁時出現的常見錯誤,通常代表著伺服器端出現問題,阻礙了爬蟲的正常運作。常見的伺服器錯誤類型包含下列幾種。

500 錯誤 (Internal Error)

表示伺服器發生內部錯誤,無法處理請求。原因可能包括:

  • 程式碼錯誤:網站程式碼存在漏洞或錯誤,例如 CMS (內容管理系統) 的錯誤設定或 PHP 程式碼的錯誤。

  • 伺服器資源不足:伺服器資源不足以應付流量,導致錯誤。

  • 資料庫錯誤:資料庫出現錯誤或過載,導致伺服器無法正常運作。

解決方法

  • 仔細檢查網站程式碼,尤其是最近更新的部分,找出錯誤並修正。

  • 確認伺服器設定是否符合網站需求,並適當調整資源配置。

  • 檢查資料庫是否有錯誤或過載,必要時進行優化或升級。

502 錯誤 (Gateway Error)

表示搜尋引擎請求被中斷,因為上游服務沒有回應。通常發生在使用 CMS 時,例如 WordPress 等平台。


解決方法

  • 確認 CMS 設定是否正確,檢查是否有外掛衝突或錯誤。
  • 確認網路連線是否穩定,排除網路問題。
  • 若以上方法都無法解決問題,建議聯繫主機商尋求協助。

503 錯誤 (伺服器忙碌)

表示伺服器過於忙碌、正在維護或已關閉,導致搜尋引擎爬蟲無法存取網站。


解決方法

  • 確認伺服器是否正常運作,必要時進行維護或調整資源配置。

  • 如果網站流量過大,可考慮設定流量限制或使用 CDN 來分散負載。

  • 如果網站正在維護,可以暫時阻止搜尋引擎爬蟲存取,避免出現錯誤。

重新導向錯誤 (Redirect Error)

重新導向錯誤是指搜尋引擎爬蟲在瀏覽網站時,遇到 Redirect 設定出現問題,導致無法順利到達目標網頁。常見的錯誤類型包含以下幾種。

重新導向循環 (Redirect Loops)

指的是因為重新導向設定形成無限循環,導致爬蟲不斷在相同網頁之間跳轉,無法到達最終目的地。例如,網頁A > 網頁B > 網頁A >… (無限循環)。


解決方法

  • 仔細檢查所有重新導向設定,確認是否有形成循環。

  • 使用重新導向工具檢查網站設定,找出循環並修正。

重新導向鏈過長 (Redirect Chains)

指的是重新導向設定過於複雜,包含過多的步驟,導致爬蟲在到達最終目的地之前,耗費過多時間,最終放棄。例如,網頁A > 網頁B > 網頁C > 網頁D > 網頁E… > 目標網頁。


解決方法

  • 減少重新導向步驟,盡量將重新導向鏈縮短,避免複雜的設定。

  • 如果可能,直接將舊網址導向到新網址,避免使用過多的向步驟。

重新導向鏈出現問題

指的是重新導向鏈中的某個網址出現問題,例如指向 404 錯誤頁面或空網址,導致爬蟲無法順利到達目標頁面。


解決方法

  • 逐一檢查重新導向鏈中的所有網址,確保每個網址都是有效。

  • 如果發現存在錯誤的網址,修正錯誤或將其移除。

網址超過最大字元限制

指的是網址過長,超出搜尋引擎爬蟲的限制,導致無法成功存取網頁。


解決方法

  • 使用網址縮短工具,將長網址縮短成短網址,方便爬蟲存取。

  • 重新設計網址結構,盡量使用簡短且易記的網址結構。

遭到 robots.txt 封鎖

robots.txt 檔案可以用於控制搜尋引擎爬蟲的存取權限,設定哪些網頁可以被爬蟲索引,哪些網頁需要被排除。如果 robots.txt 檔案設定錯誤,可能會導致搜尋引擎爬蟲無法存取某些網頁,造成索引錯誤。常見的原因包括:

  • robots.txt 檔案設定錯誤,例如錯誤將重要網頁設定為禁止爬蟲存取。
  • WordPress 等平台的 SEO 外掛可能與 robots.txt 檔案設定衝突,造成錯誤。

解決方法

  • 仔細檢查 robots.txt 檔案內容,確認設定是否正確,是否將重要網頁設定為禁止爬蟲存取。
  • 移除 robots.txt 檔案中無效或過時的設定。
  • 使用檢查工具,檢查 robots.txt 檔案設定是否有錯誤,例如:TechnicalSEO

遭到「noindex」標記排除

noindex 指令表示不希望網頁被搜尋引擎索引。如果網頁設置了這個指令,即使搜尋引擎爬蟲可以存取網頁,也不會將其納入搜尋結果。

常見的原因包括:

  • 網頁 HTML 程式碼中設定了 noindex Meta 標籤。
  • 網頁 HTTP 標頭中設定了 noindex 參數。

解決方法

  • 從網頁 HTML 程式碼和 HTTP 標頭中移除 noindex 指令。
  • 仔細檢查網頁程式碼,找出並移除 noindex 指令。

Soft 404 錯誤

Soft 404 錯誤是指網頁顯示找不到內容的訊息,但伺服器卻回傳 200 狀態碼 (表示網頁正常)。這種情況會讓搜尋引擎感到困惑,因為他們認為網頁存在,但實際上卻沒有發現任何有意義的內容。

解決方法

  • 確認網頁狀態碼是否正確,是否應該回傳 404 錯誤碼。
  • 修正網頁顯示的錯誤訊息,讓使用者知道網頁不存在。
  • 將錯誤的網頁重新導向到正確的網頁。

存取錯誤

存取錯誤是指搜尋引擎爬蟲在存取網頁時,受到阻擋或限制,無法順利取得網頁內容。常見的存取錯誤類型包含以下幾種。

因未經授權的請求而被阻擋

表示搜尋引擎爬蟲被網站防火牆或其他安全系統阻擋,導致無法存取網頁。

解決方法

  • 確認防火牆設定是否正確,是否將搜尋引擎爬蟲的 IP 位址列為例外。
  • 如果無法自行解決,請聯繫網路管理員尋求協助。

因存取被禁止而被阻擋

表示搜尋引擎爬蟲被禁止存取網頁,但搜尋引擎無法得知具體原因。常見的原因包括:

  • 伺服器設定禁止某些 IP 位址存取網頁。

  • 網站設定地理限制,禁止特定地區的使用者存取網頁。

  • 網頁需要身份驗證才能存取,搜尋引擎爬蟲無法通過驗證。

解決方法

  • 確認伺服器設定是否正確,是否將搜尋引擎爬蟲的 IP 位址列為例外。

  • 如果需要讓搜尋引擎爬蟲存取網頁,請移除地理限制。

  • 如果網頁需要身份驗證,請提供搜尋引擎爬蟲的存取權限。

4xx 錯誤

4xx 錯誤是指網頁回傳的狀態碼介於 400 到 499 之間,表示搜尋引擎爬蟲在存取網頁時,遇到了一些問題,無法成功取得網頁內容。常見的 4xx 錯誤類型包含以下幾種。

找不到 (404)

表示搜尋引擎爬蟲嘗試存取的網頁不存在。


解決方法

  • 確認網頁是否已刪除。

  • 將失效的網頁重新導向到正確的網頁。

  • 檢查網站內部的連結是否正確,找出指向失效網頁的連結並修正。

因傳回未經授權的要求 (401) 而遭到封鎖

表示網頁需要身份驗證才能存取。

解決方法

  • 確認身份驗證設定是否正確,是否將搜尋引擎爬蟲的 IP 位址列為例外。

  • 如果需要讓搜尋引擎爬蟲存取網頁,請提供爬蟲的存取權限。

422 錯誤

表示伺服器理解搜尋引擎爬蟲的請求,但無法處理。


解決方法

  • 確認伺服器設定是否正確,是否可以處理搜尋引擎爬蟲的請求。

  • 如果無法自行解決,請聯繫主機商尋求協助。

429 錯誤

表示搜尋引擎爬蟲在短時間內發送了過多的請求,觸發了伺服器的限制。


解決方法

  • 確認搜尋引擎爬蟲的存取頻率是否符合伺服器設定。

  • 如果爬蟲頻率過高,Google 會自動調整爬蟲設定,降低爬蟲頻率。

其他錯誤

被移除網址工具阻擋

表示搜尋引擎爬蟲嘗試存取的網頁已被提交到 Google Search Console 的『移除網址』工具,暫時被移除。


解決方法

  • 確認網頁是否已提交到移除網址工具,如果已提交,請將其移除。

  • 將網頁重新提交到 Google Search Console,讓搜尋引擎重新檢索。

已檢索 - 目前尚未建立索引

表示搜尋引擎爬蟲已成功存取網頁,但尚未將其納入搜尋結果。


解決方法

  • 確認網頁內容是否符合搜尋引擎的標準,例如內容是否有意義、是否重複、是否過於薄弱。

  • 提升網頁內容品質,增加內容長度、增加關鍵字密度、提升網頁結構。

  • 增加指向網頁的反向連結,提升網頁權重。

已找到 - 目前尚未建立索引

表示 Googlebot 知道網頁存在,但尚未檢索或索引。


解決方法

  • 將網頁提交到 Google Search Console,讓搜尋引擎優先檢索。

  • 確認網站結構是否合理,是否容易被搜尋引擎檢索。

  • 確認網站地圖是否包含所有需要被索引的網頁。

替代頁面 (有適當的標準標記)

表示搜尋引擎發現重複的網頁,但已正確設定 canonical 標籤。

 

解決方法

  • 確認 canonical 標籤設定是否正確。

  • 如果需要讓重複的網頁被索引,請移除 canonical 標籤。

這是重複網頁;使用者未選取標準網頁

表示搜尋引擎發現重複的網頁,但沒有設定 canonical 標籤。


解決方法

  • 找出所有重複的網頁。

  • 為所有重複的網頁設定 canonical 標籤,指向唯一的網頁。

Google 選擇的標準網頁和使用者的選擇不同

表示搜尋引擎發現重複的網頁,但選擇的 canonical 與使用者設定的不同。


解決方法

  • 確認 Google 選擇的 canonical 是否正確。

  • 如果 Google 選擇的 canonical 不正確,請重新設定 canonical 標籤,指向正確的網頁。

已建立索引,但遭到 robots.txt 封鎖

表示搜尋引擎已將網頁索引,但 robots.txt 檔案卻設定為禁止爬蟲存取。


解決方法

  • 確認 robots.txt 檔案設定是否正確,是否將網頁設定為禁止爬蟲存取。

  • 如果需要讓搜尋引擎爬蟲存取網頁,請移除 robots.txt 檔案中的阻擋設定。

  • 如果不想讓網頁被索引,請在網頁中設定 noindex 標籤。

Lewis Ko
Lewis Ko
Hi 我是Lewis,曾任職in-house行銷人員,現職某跨國企業的SEO Specialist。熱愛學習最新的科技和知識,努力透過簡單易懂的方式,分享我學習的過程和心得。如果你/妳剛好也在學習SEO、GA、GTM、Looker Studio的道路上,希望我的內容對你有幫助!

延伸閱讀