Google Search Console 作為網站管理員的利器,提供豐富的分析數據和工具,幫助我們了解網站的搜尋表現,並找出需要優化的地方。其中,索引錯誤正是影響網站搜尋排名的重要因素。
本文將深入解析常見的 Google Search Console 索引錯誤,並提供解決方案,讓你掌握網站優化的關鍵,提升搜尋排名,達成行銷目標。
伺服器錯誤 (Server Error)
伺服器錯誤是搜尋引擎爬蟲無法成功存取網頁時出現的常見錯誤,通常代表著伺服器端出現問題,阻礙了爬蟲的正常運作。常見的伺服器錯誤類型包含下列幾種。
500 錯誤 (Internal Error)
表示伺服器發生內部錯誤,無法處理請求。原因可能包括:
程式碼錯誤:網站程式碼存在漏洞或錯誤,例如 CMS (內容管理系統) 的錯誤設定或 PHP 程式碼的錯誤。
伺服器資源不足:伺服器資源不足以應付流量,導致錯誤。
資料庫錯誤:資料庫出現錯誤或過載,導致伺服器無法正常運作。
解決方法
仔細檢查網站程式碼,尤其是最近更新的部分,找出錯誤並修正。
確認伺服器設定是否符合網站需求,並適當調整資源配置。
檢查資料庫是否有錯誤或過載,必要時進行優化或升級。
502 錯誤 (Gateway Error)
表示搜尋引擎請求被中斷,因為上游服務沒有回應。通常發生在使用 CMS 時,例如 WordPress 等平台。
解決方法
- 確認 CMS 設定是否正確,檢查是否有外掛衝突或錯誤。
- 確認網路連線是否穩定,排除網路問題。
- 若以上方法都無法解決問題,建議聯繫主機商尋求協助。
503 錯誤 (伺服器忙碌)
表示伺服器過於忙碌、正在維護或已關閉,導致搜尋引擎爬蟲無法存取網站。
解決方法
確認伺服器是否正常運作,必要時進行維護或調整資源配置。
如果網站流量過大,可考慮設定流量限制或使用 CDN 來分散負載。
如果網站正在維護,可以暫時阻止搜尋引擎爬蟲存取,避免出現錯誤。
重新導向錯誤 (Redirect Error)
重新導向錯誤是指搜尋引擎爬蟲在瀏覽網站時,遇到 Redirect 設定出現問題,導致無法順利到達目標網頁。常見的錯誤類型包含以下幾種。
重新導向循環 (Redirect Loops)
指的是因為重新導向設定形成無限循環,導致爬蟲不斷在相同網頁之間跳轉,無法到達最終目的地。例如,網頁A > 網頁B > 網頁A >… (無限循環)。
解決方法
仔細檢查所有重新導向設定,確認是否有形成循環。
使用重新導向工具檢查網站設定,找出循環並修正。
重新導向鏈過長 (Redirect Chains)
指的是重新導向設定過於複雜,包含過多的步驟,導致爬蟲在到達最終目的地之前,耗費過多時間,最終放棄。例如,網頁A > 網頁B > 網頁C > 網頁D > 網頁E… > 目標網頁。
解決方法
減少重新導向步驟,盡量將重新導向鏈縮短,避免複雜的設定。
如果可能,直接將舊網址導向到新網址,避免使用過多的向步驟。
重新導向鏈出現問題
指的是重新導向鏈中的某個網址出現問題,例如指向 404 錯誤頁面或空網址,導致爬蟲無法順利到達目標頁面。
解決方法
逐一檢查重新導向鏈中的所有網址,確保每個網址都是有效。
如果發現存在錯誤的網址,修正錯誤或將其移除。
網址超過最大字元限制
指的是網址過長,超出搜尋引擎爬蟲的限制,導致無法成功存取網頁。
解決方法
使用網址縮短工具,將長網址縮短成短網址,方便爬蟲存取。
重新設計網址結構,盡量使用簡短且易記的網址結構。
遭到 robots.txt 封鎖
robots.txt 檔案可以用於控制搜尋引擎爬蟲的存取權限,設定哪些網頁可以被爬蟲索引,哪些網頁需要被排除。如果 robots.txt 檔案設定錯誤,可能會導致搜尋引擎爬蟲無法存取某些網頁,造成索引錯誤。常見的原因包括:
- robots.txt 檔案設定錯誤,例如錯誤將重要網頁設定為禁止爬蟲存取。
- WordPress 等平台的 SEO 外掛可能與 robots.txt 檔案設定衝突,造成錯誤。
解決方法
- 仔細檢查 robots.txt 檔案內容,確認設定是否正確,是否將重要網頁設定為禁止爬蟲存取。
- 移除 robots.txt 檔案中無效或過時的設定。
- 使用檢查工具,檢查 robots.txt 檔案設定是否有錯誤,例如:TechnicalSEO。
遭到「noindex」標記排除
noindex 指令表示不希望網頁被搜尋引擎索引。如果網頁設置了這個指令,即使搜尋引擎爬蟲可以存取網頁,也不會將其納入搜尋結果。
常見的原因包括:
- 網頁 HTML 程式碼中設定了 noindex Meta 標籤。
- 網頁 HTTP 標頭中設定了 noindex 參數。
解決方法
- 從網頁 HTML 程式碼和 HTTP 標頭中移除 noindex 指令。
- 仔細檢查網頁程式碼,找出並移除 noindex 指令。
Soft 404 錯誤
Soft 404 錯誤是指網頁顯示找不到內容的訊息,但伺服器卻回傳 200 狀態碼 (表示網頁正常)。這種情況會讓搜尋引擎感到困惑,因為他們認為網頁存在,但實際上卻沒有發現任何有意義的內容。
解決方法
- 確認網頁狀態碼是否正確,是否應該回傳 404 錯誤碼。
- 修正網頁顯示的錯誤訊息,讓使用者知道網頁不存在。
- 將錯誤的網頁重新導向到正確的網頁。
存取錯誤
存取錯誤是指搜尋引擎爬蟲在存取網頁時,受到阻擋或限制,無法順利取得網頁內容。常見的存取錯誤類型包含以下幾種。
因未經授權的請求而被阻擋
因存取被禁止而被阻擋
表示搜尋引擎爬蟲被禁止存取網頁,但搜尋引擎無法得知具體原因。常見的原因包括:
伺服器設定禁止某些 IP 位址存取網頁。
網站設定地理限制,禁止特定地區的使用者存取網頁。
網頁需要身份驗證才能存取,搜尋引擎爬蟲無法通過驗證。
解決方法
確認伺服器設定是否正確,是否將搜尋引擎爬蟲的 IP 位址列為例外。
如果需要讓搜尋引擎爬蟲存取網頁,請移除地理限制。
如果網頁需要身份驗證,請提供搜尋引擎爬蟲的存取權限。
4xx 錯誤
4xx 錯誤是指網頁回傳的狀態碼介於 400 到 499 之間,表示搜尋引擎爬蟲在存取網頁時,遇到了一些問題,無法成功取得網頁內容。常見的 4xx 錯誤類型包含以下幾種。
找不到 (404)
表示搜尋引擎爬蟲嘗試存取的網頁不存在。
解決方法
確認網頁是否已刪除。
將失效的網頁重新導向到正確的網頁。
檢查網站內部的連結是否正確,找出指向失效網頁的連結並修正。
因傳回未經授權的要求 (401) 而遭到封鎖
表示網頁需要身份驗證才能存取。
解決方法
確認身份驗證設定是否正確,是否將搜尋引擎爬蟲的 IP 位址列為例外。
如果需要讓搜尋引擎爬蟲存取網頁,請提供爬蟲的存取權限。
422 錯誤
表示伺服器理解搜尋引擎爬蟲的請求,但無法處理。
解決方法
確認伺服器設定是否正確,是否可以處理搜尋引擎爬蟲的請求。
如果無法自行解決,請聯繫主機商尋求協助。
429 錯誤
其他錯誤
被移除網址工具阻擋
表示搜尋引擎爬蟲嘗試存取的網頁已被提交到 Google Search Console 的『移除網址』工具,暫時被移除。
解決方法
確認網頁是否已提交到移除網址工具,如果已提交,請將其移除。
將網頁重新提交到 Google Search Console,讓搜尋引擎重新檢索。
已檢索 - 目前尚未建立索引
表示搜尋引擎爬蟲已成功存取網頁,但尚未將其納入搜尋結果。
解決方法
確認網頁內容是否符合搜尋引擎的標準,例如內容是否有意義、是否重複、是否過於薄弱。
提升網頁內容品質,增加內容長度、增加關鍵字密度、提升網頁結構。
增加指向網頁的反向連結,提升網頁權重。
已找到 - 目前尚未建立索引
表示 Googlebot 知道網頁存在,但尚未檢索或索引。
解決方法
將網頁提交到 Google Search Console,讓搜尋引擎優先檢索。
確認網站結構是否合理,是否容易被搜尋引擎檢索。
確認網站地圖是否包含所有需要被索引的網頁。
替代頁面 (有適當的標準標記)
表示搜尋引擎發現重複的網頁,但已正確設定 canonical 標籤。
解決方法
確認 canonical 標籤設定是否正確。
如果需要讓重複的網頁被索引,請移除 canonical 標籤。
這是重複網頁;使用者未選取標準網頁
表示搜尋引擎發現重複的網頁,但沒有設定 canonical 標籤。
解決方法
找出所有重複的網頁。
為所有重複的網頁設定 canonical 標籤,指向唯一的網頁。
Google 選擇的標準網頁和使用者的選擇不同
表示搜尋引擎發現重複的網頁,但選擇的 canonical 與使用者設定的不同。
解決方法
確認 Google 選擇的 canonical 是否正確。
如果 Google 選擇的 canonical 不正確,請重新設定 canonical 標籤,指向正確的網頁。
已建立索引,但遭到 robots.txt 封鎖
表示搜尋引擎已將網頁索引,但 robots.txt 檔案卻設定為禁止爬蟲存取。
解決方法
確認 robots.txt 檔案設定是否正確,是否將網頁設定為禁止爬蟲存取。
如果需要讓搜尋引擎爬蟲存取網頁,請移除 robots.txt 檔案中的阻擋設定。
如果不想讓網頁被索引,請在網頁中設定 noindex 標籤。