破解Content Decay SEO的迷思
你維護的網站的網頁數是否有上千頁或上萬頁?如果答案是YES的話,一定會存在History SEO這個問題,因此會有人提出許多意見。
什麼是History SEO?
History SEO並不是一個官方正式的名詞,你可以想成網站長久維護下來產生的重覆內容、錯誤資訊、已經沒有在經營的產品……等等所產生的SEO負面問題。
另外,爬蟲的效能也有限,這也是為什麼網頁速度很重要的原因,速度越慢,爬蟲每天在你的網域爬到的頁面數量就越少。因此,也有人會有網站瘦身的想法。
為何要重視這個問題?根據Google的常見問題之中,有一段話寫得很明確:
移除不實用的內容,是否能提升我其他內容的排名?
我們的系統主要是在網頁層級運作,以便盡可能顯示最實用的內容,即使該內容所在網站同樣代管不實用的內容也不例外。話雖如此,要是網站中有特別多不實用的內容,可能會讓網站的其他內容在 Google 搜尋中的成效降低,但影響程度不一。移除不實用的內容,可能有助於提升其他網頁的成效。
常見的例子就是官方新聞稿或是blog文章,這些網頁可能代表著整個企業的歷史軌跡,刪除是不被高層主管允許的,所以不得不留下來。因此產生一些改善做法:
1. 更新內容
我認為這是最有效的方法,如果主管同意的話。
2. 網頁合併
相似內容且意圖相同的網頁可以考慮合併,但此種方法的困難點除了轉址之外就是主管同意的可能性很低,畢竟合併也代表有網頁會被刪除。
3. canonical
將相似或相同意圖的網頁用canonical指向同一個網頁,可以解決許多問題,但這樣做其實不完全正確,如同下面 John Mueller 所說的一樣,不如直接重定向。
但相對的,非常耗費時間,你必須決定哪些網頁需要canonical到別的頁面,而那個目標頁面又是哪一頁。而且,有一些人認為(未必正確),太多canonical指向的那個目標頁面,會讓爬蟲覺得好像沒有那麼重要,或是刻意操作。
4. noindex
不讓這些網頁出現在搜尋結果中。
5. unavailable_after
設定日期,讓爬蟲知道這個頁面在設定的日期之後就已經不重要了,這個設定也不會在日期之後出現在搜尋結果中。使用方法可以參考Google的說明文件。
6. robots.txt
有些人認為(未必正確),爬蟲的效能有限,所以會想在robots.txt之中使用Disallow指令拒絕爬蟲抓取這些網頁,讓它有時間抓取更重要的網頁內容。
Content Decay是什麼?
Google(Google Search Central)有談到類似的話題:
他們聽說有個SEO名詞叫「Content Decay」,並表示他們從來沒聽過這個詞,他們試圖理解並提出解決方案,但其實並沒有討論出一個合適的改善方法,也有提到其實沒必要使用 noindex,因為還是有人會去查這些舊的內容並進入該頁面。Lizzi Sassman的做法是在文章前面標注一些內容讓使用者知道文章已經過時了,但也懷疑這種做法有必要嗎。
他們也提到blog文章要不要加個「最後更新日期」,但其實如果只是改個超連結、錯字之類的,這就沒必要也不算是文章更新。
值得一提的是,他們說 rel=canonical 的做法會讓人感覺有點偷偷摸摸的,因為它並不是真正的同一件事……它並不等同。John Mueller 也表示,要嘛重定向,要嘛不重定向。這就像真的說它被替換或保留兩者一樣,而不是使用 rel=canonical。
直接說結論,「Content Decay」這個名詞只是讓人混亂的名詞,你可以想成「過時內容」,這個現象只是用戶興趣下降、自然而然會發生的問題,在很久以前就有了。例如「數位相機」在智慧型手機出現之後,流量就越來越少了,但它還是會有人搜尋的常青內容。
留言
張貼留言