網站收錄完美解決的SEO必備手段
談及網站收錄問題,實際上是困擾很多SEO和站長一大難題。因為我們想從搜尋引擎獲得流量前,必須要解決搜尋引擎收錄網站的問題,不收錄何來排名呢?
所以,在網站搭建好或一篇文章新發布後,我們最新網看到的就是讓這篇文章下一秒就收錄,這個我們稱之為秒收。而在秒收這個場景下我們都要做足哪些工作呢?下面趙彥剛和你一起交流下關於網站收錄的完美解決辦法。
內容頁中內容本身的質量屬性
大多數網站絕對不會缺少內容頁這個因素,而網站內所有內容的質量也絕對了你網站的整體質量。這裡我要解釋一下,一個以內容為主的網站。每天都會發布很多的文章,就像我的部落格一樣,我每天都會寫很多的SEO文章。
寫著寫文章的同時,我要考慮的如下幾點因素:
標題與內容:標題寫的大致意思是什麼,內容就要圍繞這個意思去寫。
需求滿足度:搜尋引擎的使用者是看了標題點選進入我的這篇文章的,那我必須要解決這類使用者的需求,讓他們通過看這篇文章真正的解決自己的問題。
文章排版:但光內容滿足需求,但主體內容的可讀性不是很友好也不行。畢竟使用者的選擇太多了,為了避免讓使用者離開我在字型大小、顏色、段落和文字間距以及新增連結、表格、圖片都做了一些的修飾。讓文章儘可能的看起來美觀。
周邊元素:除了文章頁的主體內容外,我還要考慮我周邊的一些元素,例如很多網站在文章頁都會有一個“最新文章”的板塊。不同板塊間都有著一定的作用。下面我列舉一下:
相關文章板塊:推薦的都是與當前文章主題有關聯的文章,不僅能增加當前網頁的關鍵詞密度、還能提升這些文章被爬蟲抓取的概率以及文章權重的提升。畢竟連結在爬蟲抓取和連結計算上都有作用;
最新文章板塊:對新發布的文章在全部的文章頁中進行推薦,大大的提高了新發布文章的抓取概率以及收錄概率,這個建議推薦的是10條;
熱門文章板塊:所謂熱門文章,即當前網站或類目點選量較高的文章,點選量高說明需求度大,在每一個文章頁給這些文章連結,是通過連結傳遞權重的最佳方式,能夠顯著提升這類頁面的排名。
編輯推薦板塊:編輯推薦可能會摻雜廣告類文章,也會有一些對行業十分重要的文章,這增加了我們對文章曝光程度的自定義緯度,可以更好的靈活運用。
隨機文章推薦:所謂隨機,即在每生成一個網頁時,從其他品類中隨機調取出來的文章。這對於SEO來說是交叉連結的做法,如果隨機推薦的機制是網頁每次重新整理這裡調取的文章都不一樣的話,還能提升網頁的更新頻率。
其他:當然大範圍上都是這些推薦邏輯,根據不同企業的平臺不同,技術能力的不同。也許還會有其他,但這裡我想強調一點的是與當前網頁主題關聯越近的應該多調取,和當前文章主題不相關或弱相關的,以少、精為主。
原創度:如果你能原創的完成每一篇文章,那最好。如果不能就要儘量的保證文章的語句通順、上下段落意思連貫。讓使用者讀起來千萬別上一段大江山河,下一段細雨綿綿。
關於颶風演算法:百度推出颶風演算法意指打擊“惡劣”的採集行為,這裡要重點關注惡劣二字。所謂惡劣是不僅僅採集了,排版也不好、內容也不連貫,更不能解決搜尋使用者的需求。完全機械化的文章。所以正常的採集行為,隨受人唾棄,但搜尋引擎本身並不會懲罰。只要你本著為使用者提供更加優質、精準的內容。你就沒問題。
網頁的訪問速度如何影響收錄?
網頁的開啟速度,對收錄的影響也是極為關鍵的。首先要收錄之前要有爬蟲抓取,爬蟲抓取是有耗時的,搜尋引擎爬蟲針對網站進行抓取,都是有配額的。假設在時間上的配額是10分鐘,那麼你網站的訪問速度是50毫秒,也就是說10分鐘 除以 50毫秒 = 200次抓取,但如果你把訪問速度提升至25毫秒呢?那就意味著爬蟲在同樣的時間配額緯度上會抓取400次。整整提高了一倍,我們這裡單點去考慮的話,是不是收錄也會提升,排名也會提升。自然流量也就提升了?
額外的,網頁的開啟速度還影響著使用者的體驗。之前百度有提到在移動端,一個網頁的開啟速度超過3秒,就會被百度認為是垃圾頁面。試想一下,我們誰在百度找東西會願意持續的等下去呢?如果你開啟幾個網站都要等一會,那麼你會說百度的體驗不好還是那個網站不行呢?
提升訪問速度的方法有很多,下面我列舉一些,但不限於這些:
gzip壓縮:對你的當前網頁進行壓縮,從而減少網頁自身的大小;
程式碼精簡:將原始碼中一些可以整合到一起的內容進行,例如html網頁內寫的一些js程式碼、css程式碼等,完全可以通過js和css檔案引入的形式來解決,而引入檔案本身,越少越好。還有像一些網頁的大量註釋程式碼,沒必要的就刪除,有用的就留下。
cdn加速:採用cdn加速技術,對你網站的ip節點進行加速,以此提高網站速度;
amp/mip:啟用網頁加速技術,對整站原始碼進行改造,從而提升網頁整體載入時長;
快取機制:所謂快取機制,就是將使用者瀏覽過的元素進行快取,再發生請求時直接從使用者的瀏覽器中讀取,不用再請求伺服器了。這樣能提升網站的真題載入時長。就像你網頁的logo圖片,是全站網頁都有的一張圖片,當用戶從首頁開啟時,快取機制就把這張圖快取到了使用者的瀏覽器中,使用者通過首頁點選其他頁面時,就直接從使用者瀏覽器中讀取了,不會在從伺服器中再次發生請求。
Etag的使用:Etag是http協議中,來標記一個網頁是否發生變化的記號串。通俗點說,當網頁每次發生變化時Etag的值都會變,那對於爬蟲而言,他知道Etag沒有變就不會再抓取了,如果發現Etag的值變了,那就進行抓取。這樣一來,不僅節省了爬蟲的抓取資源,還能減少伺服器被請求的次數,從而提升伺服器效能,伺服器效能提高了,自然網頁開啟速度就會提升。
當然,提升加速的還有針對程式的優化、資料庫的優化以及伺服器的一些設定、配置等,這裡就不一一闡述了,你先把上面我提到的做好,就在這方面已經做得很不錯了。伺服器、程式、資料庫這些要麼有專人負責維護,不然咱們大多數seo也沒能力搞這些。
連結提交讓網站收錄更快一些
我們先來拆解爬蟲的“抓”、“取”二字,這兩個字代表了兩個動作,抓可以理解為爬蟲在網際網路上找尋更多的網址資訊,而取可以理解為是爬蟲對抓到的網址進行訪問取資料。從而形成抓取。那麼爬蟲的機制本身就是在不斷的發現網頁,讀取網頁的過程。連結提交的本質就是讓爬蟲省去了發現網頁這個環節。從而不僅能提升爬蟲的工作效率,也能提升爬蟲取我們網頁資料的效率。
下面以百度為例,分享目前較為常見的3種連結提交方式:
1、sitemap.xml檔案百度收錄提交工具
sitemap.xml檔案的提交方式是比較傳統的連結提交方式至今已經有十幾年的歷史了,這點不單單是百度支援,其他搜尋引擎也都支援。針對於sitemap的提交方式如何設定,請參考文章:網站有必要做sitemap.xml地圖嗎。
2、自動推送百度收錄提交工具
自動推送,是在你網站中,新增一個段程式碼,這段程式碼百度搜索資源平臺已經給出,就像給你的網站新增統計程式碼一樣簡單。如下圖是我的百度自動推送的收錄提交程式碼。

你將上述程式碼全站希望被百度收錄的網頁原始碼中即可。
自動推送的推送邏輯是每當你網站中加了這個程式碼的網頁被訪問時,這個網頁就會推送給百度,然後爬蟲來抓取收錄。
3、主動推送百度收錄提交方式
主動推送,是你通過技術能力實現將文章主動的提交給百度。說白了你可以理解為是把手動提交這個功能自動化了。
百度搜索資源平臺給出了程式碼實現的參考示例,如下圖:

如上圖,可以看出不同程式語言的實現示例,以及提交成功會返回什麼等等。
自動提交百度收錄的區別是什麼?
上面提到的3個自動提交百度收錄的入口都有哪些區別,我們一定要都設定嗎?
首先是一定要都進行設定的。具體區別如下:
sitemap檔案提交百度收錄
這個檔案裡有你所有的url檔案,百度每次訪問會全部檢索。例如你的一個網頁,沒有收錄,自然沒有人訪問,那麼自動推送不生效,手動提交你也忘了。主動推送可能早就提交過沒被收錄。這時候,爬蟲訪問你的sitemap檔案時,就會將這些沒被收錄的歷史網址重新抓取,就會獲得收錄的機會。
另外,像360、搜狗、bing、google等都支援這種方式,等於做了一個sitemap就提交給很多搜尋引擎網址,等待收錄了。
自動推送提交百度收錄
自動推送的方式,和sitemap一樣,只不過是針對更加熱門的網頁,搜尋引擎的來源訪客不訪問你的網頁,不代表直接訪問或其他來源的人不訪問呀,更何況你自己還會訪問呢不是?
有時候,我們自己也會忽略哪些內容是受歡迎的,不重點優化。但訪客騙不了我們。大多數人頻繁訪問的網頁一定是受歡迎的。通過自動推送的方式給百度收錄提交入口,讓百度蜘蛛抓取。也很不錯的。
主動推送提交方式
主動推送的方式,其主要針對的還是我們的文章頁/詳情頁,畢竟這類頁面第一時間產生後,我通過自動推送就給了百度,不僅能保證實時性,還可以在有大型網站採集我網站時,提過提交網址的時間,來證明我的是原創的。
所以如上的三種方式都各有千秋,但話說回來,能多一次把網址提交給百度收錄的機會,我們為什麼不珍惜呢?收錄了的在提交一次也無所謂,沒有收錄的多提交幾次,不也是增加收錄的機會嗎?
如上就是我們解決網站收錄的核心方法。本文內可能說的不全,但整體上我們要從三點出發:網頁的速度、網頁的綜合質量、以及像連結提交這種輔助搜尋引擎的東西。如果你有其他的補充歡迎在留言區進行補充,當然有問題也可以在留言區通過回覆進行留言。