1. 首頁
  2. 行業

新站最佳化第一步:網站被百度收錄

新站最佳化第一步:網站被百度收錄

最近有件事情一直困擾著筆者小丹,其根源就是新上線的網站中至今沒有一個被收錄。即便筆者記得抓耳撓腮,搜尋引擎依然固我的按照本身的規則來執行。

對於新站的最佳化至今尚未正式開始,這是筆者的痛啊!這種情況不知道是否有朋友與我相似,因找不緣由而將問題的根本歸咎於搜尋引擎本身,真的是如此嗎?倘若有與筆者小丹有一樣難題的朋友,那麼我們今天來一起分析一下吧!

搜尋引擎的收錄工作一般就是發現網站抓取過濾資訊收錄輸出索引內容,而若你的.網站沒有被收錄,那麼就意味著你的網站沒有被搜尋引擎發現,或者是因為某些原因致使即便網站明明被爬行卻依然沒有被收錄。這個時候我們多會採用兩種方式來推出我們的網站:第一,主動出擊,提交網站和sitemap到站長平臺;第二,被動抓取,就是透過製作外鏈來吸引蜘蛛爬行。如果要問這兩種形式的高低之效,那筆者可以告訴你兩種方式各有側重,評分秋色,而兩種方法一起使用則效果更佳。

明白瞭如何來加速新站被收錄的方式,那麼就要重點來剖析一下為何網站不能被收錄的原因了?

網路世界數以千萬,在數億個網站中找到你確實不易,但是我們都直達,強大的搜尋引擎就是有如此能力,一般會在上線後的46周將其收錄,如果沒有收錄,那就證明我們的網站存在著問題。

第一,域名問題。一般來說,若你的網站域名在之前被處罰過,那麼相對於全新域名來說去收錄就會比較困難。這類域名需要一定的考核期,這有在確定該域名下的網站不存在違規現象時,才能將網站重新劃為信任網站,將其收錄。

第二,預收而不能。很多SEOer可能發現網站明明有蜘蛛爬行過的痕跡,為何依然不能被收錄。這個就涉及到了蜘蛛的真假問題,今天筆者暫不詳談。我們主要來看看那些為什麼蜘蛛不能爬行網站,首先要了解一下蜘蛛爬行過程,要域名轉為IP,轉化成相應的伺服器,DNS解析,域名轉為IP,找到IP所在伺服器進行訪問,若DNS出現問題或則是空間服務商出現了差錯就會導致蜘蛛無法抓取。遇到這樣的情況,那麼你只需更改空間商,收錄問題就迎刃而解了。

第三,robot效應。如果是因為網站設定了robot檔案而造成的網站不能被收錄現象,我們就只能為自己的粗心大意默哀了。在網站上線之初,因為網站尚未完善,很多SEOer會先在網站根目錄中放入robot檔案禁止搜搜引擎抓取,來避免因為網站不完整而造成的延長考核期現象。所以當你網站要正式上線的時候,希望站長先檢查一下是否去除了robot檔案。