Google靠刪除一行代碼

重塑AI與SEO數據生態
22/10/2025
3216
收藏
分享
重塑AI與SEO數據生態

今年9月中旬,一場突如其來的流量暴跌事件震撼全球網站與SEO產業。許多網站的搜尋曝光量大幅下滑,平均排名卻異常上升。這場混亂的源頭,正是Google未經公告、悄然停用的「num=100」URL參數——一個可一次性取得100筆搜尋結果的非官方功能。這項微小的技術變更,卻撼動了整個SEO數據產業的根基。

對於ChatGPT、Claude等AI搜尋引擎而言,Google龐大的索引資料是其訓練與回覆問題的「數位糧倉」。AI爬蟲透過「num=100」參數,能一次擷取前100名搜尋結果,獲得長尾內容與多元語料,進而生成更完整的回答。某些AI工具因此在答題準確度上甚至超越Google使用體驗。

如今,Google封鎖該參數,使AI爬蟲必須逐頁抓取資料,成本與難度提升十倍。這一舉措有效鞏固了Google的資料護城河,阻斷競爭對手利用其索引資源打造替代性搜尋產品。事件發生後,Reddit等原本仰賴深層流量的網站入站量明顯下滑,成為政策效應的第一波受害者。

揭開數據幻象 修正「幽靈曝光」

除了AI爭奪戰,這場變動也暴露了Google Search Console(GSC)內部長期存在的數據偏差。根據eSEOspace研究,近九成網站在事件後曝光量暴跌、排名紀錄消失,但平均名次卻提升。原因在於「num=100」長期被SEO工具爬蟲濫用。

每當機器人抓取含百筆結果的搜尋頁時,只要網站出現在該頁,即被計為一次「曝光」。這讓大量排名在第90名以後、從未被真人看見的頁面,也被誤算為有效曝光。這些「幽靈數據」多年來累積,嚴重扭曲了網站真實表現。

當「num=100」被廢除後,爬蟲無法再一次讀取百筆結果,這些虛假曝光瞬間消失,使GSC統計數據更貼近真實用戶行為。業界稱之為一次「遲來的大數據校正」。

減輕成本 推動付費管道

業界普遍認為,Google此舉的第二層意圖,是緩解基礎設施壓力並引導生態轉向官方API。為每次查詢輸出100筆結果,長期造成龐大伺服器負擔。近年來AI與SEO工具的大規模自動抓取更令成本飆升。Google無義務為第三方的商業行為買單,因此選擇切斷這條免費資料管道。

此外,Google可藉此推廣官方的Custom Search JSON API,將原本依賴非官方手段的業者導向可監管、可付費的資料服務。對Google而言,這既是商業化機會,也是一種數據主權的再收回。

Google也可從「改善使用者體驗」的角度為此舉辯護。大多數真實使用者只瀏覽首頁結果,極少翻至第二頁之後。透過縮減深層數據權重,Google可使報表更符合一般用戶的行為模式,看似「更真實」。

不過,這也限制了專業分析師與市場研究人員的能力,使他們難以掌握完整的搜尋趨勢。對SEO產業而言,免費數據時代的終結,意味著進入成本更高、透明度更低的新階段。 (編輯部)

檢舉
檢舉類型:
具體描述:
提交
取消
評論
發佈

力報會員可享用評論功能

註冊 / 登錄

查看更多評論
收藏
分享

相關新聞

推薦新聞

找不到相關內容

七日預報