SEO (Search Engine Optimization) 搜尋引擎優化定義

搜尋引擎最佳化

搜尋引擎最佳化乃是英文”Search Engine Optimization“翻譯而來,而搜尋引擎最佳化「英文:Search Engine Optimization,英文縮寫為SEO」,SEO指的是一種透過了解搜尋引擎的運作規則與定律來制定調整網站、優化網站與提高目標網站在相關或指定的搜尋引擎內獲取較佳排名的方式。根據過往的研究發現,搜尋引擎的使用者往往只會停留在搜尋結果最前面的幾個網站(第一頁前十名),所以不少網站都希望透過各種方式來影響搜尋引擎對於自身網站排名的先後順序,讓自己的網站可以有更好的搜尋引擎排名。

何謂「根據搜尋引擎作的規律制定最佳化的處理優化」,指的是為了要讓網站更容易被搜尋引擎索引。搜尋引擎會將網站彼此間的內容做一些相關性的資料比對,然後再藉由瀏覽器將這些內容以最快速且接近最完整的方式,呈現給搜尋者,如今搜尋引擎更是藉助AI(Artificial Intelligence)人工智慧將龐大的網路資料進行更精準的交叉比對,使得搜尋的精準度與速度比以往更加的快速且準確。搜尋引擎優化就是通過搜尋引擎的規則進行的優化,為使用者打造更好的使用者體驗。

對於任何一個網站來說,要想在網站推廣中取得成功,搜尋引擎優化都是至為關鍵的一項任務。同時,隨著搜尋引擎不斷改變它們的搜尋排名演算法規則,每次演算法上的改變都會讓一些排名很好的網站在一夕之間跌落谷底,而失去排名的直接後果就是失去了網站原生的可觀的流量,而這些流量可能是這些網站維持廣告收入的關鍵。因此每次當搜尋引擎算演法的改變都會在網站管理者之中引起不小的騷動和焦慮。可以說,搜尋引擎優化是一個愈來愈複雜的任務。

網站管理者以及網路內容提供者在90年代中期就開始使用搜尋引擎來優化網站。這個時候第一代的搜尋引擎開始對網際網路分門別類進行彙整。剛開始的時候,所有的網站管理者能做的事就僅僅只有提交各自所屬的網站到各大搜尋引擎進行索引。這些搜尋引擎會執行一些名為蜘蛛機器人(Spider Robots)─ 基於擷取每個網頁程式中,找到連至其他網頁的超連結 ─ 同時儲存所找到的資料並將這些資料進行歸類。在蜘蛛機器人抓取的過程中同時包含了將網頁下載並儲存至搜尋引擎擁有者的伺服器當中,這時有另外一個軟體稱為Indexer來擷取頁面中不同的資訊 — 將頁面中的文字、文字的位置、文字的重要性以及頁面所包含的任何連結進行索引,之後將頁面置入彙整清單中,等待一段時間後再來擷取一次,而這個擷取的頻率會根據網站更新的速度而有所不同,更新頻率越快的網站其蜘蛛機器人所抓取的頻率就越頻繁;反之亦然。而隨著線上檔案數目日積月累,越來越多網站員意識到自然搜尋(又稱為有機搜尋)條目的重要性,所以較普及的搜尋引擎公司開始整理他們的列表,以顯示最恰當適合的網頁為優先。搜尋引擎與網站管理者的戰爭就此開始,並延續到現在。