G+

วันพุธที่ 8 ธันวาคม พ.ศ. 2553

หลักการทำงาน Search Engine


หลักการทำงาน Search Engine ปัจจัยการทำงานหลักอยู่ 3 ประการ

1. Search Engine ทั้งหลายค้นหาข้อมูลใน Internet และเลือกสรรเว็บเพจต่าง ๆ ออกมาตามคำสั่ง ของผู้ใช้งาน Keyword

2. Search Engine วิ่งเข้าไปเก็บข้อมูลต่าง ๆ เอามาเก็บไว้ในฐานข้อมูล Indexing เพื่อรอการเรียก ค้นหา (Indexing ก็จะคล้ายๆ กับ ดัชนีท้ายเล่มหนังสือนั่นเอง)

3. Search Engine อนุญาติให้ผู้ใช้ค้นหาข้อมูลต่าง ๆ ด้วยการเปรียบเทียบการสอดคล้องระหว่างคำ หรือข้อมูลที่เป็นประโยคสั้น ๆ ที่ใช้ค้นหาใน Index ของ "Search Engine" ดังนั้นก่อนที่ Search Engine จะบอกคุณว่า ข้อมูลที่คุณหาอยู่ในเว็บเพจใดในโลก Internet มันจะต้องมีข้อมูลทั้งหมดอยู่แล้ว เพราะฉนั้น Search engine จึงมีซอฟต์แวร์อัตโนมัติที่เรียกว่า Spider หรือ Robot ที่จะคอยวิ่ง (Crawling) ไปตามเว็บเพจต่างๆ โดยการใช้ลิงก์มากมายเป็นถนม ให้มันวิ่งผ่านแล้วเอาข้อมูลหรือเนื้อหาของเว็บเพจเหล่านั้นมาเก็บใส่ Index ของมันเอาไว้เพื่อเตรียมการรอว่าเมื่อไหร่จะมีใครมาค้นเจอนอกจากการใช้ลิงก์ในการเก็บข้อมูล ยังมีอีกสิ่งที่เป็นตัวกระตุ้นโดยสามารถ เรียกเจ้า Spider ให้เข้ามาเก็บข้อมูลได้อีกคือ ความนิยมของเพจนั้น ๆ เพราะเจ้า Spider มันจะวิ่งเข้าหาเครื่องคอมพิวเตอร์ที่เก็บไฟล์เว็บเพจนั้น (Server) ที่มีอัตราการใช้อย่างหนักหน่วงในแต่ละวินาที พูดง่ายก็คือเว็บเพจใดที่มีคน
เข้าไปดูมาก ๆ เป็นที่นิยม และมีการอัปเดตเนื้อหาอยู่บ่อย ๆ เจ้า Spider มันจะเข้ามาเองนั้นแหละ

ทั้งหมดที่ว่ามา ก็คือพื้นฐานหลักการทำงานของ "Search Engine" ที่หลายคนอาจไม่เคยรู้ หรือไม่เคยสนใจ แต่หลายคนอาจจะมาาขอบคุณผมที่หลังก็ได้ ถ้าคุณตั้งใจจะทำ "SEO" จริง

เครดิต seo-service