โปรโมท เว็บไซต์ - หลักการทำงานของเสิร์ชเอนจิ้น

หลักการทำงาน ของเสิร์ชเอนจิ้น

 

     หลักการทำงานของ เสิร์ชเอนจิ้น โดยทั่วไปแล้ว หลักการที่สำคัญ และนับว่าเป็นหัวใจหลักของ โปรแกรมเสิร์ชเอนจิ้น จะมีลักษณะการแบ่ง การทำงานออกเป็น 3 ขั้นตอนดังต่อไปนี้

  • การตรวจค้นหาข้อมูล เพื่อแยกประเภทของข้อมูล ที่มีเนื้อหาเกี่ยวข้องกัน
  • รวบรวมข้อมูล ที่ได้แยกเนื้อหาที่มีความเกี่ยวข้องกัน ไว้ที่เดียวกัน
  • แสดงผลการค้นหาข้อมูล ที่มีความเหมือนและ มีความคล้ายคลึงกัน

     หลักการทำงานของโปรแกรม เสิร์ชเอนจิ้น จะเริ่มด้วยการส่ง Robot หรือบางครั้งเรียกว่า Spider ไปตรวจสอบรวบรวม เก็บข้อมูล ในส่วนของเว็บเพจ หรือเว็บไซต์ต่างๆ ที่มีอยู่จำนวนมากในฐานข้อมูล บนเครือข่ายอินเตอร์เน็ต โดยลักษณะการทำงาน ของตัวโปรแกรม ที่ไปตรวจสอบ จะตรวจสอบ ทุกส่วนภายในเว็บนั้นๆ และเก็บข้อมูล ที่เก็บอยู่ภายในเว็บไซต์ ตั้งแต่หน้าแรก และไล่ไปตามลิ้งต่างๆ บนหน้าเว็บนั้นๆ จากนั้นจะเก็บรวบรวมข้อมูลต่างๆ เข้าสู่ฐานข้อมูล ของเสิร์ชเอนจิ้น เพื่อจัดเข้าเป็นหมวดหมู่ สำหรับ การค้นหาของผู้ใช้ต่อไป

     เมื่อผู้ใช้ต้องการจะ ค้นหาข้อมูลบางอย่าง เช่น ต้องการค้นหาข้อมูล เกี่ยวกับ แหล่งท่องเที่ยวต่างๆ อาจจะพิมพ์คำค้น หรือ คีย์เวิร์ด ลงไปในโปรแกรม ของเสิร์ชเอนจิ้น ด้วยคำว่า “สถานที่ท่องเที่ยว จังหวัดกำแพงเพชร” เมื่อเริ่ม การค้นหา เสิร์ชเอนจิ้น จะทำการประมวลผล หาข้อมูล จากเนื้อหาของหน้าเว็บไซต์ ที่ได้เก็บรวบรวมไว้ ภายในฐานข้อมูล ที่ตรงและมีความใกล้เคียง หรือคล้ายกับ คีย์เวิร์ด และแสดงผลออกมาเป็นลำดับ จากข้อมูลที่ตรงกับผล ของการค้น จากมากไปหาน้อย

 

     ปัจจุบันมีผู้ที่ ต้องการเก็บรวบรวม หรือจัดทำ โปรแกรมเสิร์ชเอนจิ้น เพื่อทำการเก็บ รวบรวมข้อมูลจาก เว็บไซต์ ต่างๆ ไว้เป็นฐานข้อมูล ในการให้ความรู้ และง่ายต่อการการสืบค้น หาข้อมูล ตามความต้องการ ของผู้ใช้ อินเตอร์เน็ต เป็นจำนวนมาก แต่สำหรับ เว็บเสิร์ชเอนจิ้น ที่ได้รับความนิยม มากที่สุด ในปัจจุบันคือ Google, Yahoo! Search และ MSN Search

อ่านต่อ..

โปรโมท เว็บไซต์ - หลักการทำงานของเสิร์ชเอนจิ้น

เกร็ดน่ารู้เกี่ยวกับ เสิร์ชเอนจิ้น

หลายท่านคงมีความสงสัย เกิดขึ้นในใจว่า แล้วเมื่อไร ตอนไหน ทำอย่างไร ที่จะทำให้ Robot หรือบางครั้งเรียกว่า Spider ของโปรแกรม เสิร์ชเอนจิ้น จะเข้ามาเก็บตรวจสอบ ขอมูลภายในเว็บไซต์ ของเรา

อ่านต่อ...