موتورهای جستجو دو وظیفه اصلی دارند :
1- خزیدن (crawling) در میان وب سایت ها و ایجاد فهرست
2- آماده سازی و نمایش لیستی از نتایج رتبه بندی شده که بیشرین تناسب را با واژه های جستجو شده توسط کاربر داشته باشند.
خزیدن(crawling) در میان وب سایت ها و ایجاد فهرست
دنیای اینترنت را بصورت شبکه ای از تابلوهای ایست در خیابان های یک شهر بزرگ تصور کنید
هر نقطه توقف و تابلوی ایست یک پرونده منحصر به فرد است (این پرونده معمولا یک صفحه وب سایت است ولی گاهی نیز ممکن است فایل های PDF یا JPG یا هر نوع فایل دیگری باشد) موتورهای جستجو باید بتوانند در تمام این شهر اصطلاحا بخزند تا همه این نقاط توقف را در مسیر خود شناسایی کنند.و این کار را از بهترین روش ممکن یعنی استفاده از لینک ها انجام می دهند.
ساختمان لینک وب سایت،کمک می کند تا تمام صفحه های یک وب سایت به یکدیگر متصل شوند.
لینک ها به روباتهای اتوماتیک موتورهای جستجو که خزنده (crawler) یا عنکبوت (spiders) نامیده می شوند این امکان را می دهند که میلیاردها پرونده موجود در دنیای اینترنت را شناسایی کنند.
به محض اینکه که موتور جستجوگر این صفحه های وب را پیدا کرد کدهای داخلی آن را باز کرده و قسمت های مشخصی از آن را در یک پایگاه داده عظیم ذخیره می کند تا هرزمان که نیاز بود بتواند آن را پیدا و احضار کند. برای نگهداری اطلاعات میلیاردها صفحه وب که در کسری از ثانیه قابل دسترسی باشند شرکت های موتورهای جستجوگر در سراسر دنیا مراکز ذخیره اطلاعات متعددی دارند.این لوازم غول آسای ذخیره سازیِ اطلاعات، از هزاران دستگاهی تشکیل شده که قادرند تعداد زیادی عملیات و محاسبه را در زمان کوتاهی انجام دهند.زمانی که شخصی عبارتی را در موتورهای جستجوی بزرگی مانند گوگل، یاهو یا بینگ سرچ می کند نتایج جستجو بلافاصله برای وی به نمایش در می آید.حتی تاخیر یک یا دو ثانیه ای هم می تواند باعث ایجاد نارضایتی کاربر شود.بنابراین شرکت های بزرگ موتورهای جستجو به سختی تلاش می کنند تا نتایج را در سریعترین زمان ممکن به کاربر نشان دهند.
آماده سازی و نمایش لیستی از نتایج رتبه بندی شده
موتورهای جستجو در حقیقت ماشین های پاسخگوی خودکار هستند.زمانی که فردی اقدام به جستجوی عبارتی در اینترنت می نماید موتور جستجوگر شروع به کاوش میان میلیاردها سند موجود کرده و دو کار مهم انجام می دهد:
اول پرونده هایی که مرتبط با موضوع یا برای کاربر مفید است را بازمیگرداند.دوم، این نتایج را بر اساس محبوبیت اطلاعات داخل آنها رتبه بندی می کند.
در واقع مرتبط بودن نتایج و میزان محبوبیت همان دو موضوعی است که قرار است فرایند سئو سایت روی آنها تاثیر بگذارد تا وب سایت مورد نظر در صدر نتایج جستجو ظاهر شود.
موتورهای جستجو مرتبط بودن و محبوبیت صفحات را چگونه تعیین میکنند؟
برای موتورهای جستجو مرتبط بودن صفحات چیزی بیش از پیدا کردن وب سایتی است که تنها کلمات مورد نظر در آن تکرار شده باشد.در روزهای اولیه آغاز دنیای وب، موتورهای جستجو برای تعیین اینکه یک وب سایت مرتبط با موضوع مورد درخواست کاربر است تنها به زیاد بودن تکرار کلمات مورد جستجو در وب سایت اکتفا می کردند.اما در سالهای بعد و با گذشت زمان، مهندسان و برنامه نویسان راه های بهتری برای تطابق نتایج با درخواست کاربران پیشنهاد کردند.امروزه صدها فاکتور مختلف برای تعیین مرتبط بودن وب سایت با عبارت مورد جستجو در نظر گرفته می شود که ما مهمترین آنها را در سری مقالات آموزش سئو سایت توضیح خواهیم داد.
به طور کلی موتورهای جستجو اینگونه در نظر میگیرند که هرچه یک سایت، یک صفحه یا یک پرونده محبوب تر باشد احتمالا محتوا و اطلاعات مفیدتری را نیز شامل می شود.
محبوبیت و مرتبط بودن وب سایت به صورت دستی تعیین نمی شود.بجای آن موتورهای جستجو از معادلات ریاضی پیچیده ای (الگوریتم ها) برای جدا کردن گندم از کاه ( مرتبط بودن) و سپس رتبه بندی گندم ها بر اساس کیفیت ( محبوبیت ) استفاده می نمایند.
این الگوریتم ها اغلب مواقع صدها متغیر را شامل می شوند که در زمینه های بازاریابی اینترنتی و مباحث سئو، به این متغیرها "فاکتورهای رتبه بندی" می گوییم.
الگوریتم های پیچیده مورد استفاده در موتورهای جستجو تقریبا غیرقابل نفوذ به نظر می رسد.در واقع خود موتورهای جستجو مقداری از این الگورتیم ها را ترجمه و تفسیر می کنند تا از این طریق وب سایت ها بتوانند رتبه بالاتری در جستجوها گرفته و بازدید بیشتری داشته باشند.
به عنوان مثال برخی از پیشنهاداتی که گوگل جهت بهینه سازی و سئو وب سایت کرده است شامل این موارد می گردد:
· صفحه های وب سایت خود را تنها برای استفاده کاربران و بازدیدکنندگان ایجاد کنید نه برای موتورهای جستجو.کاربران خود را فریب ندهید و محتوایی که به موتورهای جستجو ازائه می دهید نباید متفاوت با محتوایی باشد که به کاربران نشان داده می شود.این کار در اصطلاحات مربوط به بهینه سازی سایت به " کلاکینگ (cloaking) " معروف است.
· طراحی سایت خود را بگونه ای انجام دهید که سلسه مراتب مشخص و لینک های واضح داشته باشد.هر صفحه وب سایت باید از طریق حداقل یک لینک نوشتاری قابل دسترسی باشد (برای هر صفحه سایت باید یک لینک وجود داشته باشد)
· وب سایتی غنی از اطلاعات مفید طراحی کنید و صفحاتی مفید برای کاربران ایجاد نمایید.از دقیق و واضح بودن توضیحات مربوط به تگ های <title> و تگ هایALT اطمینان حاصل کنید.
· از عبارات کلیدی و متنهای توصیفی قابل فهم برای افراد جهت ایجاد URL ها (آدرس های اینترنتی) استفاده نمایید.برای دسترسی به یک متن یا یک پرونده تنها از یک URL برای آن استفاده کنید.از ریدایرکت 301 و یا از خاصیت rel="canonical" برای آدرس دهی به متن های تکراری استفاده نمایید.
در بیش از 15 سالی که از عمر جستجوی اینترتی می گذرد ، برنامه نویسان و متخصصان سئو، روش هایی را برای درک بهتر چگونگی رفتار موتورهای جستجو ابداع کرده اند و از طریق این اطلاعات استراتژی های کارامدی را برای بهینه سازی سایت مشتریان خود بوجود آورده اند – البته همانند الگوریتم های موتورهای جستجو این روش ها نیز دائما در حال تغییر است.
بنابراین می توانید با خیال راحت به این متخصصان (در صورت اثبات وجود تخصص و تجربه واقعی) اعتماد کنید و فرایند SEO وب سایت خود را به آنها بسپارید.
در سری مقاله های آموزش سئو وب سایت با ما همراه باشید تا اصول پایه ای مربوط فرایندهای سئو و بهینه سازی سایت را فرا گرفته و از این طریق به ارتقا رتبه سایت خود کمک زیادی نمایید.