صفحه نتایج موتور جستجو
نسخههای اولیه الگوریتمهای جستجو به اطلاعات فراهم شده توسط مدیران وب سایتها نظیر متا تگ واژههای کلیدی، یا فایل ایندکس موتورهای جستجو مانند ایالآیوب اعتماد و اتکا میکردند. متاتگها یک راهنمایی برای محتوای هر صفحه فراهم میکنند. با اینحال، استفاده از دادههای متا در صفحات ایندکس، کمتر قابل اطمینان بود زیرا انتخاب واژگان در یک متاتگ توسط وب سایتها، بالقوه میتواند یک نمایش غیر دقیق از محتوای واقعی وب سایت باشد. دادههای نادرست، ناقص و ناسازگار در متا تگها میتواند موجب رتبهبندی شدن صفحه برای جستجوهای غیر مرتبط گردد. تولیدکنندگان محتوای شبکه همچنین تعدادی از ویژگیهای منبع اچتیامال یک صفحه را دستکاری کردند تا رتبه صفحه را در موتورهای جستجو بهبود بدهند.
با تأکید بر عواملی مانند تراکم واژه کلیدی، که بطور انحصاری تحت کنترل مدیر وب سایت است، موتورهای جستجوی اولیه از سوء استفاده و دستکاری رتبهبندی رنج میبردند. به منظور ارائه نتایج بهتر به کاربران خود، موتورهای جستجو باید انطباق یافته و از نتایج صفحاتی اطمینان یابند که نتایج مرتبط تری دارند، نه نتایج مربوط به صفحاتی که نامربوط بوده و توسط مدیران شبکه بدون وجدان کاری و با استفاده از کلمات کلیدی متعدد پر شدهاند. از آنجایی که موفقیت و محبوبیت یک موتور جستجو از طریق توانایی آن در تولید نتایج مرتبط تر در قبال هر جستجوی صورت گرفته مشخص میشود، کیفیت پایین یا نتایج نامرتبط میتواند سبب سوق دادن کاربران به منابع جستجوی دیگر شود. موتورهای جستجو با توسعه الگوریتمی رتبهبندی پیچیدهتر به این عمل پاسخ دادند؛ که در آن عوامل بیشتری مورد توجه قرار میگیرند و دستکاری را برای مدیران شبکه، سختتر میسازند. لری پیج و سرگئی برین دو دانشجوی فارق التحصیل دانشگاه استنفورد یک موتور جستجو موسوم به بکروب را توسعه دادند که جهت ارزیابی برجستگی صفحات وب، به یک الگاریتم ریاضیاتی تکیه داشت. عددی که توسط الگوریتم محاسبه میشد، یعنی «رتبه صفحه»، تابعی است از مقدار و قدرت لینکهای ورودی. رتبه صفحه میزان یک صفحه معین را که توسط یک کاربر که بصورت تصادفی شبکه را جستجو میکند مورد دسترسی قرار گرفته، تخمین میزند و لینکهای یک صفحه به صفحه دیگر را دنبال میکند. در واقع، این بدان معناست که برخی لینکها از سایر لینکها قوی تر بوده، رتبه صفحه بالاتر احتمال دیده شدن صفحه توسط وب گردهای تصادفی را افزایش میدهد.
پیچ و برین، گوگل را در سال 1998 بنیانگذاری کردند. گوگل درمیان کاربران فزاینده اینترنت، هواداران ثابت قدمی را به خود جذب کرد که طراحی ساده آن را دوست داشتند. عوامل خارج از صفحه (مانند رتبه صفحه و تجزیه تحلیل لینک) نیز همانند عوامل داخل صفحه (فراوانی واژههای کلیدی، متاتگها، عنوانها، لینک و ساختار وب سایت) مورد توجه قرار گرفتند تا گوگل را قادر به این امر سازند که از نوعی دستکاری که در موتورهای جستجویی دیده میشود که تنها به عوامل داخل صفحه توجه میکنند، اجتناب نماید. علیرغم اینکه به بازی گرفتن رتبه صفحه سختتر بود، مدیران شبکه سرانجام ابزارها و طرحهای تولید لینک را جهت تحت تأثیر قرار دادن موتور جستجوی اینکتومی توسعه دادند، و این روشها ثابت کردند که به طریقی مشابه میتوان رتبه صفحه را تحت تأثیر قرار داد. بسیاری از وب سایتها روی تبادل، خرید و فروش لینک در حجم زیاد و وسیع متمرکز هستند. بعضی از این طرحها یا مزارع لینک، موجب ایجاد هزاران وب سایت برای فروش هرزنگاری لینکها میشوند.
تا سال 2004، موتورهای جستجو، طیف گستردهای از عوامل نامعلوم را در الگوریتمهای رتبهبندی خود جای داده بودند تا اثر دستکاری لینکها را کاهش دهند. در ژوئن 2007، یک گزارشگر از نیویورک تایمز بنام سول هنسل گفت که گوگل، رتبهبندی سایتها را با استفاده از بیش 200 علامت مختلف انجام میدهد. موتورهای جستجوی پیشرو یعنی گوگل، بینگ و یاهو الگوریتمهای رتبهبندیهای خود را افشا نمیکنند. برخی از شاغلان در سئو روشهای مختلفی را جهت بهینهسازی موتور جستجو مورد مطالعه قرار داده و نظرات شخصی خود را منتشر نمودهاند. ثبت اختراعهای مربوط به موتورهای جستجو میتواند اطلاعاتی را برای درک بهتر موتورهای جستجو فراهم نماید.
در سال 2005، شروع به شخصیسازی نتایج جستجو برای هر کاربر نمود. بر اساس تاریخچه جستجوهای قبلی آنها، گوگل اقدام به ایجاد نتایج برای کاربرانی نمود که وارد حساب کاربری خود شدهاند. در سال 2008، بروس کلی گفت که «رتبهبندی مرده است» زیرا جستجوی شخصی شده سبب آن میگردد. او احضار کرد که بحث در مورد نحوه رتبهبندی یک وب سایت بیمعنی است؛ زیرا رتبه یک وب سایت، بالقوه برای هر کاربر و هر جستجو میتواند متفاوت باشد.
در سال 2007، گوگل کمپینی به راه انداخت علیه لینکهایی که در ازای پرداخت پول، رتبه صفحه را منتقل میکنند. در 15 ژوئن 2009، گوگل فاش کرد که اقداماتی در پیش گرفته تا با استفاده از ویژگیهای نوفالو در لینکها، اثر مدلسازی رتبه صفحه را کاهش دهد. مت کاتس یک مهندس نرمافزارشناخته شده در گوگل، اعلام کرد که عنکبوت خزنده گوگل دیگر به طریق مشابه به لینکهای دنبال نشده نمیپردازد تا تأمین کنندگان خدمات سئو را از استفاده از آن در تعیین مدلسازی رتبه صفحه منع نماید. در نتیجه این تغییر استفاده از نوفالو منجر به از دست رفتن رتبه صفحه میشود. به منظور اجتناب از این امر، مهندسان سئو تکنیکهای جایگزینی را توسعه دادند که تگهای نوفالو شده را با جاوا اسکریپت مبهم جایگزین کرده و در نتیجه، مدلسازی رتبه صفحه را میسر میسازد. بعلاوه چند راه حل پیشنهاد شده است که شامل استفاده از آیفریم، فلش، جاوا اسکریپت میشود.
در دسامبر 2009، گوگل اعلام کرد که از سوابق جستجوی تمام کاربرانش جهت جمعآوری نتایج جستجو استفاده خواهد کرد.
در 8 ژوئن 2010 از یک سیستم ایندکس گذاری جدید موسوم به گوگل کافئین رونمایی شد. گوگل کافئین تغییری بود در روش به روز شدن ایندکس گوگل به منظور نمایش سریعتر نتایج گوگل نسبت به گذشته. این سیستم طراحی شد تا به کاربرها اجازه یافتن سریعتر از قبل نتایج جدید، پستهای فورمها و سایر مطالب را بلافاصله پس از انتشار آنها بدهد. Carrie Grimes مهندس نرمافزاری که به گوگل، سیستم کافئین را معرفی کرد، معتقد است که این سیستم جستجوهای شبکه را 50 درصد نسبت به ایندکس پیشین بهبود میدهد.
گوگل اینستنت، یا جستجوی زمان واقعی، در اواخر سال 2010 در تلاشی به منظور بههنگامتر و مرتبط نمودن جستجوها ارائه شد. بهطور تاریخی، ادمینهای وب سایتها، ماهها و یا حتی سالها روی بهینهسازی یک وب سایت و ارتقای رتبه? جستجوی آن زمان گذاشتهاند. با گسترش عمومیت وب سایتها و وبلاگهای رسانههای اجتماعی، موتورهای جستجوی پیشرفته در الگوریتمهای خود تغییراتی ایجاد کردند تا مطالب تازه به سرعت در میان نتایج جستجو رتبهبندی شوند.
در فوریه 2011، از آپدیت پاندا خبر داد که وب سایتهایی را که حاوی محتوای تکثیر شده از وب سایتها و منابع دیگر باشند، جریمه میکند. بطور تاریخی، وب سایتها محتوا را از یکدیگر کپی کرده و از آن در رتبهبندی موتورهای جستجو بهرهمند شدهاند. با این حال، گوگل یک سیستم جدید پیادهسازی کرد که سایتهایی را که حاوی محتوای منحصر به فرد نیستند، جریمه میکند.
در آوریل 2012، گوگل از آپدیت گوگل پنگوئن رونمایی کرد که هدف آن، جریمه کردن وب سایتهایی بود که از روشهای دستکاری جهت بهبود رتبه خود در موتورهای جستجو استفاده میکردند.
در سپتامبر 2013، کمپانی گوگل از آپدیت الگوریتم مرغ مگس خوار رونمایی کرد؛ یک الگوریتم که جهت بهبود پردازش زبان طبیعی گوگل و درک معنایی صفحات وب طراحی شد.
سئو سایت و بهینه سازی سایت در اصفهان