الگوریتم های گوگل

در این مقاله میخواهیم معروف ترین و پرکاربردترین الگوریتم های موتورهای جستجو را معرفی کنیم.موتورهای جستجو و گوگل که قدرتمند ترین آنهاست عصای دست کاربران اینترنت برای یافتن مطالب مورد نظرشان است،تا اگر میخواهند به دنبال چیزی بگردند نیاز نیست اسم تمامی وبسایت هارا حفظ کنند و یا جایی یادداشت کنند،بلکه عبارتی که به دنبال آن هستند را وارد کرده و نتایج براساس تطبیق مطالب وبسایت با کلمات جستجو شده نمایش داده میشود.

اما گوگل براساس الگوریتم های تعریف شده  قادر است با همچین قدرتی به کار خود ادامه دهد و دقت و سرعت بی نظیر داشته باشد؛که برخی از این الگوریتم ها بازدارنده و برای جلوگیری از هرج و مرج در گوگل و یکسری از آنها هم برخی کارهای دیگر برای کمک به گوگل را انجام میدهند.

الگوریتم های گوگل بسیار پیچیده هستند و روز به روز هم در حال پیچیده شدن هستند،زیرا گوگل سعی دارد کیفیت بیشتری را به کاربران ارائه دهد.در ابتدا زمانی که موتورهای جستجو پدید امدند،افرادی بودند که حرفه شان این بود که رتبه وبسایت هارا ارتقا دهند که به آنها بازاریابان موتورهای جستجو میگفتند.این بازاریابان در ابتدا به راحتی میتوانستند راه هایی برای ارتقای رتبه وبسایتها پیدا کنند؛در برخی موارد این کار به سادگی قرار دادن چند قطعه کد در وبسایت بود که به آنها تگ کلمات کلیدی متا گفته میشد.این کدها به موتورهای جستجو میفهمانند که این صفحه مربوط به چه موضوعی است. مسئولان و مهندسان گوگل همواره برای اینکه کاربران اینترنت به نتایج مرتبط نزدیک تر باشند تلاش کرده اند تا از فریب خوردن مردم توسط برخی وبسایتها جلوگیری کنند. در گذشته الگوریتم های گوگل به ندرت تغییر میکردند.اگر وبسایتی به خاطر یک کلمه کلیدی در رتبه اول قرار میگرفت،تا زمانی که بروز رسانی وتغییر بعدی رخ بدهد،آن وبسایت در آن رتبه باقی میماند. این اتفاق تا زمانی که الگوریتم “کافئین” در سال2010 اجرایی شد ادامه داشت.از زمانی که کافئین رونمایی شد نتایج موتورهای جستجو به جای اینکه هر چند روز یکبار تغییر کند،روزی چندبار تغییر میکند.گوگل در سال بالای 600 تغییر در الگوریتمهای خود انجام میدهد که حجم وسیعی از آن غیر علنی است و معرفی نمیشود.معمولا زمانی که تغییر بزرگی در موتورهای جستجو ایجاد میشود،گوگل برای آنها اسم میگذارد و آنرا معرفی هم میکند.در سرتاسر دنیا زمانی که این تغییرات بزرگ اعمال میشود متخصصین سئو با همیت فراوان به دنبال راه حلی میگردند تا بفهمند چگونه میشود وبسایت هارا براساس این الگوریتم بهینه تر کرد. حال به معرفی و توضیح این الگوریتمها میپردازیم؛در ابتدا 3تا از بزرگترین تغییرات که در چند سال اخیر رخ داده است را شرح میدهیم.این الگوریتم ها را به اسم باغ وحش گوگل میشناسند که شامل حیوانات پاندا،پنگوئن و مرغ مگس خوار میباشند. ابتدا الگوریتم کافئین را معرفی میکنیم: الگوریتم کافئین گوگل پیش از این سیستمی به نام ایندکس(Index ) داشت که هر وبسایت توسط Crawler (خزنده) گوگل بررسی میشود و هر وبسایت براساس کلمات کلیدی و برخی دیگر از المان ها در گوگل ثبت و دسته بندی میشوند،زمانی که فردی موضوعی را جستجو میکند براساس کلمات وارد شده توسط کاربر یکی از صفحات ایندکس و فهرست شده در اختیار او قرار میگیرد.این روش همانطور که در بالا گفته شد بسیار آهسته انجام میشد و به روز رسانی دسته ها و گروه ها زمان زیادی میبرد.زمانی که الگوریتم گوگل وارد شد این موضوع را حل کرد. الگوریتم کافئین را میتوان شکل ابتدایی از الگوریتم مرغ مگس خوار دانست که در ادامه آنرا بررسی خواهیم کرد.مرغ مگس خوار یکی از اهدافی که دارد افزایش سرعت نمایش نتایج جستجوست.الگوریتم کافئین دو خصلت مهم دارد که شامل:

  • سرعت بروز رسانی صفحات همانطور که در بالا گفته شد بسیار بالا رفته است و هزاران صفحه در یک ثانیه بروز میشوند و کاربران در هر لحظه به جدیدترین و اصطلاحا به آپدیت ترین صفحات دست پیدا میکنند.
  • سرعت بالای الگوریتم کافئین این امکان را میدهد که جست و جو در عمق کلمات و معنا در مقیاس های بزرگتری انجام شود.

الگوریتم پاندا پاندا برای اولین بار در فوریه سال 2011 راه اندازی شد.هدف اصلی الگوریتم پاندا این است که سایتهای با کیفیت را در نتایج جستجو بالاتر نشان دهد و سایتهای ضعیف را به رتبه های پایین ببرد و یا حتی آنهارا حذف کند.اوایل تولد الگوریتم پاندا،اغلب سئو کاران تصور میکردند که این الگوریتم برای مقابله با بک لینک سازی های غیر طبیعی آمده است،که بعدها هدف الگوریتم پاندا که تنها  بررسی کیفیت وبسایت است برای همگان مشخص شد. سایتهای بسیار زیادی توسط الگوریتم پاندا به طور جدی تحت تاثیر قرار گرفته اند و نسبتا آسیب های جدی دیدند.پاندا اگر صفحه ای را ضغیف تشخیص دهد،امکان دارد که آن صفحه را به کلیحذف نکند ولی گوگل حتما امتیاز آنرا کاهش خواهد داد.هوشمندی پاندا به حدی است که میتواند فقط قسمتی از وبسایت برای مثال قسمت اخبار سایت را در صورت ضعیف بودن سلب امتیاز کند. اما با پرسش و بررسی چندین سوال و موضوع است که در هر بخش وبسایت به طور جداگانه میتوان دریافت که آیا محتوای وبسایت کیفیت لازم را دارد یا خیر: 1.اطلاعات درج شده در این صفحه معتبر هستند وصحت دارند؟ 2.این محتوا توسط فردی حرفه ای تولید شده است یا فردی که هیچ نوع سررشته ای از تولید محتوا ندارد؟ 3.محتوای وبسایت تکراری و از وبسایتهای دیگر کپی شده است یا زائد و شامل هرزنامه است؟ 4.مقالات داخل وبسایت نباید غلط املایی و نگارشی باشد. 5.اطلاعات نباید دروغین و شایعه باشد. 6.محتوای سایت واقعا برای کاربران مفید است و وی را جذب میکند یا تنها برای حضور موقتی کاربران و کسب رتبه طراحی شده است؟ 7.مقاله ها باید دارای محتوا و اطلاعات اصیل و بکر باشد. 8.محتوای داخل وبسایت ما توانایی رقابت با سایر وبسایت های مشابه را دارد؟ 9.محتوا باید حداقل توسط یک نفر دیگر کنترل شود تا کیفیت آن تایید گردد. 10.در مورد ارتباط موضوع با محتوا،آیا واقعا محتوای سایت ارتباط لازم با مواردی که کاربران جستجو خواهند کرد را دارد؟ 11.آیا مقاله  تعریف جامع و کاملی از موضوع دارد؟ 12.جذابیت محتوای وبسایت کاربر را جذب میکند؟ 13.کیفیت محتواها باید آنقدر بالا باشد که حتی انتظار داشت بتوان آنها را در روزنامه ها،کتابها و مجلات چاپ کرد. 14.وبسایت نباید مملوء از تبلیغات باشد و از موضوع اصلی خود دور شود و مخاطب را از هدف خود منحرف کند. و تعدادی سوال با این سبک که عیار محتویات وبسایت مارا مشخص خواهد کرد. پرسش های بالا معیارها و سوالات تعریف شده از طرف گوگل برای تعیین کیفیت نیستند اما میتوانند برای کمک به اعتلای محتوای سایت و اهمیت به بازدیدکننده به وبسایتها کمک قابل توجهی کند. تمرکز الگوریتم پاندا روی موارد زیر است که باید به منظور جلوگیری از جریمه شدن توسط این الگوریتم این اعمال را رعایت کنیم:

از محتوای ضعیف استفاده نکنید. صفحه و برگه ضعیف بدین معناست که بازدیدکننده مطلب ارزشمندی از محتوای آن برگه دریافت نکند.مواردی که محتوا را ضعیف میکند میزان و اندازه آن است و مورد دیگر ارزش پایین محتوا.البته به این معنی نیست که محتوا حتما باید چه تعداد کلمه را شامل شود اما بدیهی است که تعداد کلمات خیلی پایین و کم به هیچ وجه برای کاربران نمیتواند مفید باشد.طبیعی است که چند جمله حرف درهیچ جا حتی معرفی وبسایت به بازدیدکننده بکار آید!محتوا باید در عین بلند و کامل بودن،مفید هم باشد،نه صرفا به خاطر بلند بودن مطالب و فرار از دست پاندا با محتوای پوچ فقط متن را طولانی نگارش کنیم.یادمان باشد که الگوریتمهای گوگل باهوش تر از این هستند که با برخی روش ها بتوان آنهارا دور زد،ضمن اینکه آنها به سرعت بروزرسانی و دچار تحول میشوند و میتوانند برخی از اعمال که پیش از این باعث ارتقای رتبه سایت از راه غیراخلاقی میشدند،جریمه شوند. برای هر قسمت از وبسایت بهترین متن و مضمون خود را بنویسید.در گذشته اینطور بود که مشاوران بهینه سازی به صاحبان وبسایت میگفتند که محتوای وبسایت خود را روزانه بروز کنند تا بیشتر توسط گوگل دیده و ایندکس شوند،اما وقتی محتوای شما بی کیفیت باشد،نه تنها وقت خود را تلف کردید بلکه به دلیل بیشتر شدن مطالب بی کیفیت نمره منفی بیشتری از گوگل دریافت خواهید کرد. بهتر است برای تشخیص و کنترل کیفیت از چند نفر درخواست شود که در این امر شما را یاری کنند و نظر خود را بعنوان یک کاربر که وارد وبسایت شده بگویند.

محتوای تکراری و کپی شده چندین مورد در مضمون تکراری وبسایتها وجود دارد که از دید الگوریتم پاندا ضعیف تشخیص داده میشود: اولین مورد حجم زیاد مطالب کپی شده از وبسایتهای دیگر به داخل وبسایت خودمان است.فرض کنید یک مقاله را از سایت دیگر کپی کردید و در داخل سایت خود قرار داده اید.گوگل نسبتا خوب متوجه میشود که شما گرداورنده آن مقاله نیستید؛اگر از این دست مقاله ها که قبلا در سایت های دیگر موجود بوده،در سایت شما زیاد باشد،محبوبیت وبسایت از دید الگوریتم پاندا پایین می آید و در رتبه بندی وبسایت بسیار موثر است. مورد دیگر که الگوریتم پاندا آنرا مضمون تکراری تلقی میکند این است که شما یک وبسایت فروشگاهب دارید که در این وبسایت قصد دارید تعدادی محصول را به فروش برسانید.برای مثال محصول شما تیشرت است که در رنگها و مدلهای مختلف تولید شده است.شما نمیتوانید برای هر رنگ از لباس توضیح جداگانه بنویسید و اصولی و عقلانیست که یک توضیح برای هر مدل جداگانه بنویسید و برای هر رنگ از هر مدل اینکار را انجام ندهید چون اینکار بسیار بیهوده و غیرحرفه ایست.حال اگر وبسایت خود را طوری طراحی کنید که برای هر رنگ از هر مدل یک صفحه جدا در نظر بگیریدو توضیحات تقریبا یکسان برای هرکدام از صفحات داشته باشید،تعداد صفحات که اصلا نیاز به بودن آنها هم نیست بسیار زیاد میشود.درست آن است که یک صفحه برای هر مدل ایجاد شود و تمام رنگ بندی ها در همان صفحه قرار داده شود و یک توضیح یکتا برای آنها در همان صفحه نوشته شود.تعداد صفحات زیاد با محتوای مشابه هم باعث رویگردانی الگوریتم پاندا میشود. بهبود یافتن وبسایتها پس از آسیب رساندن پاندا به آنها: الگوریتم پاندا تقریبا به صورت ماهانه بروز میشود.در این بروزرسانی ها هم برخی شاخص ها ومعیارهای الگوریتم تغییر میکند و هم تمامی وبسایتها یکبار دیگر بررسی میشوند تا شایستگی آنها برای رتبه بندی بازهم مورد آزمایش قرار گیرد.این اتفاق یعنی اگر وبسایتی در رتبه خوبی قرار داشته باشد،امکان دارد اگر محتوای خود را ضعیف کند،تا چند ماه آینده کاهش رتبه داشته باشد و بالعکس میتواند یک فرصت باشد برای آن دسته از وبسایتهایی که به محتوای خود اهمیت نداده اند ویا محتوایی طبق توضیحات بالا ضعیف و کپی داشته اند.آنها میتوانند امیدوار باشند که با تغییر رویه،بتوانند رتبه خود را بهبود دهند.

الگوریتم پنگوئن پنگوئن در آوریل سال 2012 بوجود آمد.هدف پنگوئن کاهش اعتماد گوگل به وبسایتهایی است که از طریق ساخت بک لینک های غیرطبیعی و جعلی قصد فریب گوگل را دارند و خواهان استفاده از مزایای داشتن بک لینکهای زیاد میباشند.با اینکه تمرکز اصلی پنگوئن روی لینکهای غیرطبیعی است اما این الگوریتم روی کیفیت لینکها هم موظف است بررسی هایی انجام دهد. هر لینک مانند یک رای برای وبسایت است.اگر وبسایتی که لینک آنرا در صفحات خود قرار میدهید و یا بالعکس لینک خود را در صفحات آن وبسایت قرار میدهید معتبر و خوب باشد،برای سایت مفید است؛ اگر وبسایت کوچک،ضعیف و ناشناس باشد،امتیاز آن به اندازه امتیازی که برای تبادل با سایتهای معتبر است،یکسان نیست(پایینتر است).البته تعداد زیاد از این امتیازات کم که از سایتهای کوچک کسب میشود،بسیار اثرگذار است.البته باید دقت کرد که تبادل و ایجاد بک لینک در وبسایتها و وبلاگهایی که امتیاز منفی دارند و نزد گوگل از رتبه خوبی برخوردار نیستند نه تنها امتیاز ندارد بلکه میتواند امتیاز منفی در پی داشته باشد. چیز دیگری که برای این الگوریتم اهمیت دارد Anchor Text میباشد.این لینکها در متون صفحه های مختلف به رنگی متفاوت از رنگ کل سطر وجود دارد و یا زیر آنها خط کشیده شده است.این لینک ها که به صورت عبارت کوتاهی هستند با کلیک بر روی آنها بازدیدکننده به صفحه دیگری که به متن مرتبط است،در همان وبسایت یا وبسایتی دیگر ارجاع داده میشود. این الگوریتم هم مانند الگوریتم پاندا بسیاری از فاکتورها و شاخص هایش برای بی کیفیت و اسپم تشخیص دادن لینکها،برای عموم مردم مجهول است اما مسئله ای که کاملا روشن میباشد این است که پنگوئن برای مقابله با لینکهای بی کیفیت به سایتهای ضعیف،لینکهای ساختگی،خریدن عمده لینک از سایتهایی که اینکار ار انجام میدهند و… مشغول به فعالیت است. بهبود یافتن وبسایتها پس از آسیب رساندن پنگوئن به آنها: این الگوریتم هم مانند الگوریتم پاندا به صورت دوره ای بروزرسانی میشود و سایتها را مورد بازبینی قرار میدهد؛هرچند که اجرا شدن دوره ای پنگوئن کمتر از پاندا صورت میگیرد،یعنی حتی ممکن است اجرا شدن،بازبینی و بروزرسانی آن یک سال هم طول بکشد،پس بهتر است که توسعه دهندگان وبسایت روی لینکهای غیرمجاز یا غیرطبیعی حساس تر باشند و بازبینی وبسایت خود را به دوره های بعدی موکول نکنند.لینکهای خریده شده،مبادله لینک بیش از حد و غیرطبیعی،استفاده از لینکسازهای خودکار و… مواردی هستند که باید اصلاح شوند. الگوریتم مرغ مگس خوار این پرنده عملکرد متفاوتی نسبت به پنگوئن و پاندا دارد.گوگل در سال سپتامبر 2013 اعلامیه خود را در مورد این الگوریتم اعلام کرد،البته مرغ مگس خوارحدود یک ماه پیش از این متولد شده بود.زمانی که مردم از این الگوریتم اطلاع پیدا کردند گمان میکردند که افت وبسایتشان بخاطر پدید آمدن این الگوریتم است،که البته پس از مدتی مشخص شد که تقریبا 1هفته پس از اعلان عمومی مرغ مگس خوار،الگوریتم پنگوئن دچار یک بروزرسانی جامع شده بود و آن تغییر باعث شده بود که در اوایل معرفی مرغ مگس خوار یکسری از سایت ها با کاهش رتبه مواجه شوند. مرغ مگس خوار یک بازسازی کلی از گوگل است،اگر دقت داشته باشید متوجه میشوید که الگوریتم های پاندا و پنگوئن مانند یک افزونه مورد نیاز به وبسایت اضافه شدند.اگر گوگل را به یک موتور تشبیه کنیم پاندا و پنگوئن همانند دو قطعه فیلتر هوا و سوپاپ به این موتور افزوده شدند تا کارایی آنرا تکمیل کنند. اما مرغ مگس خوار مانند یک قطعه که بعدا به موتور اضافه شود نبود بلکه خود حکم تولید شدن یک موتور جدید را داشت.این موتور جدید مانند یک موتور توربو میماند که این نوع موتورها هم از فیلتر و سوپاپ استفاده میکنند اما کارایی و عملکرد آنها روی موتور جدید(الگوریتم مرغ مگس خوار) برای کاربران بسیار بهینه تر و بهتر است. حال به سراغ عملکرد این پرنده در جستجوهای گوگل میرویم.هدف اصلی این این الگوریتم درک بهتر گوگل از درخواستهای کاربران است.مرغ مگس خوار به تجزیه و تحلیل  درخواست های کاربران میپردازد.این تجزیه و تحلیل دقیقتر باعث میشود که گوگل نتایج دقیق تر و مرتبط تری به کاربران نمایش داده شود. همچنین این الگوریتم سرعت نمایش جستجو را افزایش داده است.این پرنده که بسیار کوچک است میتواند در حالت معمولی 70 بار در ثانیه بال بزند!این اسم ازاینرو از اسم این پرنده اقتباس شده است که میتواند در عین سرعت بالا،موجودات ریز را با دقت بالا شکار کند.افزایش سرعت و نمایش بهتر نتایج دستاورد گوگل از مرغ مگس خوار است.

الگوریتم کبوتر این الگوریتم  که بر روی سئوی محلی تمرکز دارد به این صورت کار میکند که نتایج جستجو را براساس موقعیت جغرافیایی کاربر اینترنت به او نمایش میدهد.برای مثال اگر شخصی بخواهد به دنبال رستوران بگردد و در گوگل کلمه”سفارش غذا” را بزند،نتایجی که به او نمایش داده خواهد شد بر اساس وجود رستوران های ثبت شده در گوگل در موقعیت جغرافیایی اطراف کاربر اینترنت میباشد.این اتفاق به سرعت دستیابی کاربر به نتایج دلخواه خود و رونق کسب و کارها  و وبسایت های محلی کمک شایانی خواهد کرد.این الگوریتم روی نقشه گوگل هم تاثیر گذاشته است و فرآیند آنرا بسیار بهبود داده است. البته این الگوریتم در حال حاضر روی سایتهای انگلیسی زبان به مرحله اجرایی شدن رسید.پیشروی و رعایت اصول در راستای الگوریتم کبوتر شانس ورود کاربران محلی به وبسایترا بسیار زیاد افزایش می دهند.الگوریتم کبوتر به نام Pigeon Algorithm نیز میباشد.

الگوریتم PayDay Loan PayDay Loan در واقع مجموعه ای از بروزرسانی الگوریتمهاست که برای کمک به گوگل برای شناسایی و جریمه کردن وبسایتهایی که از تکنیکهای اسپم و هرزنامه ها استفاده میکنند(تکنیکهای Black Hat Seo ) تا رتبه وبسایت خود را براساس جستجوهایی خاص از کاربران بالا بیاورند. این الگوریتم که توسط گوگل ارائه شد،به منظور مقابله با وبسایتهایی بوجود آمد که در آنها از کلمات کلیدی پرکاربرد موتورهای جستجو اما نامربوط به موضوع وبسایت استفاده می شد.یعنی برای مثال کاربران کلمات کلیدی “آموزش زبان انگلیسی” را به وفور استفاده میکنند؛برخی وبسایت ها که به کلی ماهیت متفاوتی دارند از این کلمات پرکاربرد برای افزایش ورود کاربران اینترنت به وبسایت خود استفاده میکردند.زمانی که کاربران وارد وبسایت میشدند،با محتوایی کاملا متناقض با هدف جستجوی خود مواجه میشدند. گوگل برای اولین بار PayDay Loan را در 11ژانویه سال 2013 و در همان سال 3/0% از جستجوهای گوگل در ایالات متحده آمریکا را تحت تاثیر قرار داده بود اما بیشترین تاثیر را در کشور ترکیه که جزء بیشترین آمار مطالب هرزنامه و وبسایتهای زرد را داراست  با 4درصد تاثیر،بیشترین فایده را در این کشور داشت.

الگوریتم Mobilegeddon این نام که توسط توسعه دهندگان وب روی این الگوریتم گذاشته شده است،آخرین آپدیت در آوریل2015 منتشر شد.مهمترین تاثیر این الگوریتم،افزایش اولویت در نمایش برای وبسایتهایی است که جلوه درست و بهتری روی تلفنهای همراه هوشمند و تبلت ها و دیگر دستگاه های موبایلی دارند.

الگوریتم AuthorityPage این الگوریتم به معنای میزان قدرت صفحات وبسایت میباشد.این الگوریتم مانند پیج رنک گوگل است که توسط وبسایتMoz.Com معرفی شده است.فاکتورهایی نظیر کیفیت محتوا،میزان لینک ورودی از سایتهای دیگر،تعداد بازدیدکننده،زمانی که بازدیدکنندگان در وبسایت میمانند معیار تعیین قدرت آن وبسایت است.

الگوریتم گورخر الگوریتم گورخرهم جزء الگوریتمهای بازدارنده و فیلترکننده گوگل است.وظیفه گورخر پاکسازی تجارت الکترونیکی و فروشگاه های آنلاین از وبسایتهای فروشگاهی بی کیفیت و دروغین است. با افزایش خرید و فروشهای اینترنتی و علاقه زیاد مردم به این صنعت نوپا و سود خوب و ترافیک ورودی مناسب به این سبک از وبسایتها،برخی افراد وجود دارند که وبسایت خود را برای فروش اینترنتی بنا می نهند اما کیفیت بسیار پایینی دارد،و یا به دلیل جذب کاربر به درون سایت،فروشگاهی دروغین را تولید میکنند اما در واقع محصولی درکار نیست،که بالغ بر 70درصد سایتهای فروشگاهب دروغین هستند. مواردی که باعث بهتر شدن سایتهای فروشگاهی میشود در پایین آورده شده است. 1.از محتوای خود به حد کافی بهره برداری کنید. در وبسایت باید مقالات و وبلاگ های مفید وجود داشته باشد.روی توضیح محصولات وقت بگذارید و روی آن تمرکز کنید.به اندازه کافی جزئیات محصولات را بنویسید،همچنین به کاربران امکان به اشتراک گذاری محصول با دیگران و یا ثبت نظراتشان را بدهید.و حواستان باشد که اگر انواع مختلفی از محصولات یکسان دارید،توضیح یکسان برای تمامی آنها ننویسید چون جریمه خواهید شد.(الگوریتم پاندا و محتوای تکراری که در بالا توضیح داده شده است). 2.طراحی مناسب و دسترسی راحت در وبسایت را اولویت قرار دهید. وبسایت زیبا و در عین حال کاربردی که کاربر به راحتی بتواند در آن با کمترین زمان به محصولی که دنبال آن است دست یابد،مهمترین مورد در فروشگاه اینترنتی است. همچنین فروشگاه اینترنتی باید از طراحی رسپانسیو(Responsive ) بهره مند باشند. 3.یک موتور قدرتمند مقایسه ی محصولات داشته باشید. یکی دیگر از مهمترین فاکتورهای مهم و محبوب نزد الگوریتم گورخر گوگل این گزینه میباشد.وبسایتهای فروشگاهی باید شرایطی را درنظر بگیرند تا مشتریان بتوانند محصولات را با هم مقایسه کنند و پس از آن تصمیم به خرید بگیرند. 4.به محصولات،ویدئو اضافه کنید. برای محصولات خود ویدئوهای مرتبط برای معرفی یا افزایش جذابیت آن در نظر بگیرید.گاهی اوقات افراد با عکس و توضیح محصول تمایلی به خرید محصول پیدا نمیکنند. 5.چت و پشتیبانی آنلاین داشته باشید. 6.به سرعت بارگذاری صفحات فروشگاه خود اهمیت بدهید. با رعایت این موارد به طور اختصاصی و در نظر گرفتن موارد عمومی که رعایت آنها در تمامی وبسایتها برای افزایش رتبه مشترک است،باعث میشود این الگوریتم به وبسایت فروشگاهی دید مثبتی داشته باشد.

 

سپتامبر 2, 2017
info [ at ] arvinkaren.com
تهران، سعادت آباد، چهار راه سرو، کوچه آریا، پلاک 4، واحد 9
22372536 - 22362640 - 22352431
کلیه حقوق محفوظ است