سئو يا بهينه سازي محتوا مجموعه فعاليت‌هايي است كه به وبسايت‌ها كمك مي‌كند با كسب رتبه از سوي مرورگرهايي از قبيل گوگل و قرار گرفتن در صفحه نخست نتايج جستجو، ترافيك ورودي زيادي جذب كنند. با اين حال به دليل برخي پنهان كاري هاي گوگل، همواره يكسري باورهاي غلط در مورد سئو وجود داشته است كه در اين مطلب از ترافيك مديا قصد داريم توضيحاتي در خصوص آنها ارائه كنيم؛ با ما همراه باشيد:

باورهاي غلط در مورد سئو

همانطور كه ميدانيد سئو به عنوان فرآيندي پيچيده و زمانبر، مجموعه فعاليت‌هايي است كه با بالا بردن رتبه در گوگل ترافيك ورودي سايت را افزايش ميدهد؛ يعني عده بيشتري از افراد از سايت مدنظر بازديد خواهند كرد؛ با اين حال هنوز ابهامات و باورهاي غلط در خصوص سئو و بهنيه سازي وبسايت‌ها، بسيار است.

دليل اين امر اين است كه گوگل سعي داشته تا با پنهان كردن برخي حقايق و اطلاعات، شمار افرادي كه قصد دارند تا از اين رتبه‌گيري سوءاستفاده كنند، كاهش دهد؛ اگرچه اخيراً گوگل فعاليت‌هايي در جهت شفاف سازي اين اطلاعات انجام داده است.

Gary Illyes ، John Mueller و Danny Sullivan افرادي هستند كه با نرم افزارهاي Hangouts، توييتر و يوتيوب، نظرات و باورهاي غلط در خصوص سئو را مطرح كرده‌اند كه در اينجا به شرح 10 مورد از آنها خواهيم پرداخت:

پنالتي شدن محتواي تكراري از سوي گوگل

اين باور كه گوگل سايت‌هايي كه داراي محتواي تكراري هستند را از نتايج جستجو حذف مي‌كند كاملاً اشتباه است؛ چرا كه گوگل ميداند محتواي تكراري بخشي از دنياي وب است و سايت‌هاي هستند كه مي‌خواهند از اين طريق با تعداد بيشتري در صفحات جستجو به نمايش درآيند.

تنها مشكلي كه ممكن است براي سايت‌هاي داراي محتواي تكراري پيش بيايد اين است كه گوگل يكي از صفحات تكراري آنها را ايندكس كند و به جاي آن صفحه ديگري نمايش داده شود.

توجه داشته باشيد كه متخصصان سئو ميتوانند با استفاده درست و اصولي از نقشه سايت، canonicals و لينك‌هاي داخلي ميتوانند به گوگل بگويند كه كدام صفحه را ايندكس كند؛ حتي اگر محتواي آن تكراري باشد.

ايندكس كردن صفحات داراي آدرس canonical

در صورتي كه از تگ canonicals براي آدرس صفحه خود استفاده كرده باشيد، دليلي نمي‌شود كه گوگل به اين امر اهميت دهد و آن صفحه را براي ايندكس شدن انتخاب كند. طبق الگوريتم هاي جديد گوگل، صفحاتي كه از اين ويژگي استفاده نكرده‌اند هم امكان ايندكس شدن دارد. از نظر گوگل ممكن است صفحه‌اي براي ايندكس شدن انتخاب شود كه ويژگي كاملاً متفاوت با آنچه فكر مي‌كرديد، داشته است.

براي اطمينان از ايندكس شدن صفحه اصلي و مدنظر خود، علاوه بر استفاده از تگ canonicals وضعيت لينك‌هاي داخلي و البته نقشه سايت را هم بررسي كنيد.

پنالتي شدن سايت به دليل به روز رساني كيفي گوگل

يكي از باورهاي غلط در مورد سئو اين است كه با به روزرساني كيفي الگوريتم‌هاي گوگل، سايت‌ها پنالتي خواهند شد. نظر آقاي Fili Wiese به عنوان مهندس گوگل در اين باره به شرح زير است:

برخي از افراد باور دارند كه الگوريتم‌هاي فرد مانند الگوريتم پاندا يا گوگل فانتوم، با به روزساني كيفي و روتين، منجر به پنالتي سايت‌ها خواهد شد؛ به همين دليل با آنها الگوريتم پنالتي گفته مي‌شود.

توجه داشته باشيد كه الگوريتم‌هاي گوگل وسيله‌اي براي محاسبه هستند؛ درواقع اين الگوريتم‌ها جعبه‌هايي هستند كه اطلاعات وارد آنها شده و پردازش مي‌شوند و سپس از آنها خارج مي‌گردند؛ اين اطلاعات خارج شده همان رتبه وبسايت مي‌باشند.

اگرچه الگوريتم‌هاي گوگل دائماً در حال به روز رساني هستند و اين اطلاعات خروجي هم در حال تغيير هستند؛ اما توجه داشته باشيد كه اين تغييرات به هيچ عنوان به معناي پنالتي كردن سايت‌ها نيستند.

در نظر گرفتن سه عامل كليدي براي رتبه بندي سايت ها

يكي از باورهاي غلط در مورد سئو اولين بار در سال 2016 از سوي Andrei Lipattsev مطرح شد كه بر مبناي آن، سه عامل كليدي محتوا، بك لينك و RankBrain براي رتبه بندي سايت از سوي گوگل مدنظر قرار مي‌گيرند. اين صحبت بعدها در ويديويي از سوي آقاي مولر رد شد.

وي در اين ويديو بيان داشت كه هيچ عامل مهم و كليدي براي رتبه بندي سايت‌ها وجود ندارد و كلمات كليدي جستجو شده و زمان جستجوي اين كلمات سه عامل ذكر شده را تغيير خواهند داد.

بنا به پيشنهاد آقاي مولر، افراد به جاي تمركز روي عوامل مؤثر بر رتبه بندي سايت، بايستي بهينه سازي سايت جهت ارتقاي تجربه كاربري را مدنظر قرار دهيد كه به روز نگاه داشتن سايت با مطالب كاربردي و مفيد بهترين راه حل آن است.

عمكرد گوگل سند باكس به عنوان فيلتر به هنگام ايندكس شدن سايت ها

اين باور كه گوگل سند باكس با اعمال فيلتر از ايندكس شدن وبسايت‌هاي اسپم جلوگيري مي‌كند، بر اساس نظر آقاي مولر كاملاً اشتباه است؛ درواقع چنين فيلترهايي براي سايت‌هاي جديد وجود ندارد.

برخي الگوريتم‌هاي گوگل ممكن است در كنار هم رفتاري مشابه گوگل سند باكس نشان دهند، اما هدف آنها انتخاب سايت‌هاي است كه در يك كلمه كليدي خاص با هم رقابت مي‌كنند.

امكان استفاده از Disavow  براي نگهداشتن پروفايل لينك سايت

بر اساس الگوريتم‌هاي جديد گوگل، لينك‌هاي بي كيفيت ناديده گرفته مي‌شود؛ به اين ترتيب نياز به استفاده از ابزار Disavow  براي حذف اين لينك‌ها نيست. تنها زماني نياز به استفاده از اين ابزار وجود دارد كه در قسمت manual action وبمستر خود پيامي بر مبناي الزام حذف لينك هاي بي كيفيت دريافت كنيد.

اهميت لينك‌هاي گرفته شده از سايت‌هاي معتبر براي گوگل

گوگل براي همه بك لينك‌ها ارزش يكساني قائل نيست؛ درواقع گوگل تنها به بك لينك‌هايي اهميت مي‌دهد كه داراي ويژگي‌هاي زير باشند:

  • ميان سايت شما و سايت لينك دهند از نظر محتوايي ارتباط وجود داشته باشد.
  • كاربران با دنبال كردن لينك، اطلاعات بيشتري در خصوص موضوع مدنظر كسب كنند.
  • در وب سايت شما محتواي با ارزش وجود داشته باشد.

سرعت سايت، از عوامل كليدي رتبه بندي وب سايت ها

همانطور كه مي‌دانيد سرعت بارگذاري صفحات وبسايت، ارتباط مستقيمي با تجربه كاربري دارد؛ يعني هرچه سرعت پايين‌تر باشد تجربه كاربري منفي خواهد شد كه مسلماً به ضرر سايت شما تمام خواهد شد.

گوگل در سال 2010 سرعت سايت را به عنوان يكي از عوامل رتبه بندي تلقي مي‌كرد؛ نه يك عامل كليدي. بر اساس نظر آقاي مولر در سال 2018 يك نسخه جديد براي ارزيابي سرعت سايت ارائه شد؛ تا قبل از اين، گوگل از الگوريتم سرعت براي تعيين سايت‌هاي كند و سايت‌هايي كه سرعت بارگذاري آنها در محدوده طبيعي قرار داشت استفاده مي‌كرد. بر اساس DeepCrawl  سايت‌هايي كه براي بارگذاري صفحات به بيش از 3 دقيقه نياز دارند، ايندكس خواهند شد.

ارتباط كيفيت لينك با الگوريتم گوگل فرد

گفته مي شود كه در سال 2017 مطابق با به روز رساني الگويتم فرد گوگل اعتبار و كيفيت بك لينك‌ها اهميت داشته‌اند؛ با اين حال يكسري تغييرات در رتبه بندي وجود دارد كه متأثر از اين به روزرساني نبوده‌اند.

به طور كلي پيشنهاد مي‌شود كه براي ممانعت از هرگونه آسيب به وبسايت خود، محتواي با ارزش و بك لينك‌هاي با كيفيت توليد كنيد.

مشكل ساز نبودن هزينه ربات هاي گوگل

ايندكس كردن سايت‌ها، چه كوچك و چه بزرگ، براي گوگل كار راحتي است. يك وبسایت با حدود 200 هزار صفحه، از سوي ربات‌های گوگل در یک بازدید از سایت به طور کامل ایندکس خواهد شد؛ اما اين وضعيت براي سایت‌های بزرگتر وجود دارد؟

اين سايت‌ها باید از طريق بررسی تعداد خطاهای 404 كه از گوگل در نتیجه بررسی صفحات سایت دريافت مي‌كنند، مطمئن شوند که گوگل تمام صفحات آنها را ایندکس کرده ‌است.