ستساعدك المقالة التالية: كيفية اكتشاف وإصلاح 4 مشكلات شائعة في تحسين محركات البحث قبل فوات الأوان
باعتبارك متخصصًا في تحسين محركات البحث، فإن هدفك – ومسؤوليتك – هو التأكد من أنه يمكنك القيام بما هو ضروري للحفاظ على سير الأمور بسلاسة والبقاء على اطلاع دائم بمحتوى موقع الويب الخاص بك.
في 23 سبتمبر، قمت بإدارة ندوة عبر الإنترنت برعاية Search Engine Journal قدمها ستيفن فان فيسوم، نائب الرئيس للمجتمع في ContentKing.
لقد شاركنا كيفية اتخاذ موقف استباقي أخيرًا في عمليات تحسين محركات البحث الخاصة بك أثناء اكتشاف المشكلات (وحلها!) قبل أن تؤثر على تصنيفاتك.
وهنا ملخص للعرض التقديمي.
محركات البحث لا تنام أبدا. إنهم يزحفون بشكل مستمر إلى موقعك لتحديث فهارسهم.
يمكن أن تحدث أخطاء تحسين محركات البحث في أي وقت. تحتاج إلى إصلاحها قبل أن تؤثر على تصنيفاتك ونتائجك النهائية.
حوالي 80٪ من مشكلات تحسين محركات البحث (SEO) تمر دون أن يلاحظها أحد لمدة أربعة أسابيع على الأقل.
يمكن أن تكلف مشكلة تحسين محركات البحث (SEO) المتوسطة ما يصل إلى 75000 دولار من الإيرادات المفقودة.
ولكن باستخدام الأدوات والعمليات الصحيحة، يمكنك التخفيف من هذه المشكلات.
ولكن ماذا عن الأدوات الموجودة؟
يعد Google Search Console وGoogle Analytics من الأدوات التي يستخدمها كل متخصص في تحسين محركات البحث (SEO).
ولكنها ليست كافية إذا كنت تريد اتخاذ موقف استباقي في عمليات تحسين محركات البحث الخاصة بك.
على الرغم من أن Google Search Console يرسل إشعارات، إلا أنها متأخرة ومحدودة.
وعندما يتم إرسال التنبيهات التي قمت بإعدادها في Google Analytics، تكون حركة المرور العضوية قد تلقت ضربة بالفعل.
4 مشكلات شائعة في تحسين محركات البحث وكيفية الوقاية منها
دعونا نغطي مشكلات تحسين محركات البحث الأكثر شيوعًا التي نواجهها، ونناقش كيفية منع حدوثها.
1. أصبح العميل أو الزميل مارقًا
أنت لا ترى حقًا هذا قادمًا.
ربما واجه عدد لا بأس به من محترفي تحسين محركات البحث (SEO) أيًا من السيناريوهات التالية من عميل أو زميل:
- “كان نظام إدارة المحتوى يطلب منا تحديثه، ففعلنا ذلك – بما في ذلك القالب وجميع مكوناته الإضافية.” (وقد فعلوا ذلك مباشرة في البيئة الحية.)
- “لقد قمنا بتعديل عناوين الصفحات في هذه الصفحات الرئيسية بأنفسنا!”
- “لم تكن هذه الصفحات تبدو مهمة، لذلك قمنا بحذفها.” (نعم، تلك كانت صفحات المال.)
- “لم تعجبنا عناوين URL الموجودة على هذه الصفحات، لذلك قمنا بتغييرها.”
هذه السيناريوهات محبطة ويمكن أن تؤدي إلى انخفاض عدد الزيارات والتصنيفات الخاصة بك.
كيفية الوقاية منه
اتخذ هذه الخطوات لمنع العملاء أو الزملاء المحتالين من إتلاف تحسين محركات البحث لموقع الويب الخاص بك عن غير قصد.
- تعقب التغيرات: عليك أن تعرف ما يحدث مع الموقع.
- الحصول على تنبيه: عندما يذهب شخص ما المارقة.
- وصول الحد: لا يحتاج مسوق المحتوى إلى الوصول إلى الوظائف لتحديث نظام إدارة المحتوى (CMS).
- ضع قواعد واضحة للمشاركة: يجب على الجميع أن يعرفوا ما يمكنهم وما لا يمكنهم فعله.
الأداة التي تحتوي على ميزة تتبع التغيير مثل ContentKing تكون مفيدة في هذه الأنواع من المواقف.
يتتبع النظام الأساسي الصفحات التي تمت إضافتها وتغييرها وإعادة توجيهها وإزالتها. لديك بشكل أساسي سجل تغيير كامل لموقعك بالكامل.
تريد أيضًا الحصول على تنبيهات – ولكنك تحتاج إليها فقط للمشكلات والتغييرات المهمة.
يجب أن تكون التنبيهات ذكية.
لا تحتاج إلى تلقي تنبيه إذا تغير عنوان الصفحة في بعض الصفحات الأقل أهمية، ولكنك تريد تنبيهًا عند إجراء تغييرات على صفحتك الرئيسية.
2. فريق التطوير أصبح مارقًا
يحدث هذا عندما لا يكون هناك تنسيق مناسب بين المطورين وفريق تحسين محركات البحث (SEO).
في أحد الأمثلة، لم يتضمن فريق التطوير في أحد متاجر التجارة الإلكترونية متخصصين في تحسين محركات البحث (SEO) في اختيار واختبار نظام ترقيم الصفحات الجديد.
لقد اختاروا واحدة تعتمد بشكل كبير على جافا سكريبت، مما تسبب في تأخيرات كبيرة في عمليات الزحف والفهرسة لأنه كان لا بد من عرض جميع الصفحات المقسمة إلى صفحات.
ولهذا السبب، كان من الصعب جدًا على محركات البحث اكتشاف صفحات المنتجات الجديدة وتقييمها – ناهيك عن إعادة تقييم قيمة صفحات المنتجات الحالية.
مثال آخر هو عندما تمت الموافقة على التغييرات التي تم إجراؤها على القسم الأمريكي من أحد المواقع، ولكن تم شحنها على عجل عبر جميع إصدارات اللغات.
من السهل جدًا حدوث الفوضى عندما تتعامل مع مواقع محلية.
كيفية الوقاية منه
كما هو الحال مع القضايا الأولى، تحتاج أيضًا إلى:
- تتبع كافة التغييرات.
- الحصول على تنبيه عندما يذهب شخص ما المارقة.
- ضع قواعد واضحة للاشتباك.
- والأهم من ذلك، إجراء اختبار ضمان الجودة المناسب.
3. أصبحت الإصدارات سيئة
لنبدأ بالكلاسيكي: عند إجراء إصدار، تم نقل ملف robots.txt المرحلي عن طريق الخطأ، مما يمنع برامج الزحف من الوصول.
فيما يتعلق بهذا، غالبًا ما نرى نفس الشيء يحدث مع meta robots بدون فهرس، أو noindex الأكثر غرابة من خلال X-Robots-Tag (HTTP Header)، والذي يصعب اكتشافه كثيرًا.
تحتاج إلى مراقبة ملف robots.txt الخاص بك. يمكن أن يؤدي إلى تحسين أداء تحسين محركات البحث (SEO) الخاص بك أو كسره.
شخصية واحدة تصنع الفارق.
في المثال أعلاه، تم إصدار قسم جديد للموقع ويحتوي على مبادئ أساسية مرمزة لبيئة التطوير.
تم حظر بيئة التطوير باستخدام مصادقة HTTP، لذلك لم تتمكن محركات البحث من الوصول إليها.
ظل مدير التسويق الرقمي يتساءل: “متى سيبدأ هذا القسم الجديد في التصنيف أخيرًا؟”
تعتبر مثل هذه المشكلات صعبة بشكل خاص عند تنفيذ المبادئ الأساسية في رؤوس HTTP. من الصعب اكتشافها يدويًا.
كيفية الوقاية منه
يمكنك تجنب هذه المشكلة عن طريق تنفيذ اختبار ضمان الجودة الآلي أثناء الإصدار المسبق والإصدار وما بعد الإصدار.
لا يقتصر الأمر على وجود نظام مراقبة مثل ContentKing فحسب، بل تحتاج أيضًا إلى تنفيذ العمليات الصحيحة.
على سبيل المثال، إذا حدث خطأ فادح في أحد الإصدارات، فيجب أن تكون قادرًا على التراجع عنه بسرعة.
إن تتبع جميع التغييرات والحصول على تنبيه عند حدوث خطأ ما سيساعد أيضًا.
4. المكونات الإضافية لـ Buggy CMS
قد يكون من الصعب التعامل مع مكونات Buggy CMS الإضافية.
غالبًا ما يتم تطبيق التحديثات الأمنية قسرًا. عندما تحتوي على أخطاء، يتم تقديمها دون علمك.
على مر السنين، كانت هناك بعض الأمثلة حيث قامت مكونات CMS الإضافية التي بها أخطاء بتغيير تكوينات تحسين محركات البحث لمئات الآلاف من المواقع في تحديث واحد.
اعتقد الجميع تقريبًا أن ذلك لن يحدث، وتفاجأوا.
كيفية الوقاية منه
سيؤدي تعطيل التحديثات التلقائية إلى حل هذه المشكلة.
وبالمثل، فأنت تريد أيضًا تتبع تغييراتك والحصول على تنبيهات عند حدوث خطأ ما.
الزحف التقليدي مقابل المراقبة المستمرة
ربما تتساءل عن كيفية قياس الزحف التقليدي للمراقبة المستمرة.
لنلقي نظرة على مثال.
لنفترض أن لديك عمليات الزحف الأسبوعية المجدولة كل يوم اثنين. ولكن ماذا لو حدث خطأ ما يوم الثلاثاء؟
ثم لن تعرف عن ذلك حتى يوم الاثنين المقبل.
بحلول ذلك الوقت، ستكون محركات البحث قد التقطت هذا الأمر.
مع ContentKing، كان من الممكن أن يكون لديك الإصلاح بالفعل.
مثال آخر هو عندما تقوم بالزحف إلى موقع كبير والذي يستغرق 2-3 أيام للانتهاء.
وبحلول الوقت الذي يتم فيه ذلك، سوف تنظر إلى البيانات القديمة.
في هذه الأثناء، لقد تغير الكثير بالفعل – حتى أن خرائط موقع robots.txt وXML ربما تكون قد تغيرت بالفعل.
المراقبة والتنبيه الاستباقي
السؤال ليس كذلك لو سوف يحدث خطأ ما.
السؤال هو متى.
عندما يتعطل شيء ما، يجب عليك معرفة ذلك فورًا وإصلاحه قبل أن تلاحظه Google.
سيسمح لك استخدام أدوات المراقبة والتنبيه الاستباقي باتخاذ موقف استباقي في عمليات تحسين محركات البحث الخاصة بك.
سؤال وجواب
فيما يلي بعض أسئلة الحضور التي أجاب عليها ستيفن فان فيسوم.
س: كيفية تتبع التغييرات؟
ستيفن فان فيسوم (SV): أفضل طريقة لتتبع التغييرات على موقعك هي مراقبتها باستخدام نظام أساسي مثل ContentKing.
نظرًا لأن نظامنا الأساسي يراقب على مدار الساعة طوال أيام الأسبوع، فسوف ترى جميع التغييرات تحدث في الوقت الفعلي. ليست هناك حاجة لفعل أي شيء من جانبك!
إذا كنت تريد بذل كل ما في وسعك، يمكنك إعداد استخراج العناصر المخصصة. باستخدام هذا، يمكنك تتبع التغييرات لأي شيء على الصفحة.
بعض الأمثلة: ما إذا كان المنتج غير متوفر في المخزون، أو نتائج المراجعة والأعداد، أو التسعير، أو أي شيء آخر.
س: ما هي مصادر البيانات التي تعتمد عليها تنبيهات ContentKing؟
SV: للإجابة على هذا السؤال، اسمحوا لي أن أشرح كيفية عمل ContentKing باختصار.
يقوم ContentKing بمراقبة المواقع على مدار الساعة طوال أيام الأسبوع – وعند كل طلب صفحة، نتحقق مما إذا كان أي شيء قد تغير منذ طلبنا الأخير.
إذا لم يتم العثور على أي تغييرات، فلن يرسل ContentKing أي تنبيهات.
إذا اكتشفنا تغييرات، فسنقوم بتقييم تأثير التغييرات وما إذا كان التغيير يؤدي إلى مشكلة أم لا.
عند تقييم تأثير التغييرات، ومن بين عوامل أخرى، سنأخذ في الاعتبار ما يلي:
- كم عدد الصفحات المتأثرة.
- ما مدى أهمية هذه الصفحات.
- مدى تأثير التغييرات من وجهة نظر تحسين محركات البحث.
علاوة على ذلك، يمكنك إعداد تنبيهات على البيانات من مصادر البيانات الخارجية مثل Google Analytics وGoogle Search Console.
نقوم تلقائيًا بتكوين التنبيهات مسبقًا حتى يتم إعدادها بشكل صحيح، ولكن إذا كنت تريد ذلك تخصيصها لتعيين حدود الحساسية ونطاق التنبيهات والتوجيه، يمكنك القيام بكل شيء.
س: هل هناك طريقة دقيقة وموثوقة لتحديد تعارضات المكونات الإضافية؟
SV: بقدر ما أعرف، لا يوجد شيء. نحن نتعامل مع العديد من منصات مواقع الويب المختلفة، وكل منصة تعمل بشكل مختلف.
على سبيل المثال، تكتشف بعض مكونات WordPress الإضافية ما إذا كان هناك أي مكونات إضافية متعارضة تعمل أيضًا، ولكن بخلاف ذلك فإن الأمر يتعلق بتتبع كل ما يحدث على موقعك.
عندما تواجه سلوكًا غريبًا، يمكنك التحقيق فيه والدخول فيه وإصلاحه.
الكلمات السحرية هنا هي “العين الساهرة” – بدون ذلك، لن تعرف ما إذا كان أي شيء قد تغير على موقعك ولن تتمكن من اتخاذ إجراء حاسم.
أحد الأساليب الرائعة لتحديد تعارضات المكونات الإضافية هو تشغيل بيئة مرحلية أو قبول حيث تقوم أولاً بإجراء أي تغييرات، قبل إصدارها إلى الإنتاج.
وبهذه الطريقة يمكنك اكتشاف أي تعارضات قبل أن تصل إلى بيئة الإنتاج لديك.
س: لماذا نحتاج إلى منع برامج الزحف أثناء تصحيح/التحقق من فشل الإنتاج؟
SV: لا ينبغي لك ذلك – يجب عليك دائمًا تجنب عدم السماح لبرامج زحف محركات البحث في بيئة الإنتاج الخاصة بك.
ولا يجب عليك إجراء تغييرات مباشرة على بيئة الإنتاج الخاصة بك في المقام الأول.
استخدم بيئة مرحلية أو قبول حيث يمكنك التحقق من صحة تغييراتك، وتأكد من عدم تغيير أكثر مما كنت تخطط له، ثم قم بإصدار تغييراتك إلى بيئة الإنتاج.
ومع ذلك، يجب عليك التأكد من أن برامج زحف محركات البحث لا يمكنها الوصول إلى بيئة التدريج أو القبول الخاصة بك. نوضح أفضل طريقة للقيام بذلك بالتفصيل في هذا الدليل.
[Slides] كيفية اكتشاف مشكلات تحسين محركات البحث وإصلاحها قبل فوات الأوان
تحقق من SlideShare أدناه.
المزيد من الموارد: