الأخبار التكنولوجية والاستعراضات والنصائح!

كيفية تحليل سبب انهيار الترتيب

ستساعدك المقالة التالية: كيفية تحليل سبب انهيار الترتيب

في عام 2012، كان لدي عميل كبير تم تصنيفه في المركز الأول بالنسبة لمعظم المصطلحات التي تهمه.

وبعد ذلك، بين عشية وضحاها، انخفض تصنيفهم وحركة المرور مثل الصخرة.

هل سبق وأن واجهت هذا؟ إذا كان الأمر كذلك، فأنت تعرف بالضبط كيف تشعر.

الصدمة الأولية يتبعها شعور عصبي في معدتك وأنت تفكر في كيفية تأثير ذلك على عملك أو كيف ستشرحه لعميلك.

بعد ذلك يأتي التحليل المحموم لمعرفة سبب الهبوط ونأمل في إصلاحه قبل أن يسبب الكثير من الضرر.

في هذه الحالة، لم نكن بحاجة إلى شيرلوك هولمز لمعرفة ما حدث. لقد أصر موكلي على أن نفعل كل ما بوسعنا لجعلهم يرتبون بسرعة. الإطار الزمني الذي أرادوه لم يكن أشهرًا، في مكانة تنافسية إلى حد ما.

إذا كنت منخرطًا في تحسين محركات البحث (SEO) لفترة من الوقت، فمن المحتمل أنك تعرف بالفعل ما الذي سيحدث هنا.

كانت الطريقة الوحيدة للترتيب في الجدول الزمني الذي أرادوه هي استخدام الأساليب التي تنتهك إرشادات مشرفي المواقع من Google. ورغم أن هذا كان محفوفًا بالمخاطر، إلا أنه نجح في كثير من الأحيان. على الأقل قبل أن تقوم Google بإصدار تحديث Penguin الخاص بها في أبريل 2012.

على الرغم من توضيحي للمخاطر بوضوح، طلب موكلي أن نفعل كل ما يتطلبه الأمر. اذا هذا ما فعلناه.

عندما انخفض ترتيبهم بشكل متوقع، لم نتفاجأ. ولم يكن موكلي. ولم ينزعجوا لأننا شرحنا القواعد وعواقب كسر تلك القواعد.

لم يكونوا سعداء بضرورة البدء من جديد، لكن الأرباح التي جنوها قبل ذلك كانت أكثر من كافية للتعويض عن ذلك. لقد كان سيناريو المخاطرة مقابل المكافأة كلاسيكيًا.

لسوء الحظ، ليس من السهل تشخيص معظم المشاكل. خاصة عندما لا تنتهك عن عمد أيًا من قائمة قواعد Google المتزايدة باستمرار

في هذه المقالة، ستتعرف على بعض الطرق التي يمكنك من خلالها تشخيص وتحليل الانخفاض في الترتيب وحركة المرور.

1. تحقق من وحدة تحكم بحث Google

هذا هو المكان الأول الذي يجب أن تنظر فيه. توفر Google Search Console ثروة من المعلومات حول مجموعة واسعة من المشكلات.

سترسل Google Search Console إشعارات عبر البريد الإلكتروني بشأن العديد من المشكلات الخطيرة، بما في ذلك الإجراءات اليدوية وأخطاء الزحف ومشكلات المخطط، على سبيل المثال لا الحصر. ويمكنك تحليل كمية مذهلة من البيانات لتحديد المشكلات الأخرى الأقل وضوحًا ولكنها بنفس القدر من الخطورة.

يعد هذا قسمًا جيدًا للبدء به لأنه يتيح لك رؤية الصورة الكبيرة، مما يمنحك بعض التوجيه للحصول على مزيد من التفاصيل.

إذا كنت ترغب في تحليل صفحات معينة، فإن فحص عنوان URL يعد أداة رائعة لأنه يسمح لك بالنظر إلى أي صفحات من خلال العيون الصغيرة الرائعة لروبوت Google.

يمكن أن يكون هذا مفيدًا بشكل خاص عندما لا تسبب المشكلات الموجودة على الصفحة مشكلة واضحة في الواجهة الأمامية ولكنها تسبب مشكلات لبرامج الروبوت في Google.

تعد التغطية أمرًا رائعًا لتحديد المشكلات التي يمكن أن تؤثر على الصفحات المضمنة في فهرس Google، مثل أخطاء الخادم أو الصفحات التي تم إرسالها ولكنها تحتوي على علامة تعريف noindex.

بشكل عام، إذا تلقيت عقوبة يدوية، فستعرف السبب بالضبط. وغالبًا ما يكون ذلك نتيجة لانتهاك إرشادات مشرفي المواقع من Google، مثل شراء الروابط أو إنشاء محتوى غير مرغوب فيه منخفض الجودة.

ومع ذلك، قد يكون الأمر في بعض الأحيان بسيطًا مثل خطأ بريء في تكوين ترميز المخطط. يمكنك مراجعة قسم الإجراءات اليدوية للحصول على هذه المعلومات. سترسل لك GSC أيضًا إشعارًا عبر البريد الإلكتروني بأي عقوبات يدوية.

سيحدد قسم الأمان أي مشكلات تتعلق بالفيروسات أو البرامج الضارة على موقع الويب الخاص بك والتي تعرفها Google.

من المهم الإشارة إلى أنه لمجرد عدم وجود إشعار هنا، فهذا لا يعني عدم وجود مشكلة – بل يعني فقط أن Google ليس على علم بها بعد.

2. تحقق من وجود علامات Noindex وNofollow Meta وأخطاء Robots.Txt

تعد هذه المشكلة أكثر شيوعًا عند نقل موقع ويب جديد من بيئة التطوير إلى بيئة حية، ولكنها قد تحدث في أي وقت.

ليس من غير المألوف أن ينقر شخص ما على الإعداد الخاطئ في WordPress أو أحد المكونات الإضافية، مما يتسبب في إلغاء فهرسة صفحة واحدة أو أكثر.

قم بمراجعة الإعداد في WordPress في أسفل القسم. ستحتاج إلى التأكد من تركها دون تحديد.

قم بمراجعة إعداد الفهرس لمعرفة أي مكونات إضافية متعلقة بـ SEO قمت بتثبيتها. (Yoast، في هذا المثال.) يمكنك العثور على هذا في معالج التثبيت.

قم بمراجعة الإعدادات على مستوى الصفحة المتعلقة بالفهرسة. (Yoast مرة أخرى، في هذا المثال.) يوجد هذا عادةً أسفل منطقة التحرير في كل صفحة.

يمكنك تحديد أولويات الصفحات المراد مراجعتها من خلال البدء بالصفحات التي فقدت الترتيب وحركة المرور، ولكن من المهم مراجعة جميع الصفحات للمساعدة في ضمان عدم تفاقم المشكلة.

ومن المهم أيضًا التحقق من ملف robots.txt الخاص بك للتأكد من أنه لم يتم تحريره بطريقة تمنع روبوتات محرك البحث. قد يبدو ملف robots.txt الذي تم تكوينه بشكل صحيح كما يلي:

وكيل المستخدم: *
عدم السماح: /cgi-bin/
عدم السماح: /tmp/
عدم السماح: /wp-admin/

ومن ناحية أخرى، قد يبدو ملف robots.txt الذي تم تكوينه بشكل غير صحيح كما يلي:

وكيل المستخدم: *
عدم السماح: /

تقدم جوجل أ أداة مفيدة في Google Search Console للتحقق من وجود أخطاء في ملف robots.txt.

3. تحديد ما إذا كان موقع الويب الخاص بك قد تم اختراقه

عندما يفكر معظم الناس في القرصنة، فمن المحتمل أن يتخيلوا شخصيات شريرة تبحث عن البيانات المثيرة التي يمكنهم استخدامها لسرقة الهوية.

ونتيجة لذلك، قد تعتقد أنك في مأمن من محاولات الاختراق لأنك لا تقوم بتخزين هذا النوع من البيانات. لسوء الحظ، هذا ليس هو الحال.

المتسللون هم انتهازيون يلعبون لعبة أرقام، لذا فإن موقع الويب الخاص بك هو مجرد ناقل آخر يمكنهم من خلاله استغلال الأشخاص الضعفاء الآخرين – .

من خلال اختراق موقع الويب الخاص بك، قد يتمكنون من نشر البرامج الضارة و/أو الفيروسات لاستغلال المزيد من أجهزة الكمبيوتر الأخرى، عندما قد يجدون نوع البيانات التي يبحثون عنها.

لكن تأثير القرصنة لا ينتهي عند هذا الحد.

نعلم جميعًا أهمية الروابط الواردة من مواقع الويب الأخرى، وبدلاً من القيام بالعمل الشاق للحصول على تلك الروابط، يقوم بعض الأشخاص باختراق الروابط الخاصة بهم وتضمينها في مواقع الويب الأخرى.

عادةً، سيتخذون إجراءات إضافية لإخفاء هذه الروابط عن طريق وضعها في المشاركات القديمة أو حتى عن طريق استخدام CSS لإخفائها.

والأسوأ من ذلك، قد يقوم أحد المتسللين بتدمير موقع الويب الخاص بك عن طريق حذف المحتوى الخاص بك، أو الأسوأ من ذلك، ملئه بروابط صادرة مشبوهة، ومحتوى غير مرغوب فيه، وحتى الفيروسات والبرامج الضارة.

يمكن أن يتسبب هذا في قيام محركات البحث بإزالة موقع الويب بالكامل من فهرسها.

إن اتخاذ الخطوات المناسبة لتأمين موقع الويب الخاص بك هو أول وأقوى إجراء يمكنك اتخاذه.

يبحث معظم المتسللين عن أهداف سهلة، لذا إذا أجبرتهم على العمل بجدية أكبر، فعادةً ما سينتقلون إلى الهدف التالي. يجب عليك أيضًا التأكد من أن لديك أنظمة آلية لفحص الفيروسات والبرامج الضارة.

تقدم معظم شركات الاستضافة هذا، وغالبًا ما يتم تضمينه مجانًا مع استضافة الويب الاحترافية. وحتى في هذه الحالة، من المهم فحص موقع الويب الخاص بك من وقت لآخر لمراجعة أي روابط صادرة.

يجعل Screaming Frog من السهل القيام بذلك، حيث يقوم بإخراج النتائج كملف CSV يمكنك تصفحه بسرعة لتحديد أي شيء يبدو في غير مكانه.

إذا كان انخفاض تصنيفك مرتبطًا بتعرضك للاختراق، فيجب أن يكون ذلك واضحًا لأنه حتى إذا لم تحدده بنفسك، فستتلقى عادةً إشعارًا عبر البريد الإلكتروني من Google Search Console.

الخطوة الأولى هي تأمين موقع الويب الخاص بك على الفور وإزالة الأضرار. بمجرد التأكد تمامًا من حل كل شيء، يمكنك تقديم طلب إعادة النظر من خلال Google Search Console.

4. تحليل الروابط الواردة

هذا العامل واضح ومباشر. إذا تسببت الروابط الواردة في انخفاض في تصنيفك وحركة المرور الخاصة بك، فسوف يعود الأمر عمومًا إلى واحدة من ثلاث مشكلات.

انها إما:

  • إجراء يدوي ناجم عن أساليب إنشاء الروابط التي تنتهك إرشادات مشرفي المواقع من Google.
  • انخفاض قيمة أو فقدان الروابط.
  • أو زيادة في الروابط إلى موقع أو أكثر من مواقع المنافسين.

سيؤدي الإجراء اليدوي إلى إشعار من Google Search Console. إذا كانت هذه هي مشكلتك، فما عليك سوى إزالة الروابط أو التنصل منها ثم إرسال طلب إعادة النظر.

في معظم الحالات، لن يؤدي القيام بذلك إلى تحسين تصنيفك على الفور لأن الروابط عززت تصنيفك بشكل مصطنع قبل معاقبة موقع الويب الخاص بك.

ستظل بحاجة إلى إنشاء روابط جديدة عالية الجودة تتوافق مع إرشادات مشرفي المواقع من Google قبل أن تتوقع رؤية أي تحسن.

إن تخفيض قيمة العملة يعني ببساطة أن Google تقوم الآن بتعيين قيمة أقل لتلك الروابط المحددة. قد يكون هذا تخفيضًا خوارزميًا واسع النطاق، كما نرى مع روابط التذييل، أو يمكن أن يتم تخفيض قيمتها بسبب تصرفات مالكي مواقع الويب.

على سبيل المثال، يمكن معاقبة موقع ويب معروف بشراء و/أو بيع الروابط، مما يجعل الروابط من ذلك الموقع أقل قيمة، أو حتى عديمة القيمة.

إن زيادة الروابط إلى موقع ويب واحد أو أكثر من مواقع المنافسين تجعلها تبدو أكثر موثوقية من موقع الويب الخاص بك في نظر Google.

هناك حقًا طريقة واحدة لحل هذه المشكلة، وهي إنشاء المزيد من الروابط إلى موقع الويب الخاص بك. المفتاح هو التأكد من أن الروابط التي تنشئها تتوافق مع إرشادات مشرفي المواقع من Google، وإلا فإنك تخاطر بالتعرض للعقوبة في النهاية والبدء من جديد.

5. تحليل المحتوى

خوارزميات جوجل تتغير باستمرار. أتذكر الوقت الذي كان بإمكانك فيه إنتاج مجموعة من الصفحات ذات الجودة المنخفضة، المكونة من 300 كلمة، والسيطرة على نتائج البحث.

اليوم، لن يؤدي ذلك عمومًا إلى وصولك إلى الصفحة الأولى في المواضيع المعتدلة، حيث نرى عادةً أكثر من 1000 كلمة في الصفحات التي تحتل المراكز العليا.

لكن الأمر أعمق من ذلك بكثير.

ستحتاج إلى تقييم ما يفعله المنافسون الذين يتفوقون عليك الآن بشكل مختلف مع محتواهم.

عدد الكلمات هو عامل واحد فقط، ولا يعني الكثير في حد ذاته. في الواقع، بدلاً من التركيز على عدد الكلمات، يجب عليك تحديد ما إذا كان المحتوى الخاص بك شاملاً.

بمعنى آخر، هل يجيب بشكل أكثر دقة على جميع الأسئلة الشائعة التي قد تكون لدى شخص ما حول هذا الموضوع مقارنة بالمحتوى الموجود على مواقع المنافسين؟

هل كتابتك مكتوبة جيدًا ومبتكرة ومفيدة؟

لا تجيب على هذا السؤال بناءً على مشاعرك – استخدم أحد اختبارات صعوبة القراءة حتى تتمكن من العمل بناءً على بيانات قابلة للقياس الكمي.

يقوم البرنامج الإضافي SEO الخاص بـ Yoast بتسجيل ذلك تلقائيًا أثناء الكتابة والتحرير مباشرة داخل WordPress. يقدم SEMrrush مكونًا إضافيًا رائعًا يفعل الشيء نفسه داخل محرر مستندات Google، ولكن هناك عددًا من الأدوات المجانية الأخرى المتاحة عبر الإنترنت.

هل تم تصميمه لتسهيل القراءة، مع عناوين فرعية وقوائم وصور؟

لا يقوم الأشخاص عمومًا بالمحتوى عبر الإنترنت، ولكن بدلاً من ذلك، يقومون بمسحه ضوئيًا. إن تقسيمها إلى أجزاء يمكن التحكم فيها يجعل من السهل على الزائرين إجراء المسح، مما يجعلهم أكثر عرضة للبقاء لفترة كافية للعثور على المعلومات التي يبحثون عنها.

هذا شيء يتطلب القليل من العمل الشاق لتحليله بشكل صحيح. أدوات مثل SEMrush قوية بشكل لا يصدق ويمكن أن توفر الكثير من المعرفة حول العديد من هذه العوامل، ولكن هناك بعض العوامل التي لا تزال تتطلب لمسة إنسانية.

عليك أن تأخذ في الاعتبار نية المستخدم. هل تسهل عليهم العثور بسرعة على ما يحتاجون إليه؟ يجب أن يكون هذا هو هدفك النهائي.

المزيد من الموارد: