ستساعدك المقالة التالية: كيفية حماية موقعك من المشغلات الأساسية
ماذا يحدث عندما تضيع عناكب محركات البحث؟ لا يمكنهم معرفة الطريقة التي يجب اتباعها على موقعك.
في بعض الأحيان يشعرون بالارتباك أو تقوم مواقع أخرى بإرسالهم إلى طريقة أخرى للوصول إلى نفس الصفحة على موقعك.
- domain.com
- www.domain.com
- domain.com/index.html
- www.domain.com/index.html
- https://domain.com/index.html
- https://domain.com
تستخدم بعض الخوادم mod_dir مما يسبب مشكلات إضافية عن طريق إعادة توجيه المجال دون شرطة مائلة للتدريب إلى المجال بشرطة مائلة لاحقة حتى يقوم domain.com بإعادة التوجيه إلى domain.com/.
ومن النادر جدًا أن يتسبب هذا في حدوث مشكلة. ولكن هذا هو السبب وراء ضرورة استخدام الشرطة المائلة اللاحقة دائمًا عند إنشاء الرابط في الرابط الذي تضيفه. إنها الطريقة الصحيحة للارتباط بالموقع. هل لاحظت يومًا كيف يطلب الدليل المفتوح والعديد من الدلائل الأخرى من محرريهم إضافة الشرطة المائلة اللاحقة؟
Canonical تعني “المسار الموثوق”.
هذه هي الطريقة التي تخبر بها محركات البحث أن هذه هي صفحات موقعك. نظرًا لأنك تتحدث بشكل أساسي مع الروبوتات، فأنت بحاجة إلى اتخاذ احتياطات إضافية لأن الروبوتات “لا تفكر”. إذا وقع الروبوت في حلقة مفرغة أو رأى صفحات متماثلة فعليًا ولكن بها 3 إلى 6 مسارات مختلفة للوصول إليها، فسوف يأخذ في الاعتبار هذه الصفحات الإضافية.
لذا، إذا اختلط الأمر على العنكبوت، فقد يؤدي ذلك إلى تكرار صفحاتك ووضع أهمية على الشكل غير المقصود للصفحة التي تريدها. ومن ثم، قد يضع الأولوية على ملف Index.html بدلاً من النطاق نفسه. وهذا هو السبب في أن رابط الصفحة الرئيسية المناسب هو إما “http://www.domain.com/” أو “/” ولكن لا يوجد أبدًا /index.xxx.
يمكن أن تتخذ المشكلات الأساسية أشكالًا عديدة، وأصبحت المشكلات المرتبطة بها نادرة بفضل برامج خريطة الموقع والوعي المتزايد بالعوامل. نعم، لا تزال موجودة ويمكن أن يكون سببها مشرف موقع ليس لديه معرفة بعوامل تحسين محركات البحث (SEO) المرتبطة بتطوير البنية المناسبة لموقع الويب.
قضايا المحتوى المكررة
تنتج الصفحات المكررة أيضًا عن استخدام نفس نموذج الاتصال مع متغيرات ديناميكية مختلفة. لذلك قد يكون النموذج هو contact.asp?id=california وقد يكون النموذج نفسه أيضًا contact.asp?id=new york. وهذا يعني أن Google يرى الصفحة المحددة بطرق مختلفة للوصول إليها ويتعامل معها على أنها بريد عشوائي.
الحل البسيط لذلك هو وضع علامة rel=”nofollow” أو حظر أحرف البدل contact.php في ملف robots.txt. أصبحت هذه مهمة شائعة في العديد من المواقع الديناميكية، لقد أضفت هذا هنا لأنه يمكننا اعتبار هذا مشغلًا أساسيًا محتملاً عندما يصبح المسار مكررًا.
إن إضافة شهادة SSL (آمنة) إلى موقع ما وإنشاء صفحة بنفس التنقل تمامًا مثل بقية الموقع يعد خطأً، وهذا يعني أنك احتفظت بروابط URL النسبية على صفحة https -oooops. يمكن أن يتم ذلك من قبل كل مصمم ولكن ليس كل مُحسنات محركات البحث (SEO) حيث يفهم مُحسنات محركات البحث (SEO) العوامل الأساسية. ومن خلال إنشاء هذا باستخدام الروابط النسبية، فقد منحت الآن لعناكب محرك البحث إمكانية الوصول إلى الموقع بأكمله ضمن نطاق جديد.
بنفس الطريقة التي يتعامل بها Google مع الأسماء غير www وwww. كموقعين، قمت للتو بإضافة 3 مواقع.
يا فتى، لقد تسببت الآن في محفز محتمل يمكنه إزالة موقع ويب من مزايا Google الجيدة من خلال تقييم الإصدار الخاطئ. من المرجح أن تعتبر محركات البحث هذا بريدًا عشوائيًا أو قرارًا يجب على الروبوتات الآلية الخاصة بها اتخاذه الآن – هل الموقع أكثر أهمية في غير www بالنسبة لنموذج www أو نموذج https أو حتى https://www. استمارة؟ إنه تقريبًا كابوس محتمل ينتظر حدوثه إذا كان القرار خاطئًا.
يستريح! هناك العديد من الإصلاحات البسيطة:
- قم دائمًا ببرمجة الموقع ليكون سهل الاستخدام باستخدام الروابط المطلقة عند تطوير التنقل وإضافة روابط إلى الصفحات الداخلية لموقعك. يمكن أن تساعد الروابط المطلقة أيضًا في منع سرقة المحتوى الآلي، والمواقع التي تحاول امتلاك المحتوى الخاص بك من خلاله والتصنيف به، ومن الممكن “نظريًا” للغاية أن يقوم موقع طرف ثالث بأخذ المحتوى الخاص بك وتصنيفه أثناء تعرضك للضرب على أنه صفحة مكررة ولم تعد مرتبة لها.
- استخدم rel=”nofollow” في علامات href الخاصة بالصفحات التي تنتقل إلى خادم آمن، و/أو الصفحات التي تنتقل إلى النماذج الديناميكية. وهذا يخبر العناكب على الفور بعدم احتساب الصفحات كرابط، مما يساعدهم في الواقع على فهم أولوية الصفحة من أمر href relevancy. يمكن أن يساعد هذا في زيادة جودة الصفحة الداخلية أيضًا عن طريق إزالة المشغل المحتمل للبريد العشوائي “Mad Lib”.
- استخدم إصلاح إعادة توجيه عنوان URL الأساسي. لقد أدرجت الكثير هنا في بلدي 301 والبرنامج التعليمي لإعادة التوجيه الكنسي. ما زلت أبحث عن إصدار Mac WebSTAR Canonical والذي سيكون موضع تقدير.
- يقوم Robots.txt بإخراج الملفات وأحرف البدل. لا تستخدم جميع محركات البحث أحرف البدل. ياهو يفعل, ام اس ان يفعل، جوجل قد يكون من الأفضل استخدام هذه الأشياء أيضًا من خلال تحديد الروبوت والمسار.
في محاولتي اختصار هذا الأمر، ربما أكون قد تجاهلت طرقًا أخرى لإصلاح المشكلات الأساسية. لا تتردد في إضافتها في التعليقات أدناه.
من الرائع دائمًا معرفة جميع السبل التي يمكن أن تساعد في تأمين البنية المناسبة لمواقع الويب.
آلان رابينوفيتش هو الرئيس التنفيذي لشركة صورة تحسين محركات البحث، وهي شركة متخصصة في تحسين محركات البحث والتسويق عبر الإنترنت ومقرها نيويورك وتركز على العلامات التجارية للشركات ووضعها في محركات البحث.