الأخبار التكنولوجية والاستعراضات والنصائح!

فتح الصندوق الأسود لجوجل باستخدام أدوات التعلم الآلي

ستساعدك المقالة التالية: فتح الصندوق الأسود لجوجل باستخدام أدوات التعلم الآلي

على مدار ما يقرب من عقد من الزمن، كانت صناعة تحسين محركات البحث (SEO) تتحرك باستمرار بعيدًا عن المناقشات حول الأعمال الداخلية لمحركات البحث، بدءًا من وقت تحديث Panda الأول تقريبًا.

لقد كان هذا القرار بالتركيز على أساليب تحسين محركات البحث الأكثر إستراتيجية وطويلة المدى قرارًا إيجابيًا بشكل عام.

إن استراتيجيات التسويق المبنية بالكامل على أهواء محرك البحث ليست مصممة لتصمد أمام اختبار الزمن.

ومع ذلك، ليس هناك من ينكر القيمة التي جاءت من فهم وتوقع كيفية تفاعل محركات البحث مع أنواع معينة من التعديلات على HTML أو على ملف تعريف الارتباط الخلفي في الأيام الأولى لتحسين محركات البحث.

لقد افترض معظمنا أن تلك الأيام قد انتهت عندما تبنت جوجل التعلم الآلي.

والآن بما أن مهندسي جوجل لا يفهمون بالضرورة القواعد التي كتبتها الخوارزمية الخاصة بهم لنفسها، فقد تم التخلي عن فكرة إمكانية إجراء هندسة عكسية لما يحدث في الداخل.

ولكن هناك تطور مثير على هامش مجتمع تحسين محركات البحث (SEO)، ومع وصف الكثيرين لعام 2018 بأنه العام الذي وصل فيه الذكاء الاصطناعي والتعلم الآلي إلى الاتجاه السائد في العديد من الصناعات، فمن المرجح أن تضرب هذه التطورات بشدة هذا العام.

أنا أتحدث عن استخدام التعلم الآلي لفهم واستيعاب التعلم الآلي.

أنا أتحدث عن فتح الصندوق الأسود لجوجل وإلقاء نظرة خاطفة على الداخل.

أنا أتحدث عن تناسخ للأيام الأولى لتحسين محركات البحث.

اتباع القواعد

في الأيام الأولى لشركة Google، كان محرك البحث الخاص بها بسيطًا.

كانت ميزتها التنافسية على محرك البحث AltaVista الرائد آنذاك هي خوارزمية PageRank الخاصة بها.

مع نضج Google واستحواذها على الأغلبية حصة السوق على AltaVista، لقد أصبح الهدف الأساسي لمرسلي البريد العشوائي على الويب الذين يسعون إلى إيجاد طريقة سهلة لتصنيف مواقعهم على الويب.

ولحماية جودة نتائج البحث، بدأ فريق بحث Google في كتابة قواعد لتصفية هذا البريد العشوائي.

وكان هذا النهج القائم على القواعد مباشرا ومباشرا.

إذا كان موقع ويب يفعل شيئًا ما لتخريب خوارزمياته، فسيتم كتابة قاعدة لاستثناء كل ما تم فعله لتخريبه.

لقد عمل فريق البريد العشوائي في Google بلا كلل لسد جميع الثغرات الموجودة في خوارزميات البحث الخاصة به.

كانت معظم هذه القواعد مشتقات أولية لمدخلاتها – وبعبارة أخرى، كان من السهل تخمين ما تفعله القواعد.

بعد ذلك، ظهرت العديد من أدوات تحسين محركات البحث (SEO) بين عشية وضحاها، في محاولة لتعداد هذه الأنواع المختلفة من القواعد.

تُطلق بعض الأدوات على نفسها اسم مُصنفي مواقع الويب، وهي أداة رئيسية يمكنها، بنقرة زر واحدة، فحص موقع الويب لمعرفة ما إذا كان قد تم تشغيل أي من القواعد المذكورة.

فيما يلي بعض الأمثلة على الشكل الذي ستبدو عليه هذه القواعد البسيطة:

  • العنوان/الوصف التعريفي طويل جدًا (أو قصير جدًا)
  • لا يوجد محتوى كاف
  • يحتوي على بعض “الكلمات الرئيسية السيئة”
  • علامات H1 مفقودة

كل هذه الأنواع من القواعد كانت بسيطة.

من الممكن إجراء تغييرات على موقع الويب.

يمكن ملاحظة حركة إيجابية أو سلبية.

كانت الحياة سهلة.

جوجل تصبح أكثر تعقيدًا

مع مرور الوقت، جوجل بدأت تصبح معقدة حقا، غالبًا ما يتم إنشاء قواعد تعتمد على قواعد أخرى.

العديد من هذه القواعد كانت على الأقل مشتقات من الدرجة الثانية لمدخلاتها.

ولهذا السبب، أصبح الصندوق الأسود لجوجل أكثر تعقيدًا.

ولم يعد من الممكن إجراء تغيير بسيط وملاحظة المخرجات.

ما هي القاعدة التي تسببت في التغيير؟ أنت ببساطة لا تستطيع أن تعرف.

أصبح من الصعب للغاية تضمين هذه القواعد في أدوات تصنيف مواقع الويب المذكورة أعلاه.

بعض الأدوات تجاهلت هذه الأمور، وحاولت أدوات أخرى تبسيط العلاقة داخل هذا الصندوق الأسود.

توقف عالم تحسين محركات البحث (SEO) عن محاولة النظر داخل الصندوق الأسود وبدأ في وضع معظم تركيزه على المخرجات.

عند النظر إلى القطع الأثرية مثل عالم الآثار، سيحاول محترفو تحسين محركات البحث (SEO) تجميع ما قد حدث.

المحاولة الأولى لكسر الصندوق الأسود

مع التعقيد المتزايد لمحرك بحث جوجل والهوس بقياس مخرجات هذا الصندوق الأسود المتنامي باستمرار، ظهرت أداة جديدة على الساحة: أداة تعقب الرتب.

كانت الفكرة وراء أدوات تتبع الترتيب بسيطة: احتفظ بقياس ترتيب نتائج البحث مع مرور الوقت، وحاول تجميع علاقة السبب والنتيجة مع تغييرات موقع الويب.

عملت أجهزة تتبع الرتب هذه ببراعة للتغطية على بعض التعقيدات التي كانت تحدث داخل الصندوق الأسود لجوجل.

أحد الأمثلة على أدوات تعقب الرتب المبكرة في المشهد كان SEMrush.

يقوم SEMRush بالزحف إلى نتائج بحث Google، ثم يسمح للمستخدمين بالبحث في النتائج عن طريق عنوان URL أو الكلمة الرئيسية.

بدأت SEMrush بالتركيز على “جعل المنافسة عبر الإنترنت عادلة وشفافة، مع توفير فرص متساوية للجميع”.

أصبحت أدوات تتبع التصنيف هي الطريقة الأساسية لقياس نتائج تحسين موقع الويب.

ظهرت المئات من أدوات تتبع الرتب على مدى السنوات التالية، وكلها تقدم نفس الخدمة بشكل أساسي، ولكن بواجهات مختلفة.

نظرًا لأن قواعد خوارزمية Google أصبحت أكثر تعقيدًا، فقد احتاجت صناعة تحسين محركات البحث إلى أكثر من مجرد عمليات تدقيق بسيطة لموقع الويب.

احتاجت الفرق إلى البيانات الأولية لعرضها في جداول محورية مختلفة، لمقارنة العلاقات المختلفة.

لقد نجح هذا لبعض الوقت في التغطية بشكل أساسي على تعقيد الموقف.

أدى هذا إلى ظهور مستوى جديد من متتبعي الرتب: متتبعو رتب المؤسسات.

تقوم هذه الأدوات المُحسّنة بشكل أساسي بتصنيف أدوات التتبع على المنشطات، وغالبًا ما تتضمن المزيد من التكامل مع أشياء مثل تسويق المحتوى (كتابة المحتوى)، وميزات تصنيف مواقع الويب الأخرى.

باستخدام متتبعات تصنيف المؤسسات، يمكن لمحترفي تحسين محركات البحث (SEO) النظر إلى حركة المنافس ومحاولة النسخ (دون فهم الآليات فعليًا).

على غرار العلماء في الأيام الأولى للحمض النووي، الذين لاحظوا أن بعض خيوط الحمض النووي الريبي كانت موجودة عند حدوث أشياء معينة.

السبب والنتيجة بسيطة.

تتبع الرتبة يخرج عن المسار الصحيح

من بين أوجه القصور العديدة (الافتقار إلى الشفافية في الصندوق الأسود هو أحد العيوب الرئيسية)، كان لدى متتبعي الرتب، سواء كانوا مشروعًا أم لا، ضعفًا صارخًا: فقد اعتمدوا على مبدأ مهم واحد صحيح، وهو أن

في عام 2013، أدى تحرك جوجل نحو الذكاء الاصطناعي (AI) إلى التحول من النهج القائم على القواعد إلى النهج القائم على الملاحظة.

فبدلاً من كتابة قائمة من القواعد لتشغيل محرك البحث الخاص بها، بدأت باتباع نهج قائم على القواعد ثم تحولت بعد ذلك إلى التصنيف (المعزز بالتعلم العميق) لتحديد مدى أهمية تلك القواعد.

لم يعد نهج البيانات الأولية يعمل بعد الآن بسبب العلاقات (الأهمية النسبية للعناصر المكونة) بين الخوارزميات أصبحت الآن ديناميكية.

عملت أدوات تتبع التصنيف على فرضية أنه يمكن للمستخدمين ملاحظة تحول في التصنيف، وتضييق القائمة المختصرة للتغييرات المحتملة التي تسببت في هذا التحول عبر العديد من الكلمات الرئيسية، ثم تطبيق هذه المعرفة على الأسواق المختلفة.

ومع التعلم الآلي، كسرت جوجل هذا النموذج.

الآن، تحتوي كل نتيجة بحث على مزيج فريد من الخوارزميات.

اعتمد متتبعو التصنيف على مراقبة تغيرات الترتيب عبر العديد من الكلمات الرئيسية لجمع الأدلة.

وكانت النتيجة النهائية أن متتبعي الرتب أصبحوا أكثر سلبية، مؤشرات متخلفةوهو أمر كان مفيدًا في حالات ما بعد الوفاة، ولكنه محدود في محاولة التنبؤ بما سيحدث بعد ذلك.

توحيد صناعة SEO

بحلول عام 2014، أهمية تعقب الرتبة و أ عدد من التحولات الجريئة الأخرى في إستراتيجية Google لمشاركة البيانات، تم دمج العديد من الوكالات والأدوات.

أثناء هذا التراجع في صناعة تحسين محركات البحث، اغتنمت بعض الوكالات الفرصة لإعادة وضع نفسها – للتركيز على المحتوى بدلاً من الروابط الخلفية، أو بعض المجالات الجديدة الأخرى لتحسين محركات البحث.

حتى أعلن كبار اللاعبين لقد كانوا يبتعدون عن تحسين محركات البحث (SEO) تمامًا.

لفترة من الوقت، بدا أن جوجل هي الفائزة. فقد نجحت في بناء حاجز كبير بالقدر الكافي أمام الدخول ــ الصندوق الأسود شديد التعقيد ــ الذي لا تستطيع التكنولوجيات الحالية أن تكسره ببساطة باستخدام الأساليب من أعلى إلى أسفل.

نظرة خاطفة داخل الخوارزمية الحديثة

بحلول أواخر عام 2014، كانت ناقوس الموت يدق بالفعل في صناعة تحسين محركات البحث (SEO) بسبب جناحها الأكثر توجهاً تقنيًا.

كان من الواضح أن تعليمات HTML البرمجية المتوافقة والبنية السليمة لا تزال مهمة، ولكن معظم العاملين في الصناعة كانوا يتحدثون الآن بعبارات أوسع عن استراتيجية التسويق وعن دوافع Google التجارية.

كان هناك انقسام في الصناعة، حيث تم اعتماد العديد من جوانب تحسين محركات البحث التقنية، لسوء الحظ، من قبل مرسلي البريد العشوائي، وبالتالي تم تصنيفها على أنها بريد عشوائي من قبل بقية الصناعة.

لكن بدايات شيء جديد كانت تظهر أيضًا.

نشر سكوت ستوفر منشورًا في Search Engine Journal يجادل فيه بأن مستقبل تحسين محركات البحث الفني يكمن في محاكاة محرك البحث وإعادة إنشائه من الألف إلى الياء.

وبدلاً من شرح التصنيفات والتغيرات في حركة المرور بأثر رجعي، قال إن محترفي تحسين محركات البحث (SEO) في المستقبل سوف يستخدمون الاستدلال الإحصائي لوضع تنبؤات حول كيفية تفاعل Google ومحركات البحث الأخرى.

في الأساس، سيبنون نموذجًا للتعلم الآلي من شأنه أن يقدم تنبؤات حول كيفية تصنيف المواقع، ثم اختبار تلك التنبؤات مقابل الواقع، وتغذية بيانات النموذج الجديد باستمرار حتى تتمكن من تقديم تنبؤات دقيقة بشكل متزايد.

مثل هذا النموذج للتعلم الآلي لخوارزمية تصنيف التعلم الآلي من شأنه أن يعمل بشكل أساسي مثل Google الذي تمت هندسته عكسيًا.

ولكن بما أن هذا النموذج قد تم تصميمه ليخبرك بالقواعد التي كان يستخدمها لإجراء تنبؤاته، فإنه سيسمح لك بشكل أساسي بالتسلل إلى ذروة الأعمال الداخلية لشركة Google.

ستوفر في نهاية المطاف شارك في تأسيس نموذج محرك البحث بهدف القيام بذلك على وجه التحديد، والآن خوارزميات التعلم الآلي متاحة على نطاق واسعهل يمكن أن يكون هذا بالضبط هو المكان الذي تتجه إليه الصناعة؟

ومع ذلك، ما مدى فعالية نماذج مثل هذه؟ هل يمكنك بناء بنفسك؟ هل سيكون مفيدا؟ هل هناك أي شخص آخر يفعل هذا؟

نعم، إن استخدام الذكاء الاصطناعي “لسرقة” الذكاء الاصطناعي أمر ناجح

في سبتمبر من عام 2016، أندي جرينبيرج نشرت مقال في مجلة Wired بعنوان “كيفية سرقة الذكاء الاصطناعي”.

وفيه ناقش كيف فريق من علماء الكمبيوتر في جامعة كورنيل للتكنولوجيا تمكنوا من إجراء هندسة عكسية لأنظمة الذكاء الاصطناعي المدربة على التعلم الآلي، وذلك ببساطة عن طريق إرسال استعلامات إلى ذلك الذكاء الاصطناعي وتحليل الاستجابات.

لم يستغرق الأمر سوى بضعة آلاف من الاستفسارات، وأحيانًا بضع مئات فقط، قبل أن يتمكن الذكاء الاصطناعي الجديد من تقديم تنبؤات متطابقة تقريبًا.

تشير الورقة بوضوح إلى أنه يمكن استخدام هذه التقنية “لسرقة” الخوارزميات مثل تلك الموجودة في Amazonومايكروسوفت ونعم جوجل.

بل إنها تجادل بأنه يمكن استخدامها لتسلل البريد العشوائي والبرامج الضارة من خلال أنظمة الأمان القائمة على التعلم الآلي.

واحد ورقة مزعجة حتى أنه يوضح أنه من الممكن إعادة إنتاج الوجوه التي تم تدريب برامج التعرف على الوجه عليها، والأمر الأكثر إثارة للصدمة هو أنه يمكنهم القيام بذلك بشكل أسرع باستخدام نسختهم “المسروقة” من الذكاء الاصطناعي مقارنةً بالذكاء الاصطناعي.

تجربة أخرى أثبت أنه من الممكن “خداع” خوارزمية التعرف البصري لرؤية شيء غير موجود، حتى باستخدام “نسخة” كانت دقيقة بنسبة 80 بالمائة فقط.

كل هذا يعني أنه من المعقول تماماً أن تتمكن من إنشاء “نسخة” من محرك بحث جوجل واستخدامها لإعادة بناء القواعد التي يستخدمها لتصنيف المواقع في نتائج البحث.

إذا تم تصميمها بشكل صحيح، فقد تمنحك نسختك في الواقع معلومات مفيدة حول هذه القواعد أكثر من الحصول على نسخة من النسخة الأصلية.

المبادئ التوجيهية وراء بناء نموذج محرك البحث

لذا، إذا كان بناء نموذج محرك بحث بناءً على نتائج محرك البحث الحالي أمرًا ممكنًا، فمن أين يمكنك البدء بمشروع مثل هذا؟

قد يكون من المستحيل توفير دليل كامل في منشور المدونة هذا، ولكني أريد أن أقدم لك بعض المبادئ التوجيهية للعمل بها.

العملية الأساسية هي كما يلي وقد أصبحت بسيطة نسبيًا من خلال المنصات الجديدة المتوفرة على نطاق واسع نسبيًا:

  1. تمرير مجموعة من البيانات (التصنيف الحالي).
  2. احسب الفرق بين المخرجات الناتجة عن نموذج محرك البحث والحقيقة الفعلية (أي الخسارة).
  3. احسب مشتقات معلمات النموذج من حيث تأثيرها على الخسارة.
  4. قم بتحسين المعلمات بطريقة تقلل الخسارة.

إن ميزة النهج التصاعدي واضحة تمامًا: الشفافية.

الآن بعد أن أصبح لديك نموذج بسيط يتصرف مثل النموذج الحقيقي، يمكنك استخدامه للاستخدام.

بدلاً من قياس مخرجات الصندوق الأسود، ابدأ بقياس القاعدة الفردية لمخرجات الصندوق.

على سبيل المثال، باستخدام نموذج محرك البحث، يمكن للفرق قياس الاختلافات بين مواقعهم ومواقع منافسيهم، لخوارزميات محددة.

تذكر أن هذه هي الأشياء التي اعتاد ممارسو تحسين محركات البحث (SEO) القيام بها، عندما كان Google أبسط.

كلما كانت مخرجاتك أقرب إلى المدخلات الموجودة في بياناتك، زادت احتمالية العثور على السبب والنتيجة.

من خلال قياس كل نقطة على طول مسار المدخلات والمخرجات، يمكن لمحترفي تحسين محركات البحث (SEO) الذين يستخدمون نهجًا تصاعديًا (على سبيل المثال، نموذج محرك البحث) معرفة النقاط التي تتغير بالضبط.

ضع في اعتبارك ما يلي:

  1. ما لم تكن متخصصًا بالفعل في التعلم الآلي، فلا تحاول إنشاء منصة للتعلم الآلي من الصفر. ليس عليك أن تفعل ذلك. التعلم الآلي متاح الآن على نطاق واسع للإيجار. المنصات الأولية نكون Amazonو Azure و IBM ونعم Google، ولكل منها إيجابياته وسلبياته.
  2. ستعتمد دقة النموذج الخاص بك في المقام الأول على دقة مدخلاتك وتنوعها، والتي يجب أن تكون محددة للغاية. من المفاهيم الخاطئة أنه يمكنك فقط توصيل جزء من المحتوى بخوارزمية التعلم الآلي وتعيين درجة لكل منها، ثم إطلاق العنان للذكاء الاصطناعي. وسيتعين تحديد كميات محددة للغاية وقابلة للقياس.
  3. لقد تجاوزنا منذ فترة طويلة النقطة التي ينبغي فيها اتخاذ القرار بناءً على ما إذا كانت ستؤدي إلى التصنيف على المدى القصير. يجب أن يكون كل قرار مبررًا كجزء من استراتيجية تسويق متماسكة مع واجهة المستخدم ومركزه.
  4. من المحتمل أن تحصل على النتائج الأكثر دقة إذا كنت تهدف إلى التنبؤات. وهذا يعني أن التنبؤ بعنوان URL في نتائج البحث يعد مهمة حمقاء، ولكن التنبؤ بما إذا كان عنوان URL سيحقق أداءً أفضل من عنوان URL الآخر من المرجح أن يؤدي إلى نتائج دقيقة.
  5. فترات ثقتك هي كل شيء. إذا كنت تعتمد قراراتك على تنبؤات ذات ثقة منخفضة، فأنت تضع الكثير من الثقة في نموذجك.

افكار اخيرة

مع توفر تقنيات التعلم الآلي على نطاق واسع، أصبح الافتراض المركزي لتحسين محركات البحث الحديثة موضع تساؤل. ربما نقوم بإجراء هندسة عكسية للخوارزمية بعد كل شيء.

هل ينبغي لنا؟

أنا في رأيين حول هذا الموضوع.

أنا أؤمن باتخاذ القرارات المبنية على البيانات. أنا مؤمن بشدة بالقيمة المستمرة لتحسين محركات البحث الفنية. أعتقد أنه من الخطأ فصل علوم الكمبيوتر والبيانات عن تحسين محركات البحث (SEO)، كما أن مفاهيم “الشعور بالرضا” حول “مجرد إنشاء محتوى جيد” لم تكن كافية في حد ذاتها لتبرير تسمية نفسك بـ SEO محترف.

وفي الوقت نفسه، فإن استخدام مثل هذه الأساليب يتركنا أمام إغراء إساءة استخدام خوارزميات محرك البحث، أو “تسلل” محتوى دون المستوى إلى نتائج البحث التي قد لا تدوم، أو الأسوأ من ذلك، يمكن أن تلحق ضررًا طويل الأمد بعلامتك التجارية.

أنا شخصياً أشعر أن مثل هذه الأدوات ذات قيمة، ولكن يجب استخدامها بعناية.

نحن جميعًا نشعر بالحنين إلى الأيام الخوالي الرائعة لتحسين محركات البحث، لا أحد يريد استعادة الرسائل غير المرغوب فيها، ويتذكر البعض منا ما شعر به من احتراق، وقد تعلم معظمنا أن هناك الكثير من أجل تحسين محركات البحث القوية على المدى الطويل. استراتيجية من فهم ما سوف تحصل على التصنيف العالمي اليوم.

دعونا نستخدم هذه الأدوات للمضي قدمًا، وليس للخلف.

المزيد من موارد تحسين محركات البحث والتعلم الآلي: