ما هو السيو التقني Technical SEO … الدليل الشامل لـ تحسين محركات البحث التقنية

السيو التقني

إنّ تكتيكات البحث عن الكلمات المفتاحية، والمحتوى عالي الجودة، وبناء الروابط، تساعدك على تحسين الترتيب العضوي، لكن ما دور السيو التقني ؟

تُعتبر استراتيجيات تحسين محرك البحث هي الأهم وذلك من خلال إعطاء الباحثين تجربة ويب عالية الجودة وصفحات ويب سريعة التحميل ورسومات مستقرة ومحتوى يسهل التفاعل معه.

في إحدى الدراسات، ذُكر أنّ 59% من هواة السيو التقني أن استراتيجيتهم هي الأكثر فعالية للسيو SEO.

بالنسبة للشركات من المستوى المؤسسي والمتوسط، يصل هذا الرقم إلى 65.4 و66.7 في المائة على التوالي.

اقرأ في هذا المقال:

1- ما هو السيو التقني

2- الفرق بينه وبين السيو الداخلي والسيو الخارجي

3- أهمية السيو التقني وأساسياته

اقرأ أيضاً: دليل تحسين محركات البحث … كل ما تريد معرفته عن السيو

ماهو السيو التقني Technical SEO

هو عملية ضمان تلبية موقع الويب للمتطلبات التقنية لمحركات البحث الحديثة.

يعمل جنباً إلى جنب مع استراتيجيات المحتوى واستراتيجيات بناء الروابط  لحصول الصفحات على ترتيبات عالية في البحث.

تشمل العناصر المهمة للسيو التقني الزحف Crawling والفهرسة Indexing والتقديم Rendering وبنية موقع الويب Website Architecture.

اقرأ أيضاً: ما هو تحسين محركات البحث المحلية … الدليل الشامل لـ السيو المحلي

الفرق بين السيو التقني Technical SEO والسيو الداخلي On-Page SEO والسيو الخارجي Off-Page SEO

 

السيو الداخلي On-Page SEO

يشير إلى المحتوى الذي يخبر محركات البحث والقراء ما تدور حوله الصفحة.

بما في ذلك نص بديل للصورة واستخدام الكلمات المفتاحية وأوصاف التعريف وعلامات H1 وتسمية عنوان URL “عنوان موقع الويب”والربط الداخلي.

يوجد أكبر قدر من التحكم في السيو الداخلي لأنه يُمثل كل شيء على الموقع.

اقرأ أيضاً: كيفية القيام بـ البحث عن الكلمات المفتاحية من أجل تحسين محركات البحث : الدليل الشامل

 

السيو الخارجي Off-Page SEO

يخبر محركات البحث بمدى شعبية الصفحة وفائدتها من خلال الروابط الخلفية Backlinks، أو الروابط من مواقع أخرى إلى مواقع المستخدم الخاصة.

تعزز كمية الروابط الخلفية وجودتها ترتيب صفحات الصفحة.

إذا تساوت كل الأشياء، فإن الصفحة التي تحتوي على 100 رابط ذي صلة من مواقع موثوقة ستتفوق على صفحة تحتوي على 50 رابط ذا صلة من مواقع موثوقة أو 100 رابط غير ذي صلة من مواقع موثوقة.

اقرأ أيضاً: استراتيجيات بناء الروابط لـ تحسين محركات البحث … دليل شامل

 

السيو التقني Technical SEO

يكون تحت السيطرة أيضاً ولكن من الصعب بعض الشيء إتقانه لأنه أقل سهولة.

 

لماذا يعد السيو التقني مهماً

إنه يلعب دوراً مهماً في حركة الزوار العضوية الخاصة بالمستخدم، فقد يكون المحتوى هو الأكثر شمولاً وفائدة ومكتوب بشكل جيد.

لكن ما لم يتمكن محرك البحث من الزحف إليه، فلن يراه سوى عدد قليل جداً من الناس على الإطلاق.

بدون أساس قوي للسيو التقني لن يصدر المحتوى أي صوت لمحركات البحث.

 

أساسيات تدقيق الـ السيو التقني

قبل البدء بتدقيق السيو التقني، هناك بعض الأساسيات التي يجب وضعها موضع التنفيذ

1- مراجعة النطاق المفضل:

النطاق هو عنوان URL الذي يكتبه الأشخاص للوصول إلى موقع ما.

يؤثر نطاق موقع الويب الخاص بالمستخدم على ما إذا كان بإمكان الأشخاص العثور عليه من خلال البحث ويوفر طريقة متسقة لتحديد موقعه.

عندما يحدد المستخدم النطاق المفضل، فإنه يخبر محركات البحث ما إذا كان يُفضل عرض إصدار www أو غير www من موقعه في نتائج البحث.

طلبت جوجل تحديد إصدار عنوان URL المفضل والآن، ستحدد جوجل وتختار إصداراً لإظهار الباحثين.

مع ذلك، إذا كان المستخدم يفضّل تعيين الإصدار المفضل من نطاقه، فيمكنه القيام بذلك من خلال العلامات الأساسية.

في كلتا الحالتين، بمجرد تعيين النطاق المفضل، يحب التأكد من إعادة توجيه جميع المتغيرات بشكل دائم إلى هذا الإصدار.

 

2- تنفيذ طبقة المنافذ الآمنة SSL:

يُنشئ طبقة من الحماية بين خادم الويب (البرنامج المسؤول عن تلبية طلب عبر الإنترنت) والمتصفح، مما يجعل الموقع آمناً.

عندما يرسل الزائر معلومات إلى موقع الويب الخاص بالمستخدم مثل الدفع أو معلومات الاتصال، فمن غير المرجح اختراق هذه المعلومات لوجود SSL لحمايتها.

يشار إلى شهادة SSL بنطاق يبدأ ب “https://” بدلا من “http://” ورمز القفل في شريط عنوان URL.

السيو التقني

 

بعد إعداد SSL، سيحتاج المستخدم  إلى ترحيل أي صفحات غير SSL من http إلى https.

إنه ترتيب طويل، ولكنه يستحق الجهد باسم الترتيب المحسن.

فيما يلي الخطوات التي يحتاج إلى اتخاذها:

  • إعادة توجيه جميع صفحات http://yourwebsite.com إلى https://yourwebsite.com.
  • تحديث جميع العلامات القانونية وفقا لذلك.
  • تحديث عناوين URL على خريطة الموقع الخاصة بالمستخدم (الموجودة على yourwebsite.com/sitemap.xml) و robot.txt”بروتوكول استبعاد الروبوتات”  (الموجودة على yourwebsite.com/robots.txt).

 

3- تحسين سرعة الصفحة:

  • ضغط جميع الملفات حيث يقلل الضغط من حجم الصور، بالإضافة إلى ملفات CSS “أوراق الأنماط المتتالية” وHTML “لغة ترميز النص الفائق(لغة برمجة)” وJavaScript “جافا سكريبت” بحيث تشغل مساحة أقل ويتم تحميلها بشكل أسرع.
  • إعادة توجيه التدقيق بانتظام حيث تستغرق إعادة التوجيه 301 بضع ثوان للمعالجة.

بضرب ذلك على عدة صفحات أو طبقات من عمليات إعادة التوجيه، وستؤثر بشكل خطير على سرعة الموقع.

  • يمكن أن تؤثر التعليمات البرمجية الفوضوية سلباً على سرعة الموقع.

الرمز الفوضوي يعني الرمز الكسول.

الأمر أشبه بالكتابة – ربما في المسودة الأولى، يمكن توضيح وجهة النظر في 6 جمل.

في المسودة الثانية، يمكن القيام بذلك في 3.

كلما كان الرمز أكثر كفاءة، كلما زادت سرعة تحميل الصفحة بشكل عام.

  • التمير بشبكات CDN “شبكات توزيع المحتوى” وهي خوادم ويب موزعة تخزن نسخاً من موقع الويب الخاص بالمستخدم في مواقع جغرافية مختلفة وتقدم موقع المستخدم بناءً على موقع الباحث.

نظراً لأن المعلومات بين الخوادم لها مسافة أقصر، يتم تحميل الموقع بشكل أسرع للطرف الطالب.

  • التأكد دائماً من استخدام أحدث إصدارات المكونات الإضافية وتقليل الاستخدام إلى الأكثر أهمية.

بالإضافة إلى التفكير  في استخدام سمات مخصصة، لأن سمات موقع الويب مسبقة الصنع غالباً ما تأتي مع الكثير من التعليمات البرمجية غير الضرورية.

  • الاستفادة من المكونات الإضافية لذاكرة التخزين المؤقت التي تقوم بتخزين نسخة ثابتة من الموقع لإرسالها إلى الزوار العائدين، مما يقلل من وقت تحميل الموقع أثناء الزيارات المتكررة.
  • البرامج النصية هي تعليمات تحتاج الخوادم إلى قراءتها قبل أن تتمكن من معالجة HTML أو نص صفحة الويب الخاصة بالمستخدم أي الأشياء التي يريد الزوار رؤيتها على الموقع.

عادة، يعني استخدام التعليمات البرمجية غير المتزامنة أنه يمكن للخادم معالجة HTML والبرنامج النصي في وقت واحد، وبالتالي تقليل التأخير وزيادة وقت تحميل الصفحة.

 

بمجرد وضع الأساسيات سيتم الانتقال إلى تدقيق السيو التقني:

قابلية الزحف Crawl Ability

الزحف هو أساس استراتيجية التدقيق التقني للسيو الخاصة بالمستخدم حيث تزحف روبوتات البحث إلى الصفحات لجمع معلومات حول الموقع.

إذا تم حظر هذه الروبوتات بطريقة أو بأخرى من الزحف، فلا يمكنها فهرسة الصفحات أو ترتيبها.

يجب التأكد من إمكانية الوصول إلى جميع صفحاتك المهمة وسهولة التنقل فيها.

هناك بعض العناصر للتأكد من أن صفحاتك جاهزة للزحف:

1- إنشاء خريطة موقع XML:

خريطة موقع XML تساعد روبوتات البحث على فهم صفحات الويب الخاصة بالمستخدم والزحف إليها.

تُرسَل خريطة الموقع الخاصة بالمستخدم إلى أدوات مشرفي محركات البحث جوجل Google Search Console بمجرد اكتمالها.

كما يجب إبقاء خريطة الموقع محدثة أثناء إضافة صفحات الويب وإزالتها.

 

2- تعظيم ميزانية البحث الخاصة بالمستخدم:

  • إزالة الصفحات المكررة.
  • إصلاح أو إعادة توجيه أي روابط معطلة.
  • التأكد من أن ملفات CSS وJavascript قابلة للزحف.
  • التحقق من إحصائيات الزحف بانتظام ومشاهدة الانخفاضات أو الزيادات المفاجئة.
  • التأكد من حظر أي روبوت أو صفحة لم يسمح لها بالزحف.
  • المحافظة على تحديث خريطة الموقع  وإرسالها إلى أدوات مشرفي المواقع المناسبة.
  • تقليم الموقع من المحتوى غير الضروري أو القديم.
  • الاحتراس من عناوين URL التي تم إنشاؤها ديناميكياً، والتي يمكن أن تجعل عدد الصفحات على الموقع يرتفع بشكل كبير.

 

3- تحسين بنية الموقع:

يتم تجميع الصفحات ذات الصلة معاً على سبيل المثال، ترتبط الصفحة الرئيسية بالمدونة بمنشورات المدونات الفردية، والتي يرتبط كل منها بصفحات المؤلف الخاصة بها.

يساعد هذا الهيكل روبوتات البحث على فهم العلاقة بين الصفحات.

كلما اقتربت الصفحة (أ) من صفحة المستخدم الرئيسية، زاد عدد الصفحات التي ترتبط بالصفحة (أ).

كالمزيد من حقوق الملكية في الروابط التي تتمتع بها تلك الصفحات، زادت الأهمية التي ستعطيها محركات البحث للصفحة (أ).

على سبيل المثال، يوضح الرابط من صفحة المستخدم الرئيسية إلى الصفحة (أ) أهمية أكبر من رابط من منشور مدونة.

كلما زاد عدد الروابط إلى الصفحة (أ)، كلما أصبحت تلك الصفحة أكثر أهمية لمحركات البحث.

من الناحية المفاهيمية، يمكن أن تبدو بنية الموقع مثل هذه، حيث يتم وضع صفحات عن الشركة والمنتج والأخبار وما إلى ذلك في الجزء العلوي من التسلسل الهرمي لأهمية الصفحة.

 

يجب على المستخدم التأكد من أن أهم الصفحات لعمله هي في الجزء العلوي من التسلسل الهرمي مع أكبر عدد من الروابط داخلية.

 

4- تعيين بنية عنوان URL:

تشير بنية عنوان URL إلى كيفية هيكلة عناوين URL الخاصة بالمستخدم، والتي يمكن تحديدها بواسطة بنية موقعه.

للتوضيح إن عناوين URL يمكن أن تحتوي على أدلة فرعية، مثل blog.hubspot.com،  أومجلدات فرعية، مثل hubspot.com/blog، التي تشير إلى أين يؤدي عنوان URL.

سواء تم استخدام نطاقات فرعية أو أدلة فرعية في عنوان URL الخاص بالمستخدم، فإن الأمر متروك له تماماً.

يكمن جمال إنشاء موقع الويب الخاص بالمستخدم بإمكانيته إنشاء القواعد.

المهم هو أن تتبع هذه القواعد بنية موحدة، مما يعني أنه لا يجب التبديل بين blog.yourwebsite.com وyourwebsite.com/blogs على صفحات مختلفة.

فيما يلي بعض النصائح الأخرى حول كيفية كتابة عناوين URL:

  • استخدام أحرف صغيرة.
  • استخدام الداشات Dashes (-) لفصل الكلمات.
  • أن تكون قصيرة ووصفية.
  • تجنب استخدام الأحرف أو الكلمات غير الضرورية (بما في ذلك حروف الجر).
  • تضمين الكلمات المفتاحية المستهدفة.

بمجرد حصول المستخدم على زر بنية عنوان URL، سيرسل قائمة بعناوين URL لصفحاته المهمة إلى محركات البحث في شكل خريطة موقع XML.

القيام بذلك يعطي روبوتات البحث سياقاً إضافياً حول موقعه حتى لا يضطروا إلى معرفة ذلك أثناء زحفهم.

 

5- استخدام robots.txt:

يسمح هذا البروتوكول أو لا يسمح بروبوتات ويب محددة بالزحف إلى الموقع، بما في ذلك أقسام محددة أو حتى صفحات من الموقع.

في حال الرغبة في منع الروبوتات من فهرسة الموقع، يجب استخدام علامة تعريف روبوتات noindex “نويندكس”.

فيما يتعلق بالفهرسة، تزحف روبوتات البحث إلى الموقع لجمع القرائن والعثور على الكلمات المفتاحية.

لكن توجد ميزانية زحف لا يجب إنفاقها على البيانات غير الضرورية.

يتم استبعاد الصفحات التي لا تساعد روبوتات البحث على فهم ما يدور حوله موقع الويب على سبيل المثال، صفحة شكر من عرض أو صفحة تسجيل دخول.

 

6- إضافة قوائم مسارات التنقل Breadcrumbs:

مسار يرشد الزوار إلى العودة إلى بداية رحلتهم على موقع الويب الخاص بالمستخدم.

إنها قائمة بالصفحات تخبر الزوار بكيفية ارتباط صفحتهم الحالية ببقية الموقع.

هي ليست فقط لزوار الموقع، تستخدمها روبوتات البحث أيضاً.

السيو التقني

 

يجب أن تكون مسارات التنقل:

  • مرئية للزوار حتى يتمكنوا من التنقل بسهولة في صفحات الويب الخاصة بالمستخدم دون استخدام زر الرجوع.
  • تحتوي على لغة ترميز منظمة لإعطاء سياق دقيق للبحث عن برامج الروبوت التي تزحف إلى موقع المستخدم.

 

7- استخدام ترقيم الصفحات:

يستخدم ترقيم الصفحات التعليمات البرمجية لإخبار محركات البحث عندما ترتبط الصفحات ذات عناوين URL المتميزة ببعضها البعض.

على سبيل المثال، قد يكون لدى المستخدم سلسلة محتوى يقسمها إلى فصول أو صفحات ويب متعددة.

إذا كان يرغب في تسهيل اكتشاف روبوتات البحث لهذه الصفحات والزحف إليها، سيستخدم  ترقيم الصفحات.

الطريقة التي تعمل بها بسيطة جداً:

الذهاب إلى <head> من الصفحة الأولى من السلسلة واستخدام Rel=”next” لإخبار روبوت البحث بالصفحة التي يجب الزحف إليها ثانية.

بعد ذلك، في الصفحة الثانية، استخدام rel=”prev” للإشارة إلى الصفحة السابقة وrel=”next” للإشارة إلى الصفحة التالية، وما إلى ذلك.

 

8- التحقق من ملفات سجل السيو الخاصة بالمستخدم:

تقوم خوادم الويب بتسجيل وتخزين بيانات السجل حول كل إجراء يتخذونه على موقعك في ملفات السجل.

تتضمن البيانات المسجلة وقت  وتاريخ الطلب والمحتوى المطلوب.

تترك روبوتات البحث أثراً في شكل ملفات سجل عندما تزحف إلى الموقع ويمكن تحديد متى تم الزحف وما تم الزحف إليه عن طريق التحقق من ملفات السجل والتصفية من قبل وكيل المستخدم ومحرك البحث.

هذه المعلومات مفيدة لأنه يمكن تحديد كيفية إنفاق ميزانية الزحف وما هي الحواجز التي تواجه الفهرسة أو الوصول إلى الروبوت.

للوصول إلى ملفات السجل يمكنك إما أن تسأل مطوراً أو تستخدم محلل ملفات السجل.

لمجرد أن روبوت البحث يمكنه الزحف إلى موقعك لا يعني بالضرورة أنه يمكنه فهرسة جميع صفحاتك.

 

قابلية الفهرسة Index Ability

عندما تزحف روبوتات البحث إلى موقع الويب الخاص بالمستخدم، فإنها تبدأ في فهرسة الصفحات بناء على موضوعها وصلتها بهذا الموضوع.

بمجرد فهرستها، تكون الصفحة مؤهلة للترتيب على صفحات نتائج محركات البحث SERPs.

فيما يلي بعض العوامل التي يمكن أن تساعد على فهرسة الصفحات:

1- إلغاء حظر روبوتات البحث من الوصول إلى الصفحات:

يجب التأكد من إرسال برامج الروبوت إلى الصفحات المفضلة وأنه يمكنها الوصول إليها بحرية.

سيعطي اختبار robots.txt من جوجل Google قائمة بالصفحات غير المسموح بها ويمكنك استخدام أداة الفحص في وحدة تحكم بحث جوجل لتحديد سبب الصفحات المحظورة.

 

2- إزالة المحتوى المكرر:

يخلط المحتوى المكرر بين روبوتات البحث ويؤثر سلباً على قابلية الفهرسة الخاصة بالمستخدم.

يجب استخدام عناوين URL الأساسية لإنشاء الصفحات المفضلة.

 

3- مراجعة عمليات إعادة التوجيه الخاصة بالمستخدم:

يمكن أن تسبب حلقات إعادة التوجيه أو عناوين URL المكسورة أو عمليات إعادة التوجيه غير الصحيحة مشكلات عند فهرسة موقع المستخدم.

لتجنب ذلك، يجب مراجعة جميع عمليات إعادة التوجيه الخاصة به بانتظام.

 

4- التحقق من استجابة الموقع للجوال:

بدأت جوجل في فهرسة مواقع الجوال أولاً، مع إعطاء الأولوية لتجربة الهاتف المحمول عبر الكومبيوتر.

اليوم، يتم تمكين هذه الفهرسة افتراضياً.

لمواكبة هذا الاتجاه المهم، يمكن استخدام اختبار جوجل الصديق للجوال للتحقق من المكان الذي يحتاج موقع الويب إلى تحسينه.

 

5- إصلاح أخطاء بروتوكول النص التشعبي HTTP:

يمكن أن تعيق أخطاء HTTP عمل روبوتات البحث عن طريق حظرها من المحتوى المهم على موقع المستخدم.

لذلك، من المهم للغاية معالجة هذه الأخطاء بسرعة ودقة.

نظراً لأن كل خطأ HTTP فريد ويتطلب دقة محددة، يحتوي القسم أدناه على شرح موجز لكل منها:

  • 301

إعادة توجيه دائمة تُستخدم لإرسال حركة الزوار بشكل دائم من عنوان URL إلى آخر.

يسمح نظام إدارة المحتوى الخاص بالمستخدم بإعداد عمليات إعادة التوجيه هذه.

لكن الكثير منها يمكن أن يبطئ موقعه ويحط حيث تضيف كل عملية إعادة توجيه إضافية إلى وقت تحميل الصفحة.

لأن الكثير منها سيتسبب في أن تتخلى محركات البحث عن الزحف إلى تلك الصفحة.

  • 302

إعادة التوجيه المؤقتة هي طريقة لإعادة توجيه حركة الزوار مؤقتاً من عنوان URL إلى صفحة ويب مختلفة.

في حين أن رمز الحالة هذا سيرسل الزوار تلقائياً إلى صفحة الويب الجديدة، ستظل علامة العنوان وعنوان URL والوصف المخزن مؤقتاً متسقة مع عنوان URL الأصلي.

إذا بقيت إعادة التوجيه المؤقتة في مكانها لفترة كافية، فسيتم التعامل معها في نهاية المطاف على أنها إعادة توجيه دائمة وسيتم تمرير هذه العناصر إلى عنوان URL الوجهة.

  • 403

الرسائل المحظورة تعني أن المحتوى الذي طلبه المستخدم مقيد بناء على أذونات الوصول أو بسبب سوء تكوين الخادم.

  • 404

صفحات الأخطاء تخبر المستخدمين أن الصفحة التي طلبوها غير موجودة، إما لأنها تمت إزالتها أو قاموا بكتابة عنوان URL الخاطئ.

من الجيد دائماً إنشاء هذا النوع من الصفحات على العلامة التجارية فهي تجذب الزوار للبقاء على موقعك .

  • 405

غير مسموح بها هي طريقة تعني أن خادم موقع الويب الخاص بالمستخدم تعرف على طريقة الوصول ولا تزال محظورة، مما أدى إلى رسالة خطأ.

  • 500

خطأ داخلي في الخادم هي رسالة خطأ عامة تعني أن خادم الويب الخاص بالمستخدم يواجه مشكلات في تسليم الموقع إلى الطرف الطالب.

  • 502

خطأ البوابة السيئة يرتبط بسوء التواصل، أو الاستجابة غير الصالحة، بين خوادم الموقع.

  • 503  

الخدمة غير متوفرة تخبر المستخدم أنه على الرغم من أن الخادم الخاص به يعمل بشكل صحيح، إلا أنه غير قادر على تلبية الطلب.

  • 504

مهلة البوابة البعيدة تعني أن الخادم لم يتلق استجابة في الوقت المناسب من خادم الويب الخاص بالمستخدم للوصول إلى المعلومات المطلوبة.

مهما كان سبب هذه الأخطاء، من المهم معالجتها للحفاظ على سعادة كل من الزوار ومحركات البحث، والحفاظ على عودة كليهما إلى الموقع.

 

 

قابلية التقديم Render Ability

يعتمد الموقع الذي يمكن الوصول إليه على سهولة التقديم.

فيما يلي عناصر موقع الويب التي يجب مراجعتها لتدقيق قابلية التقديم الخاصة بالمستخدم:

1- أداء الخادم:

إذا لاحظ المستخدم أن الخادم الخاص به يواجه مشكلات، فعليه استكشاف الأخطاء وإصلاحها وحلها.

يمكن أن يؤدي عدم القيام بذلك في الوقت المناسب إلى إزالة محركات البحث لصفحة الويب من فهرسها لأنها تجربة سيئة لإظهار صفحة مكسورة.

 

3- حالة HTTP:

على غرار أداء الخادم، ستمنع أخطاء HTTP الوصول إلى صفحات الويب الخاصة بالمستخدم، يمكن استخدام زاحف ويب، مثل Screaming Frog “الضفدع الصارخ” لإجراء تدقيق شامل للأخطاء في موقعك.

 

4- وقت التحميل وحجم الصفحة:

إذا استغرق تحميل الصفحة الخاصة بالمستخدم وقتا طويلاً جداً، فإن معدل الارتداد ليس المشكلة الوحيدة التي يجب القلق بشأنها.

يمكن أن يؤدي التأخير في وقت تحميل الصفحة إلى خطأ في الخادم يمنع برامج الروبوت من صفحات الويب الخاصة بالمستخدم أو يجعلها تزحف إلى الإصدارات المحملة جزئياً التي تفتقد أقساماً مهمة من المحتوى.

اعتماداً على مقدار طلب الزحف لمورد معين، ستنفق الروبوتات مبلغاً مكافئاً من الموارد لمحاولة تحميل الصفحات وعرضها وفهرستها.

 

5- تقديم جافا سكريبت JavaScript:

من المسلم به أن جوجل تواجه صعوبة في معالجة جافا سكريبت.

بالتالي توصي باستخدام محتوى تم تقديمه مسبقاً لتحسين إمكانية الوصول.

لدى جوجل أيضاً مجموعة من الموارد للمساعدة على فهم كيفية وصول روبوتات البحث إلى جافا سكريبت على موقع المستخدم وكيفية تحسين المشكلات المتعلقة بالبحث.

 

6- الصفحات اليتيمة Orphan Pages:

يجب على المستخدم ربط كل صفحة على موقعه بصفحة أخرى على الأقل ويفضل أن تكون أكثر، اعتماداً على مدى أهمية الصفحة.

عندما لا تحتوي الصفحة على روابط  داخلية، يطلق عليها صفحة يتيمة.

مثل مقال بدون مقدمة، تفتقر هذه الصفحات إلى السياق الذي تحتاج الروبوتات إلى فهم كيفية فهرستها.

 

7- عمق الصفحة Page Depth:

يشير عمق الصفحة إلى عدد الطبقات الموجودة أسفل الصفحة في بنية موقع المستخدم، أي عدد النقرات بعيداً عن صفحته الرئيسية.

من الأفضل الحفاظ على بنية الموقع ضحلة قدر الإمكان مع الحفاظ على تسلسل هرمي بديهي.

في بعض الأحيان يكون الموقع متعدد الطبقات أمراً لا مفر منه، في هذه الحالة يجب إعطاء الأولوية لتنظيم جيد للموقع.

بغض النظر عن عدد الطبقات في بنية الموقع، ويُفضل الاحتفاظ بالصفحات المهمة – مثل المنتج وصفحات الاتصال – بعمق لا يزيد عن ثلاث نقرات.

 

8- سلاسل إعادة التوجيه:

عند إعادة توجيه حركة الزوار من صفحة إلى أخرى، يتم دفع ثمن يكون هو كفاءة الزحف.

يمكن أن تؤدي عمليات إعادة التوجيه إلى إبطاء الزحف وتقليل وقت تحميل الصفحة وعدم إمكانية الوصول إلى الموقع إذا لم يتم إعداد عمليات إعادة التوجيه هذه بشكل صحيح.

بمجرد معالجة مشكلات إمكانية الوصول، يمكنك الانتقال إلى كيفية ترتيب صفحاتك في صفحات نتائج محركات البحث SERPs.

 

قابلية الترتيب Rank Ability

يتضمن ترتيب الصفحات بعض العناصر الموجودة على الصفحة وخارجها التي ذكرناها من قبل ولكن من عدسة تقنية.

والآن سنتعمق في الأمر:

1- الرابط الداخلي والخارجي:

تساعد الروابط روبوتات البحث على فهم مكان تناسب الصفحة في المخطط الكبير للاستعلام وتعطي سياقاً لكيفية ترتيب تلك الصفحة.

توجه الروابط روبوتات البحث والزوار إلى المحتوى ذي الصلة وأهمية صفحة النقل.

بشكل عام، يحسن الربط الزحف والفهرسة والقدرة على الترتيب.

 

2- جودة الرابط الخلفي:

توفر الروابط الخلفية – الروابط من مواقع أخرى إلى مواقع المستخدم الخاصة – تصويتاً بالثقة لموقعه.

يخبرون روبوتات البحث أن موقع الويب الخارجي A يعتقد أن صفحة المستخدم عالية الجودة وتستحق الزحف.

تتعامل روبوتات البحث مع موقعه على أنه أكثر مصداقية.

كما تُعد جودة تلك الروابط الخلفية مهمة جداً.

يمكن أن تضر الروابط من المواقع منخفضة الجودة بالترتيب بالفعل.

هناك العديد من الطرق للحصول على روابط خلفية عالية الجودة للموقع، مثل الوصول إلى المنشورات ذات الصلة، والمطالبة بالإشارات غير المرتبطة، وتوفير محتوى مفيد تريد المواقع الأخرى الارتباط به.

 

3- مجموعات المحتوى:

تربط  المحتوى ذي الصلة حتى تتمكن روبوتات البحث بسهولة من العثور على جميع الصفحات التي يملكها المستخدم حول موضوع معين والزحف إليها وفهرستها.

إنها تعمل كأداة للترويج الذاتي لإظهار مدى معرفة المستخدم بموضوع ما لمحركات البحث.

قابلية الترتيب الخاصة بالمستخدم هي المحدد الرئيسي لنمو حركة الزوار العضوية لأن الدراسات تظهر أن الباحثين أكثر عرضة للنقر على نتائج البحث الثلاث الأولى على SERPs.

اقرأ أيضاً: كيفية صناعة المحتوى … أهم نصيحة من أجل كتابة المحتوى

 

قابلية النقر click Ability

الترتيب ومعدل النقر يقدمان جنباً إلى جنب إجابات فورية.

كلما تبرز نتيجة المستخدم على صفحات نتائج محركات البحث SERP، زاد احتمال حصوله على النقرة.

وهنا  نستعرض بعض الطرق لتحسين إمكانية النقر:

1- استخدام البيانات المنظمة:

تستخدم البيانات المنظمة مفردات محددة تسمى المخطط لترتيب العناصر وتسميتها على صفحة الويب الخاصة بالمستخدم للحصول على روبوتات البحث.

يوضح المخطط ما هو كل عنصر، ومدى ارتباطه بالموقع وكيفية تفسيره.

في الأساس، تخبر البيانات المنظمة الروبوتات، “هذا فيديو” أو “هذا منتج” أو “هذه وصفة”، ولا تترك مجالا للتفسير.

إن استخدام البيانات المنظمة ليس “عامل قابلية النقر” ولكنه يساعد في تنظيم المحتوى بطريقة تجعل من السهل على روبوتات البحث فهم الصفحات وفهرستها وربما ترتيبها.

 

2- ربح ميزات صفحات نتائج محركات البحث SERP:

ميزات SERP، والمعروفة باسم النتائج الغنية، هي سيف ذو حدين.

إذا تم الفوز بهم والحصول  على النقر، يُعد ذلك انتصار حقيقي.

إذا لم يكن الأمر كذلك، يتم دفع النتائج العضوية لأسفل الصفحة أسفل الإعلانات الدعائية ومربعات الإجابة النصية وإعلانات الفيديو الدائرية وما شابه ذلك.

النتائج الغنية هي تلك العناصر التي لا تتبع عنوان الصفحة وعنوان URL .

على سبيل المثال، تعرض الصورة أدناه ميزتين ل SERP – إعلان فيديو دائري ومربع “الناس يسألون أيضاً” – فوق النتيجة العضوية الأولى.

السيو التقني

 

3- تحسين المقتطفات المميزة Featured Snippets:

إحدى ميزات SERP التي لا علاقة لها بترميز المخطط هي المقتطفات المميزة، تلك المربعات فوق نتائج البحث التي توفر إجابات موجزة على استعلامات البحث.

السيو التقني

 

تهدف المقتطفات المميزة إلى الحصول على إجابات للباحثين على استفساراتهم في أسرع وقت ممكن.

 

4- التفكير في Google Discover “اكتشف جوجل”:

هي قائمة خوارزمية جديدة نسبياً للمحتوى حسب الفئة خصيصاً لمستخدمي الهاتف المحمول.

تسمح الأداة للمستخدمين ببناء مكتبة من المحتوى عن طريق تحديد الفئات ذات الاهتمام.

يُفضل استثمار بعض الوقت في البحث عن هذه الميزة الجديدة التي تؤدي إلى عائد هو قاعدة مستخدمين عالية المشاركة اختارت المحتوى الذي عمل المستخدم بجد لإنشائه يدوياً.

 

يعمل السيو التقني والسيو الداخلي والسيو الخارجي معاً لفتح الباب أمام حركة الزوار العضوية.

على الرغم من أن التقنيات داخل الصفحة وخارجها غالباً ما تكون أول التقنيات التي يتم نشرها، إلا أن السيو التقني يلعب دوراً حاسماً في جعل الموقع على رأس نتائج البحث والمحتوى أمام الجمهور المثالي.

 

السيو التقني هو عملية مستمرة، وسيكون من المستحيل تضمين جميع الخطوات في دليل واحد.

ومع ذلك، إذا تمَّت معالجة جميع العناصر المذكورة أعلاه، سيكون التوجه نحو ترتيب أعلى لمحركات البحث مع التقدم على المنافسين وهو كل مايهم.

 

المصادر

هنا

وهنا

وهنا

 

 

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Scroll to Top