هذه المقالة يتيمة. ساعد بإضافة وصلة إليها في مقالة متعلقة بها

خرائط المواقع

من ويكيبيديا، الموسوعة الحرة
اذهب إلى التنقل اذهب إلى البحث

(بالإنجليزية: Sitemaps)‏ يسمح بروتوكول ملفات Sitemap لمشرف الموقع بإبلاغ محركات البحث عن عناوين URL الموجودة على موقع الويب المتاح للزحف. ملف Sitemap هو ملف XML يسرد عناوين URL الخاصة بالموقع. يسمح لمشرفي المواقع بتضمين معلومات إضافية حول كل عنوان URL تم تحديثه آخر مرة، وعدد مرات تغييره، ومدى أهميته فيما يتعلق بعناوين URL الأخرى للموقع. يسمح هذا لمحركات البحث بالزحف إلى الموقع بشكل أكثر كفاءة والعثور على عناوين URL التي قد تكون معزولة عن بقية محتوى الموقع. بروتوكول ملفات Sitemap هو بروتوكول تضمين عنوان URL ويكمل ملف robots.txt، وهو بروتوكول استبعاد عناوين URL.

نبذة تاريخية[عدل]

قدمت جوجل ملفات Sitemap 0.84 لأول مرة في يونيو 2005 حتى يتمكن مطورو الويب من نشر قوائم من الروابط عبر مواقعهم. أعلنت شركات جوجل وياهو! ومايكروسوفت عن دعم مشترك لبروتوكول خرائط المواقع في نوفمبر 2006. تم تغيير إصدار المخطط إلى «خريطة الموقع 0.90»، ولكن لم يتم إجراء أي تغييرات أخرى.

في أبريل 2007، أعلن أيضًا كل من Ask.com وأي بي إم عن دعمهما لملفات Sitemap. أعلنت جوجل وياهو و MSN عن اكتشاف تلقائي لخرائط المواقع من خلال ملف robots.txt. في مايو 2007، أعلنت حكومات ولايات أريزونا وكاليفورنيا ويوتا وفيرجينيا أنها ستستخدم خرائط المواقع على مواقع الويب الخاصة بها.

يعتمد بروتوكول ملفات Sitemap على الأفكار [1] من «خوادم الويب الملائمة للزحف»، [2] مع التحسينات بما في ذلك الاكتشاف التلقائي من خلال ملف robots.txt والقدرة على تحديد الأولوية وتكرار تغيير الصفحات.

الغرض منها[عدل]

تعد خرائط المواقع مفيدة بشكل خاص على مواقع الويب من حيث:

  • بعض مناطق الموقع غير متوفرة من خلال الواجهة القابلة للتصفح
  • يستخدم مشرفو المواقع محتوى Ajax أو Silverlight أو Flash الغني الذي لا تتم معالجته عادةً بواسطة محركات البحث.
  • الموقع كبير جدًا وهناك فرصة لبرامج زحف الويب للتغاضي عن بعض المحتوى الجديد أو الذي تم تحديثه مؤخرًا
  • عندما تحتوي مواقع الويب على عدد كبير من الصفحات المعزولة أو غير المرتبطة ببعضها البعض بشكل جيد، أو عندما يحتوي موقع ويب على روابط خارجية قليلة [3]

روابط خارجية[عدل]

مراجع[عدل]

  1. ^ M.L. Nelson؛ J.A. Smith؛ del Campo؛ H. Van de Sompel؛ X. Liu (2006)، "Efficient, Automated Web Resource Harvesting" (PDF)، WIDM'06، مؤرشف من الأصل (PDF) في 08 فبراير 2021.
  2. ^ O. Brandman, J. Cho, هيكتور غارسيا  [لغات أخرى]‏, and Narayanan Shivakumar (2000)، "Crawler-friendly web servers"، Proceedings of ACM SIGMETRICS Performance Evaluation Review, Volume 28, Issue 2، doi:10.1145/362883.362894.{{استشهاد بمنشورات مؤتمر}}: صيانة CS1: أسماء متعددة: قائمة المؤلفون (link)
  3. ^ "Learn about sitemaps | Search Central"، Google Developers (باللغة الإنجليزية)، مؤرشف من الأصل في 12 مايو 2021، اطلع عليه بتاريخ 01 يونيو 2021.