خرائط المواقع

من ويكيبيديا، الموسوعة الحرة
خرائط المواقع
معلومات عامة
الاستعمال
مُعرِّف نسخة البرمجية
0.9[1] عدل القيمة على Wikidata
موقع الويب
sitemaps.org (الإنجليزية) عدل القيمة على Wikidata
الرخصة
يستخدمه
نطاق إكس إم إل
امتداد الملف
sitemap عدل القيمة على Wikidata

(بالإنجليزية: Sitemaps)‏ يسمح بروتوكول ملفات Sitemap لمشرف الموقع بإبلاغ محركات البحث عن عناوين URL الموجودة على موقع الويب المتاح للزحف. ملف Sitemap هو ملف XML يسرد عناوين URL الخاصة بالموقع. يسمح لمشرفي المواقع بتضمين معلومات إضافية حول كل عنوان URL تم تحديثه آخر مرة، وعدد مرات تغييره، ومدى أهميته فيما يتعلق بعناوين URL الأخرى للموقع. يسمح هذا لمحركات البحث بالزحف إلى الموقع بشكل أكثر كفاءة والعثور على عناوين URL التي قد تكون معزولة عن بقية محتوى الموقع. بروتوكول ملفات Sitemap هو بروتوكول تضمين عنوان URL ويكمل ملف robots.txt، وهو بروتوكول استبعاد عناوين URL.

نبذة تاريخية[عدل]

قدمت جوجل ملفات Sitemap 0.84 لأول مرة في يونيو 2005 حتى يتمكن مطورو الويب من نشر قوائم من الروابط عبر مواقعهم. أعلنت شركات جوجل وياهو! ومايكروسوفت عن دعم مشترك لبروتوكول خرائط المواقع في نوفمبر 2006. تم تغيير إصدار المخطط إلى «خريطة الموقع 0.90»، ولكن لم يتم إجراء أي تغييرات أخرى.

في أبريل 2007، أعلن أيضًا كل من Ask.com وأي بي إم عن دعمهما لملفات Sitemap. أعلنت جوجل وياهو و MSN عن اكتشاف تلقائي لخرائط المواقع من خلال ملف robots.txt. في مايو 2007، أعلنت حكومات ولايات أريزونا وكاليفورنيا ويوتا وفيرجينيا أنها ستستخدم خرائط المواقع على مواقع الويب الخاصة بها.

يعتمد بروتوكول ملفات Sitemap على الأفكار [2] من «خوادم الويب الملائمة للزحف»، [3] مع التحسينات بما في ذلك الاكتشاف التلقائي من خلال ملف robots.txt والقدرة على تحديد الأولوية وتكرار تغيير الصفحات.

الغرض منها[عدل]

تعد خرائط المواقع مفيدة بشكل خاص على مواقع الويب من حيث:

  • بعض مناطق الموقع غير متوفرة من خلال الواجهة القابلة للتصفح
  • يستخدم مشرفو المواقع محتوى Ajax أو Silverlight أو Flash الغني الذي لا تتم معالجته عادةً بواسطة محركات البحث.
  • الموقع كبير جدًا وهناك فرصة لبرامج زحف الويب للتغاضي عن بعض المحتوى الجديد أو الذي تم تحديثه مؤخرًا
  • عندما تحتوي مواقع الويب على عدد كبير من الصفحات المعزولة أو غير المرتبطة ببعضها البعض بشكل جيد، أو عندما يحتوي موقع ويب على روابط خارجية قليلة [4]

روابط خارجية[عدل]

مراجع[عدل]

  1. ^ وصلة مرجع: https://sitemaps.org/schemas/sitemap/0.9.
  2. ^ M.L. Nelson؛ J.A. Smith؛ del Campo؛ H. Van de Sompel؛ X. Liu (2006). "Efficient, Automated Web Resource Harvesting" (PDF). WIDM'06. مؤرشف من الأصل (PDF) في 2021-02-08.
  3. ^ O. Brandman, J. Cho, هيكتور غارسيا  [لغات أخرى]‏, and Narayanan Shivakumar (2000). "Crawler-friendly web servers". Proceedings of ACM SIGMETRICS Performance Evaluation Review, Volume 28, Issue 2. DOI:10.1145/362883.362894.{{استشهاد بمنشورات مؤتمر}}: صيانة الاستشهاد: أسماء عددية: قائمة المؤلفين (link) صيانة الاستشهاد: أسماء متعددة: قائمة المؤلفين (link)
  4. ^ "Learn about sitemaps | Search Central". Google Developers (بالإنجليزية). Archived from the original on 2021-05-12. Retrieved 2021-06-01.