الانتشار الخلفي

من ويكيبيديا، الموسوعة الحرة
اذهب إلى: تصفح، ‏ ابحث
Backpropagation.png

الانتشار الخلفي (Backpropagation) هي إحدى طرق تعليم الشبكات العصبونية التي تؤمن نقل معلومات بالانتشار العكسي للاتجاه الأصلي لقدوم المعلومات.

تعتمد هذه الطريقة على مبدأ التعليم المراقب وتحتاج في مرحلة التدريب إلى بيانات خاصة تتعلم بها الشبكة حيث تقدم لها بيانات دخل (input) مع بيانات الخرج (output) المرغوب فيها ومن ثم تقوم الشبكة بعمل انتشار امامي (feed forward) لبيانات الدخل للحصول على قيمة خرج الشبكة بعدها تقوم بالمقارنة بين الخرج المحسوب والخرج المرغوب فاذا لم تتطابق النتائج تقوم الشبكة بحساب قيمة الفرق بينهما لكل عصبون من طبقة الخرج والذي يمثل قيمة الخطا (error)، بعدها تاتي مرحلة الانتشار الخلفي للأخطاء (backpropagation) حيث تعيد الشبكة حساب قيمة الخطأ في كل عصبون من الشبكات الخفية. في الأخير تأتي مرحلة تحديث قيمة الاوزان(weight update)حيث تقوم الشبكة باعادة حساب كل الأوزان وتعوضها بالقيم الجديدة المحسوبة.

يشترط في الانتشار الخلفي ان تكون دوال التنشيط التي تستعملها العصبونات قابلة للاشتقاق. ذلك لانه في مرحلة تحديث الأوزان تستعمل الدالة المشتقة لدالة التنشيط في حساب القيم الجديدة.

طريقة التعليم[عدل]

يمكن تقسيم مراحل التعليم التي تعتمد عليها الشبكة إلى مرحلتين :

  • المرحلة الأولى : الانتشار

مع كل عينة من بيانات الدخل يجب أن يتم :

  1. تغذية امامية للشبكة بعينة بيانات الدخل (input) لحساب بيانات الخرج (output) ومن ثم يتم مقارنة النتائج المحصل عليها مع النتائج المرغوب فيها ويتم حساب الفرق الذي يمثل قيمة الخطأ (error)
  2. تغذية خلفية حيث يتم حساب قيمة الخطأ في كل عصون ينتمي للطبقات الخفية.
  • المرحلة الثانية : تحديث قيم الأوزان

يتم تحديث قيمة اوزان كل عصبون ينتمي إلى الطبقات الخفية (Hidden Layers)

Midori Extension.svg هذه بذرة مقالة تحتاج للنمو والتحسين. ساهم في إثرائها بالمشاركة في تحريرها.