تعلم متعمق (ذكاء اصطناعي)

من ويكيبيديا، الموسوعة الحرة
اذهب إلى: تصفح، ‏ ابحث

التعلّم المُتعمّق أو التعلّم العميق (بالإنجليزية: Deep Learning) هو مجال بحث جديد يتناول إيجاد نظريات وخوارزميات تتيح للآلة أن تتعلم بنفسها عن طريق محاكاة الخلايا العصبية في جسم الإنسان. و أحد فروع العلوم التي تتناول علوم الذكاء الاصطناعي. يعد من فرع من فروع علوم التعلم الآلي، تركز معظم أبحاث التعلم المتعمق على إيجاد أساليب استنباط درجة عالية من المتجردات بتحليل مجموعة بيانات ضخمة[1] باستخدام متحولات خطية وغير خطية..[2][3][4][5][6][7][8][9][10]

اثبتت الاكتشافات في هذا المجال تقدما كبيرا وسريعا وفعالية في العديد المجالات منها التعرف على الوجه، التعرف على الكلام، الرؤية الحاسوبية، ومعالجة اللغات الطبيعية.

الفكرة الاساسية[عدل]

يمكن توصيف اي كائن بطرق عديدة متنوعة. مثلا، يمكن توصيف صورة ما على اساس متجهي لدرجة الضياء في كل وحدة بكسل او بطريقة متجردة على اساس مجموع الحواف والمناطق التي تشكل الصورة. هناك العديد من الاساليب الاخرى التي يمكن استعمالها لتوصيف هذه الصورة. وتشير الدراسات ان بعض هذه الاساليب هي أفضل من غيرها في تبسيط تعلم الآلة (مثل ملاحظة الوجه او ملاحظة التعابير).[11] ومن الاهداف المتوقعة في دراسة التعلم المتعمق هو استبدال ميزات التعلم الالي التي يتم تحديدها بشريا بميزات يتم انتاجها بواسطة الآلة نفسها عن طريق خوارزميات فعالة في استنباط الميزات بصورة ألية او نصف آلية.[12]

تعتمد ابحاث التعلم المتعمق على الاكتشافات في علوم الاعصاب بشكل كبير وخاصة في مجال فهم العمليات الترميزة التي يقوم بها النظام العصبي في تحديد العلاقات المختلفة بين المحفزات والنشاطات الدماغية.[13]

التطبيقات[عدل]

وتم استعمال هيكليات تعلمية، مثل الشبكات العصبية المتعمقة، الشبكات العصبية الالتفافية، وشبكات الايمان المتعمقة، في تطبيقات مثل الرؤية الحاسوبية، التعرف على الكلام، و معالجة اللغات الطبيعية.

للاستزادة[عدل]

مواقع خارجية[عدل]

مجموعات ابحاث[عدل]

نماذج للتعلم المتعمق[عدل]

مواقع تدريب[عدل]

  • المدرسة الصيفية للتعلم المتعمق - مجموعة افلام تدريبية - جامعة مونتريال 2015.
  • جيل جديد من الشبكيات العصبية - فيديو يوتيوب عن طريق جوجل تولك - كانون الاول/ديسمبر 2007.

المراجع[عدل]

  1. ^ موقع ديب ليرننغ الرسمي - اتطلع عليه 17 اغسطس 2016. نسخة محفوظة 13 ديسمبر 2017 على موقع واي باك مشين.
  2. ^ Ian Goodfellow, Yoshua Bengio, and Aaron Courville (2016). Deep Learning. MIT Press. Online نسخة محفوظة 27 يناير 2018 على موقع واي باك مشين.
  3. ^ Deng، L.؛ Yu، D. (2014). "Deep Learning: Methods and Applications" (PDF). Foundations and Trends in Signal Processing. 7 (3-4): 1–199. doi:10.1561/2000000039. 
  4. ^ Bengio، Yoshua (2009). "Learning Deep Architectures for AI" (PDF). Foundations and Trends in Machine Learning. 2 (1): 1–127. doi:10.1561/2200000006. 
  5. ^ Bengio، Y.؛ Courville، A.؛ Vincent، P. (2013). "Representation Learning: A Review and New Perspectives". IEEE Transactions on Pattern Analysis and Machine Intelligence. 35 (8): 1798–1828. arXiv:1206.5538Freely accessible. doi:10.1109/tpami.2013.50. 
  6. ^ Schmidhuber، J. (2015). "Deep Learning in Neural Networks: An Overview". Neural Networks. 61: 85–117. arXiv:1404.7828Freely accessible. doi:10.1016/j.neunet.2014.09.003. 
  7. ^ Bengio، Yoshua؛ LeCun، Yann؛ Hinton، Geoffrey (2015). "Deep Learning". Nature. 521: 436–444. doi:10.1038/nature14539. 
  8. ^ Deep Machine Learning – A New Frontier in Artificial Intelligence Research – a survey paper by Itamar Arel, Derek C. Rose, and Thomas P. Karnowski. IEEE Computational Intelligence Magazine, 2013
  9. ^ Schmidhuber، Jürgen (2015). "Deep Learning". Scholarpedia. 10 (11): 32832. doi:10.4249/scholarpedia.32832. 
  10. ^ Carlos E. Perez. "A Pattern Language for Deep Learning". 
  11. ^ Glauner، P. (2015). Deep Convolutional Neural Networks for Smile Recognition (MSc Thesis). كلية لندن الإمبراطورية, Department of Computing. arXiv:1508.06535Freely accessible. 
  12. ^ Song، H.A.؛ Lee، S. Y. (2013). "Hierarchical Representation Using NMF". Neural Information Processing. Lectures Notes in Computer Sciences. 8226. سبرنجر. صفحات 466–473. ISBN 978-3-642-42053-5. doi:10.1007/978-3-642-42054-2_58. 
  13. ^ Olshausen، B. A. (1996). "Emergence of simple-cell receptive field properties by learning a sparse code for natural images". Nature. 381 (6583): 607–609. doi:10.1038/381607a0.