سلامة الذكاء الاصطناعي

هذه المقالة يتيمة. ساعد بإضافة وصلة إليها في مقالة متعلقة بها
من ويكيبيديا، الموسوعة الحرة

يُعد سلامة الذكاء الاصطناعي مجال متعدد التخصصات يهتم بمنع الحوادث وسوء الاستخدام والعواقب الضارة الأخرى التي يمكن أن تنتج عن أنظمة الذكاء الاصطناعي. يشمل المصطلح الأخلاقيات الآلية ومشكلة التحكم في الذكاء الاصطناعي، التي تهدف إلى جعل أنظمة الذكاء الاصطناعي أخلاقية ومفيدة. كما يشمل مجال سلامة الذكاء الاصطناعي المشاكل التقنية كمراقبة الأنظمة بحثًا عن المخاطر وجعلها عالية الموثوقية. يشمل ذلك أيضًا تطوير الأسس والسياسات التي تعزز السلامة.

الدوافع[عدل]

تبنى باحثو الذكاء الاصطناعي آراء مختلفة إزاء خطورة التكنولوجيا الحالية والمصادر الرئيسية للمخاطر، رغم إشارة الاستطلاعات إلى أن الخبراء يأخذون المخاطر ذات العواقب الوخيمة على محمل الجد.[1][2][3] كان متوسط المشاركين متفائلًا بشأن الذكاء الاصطناعي عمومًا، في استطلاعين لباحثي الذكاء الاصطناعي، ولكنهم وضعوا احتمالية 5% لعواقب «سيئة للغاية (كانقراض الإنسان)» للذكاء الاصطناعي المتقدم.[4][5] وافق 37%، أو قبلوا على مضض، في استطلاع لمجتمع معالجة اللغة الطبيعي لعام 2022، أنه من الممكن أن تؤدي قرارات الذكاء الاصطناعي إلى كارثة «كالحرب النووية الشاملة على أقل تقدير».[6] يناقش العلماء المخاطر الحالية من فشل الأنظمة الحيوية، والانحياز، والمراقبة بسبل الذكاء الاصطناعي، والمخاطر الناشئة من البطالة التقنية، والتلاعب الرقمي، والتسليح، والمخاطر التقديرية جراء فقدان السيطرة على وكلاء الذكاء العام الاصطناعي.[7]

انتقد بعض الناس المخاوف السائدة المتعلقة بالذكاء الاصطناعي، كالأستاذ المشارك في جامعة ستانفورد أندرو نج الذي قارنها بـ«القلق بشأن التعداد السكاني في المريخ بينما لم تطأ قدم الكوكب بعد».[8] يحث آخرون كالأستاذ في جامعة كاليفورنيا في بركلي ستيوارت راسل على الحذر، مؤكدًا أن «من الأفضل استباق الإبداع البشري بدلًا بخسه قدره».[9]

الخلفية[عدل]

بدأت المخاطر المتعلقة بالذكاء الاصطناعي تناقش جديًا في بداية عصر المعلومات:

«يجب أن نواجه، علاوة على ذلك، إذا تبنينا اتجاه صنع الآلات التي تتعلم ويُعدل سلوكها بالتجربة، حقيقة أن كل درجة من الاستقلالية التي نمنحها للآلة هي درجة من التحدي المحتمل لرغباتنا».

ـــ نوربرت وينر 1949

كُلفت جمعية النهوض بالذكاء الاصطناعي، في الفترة منذ عام 2008 إلى 2009، بإجراء دراسة لاستكشاف ومعالجة الآثار الاجتماعية طويلة الأمد للأبحاث والتطوير في مجال الذكاء الاصطناعي. شككت اللجنة عمومًا في الآراء المتطرفة المعبر عنها من قبل كُتاب الخيال العلمي ولكنها اتفقت على أن «البحث الإضافي عن طرق فهم سلوك أنظمة الحوسبة المعقدة والتحقق منها سيكون ذا قيمة لتقليل النتائج غير المتوقعة».[10]

قدم رومان يامبولسكي مصطلح «هندسة سلامة الذكاء الاصطناعي» في مؤتمر فلسفة ونظرية الذكاء الاصطناعي في عام 2011، مدرجًا الأخطاء السابقة لأنظمة الذكاء الاصطناعي» ومؤكدًا أن «تردد هذه الأحداث وحدتها في ازدياد بتحسن قدرات الذكاء الاصطناعي».[11]

نشر الفيلسوف نيك بوستروم كتاب الذكاء الفائق: مسارات ومخاطر واستراتيجيات. أثارت حجته التي تقول إن الأنظمة المتقدمة قد تشكل تهديدًا مستقبليًا لوجود الإنسان قلق إيلون ماسك وبيل غيتس وستيفن هوكينغ وعبروا عن قلق مماثل..[12]

وقع العشرات من خبراء الذكاء الاصطناعي، عام 2015، على رسالة مفتوحة بشأن الذكاء الاصطناعي تدعو إلى البحث حول الآثار الاجتماعية للذكاء الاصطناعي وتحديد الاتجاهات العملية. وقع الرسالة حتى الآن أكثر من 8000 شخص، من بينهم يان ليكون، وشاين ليغ، ويوشوا بنجيو، وستيوارت راسل.[13]

أسس مجموعة من الأكاديميين بقيادة الأستاذ ستيوارت راسل، في العام نفسه، مركز الذكاء الاصطناعي المتوافق مع الإنسان في جامعة كاليفورنيا في بيركلي، كما خصص معهد مستقبل الحياة 6.5 مليون دولار في صورة منحة للبحث الذي يهدف إلى «ضمان بقاء الذكاء الاصطناعي آمنًا وأخلاقيًا ومفيدًا».[14]

أعلن مكتب السياسة العلمية والتكنولوجيا في البيت الأبيض وجامعة كارنيجي ميلون، في عام 2016، عن ورشة عمل عامة حول سلامة ومراقبة الذكاء الاصطناعي. كانت الورشة واحدة من سلسلة من أربع ورش عمل في البيت الأبيض تهدف إلى التحقيق في «المزايا والعيوب» في الذكاء الاصطناعي. نُشرت مشاكل الصلابة في سلامة الذكاء الاصطناعي في العام نفسه، وهي واحدة من أولى وأكثر أجندات سلامة الذكاء الاصطناعي التقنية تأثيرًا.[15]

رعت مؤسسة مستقبل الحياة مؤتمر أسيلومار حول الذكاء الاصطناعي المفيد في عام 2017، إذ صاغ أكثر من 100 من قادة الفكر مبادئ للذكاء الاصطناعي المفيد، كـ«تجنب العرقية: يجب على الفرق التي تطور أنظمة الذكاء الاصطناعي التعاون لتجنب السهو عن معايير السلامة».[16]

حدد فريق ديب مايند سيفتي في عام 2018، مشكلات سلامة الذكاء الاصطناعي وهي التعيين والصلابة والسلامة. نظم الباحثون ورشة عمل في العام التالي لتناول هذه المشكلات.[17]

نُشر بحث معضلات غير محلولة في سلامة تعلم الآلة في عام 2021، إذ وضعت اتجاهات البحث في الصلابة والمراقبة والمواءمة والسلامة النظامية.[18]

صرح ريشي سوناك في عام 2023، أنه يريد للمملكة المتحدة أن تكون «الموطن الجغرافي لتنظيم السلامة العالمي للذكاء الاصطناعي»، وأن تستضيف أول قمة عالمية حول سلامة الذكاء الاصطناعي.[19]

بؤرة البحث[عدل]

تشمل مجالات البحث في سلامة الذكاء الاصطناعي الصلابة والمراقبة والمواءمة. تركز الصلابة على ضمان أن تتصرف الأنظمة بالطريقة المنشودة في مجموعة واسعة من المواقف المختلفة، وتشمل المشاكل الفرعية التالية:

  • الصلابة ضد البجع الأسود: بناء أنظمة تتصرف بالطريقة المنشودة في المواقف النادرة.
  • الصلابة ضد العدائية: تصميم أنظمة مقاومة للمدخلات التي اختيرت عن عمد لإفشال الأنظمة.

الصلابة ضد البجع الأسود[عدل]

يمكن أن تتسبب المدخلات النادرة في فشل أنظمة الذكاء الاصطناعي على نحو كارثي. تفاعلت أنظمة التداول الآلية مثلًا على نحو غير متوقع مع انحرافات السوق، في انهيار السوق السريع عام 2010، ما أدى إلى تدمير تريليون دولار من قيمة الأسهم في دقائق. يجب ملاحظة أنه لا يلزم تحول في التوزيع لحدوث ذلك. قد يحدث فشل البجع الأسود بسبب المدخلات طويلة الذيل، وهو الحال في الكثير من البيئات الحقيقية. لا تزال المركبات الذاتية تواجه صعوبة في حالات «الزوايا الصعبة» التي قد لا تظهر أثناء التدريب، فقد تتجاهل المركبة مثلًا علامة توقف تضيء بشكل شبكة إل إي دي. على الرغم من أن مثل هذه المشاكل قد تُحل بينما تطور أنظمة التعلم الآلي فهمًا أفضل للعالم، يشير بعض الباحثين إلى أن الناس نفسهم يعجزون عن التصدي لكل المشكلات، كوباء فيروس كورونا، مجادلًا أن الصلابة ضد البجع الأسود ستكون مشكلة سلامة مستمرة.[18][20]

الصلابة ضد العدائية[عدل]

غالبًا ما تكون أنظمة الذكاء الاصطناعي عرضة للأمثلة العدوانية أو «المدخلات إلى نماذج التعلم الآلي والمصممة من قبل المهاجم لتسبب خطأ في النموذج». اكتشف زيجيدي وآخرون في عام 2013 أن إضافة تشويشات محددة لا يمكن اكتشافها إلى صورة قد يتسبب في تصنيفها على نحو خاطئ بثقة عالية. لا تزال هذه مشكلة في الشبكات العصبية، رغم أن الأعمال الأخيرة تشير إلى أن التشويشات عادة ما تكون كبيرة بما فيه الكفاية ليتسنى اكتشافها.[21]

غالبًا ما ترتبط قوة العدائية بالأمان. أظهر الباحثون أنه يمكن تعديل إشارة الصوت على نحو غير ملحوظ حتى تتولى أنظمة تحويل الكلام إلى نص تحويلها إلى أي رسالة يختارها المهاجم. كما يجب أن تكون أنظمة كشف الاختراقات الشبكية والبرامج الضارة شديدة الصلابة ضد العدائية لأن المهاجمين قد يصممون هجماتهم لخداع مكتشفي الاختراقات.[22]

يجب أن تكتسب النماذج التي تمثل الأهداف (نماذج المكافأة) صلابة ضد العدائية أيضًا. قد يقدر نموذج المكافأة مدى فائدة الرد النصي، وقد يُدرب نموذج اللغة على تحقيق أقصى درجات النجاح في هذه العملية. أظهر الباحثون أنه إذا دُرب نموذج اللغة لمدة كافية، فسوف يُستغل هذا النموذج سواء لتحقيق درجة أفضل أو أن يؤدي أداءً أسوأ في المهمة المقصودة. يمكن معالجة هذه المشكلة عن طريق تحسين الصلابة ضد العدائية لنموذج المكافأة. يجب أن تكتسب أنظمة الذكاء الاصطناعي المعنية بالتقييم صلابة ضد العدائية. كما يمكن أن يشمل ذلك أدوات المراقبة، إذ يتلاعب المهاجم بها أيضًا لإنتاج مكافأة أعلى.[23]

المراجع[عدل]

  1. ^ Grace، Katja؛ Salvatier، John؛ Dafoe، Allan؛ Zhang، Baobao؛ Evans، Owain (31 يوليو 2018). "Viewpoint: When Will AI Exceed Human Performance? Evidence from AI Experts". Journal of Artificial Intelligence Research. ج. 62: 729–754. DOI:10.1613/jair.1.11222. ISSN:1076-9757. S2CID:8746462. مؤرشف من الأصل في 2023-02-10. اطلع عليه بتاريخ 2022-11-28.
  2. ^ Zhang، Baobao؛ Anderljung، Markus؛ Kahn، Lauren؛ Dreksler، Noemi؛ Horowitz، Michael C.؛ Dafoe، Allan (5 مايو 2021). "Ethics and Governance of Artificial Intelligence: Evidence from a Survey of Machine Learning Researchers". arXiv:2105.02117. {{استشهاد بدورية محكمة}}: الاستشهاد بدورية محكمة يطلب |دورية محكمة= (مساعدة)
  3. ^ Stein-Perlman، Zach؛ Weinstein-Raun، Benjamin؛ Grace (4 أغسطس 2022). "2022 Expert Survey on Progress in AI". AI Impacts. مؤرشف من الأصل في 2022-11-23. اطلع عليه بتاريخ 2022-11-23.
  4. ^ Mehrabi, Ninareh; Morstatter, Fred; Saxena, Nripsuta; Lerman, Kristina; Galstyan, Aram (2021). "A Survey on Bias and Fairness in Machine Learning". ACM Computing Surveys (بالإنجليزية). 54 (6): 1–35. arXiv:1908.09635. DOI:10.1145/3457607. ISSN:0360-0300. S2CID:201666566. Archived from the original on 2022-11-23. Retrieved 2022-11-28.
  5. ^ De-Arteaga، Maria (13 مايو 2020). Machine Learning in High-Stakes Settings: Risks and Opportunities (PhD). Carnegie Mellon University.
  6. ^ Brundage، Miles؛ Avin، Shahar؛ Clark، Jack؛ Toner، Helen؛ Eckersley، Peter؛ Garfinkel، Ben؛ Dafoe، Allan؛ Scharre، Paul؛ Zeitzoff، Thomas؛ Filar، Bobby؛ Anderson، Hyrum؛ Roff، Heather؛ Allen، Gregory C؛ Steinhardt، Jacob؛ Flynn، Carrick (30 أبريل 2018). "The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation". Apollo-University Of Cambridge Repository, Apollo-University Of Cambridge Repository. Apollo - University of Cambridge Repository. DOI:10.17863/cam.22520. S2CID:3385567. مؤرشف من الأصل في 2022-11-23. اطلع عليه بتاريخ 2022-11-28. {{استشهاد بدورية محكمة}}: الاستشهاد بدورية محكمة يطلب |دورية محكمة= (مساعدة)
  7. ^ Barnes، Beth (2021). "Risks from AI persuasion". Lesswrong. مؤرشف من الأصل في 2022-11-23. اطلع عليه بتاريخ 2022-11-23.
  8. ^ "AGI Expert Peter Voss Says AI Alignment Problem is Bogus | NextBigFuture.com" (بالإنجليزية الأمريكية). 4 Apr 2023. Archived from the original on 2023-07-15. Retrieved 2023-07-23.
  9. ^ Dafoe، Allan (2016). "Yes, We Are Worried About the Existential Risk of Artificial Intelligence". MIT Technology Review. مؤرشف من الأصل في 2022-11-28. اطلع عليه بتاريخ 2022-11-28.
  10. ^ AAAI. "AAAI Presidential Panel on Long-Term AI Futures". مؤرشف من الأصل في 2022-09-01. اطلع عليه بتاريخ 2022-11-23.
  11. ^ Yampolskiy، Roman V.؛ Spellchecker، M. S. (25 أكتوبر 2016). "Artificial Intelligence Safety and Cybersecurity: a Timeline of AI Failures". arXiv:1610.07997. {{استشهاد بدورية محكمة}}: الاستشهاد بدورية محكمة يطلب |دورية محكمة= (مساعدة)
  12. ^ Yampolskiy، Roman V. (2013)، Müller، Vincent C. (المحرر)، "Artificial Intelligence Safety Engineering: Why Machine Ethics Is a Wrong Approach"، Philosophy and Theory of Artificial Intelligence، Studies in Applied Philosophy, Epistemology and Rational Ethics، Berlin, Heidelberg: Springer Berlin Heidelberg، ج. 5، ص. 389–396، DOI:10.1007/978-3-642-31674-6_29، ISBN:978-3-642-31673-9، مؤرشف من الأصل في 2023-03-15، اطلع عليه بتاريخ 2022-11-23
  13. ^ Elon Musk [elonmusk]. "Worth reading Superintelligence by Bostrom. We need to be super careful with AI. Potentially more dangerous than nukes" (تغريدة). Missing or empty |date= (help)
  14. ^ Future of Life Institute. "AI Research Grants Program". Future of Life Institute. مؤرشف من الأصل في 2022-11-23. اطلع عليه بتاريخ 2022-11-23.
  15. ^ Amodei، Dario؛ Olah، Chris؛ Steinhardt، Jacob؛ Christiano، Paul؛ Schulman، John؛ Mané، Dan (25 يوليو 2016). "Concrete Problems in AI Safety". arXiv:1606.06565. {{استشهاد بدورية محكمة}}: الاستشهاد بدورية محكمة يطلب |دورية محكمة= (مساعدة)
  16. ^ Bach، Deborah (2016). "UW to host first of four White House public workshops on artificial intelligence". UW News. مؤرشف من الأصل في 2022-11-23. اطلع عليه بتاريخ 2022-11-23.
  17. ^ "SafeML ICLR 2019 Workshop". مؤرشف من الأصل في 2022-11-23. اطلع عليه بتاريخ 2022-11-23.
  18. ^ أ ب Hendrycks، Dan؛ Carlini، Nicholas؛ Schulman، John؛ Steinhardt، Jacob (16 يونيو 2022). "Unsolved Problems in ML Safety". arXiv:2109.13916. {{استشهاد بدورية محكمة}}: الاستشهاد بدورية محكمة يطلب |دورية محكمة= (مساعدة)
  19. ^ Browne, Ryan (12 Jun 2023). "British Prime Minister Rishi Sunak pitches UK as home of A.I. safety regulation as London bids to be next Silicon Valley". CNBC (بالإنجليزية). Archived from the original on 2023-07-27. Retrieved 2023-06-25.
  20. ^ Research، DeepMind Safety (27 سبتمبر 2018). "Building safe artificial intelligence: specification, robustness, and assurance". Medium. مؤرشف من الأصل في 2023-02-10. اطلع عليه بتاريخ 2022-11-23.
  21. ^ Sheatsley، Ryan؛ Papernot، Nicolas؛ Weisman، Michael؛ Verma، Gunjan؛ McDaniel، Patrick (9 سبتمبر 2022). "Adversarial Examples in Constrained Domains". arXiv:2011.01183. {{استشهاد بدورية محكمة}}: الاستشهاد بدورية محكمة يطلب |دورية محكمة= (مساعدة)
  22. ^ Suciu، Octavian؛ Coull، Scott E.؛ Johns، Jeffrey (13 أبريل 2019). "Exploring Adversarial Examples in Malware Detection". arXiv:1810.08280. {{استشهاد بدورية محكمة}}: الاستشهاد بدورية محكمة يطلب |دورية محكمة= (مساعدة)
  23. ^ Hendrycks، Dan؛ Mazeika، Mantas (20 سبتمبر 2022). "X-Risk Analysis for AI Research". arXiv:2206.05862. {{استشهاد بدورية محكمة}}: الاستشهاد بدورية محكمة يطلب |دورية محكمة= (مساعدة)