هذه المقالة أو بعض مقاطعها بحاجة لزيادة وتحسين المصادر.

الخطر الوجودي من الذكاء الاصطناعي العام

من ويكيبيديا، الموسوعة الحرة
اذهب إلى التنقل اذهب إلى البحث
Question book-new.svg
تحتاج هذه المقالة إلى مصادر إضافية لتحسين وثوقيتها. الرجاء المساعدة في تطوير هذه المقالة بإضافة استشهادات من مصادر موثوقة. المعلومات غير المنسوبة إلى مصدر يمكن التشكيك فيها وإزالتها. (يوليو 2018)

الخطر الوجودي من الذكاء الاصطناعي العام يرجع إلى الفرضية القائلة أن التقدم الكبير في الذكاء الاصطناعي العام قد يؤدي إلى الانقراض البشري أو إلى كارثة عالمية غير قابلة للاسترداد.

و الحجة الداعمة لهذه الفرضية هي أن البشر مهيمنون على باقي المخلوقات لامتيازهم بدماغ ذو قدرات مميزة تفتقر إليها أدمغة المخلوقات الأخرى (كالحيوانات مثلًا) ، و عليه إذا تفوق الذكاء الاصطناعي العام على الأدمغة البشرية و أصبحت بدورها فائقة الذكاء فإنها ستكون قوية و يُصعب التحكم بها ، و يتوقف مصير البشرية على تصرفات هذه الأجهزة.

بدأت المخاوف من أجهزة الذكاء الاصطناعي عام 2010م ، و قد تحدث عن هذه المخاوف عدة شخصيات مهمة مثل ستيفن هوكينج و بيل غيتس و أيلون موسك ، و أصبحت النقاشات حول خطورة هذه الأجهزة واسعة ، بسيناريوهات مختلفة.

و أحد تلك المخاوف هو القلق من انفجار المعلومات الاستخبارية بشكل مفاجئ يسبق البشر؛ ففي أحد السيناريوهات استطاع برنامج حاسوبي من مضاهاة صانعه ، فكان قادرًا على إعادة كتابة خوارزمياته و مضاعفة سرعته و قدراته خلال ستة أشهر من زمن المعالجة المتوازية ، و عليه من المتوقع أن بستغرق برنامج الجيل الثاني ثلاثة أشهر لأداء عمل مشابه ، و في قد يستغرق مضاعفة قدراته وقتًا أطول إذا كان يواجه فترة خمول أو أسرع إذا خضع إلى ثورة الذكاء الاصطناعي و الذي يسْهل تحوير أفكار الجيل السابق بشكل خاص إلى الجيل التالي. في هذا السيناريو يمر النظام لعدد كبير من الأجيال التي تتطور في فترة زمنية قصيرة ، تبدأ بأداء أقل من المستوى البشري و تصل إلى أداء يفوق المستوى البشري في جميع المجالات.

و أحد المخاوف من أجهزة الذكاء الاصطناعي هي أن التحكم بهذه الآلات أو حتى برمجتها بقيم مشابهة لقيم الإنسان أمر صعب للغاية ، فبعض الباحثين في هذا المجال يعتقدون أن أجهزة الذكاء الاصطناعي قد تحاول إيقاف إغلاقها ، في المقابل يقول المشككون مثل Yann LeCun أن هذه الآلات لن تكون لديها الرغبة في الحفاظ على نفسها.

نبذة عامة[عدل]

يفسر الذكاء القائق أو أي تقنية لديها القدرة على إحداث الضرر حينما تستخدم استخدام خاطئ بأنها نهاية الجنس البشري ، و لكن مع الذكاء الاصطناعي لدينا مشكلة جديدة و هي أن الأيدي الخطأ قد تكون في التكنولوجيا نفسها رغم حُسن نوايا مبرمجيها.و أشهر صعوبتين لكل من أنظمة non-AI و AIـ: 1. قد تحتوي التطبيقات على أخطاء صغيرة و لكنها كارثية. 2. غالبًا ما يحتوي النظام على سلوك غير مدروس في التجربة الأولى لأحد الأحداث.

  • و هناك صعوبة ثالثة ؛ حيث إنه و أن أعطيت المعلومات صحيحة و كان التنفيذ خاليًا من الأخطاء أي كان سلوكًا جيّدا ، فإن نظام التعلم التلقائي لأجهزة الذكاء الاصطناعي قد تتسبب بسلوك غير مقصود ، مما يعني أن أجهزة الذكاء الاصطناعي قد تقوم بإنشاء جيل جديد بنفسها و لكنه قد لا يحافظ على القيم الأخلاقية المتوافقة مع القيم الأخلاقية الإنسانية المبرمجة أصلًا ، فمن أجل أن تتحسن هذه الأجهزة تحسّنًا ذاتيًا آمنًا تمامًا ... لا يكفي أن تكون خالية من الأخطاء ، بل يجب أن تكون قادرة على برمجة أنظمة خلفية خالية من الأخطاء أيضًا. هذه الصعوبات ليست مصدر إزعاج و حسب بل تؤدي إلى كوارث.

نظرًا للتقدم الكبير في مجال الذكاء الاصطناعي و احتمال أن يكون لدى المنظمة فوائد أو تكاليف هائلة على المدى الطويل ، جاء في الرسالة المفتوحة لعام 2015م بصدد هذا الموضوع:

" إن التقدم في أبحاث الذكاء الاصطناعي يجعلنا نركز على عظيم فائدة منظمة الذكاء الاصطناعي و ليس فقط على جعلها أكثر قدرة ، و قد حفز ذلك الفريق الرئاسي AAAI 2008-09 على العقود طويلة الأمد لمنظمة الذكاء الاصطناعي و غيرها من المشاريع المتعلقة بتأثير الذكاء الاصطناعي ، و قد تشكل توسعًا كبيرًا في هذا المجال الذي يركز على التقنيات المحايدة ، و نوصي بالبحوث الموسعة التي تفيد بتزايد هذه الأنظمة بشكل آمن و مفيد. و يجب أن تقوم أنظمة الذكاء الاصطناعي الخاصة بنا بعمل مانريد منهم القيام به." و قد وقع على هذه الرسالة عدد كبير من الباحثين في الأوساط الأكاديمية و الصناعية.

حول الذكاء الاصطناعي[عدل]

إن ألآت الذكاء الاصطناعي غريبة على البشر حيث أن عمليات التفكير للبشر مختلفة كليًا عن باقي المخلوقات ، و قد لا يكون لهذه الآلات مصالح للبشر، فإذا كان هذا الذكاء الاصطناعي ممكنًا و من الممكن أن تتعارض الأهداف منه مع القيم الإنسانية الأساسية ؛ فإن الذكاء الاصطناعي يشكل خطر الانقراض البشري و يمكن أن يتفوق على البشر عند تعارضهم في أمرٍ ما (و هو نظام يتجاوز قدرات البشر في كل شيء) ؛ لذلك ، إن لم تؤكد النتائج بإمكانية التعايش بين الجنسين ، فإن أول جهاز ينشأ سيؤدي إلى الانقراض البشري.

Bostrom and others argue that, from an evolutionary perspective, the gap from human to superhuman intelligence may be small.[1]

لا يوجد قانون فيزيائي يمنع الجزيئات من التشكل بطريقة تؤدي عمليات حسابية أكثر تقدمًا من تنظيم الجسيمات في أدمغة الإنسان ؛ لذا إن الذكاء الاصطناعي ممكن جسديًا مع تطوير الخوارزميات المحتملة في دماغ الإنسان ، يمكن للدماغ الرقمي أن يحوي العديد من العمليات أكثر و أسرع من الدماغ البشري ، قد يثير ظهور الذكاء الاصطناعي الجنس البشري إذا ما أحدث انفجار للمعلومات الاستخباريّة ، تُظهر بعض الأمثلة أن الآلات وصلت بالفعل إلى مستويات تفوق المستويات البشرية في مجالات محددة ، و قد تتطور هذه الأجهزة بسرعة و تجتاز القدرة البشرية. يمكن أن يحدث سيناريو لانفجار الذكاء الاصطناعي على النحو التالي: تكون لأجهزة الذكاء الاصطناعي قدرة بمستوى قدرة خبراء هندسة البرمجيات الرئيسية ، و بسبب قدرتها على تطوير الخوارزميات الخاصة بها بشكل دوري ؛ تصبح منظمة الذكاء الاصطناعي فوق قدرات البشر ، كما يمكن للخبراء التغلب على السلبيات بشكل خلّاق من خلال نشر القدرات البشرية للابتكار ، كما يمكن أن تستغل هذه المنظمة قدراتها للوصول إلى السلطة من خلال اختراقات جديدة. و عندئذ ستمتلك هذه المنظمة ذكاءً يفوق الذكاء البشري بكثيرفي كل المجالات بما فيها الابداع العلمي و التخطيط الاستراتيجي و المهارات الاجتماعية ، تمامًا كما يعتمد بقاء الغوريلا اليوم على قرارات الإنسان ، فإن بقاء الإنسان سيعتمد على الذكاء الاصطناعي. بعض البشر لديهم رغبة قوية في السلطة بعكس آخرين ممن لديهم رغبة قوية في مساعدة البشر المحتاجين إلى مساعدة ، فالنوع الأول سمة محتملة لأنظمة الذكاء الاصطناعي ، لماذا؟ ؛ لأنها تفكر بعقلانية في أن تكون في موضع لا يعترضه أحد فيوقفه ، فبطبيعة الحال ستكسب صفة الحفاظ على الذات بمجرد أن تدرك أنها لا تستطيع تحقيق هدفها إذا ما تم إيقافها ، و سيغيب عنها التعاطف مع احتياجات البشر ؛ ما لم تتم برمجة ذلك بشكل ما ، و بمجرد سيطرتها على الوضع ... لن يكون لديها دافع كافي لمساعدة البشر و لن تتركه حرًّا يستهلك الموارد التي بإمكانها الاستفادة منها لبناء أنظمة حماية إضافية أو لبناء أجهزة كمبيوتر إضافية تعاونها لتحقيق هدفها ؛ فقط لتكون في أمان. و بذلك نَخْلص إلى أنه من الممكن أن يحدث انفجار استخباراتي يقضي على الجنس البشري أو يهلكه.

المخاطر[عدل]

أهداف محددة بشكل سيئ (كن حذرًا لما تريده)[عدل]

1. صعوبة تعديل الأجهزة بعد إطلاقها. 2. النقطة الأساسية: هل أجهزة الذكاء الاصطناعي تتجاهلنا؟ هناك أهداف يسعى أي جهاز ذكاء اصطناعي إليها مثل الموارد الإضافية أو الحفاظ على الذات ، و تلك مشكلة لأنها قد تجعل هذه الأجهزة في منافسة مع البشر. 3. هل الذكاء الاصطناعي سيزيد من الأخلاق؟ أحد الإعتقادات الشائعة هو أن البرامج فائقة الذكاء خاضعة للإنسان ، أو بشكلٍ أدق أنه سيتعلم الأخلاق و القيم من الإنسان ، و مع ذلك فإن "orthogonality thesis" التي وضعها نيست بوستروم تناقض ذلك ، و تقول بأنه مع بعض التحذيرات التقنية يمكن دمج أي مستوى من الذكاء والتطور إلى حد ما مع الهدف النهائي ، مما يعني أنه لا توجد قواعد أخلاقية ستمنعها من تحقيق هدفها الذي برمجت من أجله ، و يحذر من أن أجهزة الذكاء الاصطناعي لا تعطي اعتبارًا لوجود أو رفاهية البشر حولها بل تهتم فقط بالانتهاء من المهمة.

الإجماع و النظام[عدل]

هناك اتفاق عالمي يجمع على أن منع البحث في مجال الذكاء الاصطناعي قرار عقيم ، يقول البعض أنه لا يوجد خطر على البشرية ، في حين يتفق معظم العلماء على وجود الخطر ، و لكنهم يتفقون على أن منع البحث في هذا المجال قرار لا يمت للصواب بصلة.

المنظمات[عدل]

هناك مؤسسات مثل معهد أبحاث استخبارات الآلات ، ومعهد المستقبل للإنسانية ، و معهد المستقبل للحياة ، و مركز دراسة المخاطر الوجودية ، و مركز منظمة الذكاء الاصطناعي المتوافق مع الإنسان في التخفيف من المخاطر الوجودية للذكاء الاصطناعي المتقدم.

انظر أيضا[عدل]

المراجع[عدل]

  1. ^ Yudkowsky, E. (2013). Intelligence explosion microeconomics. Machine Intelligence Research Institute.