انتقل إلى المحتوى

تفرد تقني

من ويكيبيديا، الموسوعة الحرة

التفرد التقني أو بكل بساطة التفرد[1] هو فرضية أن اختراع أجهزة ذكاء اصطناعي خارقة ستؤدي إلى نمو تقني سريع، مؤديةً إلى تغيرات غير معقولة في الحضارة البشرية.[2] طبقًا لهذه الفرضية، ستدخل أدوات ذكية (مثل جهاز كومبيوتر يعمل على أساس برنامج مبني على فكرة الذكاء الاصطناعي) في تفاعلات سريعة من الدوائر المطورة لأنفسها؛ مع كل جيل أحدث وأذكى يعمل بسرعة أكبر وأكبر، مؤديةً إلى انفجار معرفي وإلى ذكاء صناعي خارق، يتجاوز كل الذكاء البشري. تقول فكرة غود إن الانفجار المعرفي سيؤدي في النهاية إلى تفرد. وقال أستاذ الفلسفة في علوم الحاسوب بجامعة سان دييغو وكاتب الخيال العلمي فيرنور فينج في مقالته عام 1993 «التفرد التقني القادم»[3] أن هذا من شأنه أن يشير إلى نهاية حقبة الإنسان،[2][4] حيث سيستمر الذكاء الفائق الجديد في الارتقاء بنفسه والتقدم تقانيًا بمعدل غامض.[5]

في عام 2012 و2013 تمت أربعة استطلاعات للرأي، مبينةً أن نسبة تطوير ذكاء اصطناعي عام هي 50 بالمئة بحلول 2040 إلى 2050.[5]

في السنوات السابقة، أعربت شخصيات عامة مثل ستيفن هوكينج وايلون مسك عن قلقه بأن الذكاء الاصطناعي العام من الممكن أن يؤدي إلى انقراض الإنسان. إن عواقب التفرد ومصلحته أو ضرره للجنس البشري قد نوقشت بشدة.[6][7]

خلفية

[عدل]

على الرغم من أن التقدم التقني يتسارع، إلا أنه كان مقيدًا بالذكاء الأساسي للدماغ البشري، والذي، طبقًا لبول ر. ايرليك، لم يتغير كثيرًا على مر آلاف السنين.[8] غير أن ازدياد قوة أجهزة الكومبيوتر والتقانة الأخرى من الممكن أن يؤدي إلى بناء آلات أكثر ذكاءًا من البشر.[9] إذا ما تمكنا من اختراع ذكاء خارق - أما من خلال إسهاب الذكاء البشري أو من خلال الذكاء الاصطناعي - سنتمكن من الحصول على مهارات اختراعيه وقدرات على حل مشاكل أعظم من هذه التي يمتلكها البشر الآن. يسمى هذا النوع من الذكاء الاصطناعي باسم (ذرية الذكاء الاصطناعي-Seed AI)[10][11] لأنه إذا صُنِّعَت آلة ذكاء اصطناعي باستخدام قدرات هندسية تتطابق مع أو تتجاوز قدرات صانعيها البشريين، فستكون لها القدرة على تحسين برامجها وعدتها بصورة مستقلة أو حتى تصميم آلة لها إمكانات أكبر. هذه الآلة ذات الإمكانات الأكبر من الممكن أن تقوم بتصميم آلة ذات قدرة أكبر بكثير. من الممكن ان تتسارع هذه التكرارات للتحسين الذاتي المتكرر، مما يسمح بتغيير نوعي كبير قبل أي حدود عليا تفرضها قوانين الفيزياء أو الحسابات النظرية الموضوعة فيها. ويُعتَقَد بأنه على مدى العديد من التكرارات، سيتجاوز هذا الذكاء القدرات البشرية المعرفية.

يقول عالم الكومبيوتر فيرنور فينج في مقالة عنوانها «التفرد التكولوجي القادم» إن هذا سينبئ بنهاية الحقبة البشرية، حيث ان الذكاء الاصطناعي الخارق سيستمر في تطوير نفسه بمعدل غامض.

الانفجار المعرفي

[عدل]

الانفجار المعرفي هو نتيجة محتملة من بناء البشر لذكاء اصطناعي عام AGI. سيتمكن الذكاء الاصطناعي هذا من تطوير نفسه بصورة مستمرة مؤديًا إلى ظهور سريع لذكاء اصطناعي خارق ASI، وستكون حدوده غير معروفة، في وقت التفرد التقني.

توقع ا. ج. غود أن الذكاء الاصطناعي الشامل سيؤدي إلى انفجار معرفي. توقع آثار الآلات خارقة الذكاء إذا ما اُخْتُرِعَت: غود 1965

«يمكن تعريف الآلة فائقة الذكاء على أنها الآلة التي تستطيع التفوق على كل الأنشطة الفكرية لأي رجل مهما كان ذكيًا. وبما أن تصميم هذه الآلة هو واحد من هذه الأنشطة الفكرية، فإن الآلة فائقة الذكاء ستتمكن من تصميم آلات أفضل، في ذلك الوقت سيكون هنالك بلا شك «إنفجار معرفي»، وسيتم ترك ذكاء البشر في الخلف. لذا فإن إختراع آلة فائقة الذكاء هو الإختراع الأخير الذي سيحتاج إليه الإنسان، شريطة أن يكون الجهاز قادرًا على ان يخبرنا كيف نحافظ عليه تحت السيطرة.»

سيناريو غود هو كالتالي: عندما تزداد قوة أجهزة الكومبيوتر، سيصبح من الممكن للبشر أن يبنوا آلة أكثر ذكاءًا من البشر؛ سيمتلك الذكاء الخارق هذا قدرة أكبر على حل المشاكل وله مهارات ابتكارية تفوق هذه الموجودة لدى البشر. فيما بعد، ستقوم هذه الآلة خارقة الذكاء بتصميم آلة أكثر ذكاءاً؛ هذه الآلة (ذات القدرة الأكبر) ستقوم بتصميم آلة ذات قدرة أعظم، وهكذا. تتسارع هذه التكرارات من التحسين الذاتي المستمر، سامحةً بتغيير نوعي كبير قبل أي حدود عليا تفرضها قوانين الفيزياء أو الحسابات النظرية المدخلة فيها.[12]

مظاهر أخرى

[عدل]

ظهور الذكاء الخارق

[عدل]

الذكاء الخارق، الذكاء المفرط، أو الذكاء الخارق للبشر هو عنصر افتراضي يملك ذكاء يفوق بكثير العقول البشرية الأكثر ذكاءًا. من الممكن أن يشير مصطلح «الذكاء الخارق» إلى شكل ودرجة الذكاء التي تمتلكها هذه الآلة. يعرف جون فون نيومان، فيرنور فينج وراي كوزويل هذا المفهوم من حيث التكوين التقني للذكاء الخارق. وهم يقولون إنه من الصعب أو المستحيل للبشر في الوقت الحالي توقع ما ستغدوا عليه حياة البشر في عالم ما بعد التفرد.[5][13]

يعارض المتنبئون التقنيون والباحثون فكرة أنه سيتم التفوق على الذكاء البشري. يقول البعض إن التطور في الذكاء الاصطناعي سيؤدي إلى نظام منطقي عام يفتقر إلى القيود البشرية. يعتقد آخرون أن البشر سيتطورون أو يعدلون أنفسهم بيولوجيًا بصورة مباشرة لتحقيق ذكاء أكبر بشكل جذري. وهنالك سيناريوات مستقبلية عديدة تجمع عناصر من كلا الاحتمالين، قائلةً إن البشر من الممكن ان يربطوا أنفسهم باجهزة الكومبيوتر، أو ان يقوموا برفع أدمغتهم إلى أجهزة الكومبيوتر، بطريقة تمكن من توسيع الذكاء بشكل كبير.

التفرد غير المرتبط بالذكاء الاصطناعي

[عدل]

يستخدم بعض الكتاب مصطلح «التفرد» بصورة أوسع ليشيروا إلى أي تغيير جذري في المجتمع حدث بسبب تقانة جديدة مثل تقانة النانو الجزيئية،[14][15][16] على الرغم من أن فينج وكتاب آخرون يقولون إنه من دون ذكاء خارق، لا يمكن اعتبار هذه التغيرات تفردًا حقيقيًا.[5]

المعقولية

[عدل]

يناقش العديد من التقنيين والأكاديميين معقولية التفرد التقني، ومن ضمنهم بول الين، جيف هوكينز، جون هولاند، جارون لانير، وغورودون مور، والذي غالبًا ما يُسْتَشْهَدْ بقانونه في دعم هذه الفكرة.[17][18][19]

تندرج معظم الطرق المقترحة لتكوين أدمغة خارقة أو فوق بشرية في إحدى الفئتين: تضخيم الذكاء للأدمغة البشرية والذكاء الاصطناعي. إن الطرق المستخدمة في زيادة الذكاء عديدة، وتشمل الهندسة الحيوية، الهندسة الوراثية، الأدوية المنشطة للدماغ، مساعدو الذكاء الاصطناعي، الربط المباشر بين الدماغ والكومبيوتر وتحميل الدماغ. إن وجود العديد من الطرق للانفجار المعرفي يجعل من التفرد أكثر احتمالًا؛ لذا فإن عدم حدوث التفرد يتطلب عدم نجاح أي من هذه الطرق.[20]

يشكك هانسون (1998) في زيادة ذكاء البشر، قائلًا إنه عندما يتم استنزاف كل «الفواكه المنخفضة المتدلية» للطرق السهلة لزيادة الذكاء البشري، سيصعب العثور على طرق جديدة. على الرغم من الطرق العديدة المقترحة لزيادة الذكاء البشري، إلا أن الذكاء الاصطناعي غير البشري هو الخيار الأكثر رواجًا عند المنظمات التي تحاول التقدم في التفرد.

حصول أو عدم حصول انفجار معرفي هو أمر يعتمد على ثلاثة عوامل.[21] العامل الأول، عامل التسارع، وهو أن التطورات المعرفية الجديدة أصبحت ممكنة من خلال كل تطور سابق. على النقيض من ذلك، عندما يزداد مقدار الذكاء، ستصبح التطورات اللاحقة أكثر تعقيدًا، ومن الممكن أن تتجاوز فوائد الذكاء المتزايد. يجب على كل تطور جديد الإتيان بتطور جديد، من أجل استمرار التفرد. وفي النهاية، ستمنع قوانين الفيزياء أي تطورات إضافية.[22]

هنالك سببان منطقيان مستقلان، ولكنهما معززان لبعضهما البعض للتطور المعرفي: الزيادة في سرعة الحسابات، والتطور في الخوارزميات المستخدمة. يتنبأ قانون مور بالأسباب السابقة وبالتطور المتوقع في المعدات، وهو مشابه نسبيًا للتطور التقني السابق. من ناحية أخرى، يعتقد باحثون في مجال الذكاء الاصطناعي أن الناحية البرمجية هي أكثر أهمية من المعدات.[23]

تطور السرعة

[عدل]
كتب راي كورزويل أنه بسبب النقلات النوعية ، فإن اتجاه النمو المتسارع يوسع قانون مور من الدوائر المتكاملة إلى الترانزستورات في وقت سابق

بالنسبة لكل من الذكاء البشري والاصطناعي، فإن تطور المعدات سيزيد من سرعة تطورها في المستقبل.[24] وبصورة أبسط، يقول قانون مور إنه إذا تطلبت أول مضاعفة في السرعة 18 شهر، ستتطلب المضاعفة الثانية 18 شهر شخصي؛ أو 9 أشهر خارجية، بعد ذلك، أربعة أشهر، شهرين، وهكذا، حتى الوصول إلى سرعة التفرد.[25] قد يتم الوصول إلى حد أعلى محدد من السرعة في نهاية المطاف، على الرغم من عدم معرفة مقداره. استجاب هوكنز عام 2008 إلى غود، قائلًا إن الحد الأعلى قد يكون منخفض نسبيًا:

إن الإيمان بالفكرة هو فهم ساذج لماهية الذكاء. لنتخيل أننا لدينا أجهزة كومبيوتر تستطيع تصميم أجهزة كومبيوتر جديدة (رقائق، أنظمة وبرامجبات) أسرع من نفسها. هل سيؤدي كومبيوتر مثل هذا إلى أجهزة كومبيوتر ذات سرعة ليس لها نهاية أو حتى كومبيوتر أسرع من هذا الذي بناه الإنسان؟ لا. من الممكن ان يتسارع مقدار تطوره لفترة من الزمن، ولكن في النهاية هنالك حد لما يمكن ان يكون عليه حجم وسرعة الكومبيوتر. سينتهي بنا الحال في نفس المكان؛ الا انه سيصل هنالك أسرع بقليل. سوف لن يكون هنالك تفرد. اما إذا كان أعلى بكثير من مستويات البشر الحالية من الذكاء، فان آثار التفرد ستكون عظيمة لدرجة انها لا يمكن تمييزها عن تلك الموجودة لدى البشر مع تفرد ذو حد أعلى. على سبيل المثال، ادا ما تمكنا من زيادة سرعة التفكير بمليون ضعف، فان السنة الشخصية ستمر في غضون 30 ثانية طبيعية.

من الصعب المقارنة بصورة مباشرة بين المعدات المبنية من السيليكون والخلايا العصبية. ولكن بيرغلاس (2008) قال ان تقنية التعرف على الكلام الموجودة لدى الكومبيوتر تقترب من قدرة البشر، يبدو ان هذه القدرة لا تتطلب سوى 0.01 بالمئة من حجم الدماغ. يظهر هذا ان معدات الكومبيوتر الحديثة لا تبعد سوى خطوات بسيطة عن الوصول إلى العقل البشري.

النمو الأسي

[عدل]

ان النمو الأسي في تقانة الكومبيوتر، والذي اقترحه قانون مور غالبًا ما يُسْتَشْهَد به على أنه سبب لتوقع حدوث التفرد في المستقبل القريب نسبيًا، وهنالك عدد من المؤلفين الذين اقترحوا تعميم قانون مور.[26] نشر هانس مورافيك عام 1998 كتاب يظهر أن النمو الأسي من الممكن أن يرجع إلى تقانةت حوسبة سابقة للدوائر المتكاملة.

اقترح راي كورزويل قانون العائدات المتسارعة، حيث إن سرعة التغير التقني (وبصورة عامة، كل العمليات التطورية) تزداد بصورة اسية، معممًا قانون مور بنفس الطريقة التي افترضها مورافيك، ومضمننًا تقانة المواد، التقانة الطبية وغيرها.[27]

يستخدم كورزويل كلمة «التفرد» للتطور السريع في الذكاء الاصطناعي، كاتبًا على سبيل المثال ان «التفرد سيسمح لنا تجاوز القيود الموجودة في أجسامنا البيولوجية وأدمغتنا... سوف لن يكون هنالك فرق، ما بعد التفرد، بين البشر والآلات.» ويُعَرِف الموعد المتوقع للتفرد (2045) على أنه الموعد الذي سيتجاوز به ذكاء أجهزة الكومبيوتر مجموع القدرات العقلية للبشر، كاتبًا أن التطور في الحوسبة قبل هذا التاريخ «سوف لن يمثل تفرد» لأنه «لا يتطابق مع التوسع العميق في المعرفة.»

التغيرات المتسارعة

[عدل]
وفقاً لِكرزويل فإن الرسمُ البياني اللوغاريتمي له يُظهِرُ خمسةَ عشرَ قائمةً من النقلاتِ النوعية للأحداثِ التاريخيةِ الرئيسيةِ اتجاهاً أُسِّيَّاً

يجادل بعض مؤيدي التفرد حتميته من خلال استقراء التوجهات السابقة، وبالأخص تلك المتعلقة بتقصير الفوارق بين التطورات في التقانة. في أحد أوائل استخدامات مصطلح «التفرد» في سياق التطور التقني، يذكر ستينسلو اولام حواره مع جون فون نيومان حول التغيرات المتسارعة:

إن إحدى المحادثات المرتكزة على التطور المتسارع للتقانة والتغير في نمط حياة البشر، والذي يعطي مظهر الاقتراب من بعض التفرد الأساسي في تاريخ سباق ما بعد الأمور البشرية، كما نعلم، لن تستمر.[28]

يدعي كورزويل أن التطور التقني يتبع نمط من النمو الأسي ، متبعًا ما أسماه «قانون العائدات المتسارعة». متى ما واجهت التقانة عائقًا، كتب كورزويل، ستتغلب عليه التقانة الجديدة. ويتوقع أن النقلات النوعية ستزداد شيوعًا، مؤديةً إلى «تغيرات تقانية سريعة وعميقة للغاية، ممثلةً تمزق في بنية التاريخ البشري.» يعتقد كورويل أن التفرد سيحدث بحدود عام 2045.[29] تختلف توقعاته عن توقعات فينج، حيث إنه يتوقع صعود تدريجي نحو التفرد، بدلًا من توقع فينج المتمثل بذكاء خارق للبشر متطور بسرعة كبيرة.

التطورات الخوارزمية

[عدل]

بعض التقانة الذكية، مثل «ذرية الذكاء الاصطناعي»، من الممكن ان تجعل نفسها أكثر كفاءة، ليس فقط أكثر سرعة، عن طريق التعديل على رموزها. ستجعل هذه التطورات التطورات المستقبلية ممكنة، والتي بالتالي ستجعل التطورات الأخرى ممكنة، وهكذا.[10][11]

ان الآلية الخوارزمية للتطوير الذاتي تختلف عن الزيادة الخام في سرعة الحسابات بطريقتين. أولًا، لا تتطلب تأثيرات خارجية: الآلات التي تصمم معدات أسرع لا تزال تحتاج إلى بشر لتصنيع المعدات المطورة، أو لبرمجة المصانع بصورة ملاءمة. الذكاء الاصطناعي كان يكتب برمجته الخاصة، بينما يستطيع القيام بهذا عند وجوده داخل صندوق ذكاء اصطناعي.[30]

ثانيًا، طبقًا لتصور فيرنور فينج للتفرد، من الصعب للغاية التنبؤ بالنتيجة. في حين ان ازدياد السرعة يبدو انه فرق كمي فقط مقارنةً بالذكاء البشري، الا ان التطورات الخوارزمية ستختلف نوعيًا. يقارنه اليزور يودكوفسكي بالتغير الذي أحدثه الذكاء البشري: قام البشر بتغيير الكوكب بمقدار الف مرة أسرع مما قام به التطور، وبطرق مختلفة تمامًا. وبصورة مشابهة، تطور الحياة كان تسارع عظيم من السرع الجيولوجية السابقة، والذكاء المتطور من الممكن ان يجعل الاختلافات مختلفة من جديد.[31][32]

هنالك مخاطر عديدة مرتبطة بالانفجار المعرفي التفردي والناشئ من التطوير المتتالي للخوارزميات. أولًا، ان الهدف الأساسي للذكاء الاصطناعي قد لا يكون مرتبطًا بالتطوير الذاتي فحسب، فقد تصبح أهداف آلات الذكاء الاصطناعي مختلفة عن تلك المعد لها. ثانيًا، من الممكن ان تنافس أجهزة الذكاء الاصطناعي البشر مواردهم النادرة التي يستخدموها لكي يعيشوا.[33][34]

في حين انها ليست ضارة بصورة فعالة، لا يوجد هنالك سبب يجعلنا نعتقد ان اجهزة الذكاء الاصطناعي ستعزز الأهداف البشرية ما لم يتم برمجتها على هذا النحو، وإذا لم يتم برمجتها، من الممكن ان تستخدم الموارد التي تدعم وجود البشر لتصل إلى أهدافها، مؤديةً إلى انقراض الجنس البشري.[35][36][37]

يقول كارل شولمان واندريس ساندبيرغ ان التطورات الخوارزمية من الممكن ان تمثل عامل مقيد للتفرد، ولان المعدات تتطور بوتيرة ثابتة، فان تطور البرامجيات لا يمكن التنبؤ به، ومن الممكن ان تصبح في مأزق بسبب البحوث المتسلسلة والتراكمية. ويقولون إنه في حالة التفرد المقيد برمجيًا، سيصبح الانفجار المعرفي مرجح أكثر مقارنةً بالتقرد الذي تقيده المعدات، لأنه في الحالة البرمجية، حالما يتم الوصول إلى ذكاء اصطناعي بمستوى البشر، سيتمكن من العمل بصورة متسلسلة على معدات سريعة للغاية، ووفرة المعدات البسيطة ستجعل أبحاث الذكاء الاصطناعي أقل تقيدًا.[38]

النقد

[عدل]

يذهب بعض النقاد إلى القول أنه لن تتمكن أي آلة أو كومبيوتر من الوصول إلى الذكاء البشري مستقبلا، في حين يقول آخرون أن تعريف الذكاء لا علاقة له في حال كانت النتيجة الكلية متشابهة.

صرَّح ستيفن بينكر عام 2008 قائلاً:

«لا يوجد هنالك أبسط دليل يجعلنا نؤمن بقدوم التفرد. حقيقة أنك تستطيع تخيل المستقبل في دماغك لا يعني أنه من المرجح أو حتى مُمكن. انظروا إلى المدن الهالكة، والتنقل بالحقيبة الطائرة، والمدن الموجودة تحت الماء، والأبنية بالغة طولها ميل، والسيارات ذات الوقود النووي، كلها كانت خيالات مستقبلية عندما كنت طفلًا لم تحدث حتى الآن. إن قوة المعالجة الكلية ليست جنية الرمل تحل مشاكلك بصورةٍ سحرية.[17]»

كتب جون سورل أستاذ الفلسفة في جامعة كاليفورنيا ببيركلي:

«لا تملك أجهزة الكومبيتر اي ذكاء او دوافع، او استقلال. نحن نصممها لتتصرف كما لو انها كان لديها سايكولوجيا خاصة بها، ولكن لا يوجد واقع نفسي للسلوكيات او العمليات المقابلة ... ليس للآلات اي معتقدات او رغبات او دوافع.[39]»

التأثير

[عدل]

حدثت تغييرات جذرية في معدل النمو الاقتصادي في الماضي بسبب بعض التقدم التقني. استناداً إلى النمو السكاني ، تضاعف الاقتصاد كل 250,000 سنة من العصر الحجري القديم حتى «ثورة العصر الحجري الحديث». تضاعف الاقتصاد الزراعي الجديد كل 900 سنة ، وهي زيادة ملحوظة. في العصر الحالي ، بدءًا بالثورة الصناعية، يتضاعف الناتج الاقتصادي العالمي كل خمسة عشر عاماً ، أي أسرع بعشرين مرة مما كان عليه في الحقبة الزراعية. يقول روبن هانسون ، إذا كان صعود الذكاء الاصطناعي الخارق يسبب ثورة مماثلة ، فإن المرء يتوقع أن يتضاعف الاقتصادي كل ربع سنة على الأقل وربما على أساس أسبوعي.[40]

عدم اليقين والمخاطر

[عدل]

يعكس مصطلح التفرد التقني فكرة أن تغير مثل هذا من الممكن أن يحصل بصورة مفاجئة، ومن الصعب التنبؤ حول كيف سيبدو العالم الجديد.[41][42] من غير الواضح ما إذا كان هذا النوع من الانفجار المعرفي ذو فائدة أو ضرر أو حتى ذو خطر وجودي،[43][44] كما لم يتم التعامل مع هذه المشكلة من قبل باحثي الذكاء الاصطناعي، على الرغم من أن موضوع الذكاء الاصطناعي الودي تمت مناقشته من قبل معهد مستقبل الإنسانية ومعهد أبحاث ذكاء الآلات.[41]

الآثار المترتبة على المجتمع البشري

[عدل]

في شباط / فبراير 2009، برعاية جمعية النهوض بالذكاء الاصطناعي (AAAI)، ترأس إيريك هورفيتز اجتماعاً لعلماء الحاسوب البارزين ، باحثين في مجال الذكاء الاصطناعي ، وعاملين في مجال الروبوتات في أسيلومار في باسيفيك جروف، كاليفورنيا. كان الهدف هو مناقشة التأثير المحتمل للاحتمالية الافتراضية بأن الروبوتات يمكن أن تصبح مكتفية ذاتيا وقادرة على اتخاذ قراراتها الخاصة. ناقشوا مدى قدرة أجهزة الحاسوب والروبوتات في الحصول على الاستقلالية ، وإلى أي درجة يمكن أن يستخدموا مثل هذه القدرات لتشكيل التهديدات أو المخاطر.[45]

تتم برمجة بعض الآلات بأشكال مختلفة من الاستقلالية ، بما في ذلك القدرة على تحديد مصادر الطاقة الخاصة بهم واختيار الأهداف لمهاجمتها بالأسلحة. أيضا ، يمكن لبعض فيروسات الحاسوب الهروب من التدمير ، ووفقا للعلماء الحاضرين ، يمكن القول إنه وصل إلى مرحلة «الصرصور» من الذكاء الآلي. لاحظ المشاركون في المؤتمر أن الوعي الذاتي كما هو موضح في الخيال العلمي هو على الأرجح غير محتمل ، ولكن هناك مخاطر محتملة أخرى.[45]

الخطر الوجودي

[عدل]

يقول بيرغلاس (2008) انه لا يوجد هنالك دافع تطوري ليكون الذكاء الاصطناعي ودي في تعامله مع البشر. ان التطور لا يملك نزعة موروثة لتكوين نتائج يقدرها البشر، وليس هناك سببًا لتوقع عملية تحسين تعسفي لترويج النتيجة التي تريدها البشرية، بدل من ان تكون دون قصد مؤديةً إلى ذكاء اصطناعي يتصرف بطريقة لا يقصدها مصنعيها (مثل مثال نيك بوستروم الغريب لآلة ذكاء اصطناعي يتم برمجتها لهدف تصنيع مشبك ورق، ولأنها حصلت على ذكاء خارق، قررت تحويل الكوكب بأجمعه إلى منشأة لتصنيع مشابك أوراق).[46][47][48]

ناقش بوستروم (2002) سيناريوات انقراض البشر، ويُدرِج الذكاء الخارق على انه أحد الأسباب المحتملة:[49]

«عندما نصنع أول كيان خارق للذكاء، قد نخطأ ونعطيه مهام تؤدي إلى القضاء على البشرية، على افتراض ان القدرة الفكرية الهائلة لها القدرة على فعل ذلك. على سبيل المثال، من الممكن ان يتحول هدف ثانوي إلى هدف رئيسي، عن طريق الخطأ. نحن نطلب منه حل المشاكل الرياضية، ويقوم بتحويل كل المادة الموجودة في النظام الشمسي إلى حاسوب عملاق، وقتل الشخص الذي طرح السؤال في هذه العملية.»

الخلود

[عدل]

يقول كورزويل في كتاب «التفرد قريب» عام 2005، أن التطور الطبي سيسمح للبشر بالدفاع عن أجسامهم من آثار تقدم العمر، مما يجعل متوسط العمر المتوقع لا حد له. ويقول كورزويل كذلك إن التطورات التقانية في الطب ستسمح لنا ترميم واستبدال الأجزاء التالفة في أجسامنا، مما يؤدي إلى إطالة الحياة حتى عمر غير محدد.[50] يقترح كورزويل العلاج الجيني الجسدي؛ بعد الفيروسات الصناعية ذات المعلومات الجينية المحددة، ستكون الخطوة التالية هي تطبيق هذه التقانة على العلاج الجيني، واستبدال الحمض النووي للبشر بجينات مصنعة.[51]

المراجع

[عدل]
  1. ^ Cadwalladr, Carole (2014). "Are the robots about to rise? Google's new director of engineering thinks so…" The Guardian. Guardian News and Media Limited. نسخة محفوظة 04 أكتوبر 2018 على موقع واي باك مشين.
  2. ^ ا ب Eden, Amnon H.؛ Moor, James H. (2012). Singularity hypotheses: A Scientific and Philosophical Assessment. Dordrecht: Springer. ص. 1–2. ISBN:9783642325601.{{استشهاد بكتاب}}: صيانة الاستشهاد: التاريخ والسنة (link)
  3. ^ Ulam، Stanislaw (مايو 1958). "Tribute to John von Neumann". Bulletin of the American Mathematical Society. 64, #3, part 2: 5. مؤرشف من الأصل في 2018-05-26. {{استشهاد بدورية محكمة}}: الاستشهاد بدورية محكمة يطلب |دورية محكمة= (مساعدة)
  4. ^ Chalmers، David (2010). "The singularity: a philosophical analysis". Journal of Consciousness Studies. ج. 17 ع. 9–10: 7–65.
  5. ^ ا ب ج د Vinge, Vernor. "The Coming Technological Singularity: How to Survive in the Post-Human Era", in Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace, G. A. Landis, ed., NASA Publication CP-10129, pp. 11–22, 1993. نسخة محفوظة 10 أبريل 2018 على موقع واي باك مشين.
  6. ^ Khatchadourian، Raffi (16 نوفمبر 2015). "The Doomsday Invention". The New Yorker. مؤرشف من الأصل في 2019-04-29. اطلع عليه بتاريخ 2018-01-31.
  7. ^ Müller, V. C., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. In Fundamental issues of artificial intelligence (pp. 555–572). Springer, Cham.
  8. ^ Ehrlich, Paul. The Dominant Animal: Human Evolution and the Environment نسخة محفوظة 08 أكتوبر 2018 على موقع واي باك مشين.
  9. ^ Superbrains born of silicon will change everything. نسخة محفوظة August 1, 2010, على موقع واي باك مشين.
  10. ^ ا ب Yampolskiy, Roman V. "Analysis of types of self-improving software." Artificial General Intelligence. Springer International Publishing, 2015. 384-393.
  11. ^ ا ب Eliezer Yudkowsky. General Intelligence and Seed AI-Creating Complete Minds Capable of Open-Ended Self-Improvement, 2001
  12. ^ Good, I. J. "Speculations Concerning the First Ultraintelligent Machine", Advances in Computers, vol. 6, 1965. نسخة محفوظة May 1, 2012, على موقع واي باك مشين.
  13. ^ Ray Kurzweil, The Singularity is Near, pp. 135–136. Penguin Group, 2005.
  14. ^ "h+ Magazine | Covering technological, scientific, and cultural trends that are changing human beings in fundamental ways". Hplusmagazine.com. مؤرشف من الأصل في 2010-12-23. اطلع عليه بتاريخ 2011-09-09.
  15. ^ Yudkowsky, Eliezer. The Singularity: Three Major Schools نسخة محفوظة 01 أكتوبر 2018 على موقع واي باك مشين.
  16. ^ أنديرس ساندبرغ (عالم حاسوب). An overview of models of technological singularity نسخة محفوظة 11 أغسطس 2017 على موقع واي باك مشين.
  17. ^ ا ب "Tech Luminaries Address Singularity – IEEE Spectrum". Spectrum.ieee.org. مؤرشف من الأصل في 2019-04-30. اطلع عليه بتاريخ 2011-09-09.
  18. ^ "Who's Who In The Singularity – IEEE Spectrum". Spectrum.ieee.org. مؤرشف من الأصل في 2016-01-24. اطلع عليه بتاريخ 2011-09-09.
  19. ^ Paul Allen: The Singularity Isn't Near، مؤرشف من الأصل في 2020-12-19، اطلع عليه بتاريخ 2015-04-12
  20. ^ "What is the Singularity? | Singularity Institute for Artificial Intelligence". Singinst.org. مؤرشف من الأصل في 2011-09-08. اطلع عليه بتاريخ 2011-09-09.
  21. ^ David Chalmers John Locke Lecture, 10 May, Exam Schools, Oxford, Presenting a philosophical analysis of the possibility of a technological singularity or "intelligence explosion" resulting from recursively self-improving AI نسخة محفوظة 2013-01-15 على موقع واي باك مشين.. [وصلة مكسورة]
  22. ^ Grace، Katja؛ Salvatier، John؛ Dafoe، Allan؛ Zhang، Baobao؛ Evans، Owain (24 مايو 2017). "When Will AI Exceed Human Performance? Evidence from AI Experts". arXiv:1705.08807 [cs.AI]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
  23. ^ The Singularity: A Philosophical Analysis, David J. Chalmers نسخة محفوظة 13 سبتمبر 2018 على موقع واي باك مشين.
  24. ^ Siracusa، John (31 أغسطس 2009). "Mac OS X 10.6 Snow Leopard: the Ars Technica review". Arstechnica.com. مؤرشف من الأصل في 2012-05-09. اطلع عليه بتاريخ 2011-09-09.
  25. ^ Eliezer Yudkowsky, 1996 "Staring into the Singularity" نسخة محفوظة 30 مارس 2018 على موقع واي باك مشين.
  26. ^ Moravec, Hans (1999). Robot: Mere Machine to Transcendent Mind. Oxford U. Press. ص. 61. ISBN:978-0-19-513630-2. مؤرشف من الأصل في 2012-06-21.
  27. ^ "The World's Technological Capacity to Store, Communicate, and Compute Information", Martin Hilbert and Priscila López (2011), ساينس, 332(6025), 60–65; free access to the article through here: martinhilbert.net/WorldInfoCapacity.html نسخة محفوظة 07 يناير 2016 على موقع واي باك مشين.
  28. ^ Kurzweil، Raymond (2001)، "The Law of Accelerating Returns"، Nature Physics، Lifeboat Foundation، ج. 4، ص. 507، Bibcode:2008NatPh...4..507B، DOI:10.1038/nphys1010، مؤرشف من الأصل في 2018-08-27، اطلع عليه بتاريخ 2007-08-07
  29. ^ The Singularity Is Near
  30. ^ Eliezer S. Yudkowsky. "Power of Intelligence". Yudkowsky. مؤرشف من الأصل في 2018-10-03. اطلع عليه بتاريخ 2011-09-09.
  31. ^ Omohundro, Stephen M., "The Basic AI Drives." Artificial General Intelligence, 2008 proceedings of the First AGI Conference, eds. Pei Wang, Ben Goertzel, and Stan Franklin. Vol. 171. Amsterdam: IOS, 2008 نسخة محفوظة 17 سبتمبر 2018 على موقع واي باك مشين.
  32. ^ "Artificial General Intelligence: Now Is the Time". KurzweilAI. مؤرشف من الأصل في 2011-12-04. اطلع عليه بتاريخ 2011-09-09.
  33. ^ Omohundro, Stephen M., "The Nature of Self-Improving Artificial Intelligence." Self-Aware Systems. 21 Jan. 2008. Web. 07 Jan. 2010. نسخة محفوظة 12 يونيو 2018 على موقع واي باك مشين.
  34. ^ Barrat، James (2013). "6, "Four Basic Drives"". Our Final Invention (ط. First). New York: St. Martin's Press. ص. 78–98. ISBN:978-0312622374.
  35. ^ "Max More and Ray Kurzweil on the Singularity". KurzweilAI. مؤرشف من الأصل في 2018-11-21. اطلع عليه بتاريخ 2011-09-09.
  36. ^ "Concise Summary | Singularity Institute for Artificial Intelligence". Singinst.org. مؤرشف من الأصل في 2011-06-21. اطلع عليه بتاريخ 2011-09-09.
  37. ^ Bostrom, Nick, The Future of Human Evolution, Death and Anti-Death: Two Hundred Years After Kant, Fifty Years After Turing, ed. Charles Tandy, pp. 339–371, 2004, Ria University Press. نسخة محفوظة 28 أغسطس 2018 على موقع واي باك مشين.
  38. ^ Shulman، Carl؛ Anders Sandberg (2010). Mainzer، Klaus (المحرر). "Implications of a Software-Limited Singularity" (PDF). ECAP10: VIII European Conference on Computing and Philosophy. مؤرشف من الأصل (PDF) في 2019-04-30. اطلع عليه بتاريخ 2014-05-17.
  39. ^ John R. Searle, “What Your Computer Can’t Know”, The New York Review of Books, 9 October 2014, p. 54.
  40. ^ Robin Hanson، "Economics Of The Singularity"، IEEE Spectrum Special Report: The Singularity، مؤرشف من الأصل في 2019-05-27، اطلع عليه بتاريخ 2008-09-11 & Long-Term Growth As A Sequence of Exponential Modes
  41. ^ ا ب Yudkowsky، Eliezer (2008)، Bostrom، Nick؛ Cirkovic، Milan (المحررون)، "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF)، Global Catastrophic Risks، Oxford University Press، ص. 303، Bibcode:2008gcr..book..303Y، ISBN:978-0-19-857050-9، مؤرشف من الأصل (PDF) في 2008-08-07
  42. ^ "The Uncertain Future". theuncertainfuture.com; a future technology and world-modeling project. مؤرشف من الأصل في 2019-04-30.
  43. ^ "GLOBAL CATASTROPHIC RISKS SURVEY (2008) Technical Report 2008/1 Published by Future of Humanity Institute, Oxford University. Anders Sandberg and Nick Bostrom" (PDF). مؤرشف من الأصل (PDF) في 2011-05-16.
  44. ^ "Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards". nickbostrom.com. مؤرشف من الأصل في 2019-05-13.
  45. ^ ا ب Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009. نسخة محفوظة 30 سبتمبر 2018 على موقع واي باك مشين.
  46. ^ Nick Bostrom, "Ethical Issues in Advanced Artificial Intelligence", in Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, Vol. 2, ed. I. Smit et al., Int. Institute of Advanced Studies in Systems Research and Cybernetics, 2003, pp. 12–17 نسخة محفوظة 08 أكتوبر 2018 على موقع واي باك مشين.
  47. ^ Eliezer Yudkowsky: Artificial Intelligence as a Positive and Negative Factor in Global Risk نسخة محفوظة 2012-06-11 على موقع واي باك مشين.. Draft for a publication in Global Catastrophic Risk from August 31, 2006, retrieved July 18, 2011 (PDF file) [وصلة مكسورة]
  48. ^ The Stamp Collecting Device, Nick Hay نسخة محفوظة 17 يونيو 2012 على موقع واي باك مشين. [وصلة مكسورة]
  49. ^ 'Why we should fear the Paperclipper', 2011-02-14 entry of Sandberg's blog 'Andart' نسخة محفوظة 08 أغسطس 2018 على موقع واي باك مشين.
  50. ^ The Singularity Is Near, p.215,
  51. ^ The Singularity is Near, p.216.