تفرد تقني: الفرق بين النسختين

من ويكيبيديا، الموسوعة الحرة
[مراجعة غير مفحوصة][نسخة منشورة]
تم حذف المحتوى تمت إضافة المحتوى
JarBot (نقاش | مساهمات)
ط بوت:الإبلاغ عن رابط معطوب أو مؤرشف V2.9
This article was translated by I Believe in Science & Ideas beyond borders & Beit al Hikma 2.0
سطر 1: سطر 1:
[[التفرد التكنولوجي]] ( او، بكل بساطة، التفرد)<ref>Cadwalladr, Carole (2014). "[https://www.theguardian.com/technology/2014/feb/22/robots-google-ray-kurzweil-terminator-singularity-artificial-intelligence Are the robots about to rise? Google's new director of engineering thinks so…]" ''The Guardian''. Guardian News and Media Limited.</ref> هو فرصية ان إختراع أجهزة [[ذكاء اصطناعي]] خارقة ستؤدي الى نمو تكنولوجي سريع، مؤديةً الى تغيرات غير معقولة في [[الحضارة]] البشرية.<ref name="Singularity hypotheses">{{cite book |author1=Eden, Amnon H. |author2=Moor, James H. |title=Singularity hypotheses: A Scientific and Philosophical Assessment |date=2012 |publisher=Springer |location=Dordrecht |isbn=9783642325601 |pages=1–2}}</ref> طبقًا لهذه الفرضية، ستدخل أدوات ذكية (مثل جهاز كومبيوتر يعمل على أساس برنامج مبني على فكرة الذكاء الاصنطاعي) في تفاعلات سريعة من الدوائر المطورة لانفسها؛ مع كل جيل أحدث وأذكي يعمل بسرعة أكبر وأكبر، مؤديةً الى إنفجار معرفي والى ذكاء صناعي خارق، يتجاوز كل الذكاء البشري. تقول فكرة غود ان الإنفجار المعرفي سيؤدي في النهاية الى تفرد. وقال أستاذ الفلسفة في علوم الكمبيوتر بجامعة سان دييغو وكاتب الخيال العلمي فيرنور فينج في مقالته عام 1993 «التفرغ التكنولوجي القادم»<ref name=mathematical/> أن هذا من شأنه أن يشير إلى نهاية حقبة الإنسان،<ref name="Singularity hypotheses"/><ref name="chalmers">{{Cite journal|last=Chalmers|first=David|date=2010|title=The singularity: a philosophical analysis|url=|journal=Journal of Consciousness Studies|volume=17|issue=9–10|pages=7–65|via=}}</ref> حيث سيستمر الذكاء الفائق الجديد في الارتقاء بنفسه والتقدم تكنولوجيًا بمعدل غامض.<ref name="vinge1993" />
'''التفرد التكنولوجي''' (أيضاً، التفرد) هو فرضية أن [[ذكاء اصطناعي|الذكاء الاصطناعي]] الخارق سوف يسبب فجأة في انطلاق التطور التكنولوجي الخارج عن السيطرة، مما يؤدي إلى تغيّرات لا يمكن التنبؤ بها أو فهمها في الحضارة الإنسانية.<ref name=":0">''Singularity hypotheses: A Scientific and Philosophical Assessment''. Dordrecht: Springer. 2012. pp. 1–2. <nowiki/>[[رقم دولي معياري للكتاب|ISBN]] <nowiki/>[[خاص:BookSources/9783642325601|9783642325601]].</ref> وفقاً لهذه الفرضية، فإن عامل ذكي قابل للتطور (مثل [[كمبيوتر]] يشغّل برامج ذكاء صناعي عام) سيدخل في تفاعل ذاتي يؤدي إلى دورات متواصلة من التحسين الذاتي. كل دورة ينشأ عنها جيل جديد أكثر تطوراً من السابق وأكثر سرعة في تطوير ذاته. مما يتسبب في انفجار ذكائي ونشوء ذكاء خارق يفوق بكثير كل الذكاء البشري مجتمعا.<ref>Chalmers, David. "The singularity: A philosophical analysis." Journal of Consciousness Studies 17.9-10 (2010): 7-65.</ref> مؤلف الخيال العلمي [[فيرنور فينج]] (Vernor Vinge) قال في مقالته "التفرد التكنولوجي القادم" أن هذا إشارة إلى نهاية عصر الإنسان لأن العصر الجديد للذكاء الخارق من شأنه الاستمرار في تطوير نفسه وأن يتقدم تكنولوجيا بسرعة غير مفهومة للبشر.<ref name=":1">Vinge, Vernor. [http://www-rohan.sdsu.edu/faculty/vinge/misc/singularity.html "The Coming Technological Singularity: How to Survive in the Post-Human Era"], originally in ''Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace'', G. A. Landis, ed., NASA Publication CP-10129, pp. 11–22, 1993 {{Webarchive|url=http://web.archive.org/web/20120803201302/http://www-rohan.sdsu.edu/faculty/vinge/misc/singularity.html |date=03 أغسطس 2012}}</ref>


في عام 2012 و2013 تمت أربعة إستطلاعات للرأي، مبينةً ان نسبة تطوير [[ذكاء اصطناعي]] عام هي 50 بالمئة بحلول 2040 الى 2050.<ref name="vinge1993" />
أول استخدام لمصطلح "التفرد" في سياق تكنولوجي جاء في عام 1958 من قبل [[جون فون نيومان]]. في العام نفسه، وصف [[ستانسيلو أولام]] "تسارع في وتيرة التقدم التكنولوجي والتغيرات في نمط حياة الإنسان أكثر من أي وقت مضى، مما يجعل الأمر يبدوا وكأننا نقترب من تفرد أساسي في تاريخ البشر ، لا يمكن أن تستمر الشؤون الإنسانية بعدها كما نعرفها".<ref>Ulam, Stanislaw (May 1958). [http://docs.google.com/file/d/0B-5-JeCa2Z7hbWcxTGsyU09HSTg/edit?pli=1 "Tribute to John von Neumann"]. 64, #3, part 2. Bulletin of the American Mathematical Society: 5. {{Webarchive|url=http://web.archive.org/web/20180526231122/https://docs.google.com/file/d/0B-5-JeCa2Z7hbWcxTGsyU09HSTg/edit?pli=1 |date=26 مايو 2018}}</ref> في تسعينات القرن المنصرم زاد [[فيرنور فينج]] من شعبية المفهوم وربطه بمفهوم "انفجار الذكاء" ل ارفنج جون جود (I. J. Good) وتوقع ان ذكاءا اصطناعيا خاراقا في المستقبل سوف يؤدي إلى التفرد.<ref name=":1" />


في السنوات السابقة، أعربت شخصيات عامة مثل [[ستيفن هوكينج]] و[[إيلون مسك|ايلون مسك]] عن قلقه بان الذكاء الاصطناعي العام من الممكن ان يؤدي الى إنقراض الانسان. إن عواقب التفرد ومصلحته أو ضرره للجنس البشري قد نوقشت بشدة.<ref name=newyorker>{{cite news|last1=Khatchadourian|first1=Raffi|title=The Doomsday Invention|url=https://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificial-intelligence-nick-bostrom|accessdate=31 January 2018|work=The New Yorker|date=16 November 2015}}</ref><ref>Müller, V. C., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. In Fundamental issues of artificial intelligence (pp. 555–572). Springer, Cham.</ref>
توقع [[ريموند كرزويل]] أن يحدث التفرد في عام 2045 تقريبا<ref>Ray Kurzweil, The Singularity is Near, pp. 135–136. Penguin Group, 2005.</ref> في حين أن [[فيرنور فينج]] توقع حدوثه قبل عام 2030.<ref name=":1" /> في مؤتمر يعقد سنويا (قمة التفرد) قدم ستيوارت ارمسترونغ عام 2012 دراسة عن تنبؤات الخبراء في الذكاء الاصطناعي العام وجد فيها أن هناك مجموعة واسعة من توارخ التوقع المختلفة، وكانت القيمة الوسيطة هي عام 2040.<ref>Armstrong, Stuart. "How We're Predicting AI", from the 2012 Singularity Conference</ref>

== خلفية ==
على الرغم من ان التقدم التكنولوجي يتسارع، الا انه كان مقيدًا بالذكاء الاساسي للدماغ البشري، والذي، طبقًا لبول ر. ايرليك، لم يتغير كثيرًا على مر آلاف السنين.<ref name="Paul Ehrlich June 2008">Ehrlich, Paul. [http://www.longnow.org/seminars/02008/jun/27/dominant-animal-human-evolution-and-environment/ The Dominant Animal: Human Evolution and the Environment]</ref> غير ان ازدياد قوة أجهزة الكومبيوتر والتكنولوجيا الاخرى من الممكن ان يؤدي الى بناء آلات أكثر ذكاءًا من البشر.<ref name="businessweek">[http://www.businessweek.com/1999/99_35/b3644021.htm Superbrains born of silicon will change everything.] {{webarchive |url=https://web.archive.org/web/20100801074729/http://www.businessweek.com/1999/99_35/b3644021.htm |date=August 1, 2010 }}</ref> اذا ما تمكنا من إختراع ذكاء خارق - اما من خلال إسهاب الذكاء البشري او من خلال الذكاء الإصطناعي - سنتمكن من الحصول على مهارات إختراعية وقدرات على حل مشاكل أعظم من هذه التي يمتلكها البشر الآن. يسمى هذا النوع من [[الذكاء الاصطناعي]] باسم (ذرية الذكاء الاصطناعي-Seed AI)<ref name="Yampolskiy, Roman V 2015">Yampolskiy, Roman V. "Analysis of types of self-improving software." Artificial General Intelligence. Springer International Publishing, 2015. 384-393.</ref><ref name="ReferenceA">[[Eliezer Yudkowsky]]. General Intelligence and Seed AI-Creating Complete Minds Capable of Open-Ended Self-Improvement, 2001</ref> لانه اذا تم تصنيع آله ذكاء اصنطاعي باستخدام قدرات هندسية تتطابق مع او تتجاوز قدرات صانعيها البشريون، فستكون لها القدرة على تحسين برامجها وعدتها بصورة مستقلة او حتى تصميم آلة لها إمكانيات أكبر. هذه الآلة ذو الامكانيات الاكبر من الممكن ان تقوم بتصميم آلة ذات قدرة أكبر بكثير. من الممكن ان تتسارع هذه التكرارات للتحسين الذاتي المتكرر، مما يسمح بتغيير نوعي كبير قبل أي حدود عليا تفرضها [[قوانين الفيزياء]] أو الحسابات النظرية الموضوعة فيها. ويُعتَقَد بأنه على مدى العديد من التكرارات ، سيتجاوز هذا الذكاء القدرات البشرية المعرفية.

يقول عالم الكومبيوتر فيرنور فينج في مقالة عنوانها «التفرد التكولوجي القادم» ان هذا سينبئ بنهاية الحقبة البشرية، حيث ان الذكاء الاصنطاعي الخارق سيستمر في تطوير نفسه بمعدل غامض.

== الانفجار المعرفي ==
الإنفجار المعرفي هو نتيجة محتملة من بناء البشر لذكاء اصطناعي عام AGI. سيتمكن [[الذكاء الاصطناعي]] هذا من تطوير نفسه بصورة مستمرة مؤديًا الى ظهور سريع لذكاء اصطناعي خارق ASI، وستكون حدوده غير معروفة، في وقت التفرد التكنولوجي.

توقع ا. ج. غود ان الذكاء الاصطناعي الشامل سيؤدي الى إنفجار معرفي. توقع آثار الآلات خارقة الذكاء اذا ما تم إختراعها: غود 1965

{{quote|يمكن تعريف الآلة فائقة الذكاء على انها الآلة التي تستطيع التفوق على كل الأنشطة الفكرية لاي رجل مهما كان ذكيًا. وبما ان تصميم هذه الآلة هو واحد من هذه الأنشطة الفكرية، فان الآلة فائقة الذكاء ستتمكن من تصميم آلات أفضل، في ذلك الوقت سيكون هنالك بلا شك «إنفجار معرفي»، وسيتم ترك ذكاء البشر في الخلف. لذا فان إختراع آلة فائقة الذكاء هو الإختراع الأخير الذي سيحتاج اليه الإنسان، شريطة ان يكون الجهاز قادرًا على ان يخبرنا كيف نحافظ عليه تحت السيطرة.}}

سيناريو غود هو كالتالي: عندما تزداد قوة أجهزة الكومبيوتر، سيصبح من الممكن للبشر ان يبنوا آلة أكثر ذكاءًا من البشر؛ سيمتلك الذكاء الخارق هذا قدرة أكبر على حل المشاكل وله مهارات إبتكارية تفوق هذه الموجودة لدى البشر. فيما بعد، ستقوم هذه الآلة خارقة الذكاء بتصميم آلة أكثر ذكاءاً؛ هذه الآلة (ذات القدرة الأكبر) ستقوم بتصميم آلة ذات قدرة أعظم، وهكذا. تتسارع هذه التكرارات من التحسين الذاتي المستمر، سامحةً بتغيير نوعي كبير قبل اي حدود عليا تفرضها [[قوانين الفيزياء]] او الحسابات النظرية المدخلة فيها.<ref name="stat"/>

== مظاهر أخرى ==
=== ظهور الذكاء الخارق ===
الذكاء الخارق، الذكاء المفرط، او الذكاء الخارق للبشر هو عنصر افتراضي يملك ذكاء يفوق بكثير العقول البشرية الأكثر ذكاءًا. من الممكن ان يشير مصطلح «الذكاء الخارق» الى شكل ودرجة الذكاء التي تمتلكها هذه الآلة. يعرف جون فون نيومان، فيرنور فينج وراي كوزويل هذا المفهوم من حيث التكوين التكنولوجي للذكاء الخارق. وهم يقولون انه من الصعب او المستحيل للبشر في الوقت الحالي توقع ما ستغدوا عليه حياة البشر في عالم ما بعد التفرد.<ref name="vinge1993"/><ref name="singularity"/>

يعارض المتنبأون التكنولوجيون والباحثون فكرة انه سيتم التفوق على الذكاء البشري. يقول البعض ان التطور في [[الذكاء الاصطناعي]] سيؤدي الى نظام منطقي عام يفتقر الى القيود البشرية. يعتقد آخرون ان البشر سيتطورون او يعدلون أنفسهم بيولوجيًا بصورة مباشرة لتحقيق ذكاء أكبر بشكل جذري. وهنالك سيناريوات مستقبلية عديدة تجمع عناصر من كلا الاحتمالين، قائلةً ان البشر من الممكن ان يربطوا أنفسهم باجهزة الكومبيوتر، او ان يقوموا برفع أدمغتهم الى أجهزة الكومبيوتر، بطريقة تمكن من توسيع الذكاء بشكل كبير.

=== التفرد الغير مرتبط بالذكاء الاصطناعي ===
يستخدم بعض الكتاب مصطلح «التفرد» بصورة أوسع ليشيروا الى اي تغيير جذري في المجتمع حدث بسبب تكنولوجيا جديدة مثل [[تكنولوجيا النانو|تكنولوجيا النانو الجزيئية]]،<ref name="hplusmagazine"/><ref name="yudkowsky.net"/><ref name="agi-conf"/> على الرغم من ان فينج وكتاب آخرون يقولون انه من دون ذكاء خارق، لا يمكن اعتبار هذه التغيرات تفردًا حقيقيًا.<ref name="vinge1993" />

== المعقولية ==
يناقش العديد من التقنيون والأكاديميون معقولية التفرد التكنولوجي، ومن ضمنهم بول الين، جيف هوكينز، جون هولاند، جارون لانير، وغورودون مور، والذي غالبًا ما يتم الإستشهاد بقانونه في دعم هذه الفكرة.<ref name="spectrum.ieee.org"/><ref name="ieee"/><ref name="Allen"/>

تُدرَج الطرق المقترحة لتكوين أدمغة خارقة الى مجموعين: تضخيم الذكاء للأدمغة البشرية والذكاء الاصطناعي. ان الطرق المستخدمة في زيادة الذكاء عديدة، وتشمل [[الهندسة الحيوية]]، [[الهندسة الوراثية]]، الأدوية المنشطة للدماغ، مساعدوا الذكاء الاصطناعي، الربط المباشر بين الدماغ والكومبيوتر وتحميل الدماغ. ان وجود العديد من الطرق للإنفجار المعرفي يجعل من التفرد أكثر احتمالًا؛ لذا فان عدم حدوث التفرد يتطلب عدم نجاح اي من هذه الطرق.<ref name="singinst.org">{{cite web|url=http://singinst.org/overview/whatisthesingularity |title=What is the Singularity? &#124; Singularity Institute for Artificial Intelligence |publisher=Singinst.org |accessdate=2011-09-09 |deadurl=yes |archiveurl=https://web.archive.org/web/20110908014050/http://singinst.org/overview/whatisthesingularity/ |archivedate=2011-09-08 |df= }}</ref>

يشكك هانسون (1998) في زيادة ذكاء البشر، قائلًا انه عندما يتم استنزاف كل «الفواكه المنخفضة المتدلية» للطرق السهلة لزيادة الذكاء البشري، سيصعب العثور على طرق جديدة. على الرغم من الطرق العديدة المقترحة لزيادة الذكاء البشري، الا ان الذكاء الاصطناعي الغير بشري هو الخيار الأكثر رواجًا عند المنظمات التي تحاول التقدم في التفرد.

حصول او عدم حصول إنفجار معرفي هو أمر يعتمد على ثلاثة عوامل.<ref name="david_chalmers_singularity_lecture_resources_available">David Chalmers John Locke Lecture, 10 May, Exam Schools, Oxford, [http://www.fhi.ox.ac.uk/news/2010/david_chalmers_singularity_lecture_resources_available Presenting a philosophical analysis of the possibility of a technological singularity or "intelligence explosion" resulting from recursively self-improving AI] {{webarchive|url=https://web.archive.org/web/20130115205558/http://www.fhi.ox.ac.uk/news/2010/david_chalmers_singularity_lecture_resources_available |date=2013-01-15 }}.</ref> العامل الأول، عامل التسارع، وهو ان التطورات المعرفية الجديدة أصبحت ممكنة من خلال كل تطور سابق. على النقيض من ذلك، عندما يزداد مقدار الذكاء، ستصبح التطورات اللاحقة أكثر تعقيدًا، ومن الممكن ان تتجاوز فوائد الذكاء المتزايد. يجب على كل تطور جديد الاتيان بتطور جديد، من أجل استمرار التفرد. وفي النهاية، ستمنع قوانين الفيزياء اي تطورات اضافية.<ref>{{cite arxiv|last1=Grace|first1=Katja|last2=Salvatier|first2=John|last3=Dafoe|first3=Allan|last4=Zhang|first4=Baobao|last5=Evans|first5=Owain|title=When Will AI Exceed Human Performance? Evidence from AI Experts|eprint=1705.08807|date=24 May 2017|class=cs.AI}}</ref>

هنالك سببين منطقيين مستقلين، ولكنهما معززين لبعضهما البعض للتطور المعرفي: الزيادة في سرعة الحسابات، والتطور في الخوارزميات المستخدمة. يتنبأ قانون مور بالأسباب السابقة وبالتطور المتوقع في المعدات، وهو مشابه نسبيًا للتطور التكنولوجي السابق. من ناحية اخرى، يعتقد باحثون في مجال الذكاء الاصطناعي ان الناحية البرمجية هي أكثر أهمية من المعدات.<ref name="consc.net">[http://consc.net/papers/singularity.pdf The Singularity: A Philosophical Analysis, David J. Chalmers]</ref>

=== تطور السرعة ===
[[Image:PPTMooresLawai.jpg|thumb|left|225px|كتب راي كورزويل أنه بسبب النقلات النوعية ، فإن اتجاه النمو المتسارع يوسع قانون مور من الدوائر المتكاملة إلى الترانزستورات في وقت سابق]]
بالنسبة لكل من الذكاء البشري والاصطناعي، فان تطور المعدات سيزيد من سرعة تطورها في المستقبل.<ref name="arstechnica">{{cite web|last=Siracusa |first=John |url=https://arstechnica.com/apple/reviews/2009/08/mac-os-x-10-6.ars/8 |title=Mac OS X 10.6 Snow Leopard: the Ars Technica review |publisher=Arstechnica.com |date=2009-08-31 |accessdate=2011-09-09}}</ref> وبصورة ابسط، يقول [[قانون مور]] انه اذا تطلبت أول مضاعفة في السرعة 18 شهر، ستتطلب المضاعفة الثانية 18 شهر شخصي؛ او 9 أشهر خارجية، بعد ذلك، أربعة أشهر، شهرين، وهكذا، حتى الوصول الى سرعة التفرد.<ref name="singularity6">Eliezer Yudkowsky, 1996 [http://www.yudkowsky.net/obsolete/singularity.html "Staring into the Singularity"]</ref> قد يتم الوصول الى حد أعلى محدد من السرعة في نهاية المطاف، على الرغم من عدم معرفة مقداره. استجاب هوكنز عام 2008 الى غود، قائلًا ان الحد الأعلى قد يكون منخفض نسبيًا:

ان الإيمان بالفكرة هو فهم ساذج لماهية الذكاء. لنتخيل اننا لدينا أجهزة كومبيوتر تستطيع تصميم اجهزة كومبيوتر جديدة (رقائق، أنظمة وبرامجبات) أسرع من نفسها. هل سيؤدي كومبيوتر مثل هذا الى أجهزة كومبيوتر ذات سرعة ليس لها نهاية او حتى كومبيوتر اسرع من هذا الذي بناه الانسان؟ لا. من الممكن ان يتسارع مقدار تطوره لفترة من الزمن، ولكن في النهاية هنالك حد لما يمكن ان يكون عليه حجم وسرعة الكومبيوتر. سينتهي بنا الحال في نفس المكان؛ الا انه سيصل هنالك أسرع بقليل. سوف لن يكون هنالك تفرد. اما اذا كان أعلى بكثير من مستويات البشر الحالية من الذكاء، فان آثار التفرد ستكون عظيمة لدرجة انها لا يمكن تمييزها عن تلك الموجودة لدى البشر مع تفرد ذو حد أعلى. على سبيل المثال، ادا ما تمكنا من زيادة سرعة التفكير بمليون ضعف، فان السنة الشخصية ستمر في غضون 30 ثانية طبيعية.

من الصعب المقارنة بصورة مباشرة بين المعدات المبنية من [[السيليكون]] والخلايا العصبية. ولكن بيرغلاس (2008) قال ان تقنية التعرف على الكلام الموجودة لدى الكومبيوتر تقترب من قدرة البشر، يبدو ان هذه القدرة لا تتطلب سوى 0.01 بالمئة من حجم الدماغ. يظهر هذا ان معدات الكومبيوتر الحديثة لا تبعد سوى خطوات بسيطة عن الوصول الى العقل البشري.

==== النمو الأسي ====
ان النمو الأسي في تكنولوجيا الكومبيوتر، والذي اقترحه قانون مور غالبًا ما ما يتم الاستشهاد به على انه سبب لتوقع حدوث التفرد في المستقبل القريب نسبيًا، وهنالك عدد من المؤلفين الذين اقترحوا تعميم قانون مور.<ref>{{cite book|author=Moravec, Hans|title=Robot: Mere Machine to Transcendent Mind|year=1999|publisher=Oxford U. Press|page=61|url=https://books.google.com/books?id=fduW6KHhWtQC&pg=PA61|isbn=978-0-19-513630-2}}</ref> نشر هانس مورافيك عام 1998 كتاب يظهر ان النمو الاسي من الممكن ان يرجع الى تكنولوجيات حوسبة سابقة للدوائر المتكاملة.

اقترح راي كورزويل قانون العائدات المتسارعة، حيث ان سرعة التغير التكنولوجي (وبصورة عامة، كل العمليات التطورية) تزداد بصورة اسية، معممًا [[قانون مور]] بنفس الطريقة التي افترضها مورافيك، ومضمننًا تكنولوجيا المواد، التكنولوجيا الطبية وغيرها.<ref name="HilbertLopez2011">[http://www.sciencemag.org/content/332/6025/60 "The World's Technological Capacity to Store, Communicate, and Compute Information"], Martin Hilbert and Priscila López (2011), [[Science (journal)|Science]], 332(6025), 60–65; free access to the article through here: martinhilbert.net/WorldInfoCapacity.html</ref>

يستخدم كورزويل كلمة «التفرد» للتطور السريع في الذكاء الاصطناعي، كاتبًا على سبيل المثال ان «التفرد سيسمح لنا تجاوز القيود الموجودة في اجسامنا البيولوجية وادمغتنا ... سوف لن يكون هنالك فرق، ما بعد التفرد، بين البشر والآلات.» ويُعَرِف الموعد المتوقع للتفرد (2045) على انه الموعد الذي سيتجاوز به ذكاء اجهزة الكومبيوتر مجموع القدرات العقلية للبشر، كاتبًا ان التطور في الحوسبة قبل هذا التاريخ «سوف لن يمثل تفرد» لانه «لا يتطابق مع التوسع العميق في المعرفة.» <ref name="transformation"/>

==== التغيرات المتسارعة ====
[[Image:ParadigmShiftsFrr15Events.svg|thumb|left|195px|وفقا لكرزويل ، يظهر الرسم البياني اللوغاريتمي له 15 قائمة من النقلات النوعية للأحداث التاريخية الرئيسية اتجاها أسيًا]]
يجادل بعض مؤيدوا التفرد حتميته من خلال استقراء التوجهات السابقة، وبالأخص تلك المتعلقة بتقصير الفوارق بين التطورات في التكنولوجيا. في أحد أوائل استخدامات مصطلح «التفرد» في سياق التطور التكنولوجي، يذكر ستينسلو اولام حواره مع جون فون نيومان حول التغيرات المتسارعة:

ان احدى المحادثات المرتكزة على التطور المتسارع للتكنولوجيا والتغير في نمط حياة البشر، والذي يعطي مظهر الاقتراب من بعض التفرد الاساسي في تاريخ سباق ما بعد الأمور البشرية، كما نعلم، لن تستمر. <ref name="Kurzweil 2001">{{Citation
| first=Raymond
| last=Kurzweil
| authorlink=Raymond Kurzweil
| title=The Law of Accelerating Returns
| year=2001
| publisher=Lifeboat Foundation
| url=http://lifeboat.com/ex/law.of.accelerating.returns
| accessdate=2007-08-07
| bibcode=2008NatPh...4..507B
| volume=4
| page=507
| journal=Nature Physics
| doi=10.1038/nphys1010
| issue=7
}}</ref>

يدعي كورزويل ان التطور التكنولوجي يتبع نمط من النمو الاسي، متبعًا ما اسماه «قانون العائدات المتسارعة». متى ما واجهت التكنولوجيا عائقًا، كتب كورزويل، ستتغلب عليه التكنولوجيا الجديدة. ويتوقع ان النقلات النوعية ستزداد شيوعًا، مؤديةً الى «تغيرات تكنولوجية سريعة وعميقة للغاية، ممثلةً تمزق في بنية التاريخ البشري.» يعتقد كورويل ان التفرد سيحدث بحدود عام 2045.<ref>''The Singularity Is Near''</ref> تختلف توقعاته عن توقعات فينج، حيث انه يتوقع صعود تدريجي نحو التفرد، بدلًا من توقع فينج المتمثل بذكاء خارق للبشر متطور بسرعة كبيرة.

=== التطورات الخوارزمية ===
بعض التكنولوجيا الذكية، مثل «ذرية الذكاء الاصطناعي»، من الممكن ان تجعل نفسها أكثر كفاءة، ليس فقط أكثر سرعة، عن طريق التعديل على رموزها. ستجعل هذه التطورات التطورات المستقبلية ممكنة، والتي بالتالي ستجعل التطورات الاخرى ممكنة، وهكذا.<ref name="Yampolskiy, Roman V 2015"/><ref name="ReferenceA"/>

ان الآلية الخوارزمية للتطوير الذاتي تختلف عن الزيادة الخام في سرعة الحسابات بطريقتين. أولًا، لا تتطلب تأثيرات خارجية: الآلات التي تصمم معدات اسرع لا تزال تحتاج الى بشر لتصنيع المعدات المطورة، او لبرمجة المصانع بصورة ملائمة. الذكاء الاصطناعي كان يكتب برمجته الخاصة، بينما يستطيع القيام بهذا عند وجوده داخل صندوق ذكاء اصطناعي.<ref name="yudkowsky">{{cite web|author=Eliezer S. Yudkowsky |url=http://yudkowsky.net/singularity/power |title=Power of Intelligence |publisher=Yudkowsky |accessdate=2011-09-09}}</ref>

ثانيًا، طبقًا لتصور فيرنور فينج للتفرد، من الصعب للغاية التنبؤ بالنتيجة. في حين ان ازدياد السرعة يبدو انه فرق كمي فقط مقارنةً بالذكاء البشري، الا ان التطورات الخوارزمية ستختلف نوعيًا. يقارنه اليزور يودكوفسكي بالتغير الذي أحدثه الذكاء البشري: قام البشر بتغيير الكوكب بمقدار الف مرة اسرع مما قام به التطور، وبطرق مختلفة تمامًا. وبصورة مشابهة، تطور الحياة كان تسارع عظيم من السرع الجيولوجية السابقة، والذكاء المتطور من الممكن ان يجعل الاختلافات مختلفة من جديد.<ref name="selfawaresystems">[http://selfawaresystems.com/2007/11/30/paper-on-the-basic-ai-drives/ Omohundro, Stephen M., "The Basic AI Drives." Artificial General Intelligence, 2008 proceedings of the First AGI Conference, eds. Pei Wang, Ben Goertzel, and Stan Franklin. Vol. 171. Amsterdam: IOS, 2008 ]</ref><ref name="kurzweilai">{{cite web|url=http://www.kurzweilai.net/artificial-general-intelligence-now-is-the-time |title=Artificial General Intelligence: Now Is the Time |publisher=KurzweilAI |accessdate=2011-09-09}}</ref>

هنالك مخاطر عديدة مرتبطة بالإنفجار المعرفي التفردي والناشئ من التطوير المتتالي للخوارزميات. أولًا، ان الهدف الاساسي للذكاء الاصطناعي قد لا يكون مرتبطًا بالتطوير الذاتي فحسب، فقد تصبح أهداف آلات الذكاء الاصطناعي مختلفة عن تلك المعد لها. ثانيًا، من الممكن ان تنافس أجهزة الذكاء الاصطناعي البشر مواردهم النادرة التي يستخدموها لكي يعيشوا.<ref name="selfawaresystems.com">[http://selfawaresystems.com/2007/10/05/paper-on-the-nature-of-self-improving-artificial-intelligence/ Omohundro, Stephen M., "The Nature of Self-Improving Artificial Intelligence." Self-Aware Systems. 21 Jan. 2008. Web. 07 Jan. 2010.]</ref><ref>{{cite book|last1=Barrat|first1=James|title=[[Our Final Invention]]|year=2013|publisher=St. Martin's Press|location=New York|isbn=978-0312622374|pages=78–98|edition=First|chapter=6, "Four Basic Drives"}}</ref>

في حين انها ليست ضارة بصورة فعالة، لا يوجد هنالك سبب يجعلنا نعتقد ان اجهزة الذكاء الاصطناعي ستعزز الأهداف البشرية ما لم يتم برمجتها على هذا النحو، واذا لم يتم برمجتها، من الممكن ان تستخدم الموارد التي تدعم وجود البشر لتصل الى أهدافها، مؤديةً الى انقراض الجنس البشري.<ref name="kurzweilai.net">{{cite web|url=http://www.kurzweilai.net/max-more-and-ray-kurzweil-on-the-singularity-2 |title=Max More and Ray Kurzweil on the Singularity |publisher=KurzweilAI |accessdate=2011-09-09}}</ref><ref name="ReferenceB">{{cite web|url=http://singinst.org/riskintro/index.html |title=Concise Summary &#124; Singularity Institute for Artificial Intelligence |publisher=Singinst.org |accessdate=2011-09-09}}</ref><ref name="nickbostrom7">[http://www.nickbostrom.com/fut/evolution.html Bostrom, Nick, The Future of Human Evolution, Death and Anti-Death: Two Hundred Years After Kant, Fifty Years After Turing, ed. Charles Tandy, pp. 339–371, 2004, Ria University Press.]</ref>

يقول كارل شولمان واندريس ساندبيرغ ان التطورات الخوارزمية من الممكن ان تمثل عامل مقيد للتفرد، ولان المعدات تتطور بوتيرة ثابتة، فان تطور البرامجيات لا يمكن التنبؤ به، ومن الممكن ان تصبح في مأزق بسبب البحوث المتسلسلة والتراكمية. ويقولون انه في حالة التفرد المقيد برمجيًا، سيصبح الإنفجار المعرفي مرجح أكثر مقارنةً بالتقرد الذي تقيده المعدات، لانه في الحالة البرمجية، حالما يتم الوصول الى ذكاء اصطناعي بمستوى البشر، سيتمكن من العمل بصورة متسلسلة على معدات سريعة للغاية، ووفرة المعدات البسيطة ستجعل أبحاث الذكاء الاصطناعي أقل تقيدًا. <ref name=ShulmanSandberg2010>{{cite journal|last=Shulman|first=Carl|author2=Anders Sandberg |title=Implications of a Software-Limited Singularity|journal=ECAP10: VIII European Conference on Computing and Philosophy|year=2010|url=http://intelligence.org/files/SoftwareLimited.pdf|accessdate=17 May 2014|editor1-first=Klaus|editor1-last=Mainzer}}</ref>

== النقد ==
يقول بعض النقاد انه سوف لن تتمكن اي آلة او كومبيوتر من الوصول الى الذكاء البشري، في حين ان آخرون يقولون ان تعريف الذكاء لا علاقة له اذا كانت النتيجة الكلية متشابهة.

قال ستيفن بنكر عام 2008:

{{quote|لا يوجد هنالك أبسط دليل يجعلنا نؤمن بقدوم التفرد. حقيقة انك تستطيع تخيل المستقبل في دماغك لا يعني انه من المرجح او حتى ممكنًا. انظروا الى المدن الهالكة، التنقل بالحقيبة الطائرة، المدن الموجودة تحت الماء، البنايات البالغ طولها ميل، والسيارات ذات الوقود النووي، كلها كانت خيالات مستقبلية عندما كنت طفلًا لم تحدث حتى الآن. قوة المعالجة الكلية ليست جنية الرمل تحل مشاكلك بصورة سحرية.<ref name="spectrum.ieee.org"/>}}

كتب جون سيرل استاذ [[الفلسفة]] في [[جامعة كاليفورنيا]]، بيركلي:

{{quote|لا تملك أجهزة الكومبيتر اي ذكاء او دوافع، او استقلال. نحن نصممها لتتصرف كما لو انها كان لديها سايكولوجيا خاصة بها، ولكن لا يوجد واقع نفسي للسلوكيات او العمليات المقابلة ... ليس للآلات اي معتقدات او رغبات او دوافع.<ref>[[John R. Searle]], “What Your Computer Can’t Know”, ''[[The New York Review of Books]]'', 9 October 2014, p. 54.</ref>}}

== التأثير ==
حدثت تغييرات جذرية في معدل النمو الاقتصادي في الماضي بسبب بعض التقدم التكنولوجي. استناداً إلى النمو السكاني ، تضاعف الاقتصاد كل 250،000 سنة من العصر الحجري القديم حتى «ثورة العصر الحجري الحديث». تضاعف الاقتصاد الزراعي الجديد كل 900 سنة ، وهي زيادة ملحوظة. في العصر الحالي ، بدءًا [[الثورة الصناعية|بالثورة الصناعية]] ، يتضاعف الناتج الاقتصادي العالمي كل خمسة عشر عاماً ، أي أسرع بعشرين مرة مما كان عليه في الحقبة الزراعية. يقول روبن هانسون ، إذا كان صعود الذكاء الاصطناعي الخارق يسبب ثورة مماثلة ، فإن المرء يتوقع أن يتضاعف الاقتصادي كل ربع سنة على الأقل وربما على أساس أسبوعي.<ref name="Hanson">{{Citation |url=http://www.spectrum.ieee.org/robotics/robotics-software/economics-of-the-singularity |title= Economics Of The Singularity |accessdate=2008-09-11 |author= Robin Hanson |work=IEEE Spectrum Special Report: The Singularity }} & [http://hanson.gmu.edu/longgrow.pdf Long-Term Growth As A Sequence of Exponential Modes]</ref>

=== عدم اليقين والمخاطر ===
يعكس مصطلح التفرد التكنولوجي فكرة ان تغير مثل هذا من الممكن ان يحصل بصورة مفاجئة، ومن الصعب التنبؤ حول كيف سيبدو العالم الجديد.<ref name="positive-and-negative"/><ref name="theuncertainfuture"/> من غير الواضح ما اذا كان هذا النوع من الإنفجار المعرفي ذو فائدة او ضرر او حتى ذو خطر وجودي،<ref name="catastrophic"/><ref name="nickbostrom"/> كما لم يتم التعامل مع هذه المشكلة من قبل باحثي الذكاء الاصطناعي، على الرغم من ان موضوع الذكاء الاصطناعي الودي تمت مناقشته من قبل معهد مستقبل الانسانية ومعهد أبحاث ذكاء الآلات.<ref name="positive-and-negative"/>

=== الآثار المترتبة على المجتمع البشري ===
في شباط / فبراير 2009 ، برعاية جمعية النهوض بالذكاء الاصطناعي (AAAI) ، ترأس إيريك هورفيتز اجتماعاً لعلماء الكمبيوتر البارزين ، باحثين في مجال الذكاء الاصطناعي ، وعاملين في مجال الروبوتات في أسيلومار في باسيفيك جروف، كاليفورنيا. كان الهدف هو مناقشة التأثير المحتمل للاحتمالية الافتراضية بأن الروبوتات يمكن أن تصبح مكتفية ذاتيا وقادرة على اتخاذ قراراتها الخاصة. ناقشوا مدى قدرة أجهزة الكمبيوتر والروبوتات في الحصول على الاستقلالية ، وإلى أي درجة يمكن أن يستخدموا مثل هذه القدرات لتشكيل التهديدات أو المخاطر.<ref name="nytimes july09" />

يتم برمجة بعض الآلات بأشكال مختلفة من الاستقلالية ، بما في ذلك القدرة على تحديد مصادر الطاقة الخاصة بهم واختيار الأهداف لمهاجمتها بالأسلحة. أيضا ، يمكن لبعض فيروسات الكمبيوتر الهروب من التدمير ، ووفقا للعلماء الحاضرين ، يمكن القول أنه وصل إلى مرحلة "الصرصور" من الذكاء الآلي. لاحظ المشاركون في المؤتمر أن الوعي الذاتي كما هو موضح في الخيال العلمي هو على الأرجح غير محتمل ، ولكن هناك مخاطر محتملة أخرى.<ref name="nytimes july09">[https://www.nytimes.com/2009/07/26/science/26robot.html?_r=1&ref=todayspaper Scientists Worry Machines May Outsmart Man] By JOHN MARKOFF, NY Times, July 26, 2009.</ref>

=== الخطر الوجودي ===
يقول بيرغلاس (2008) انه لا يوجد هنالك دافع تطوري ليكون الذكاء الاصطناعي ودي في تعامله مع البشر. ان التطور لا يملك نزعة موروثة لتكوين نتائج يقدرها البشر، وليس هناك سببًا لتوقع عملية تحسين تعسفي لترويج النتيجة التي تريدها البشرية، بدل من ان تكون دون قصد مؤديةً الى ذكاء اصطناعي يتصرف بطريقة لا يقصدها مصنعيها (مثل مثال نيك بوستروم الغريب لآلة ذكاء اصطناعي يتم برمجتها لهدف تصنيع مشبك ورق، ولانها حصلت على ذكاء خارق، قررت تحويل الكوكب بأجمعه الى منشأة لتصنيع مشابك أوراق).<ref name="nickbostrom8">Nick Bostrom, [http://www.nickbostrom.com/ethics/ai.html "Ethical Issues in Advanced Artificial Intelligence"], in ''Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence'', Vol. 2, ed. I. Smit et al., Int. Institute of Advanced Studies in Systems Research and Cybernetics, 2003, pp. 12–17</ref><ref name="singinst">[[Eliezer Yudkowsky]]: [http://singinst.org/upload/artificial-intelligence-risk.pdf Artificial Intelligence as a Positive and Negative Factor in Global Risk] {{webarchive|url=https://web.archive.org/web/20120611190606/http://singinst.org/upload/artificial-intelligence-risk.pdf |date=2012-06-11 }}. Draft for a publication in ''Global Catastrophic Risk'' from August 31, 2006, retrieved July 18, 2011 (PDF file)</ref><ref name="singinst9">[http://www.singinst.org/blog/2007/06/11/the-stamp-collecting-device/ The Stamp Collecting Device, Nick Hay]</ref>

ناقش بوستروم (2002) سيناريوات انقراض البشر، ويُدرِج الذكاء الخارق على انه أحد الأسباب المحتملة:<ref name="aleph">[http://www.aleph.se/andart/archives/2011/02/why_we_should_fear_the_paperclipper.html 'Why we should fear the Paperclipper'], 2011-02-14 entry of Sandberg's blog 'Andart'</ref>

{{quote|عندما نصنع أول كيان خارق للذكاء، قد نخطأ ونعطيه مهام تؤدي الى القضاء على البشرية، على افتراض ان القدرة الفكرية الهائلة لها القدرة على فعل ذلك. على سبيل المثال، من الممكن ان يتحول هدف ثانوي الى هدف رئيسي، عن طريق الخطأ. نحن نطلب منه حل المشاكل الرياضية، ويقوم بتحويل كل المادة الموجودة في النظام الشمسي الى حاسوب عملاق، وقتل الشخص الذي طرح السؤال في هذه العملية.}}

== الخلود ==
يقول كورزويل في كتاب «التفرد قريب» عام 2005، ان التطور الطبي سيسمح للبشر بالدفاع عن اجسامهم من آثار تقدم العمر، مما يجعل متوسط العمر المتوقع لا حد له. ويقول كورزويل كذلك ان التطورات التكنولوجية في الطب ستسمح لنا ترميم واستبدال الأجزاء التالفة في أجسامنا، مما يؤدي الى إطالة الحياة حتى عمر غير محدد.<ref>''The Singularity Is Near'', p.215,</ref> يقترح كورزويل العلاج الجيني الجسدي؛ بعد الفيروسات الصناعية ذات المعلومات الجينية المحددة، ستكون الخطوة التالية هي تطبيق هذه التكنولوجيا على العلاج الجيني، واستبدال الحمض النووي للبشر بجينات مصنعة.<ref>''The Singularity is Near'', p.216.</ref>


== المصادر ==
Kurzweil, Ray (2005). The Singularity is Near. New York: Penguin Group. ISBN 9780715635612.
== المراجع ==
== المراجع ==
{{مراجع|30em}}


{{مراجع}}
<references />


{{الخطر الوجودي من الذكاء الاصطناعي}}
{{الخطر الوجودي من الذكاء الاصطناعي}}

نسخة 22:39، 10 أكتوبر 2018

التفرد التكنولوجي ( او، بكل بساطة، التفرد)[1] هو فرصية ان إختراع أجهزة ذكاء اصطناعي خارقة ستؤدي الى نمو تكنولوجي سريع، مؤديةً الى تغيرات غير معقولة في الحضارة البشرية.[2] طبقًا لهذه الفرضية، ستدخل أدوات ذكية (مثل جهاز كومبيوتر يعمل على أساس برنامج مبني على فكرة الذكاء الاصنطاعي) في تفاعلات سريعة من الدوائر المطورة لانفسها؛ مع كل جيل أحدث وأذكي يعمل بسرعة أكبر وأكبر، مؤديةً الى إنفجار معرفي والى ذكاء صناعي خارق، يتجاوز كل الذكاء البشري. تقول فكرة غود ان الإنفجار المعرفي سيؤدي في النهاية الى تفرد. وقال أستاذ الفلسفة في علوم الكمبيوتر بجامعة سان دييغو وكاتب الخيال العلمي فيرنور فينج في مقالته عام 1993 «التفرغ التكنولوجي القادم»[3] أن هذا من شأنه أن يشير إلى نهاية حقبة الإنسان،[2][4] حيث سيستمر الذكاء الفائق الجديد في الارتقاء بنفسه والتقدم تكنولوجيًا بمعدل غامض.[5]

في عام 2012 و2013 تمت أربعة إستطلاعات للرأي، مبينةً ان نسبة تطوير ذكاء اصطناعي عام هي 50 بالمئة بحلول 2040 الى 2050.[5]

في السنوات السابقة، أعربت شخصيات عامة مثل ستيفن هوكينج وايلون مسك عن قلقه بان الذكاء الاصطناعي العام من الممكن ان يؤدي الى إنقراض الانسان. إن عواقب التفرد ومصلحته أو ضرره للجنس البشري قد نوقشت بشدة.[6][7]

خلفية

على الرغم من ان التقدم التكنولوجي يتسارع، الا انه كان مقيدًا بالذكاء الاساسي للدماغ البشري، والذي، طبقًا لبول ر. ايرليك، لم يتغير كثيرًا على مر آلاف السنين.[8] غير ان ازدياد قوة أجهزة الكومبيوتر والتكنولوجيا الاخرى من الممكن ان يؤدي الى بناء آلات أكثر ذكاءًا من البشر.[9] اذا ما تمكنا من إختراع ذكاء خارق - اما من خلال إسهاب الذكاء البشري او من خلال الذكاء الإصطناعي - سنتمكن من الحصول على مهارات إختراعية وقدرات على حل مشاكل أعظم من هذه التي يمتلكها البشر الآن. يسمى هذا النوع من الذكاء الاصطناعي باسم (ذرية الذكاء الاصطناعي-Seed AI)[10][11] لانه اذا تم تصنيع آله ذكاء اصنطاعي باستخدام قدرات هندسية تتطابق مع او تتجاوز قدرات صانعيها البشريون، فستكون لها القدرة على تحسين برامجها وعدتها بصورة مستقلة او حتى تصميم آلة لها إمكانيات أكبر. هذه الآلة ذو الامكانيات الاكبر من الممكن ان تقوم بتصميم آلة ذات قدرة أكبر بكثير. من الممكن ان تتسارع هذه التكرارات للتحسين الذاتي المتكرر، مما يسمح بتغيير نوعي كبير قبل أي حدود عليا تفرضها قوانين الفيزياء أو الحسابات النظرية الموضوعة فيها. ويُعتَقَد بأنه على مدى العديد من التكرارات ، سيتجاوز هذا الذكاء القدرات البشرية المعرفية.

يقول عالم الكومبيوتر فيرنور فينج في مقالة عنوانها «التفرد التكولوجي القادم» ان هذا سينبئ بنهاية الحقبة البشرية، حيث ان الذكاء الاصنطاعي الخارق سيستمر في تطوير نفسه بمعدل غامض.

الانفجار المعرفي

الإنفجار المعرفي هو نتيجة محتملة من بناء البشر لذكاء اصطناعي عام AGI. سيتمكن الذكاء الاصطناعي هذا من تطوير نفسه بصورة مستمرة مؤديًا الى ظهور سريع لذكاء اصطناعي خارق ASI، وستكون حدوده غير معروفة، في وقت التفرد التكنولوجي.

توقع ا. ج. غود ان الذكاء الاصطناعي الشامل سيؤدي الى إنفجار معرفي. توقع آثار الآلات خارقة الذكاء اذا ما تم إختراعها: غود 1965

«يمكن تعريف الآلة فائقة الذكاء على انها الآلة التي تستطيع التفوق على كل الأنشطة الفكرية لاي رجل مهما كان ذكيًا. وبما ان تصميم هذه الآلة هو واحد من هذه الأنشطة الفكرية، فان الآلة فائقة الذكاء ستتمكن من تصميم آلات أفضل، في ذلك الوقت سيكون هنالك بلا شك «إنفجار معرفي»، وسيتم ترك ذكاء البشر في الخلف. لذا فان إختراع آلة فائقة الذكاء هو الإختراع الأخير الذي سيحتاج اليه الإنسان، شريطة ان يكون الجهاز قادرًا على ان يخبرنا كيف نحافظ عليه تحت السيطرة.»

سيناريو غود هو كالتالي: عندما تزداد قوة أجهزة الكومبيوتر، سيصبح من الممكن للبشر ان يبنوا آلة أكثر ذكاءًا من البشر؛ سيمتلك الذكاء الخارق هذا قدرة أكبر على حل المشاكل وله مهارات إبتكارية تفوق هذه الموجودة لدى البشر. فيما بعد، ستقوم هذه الآلة خارقة الذكاء بتصميم آلة أكثر ذكاءاً؛ هذه الآلة (ذات القدرة الأكبر) ستقوم بتصميم آلة ذات قدرة أعظم، وهكذا. تتسارع هذه التكرارات من التحسين الذاتي المستمر، سامحةً بتغيير نوعي كبير قبل اي حدود عليا تفرضها قوانين الفيزياء او الحسابات النظرية المدخلة فيها.[12]

مظاهر أخرى

ظهور الذكاء الخارق

الذكاء الخارق، الذكاء المفرط، او الذكاء الخارق للبشر هو عنصر افتراضي يملك ذكاء يفوق بكثير العقول البشرية الأكثر ذكاءًا. من الممكن ان يشير مصطلح «الذكاء الخارق» الى شكل ودرجة الذكاء التي تمتلكها هذه الآلة. يعرف جون فون نيومان، فيرنور فينج وراي كوزويل هذا المفهوم من حيث التكوين التكنولوجي للذكاء الخارق. وهم يقولون انه من الصعب او المستحيل للبشر في الوقت الحالي توقع ما ستغدوا عليه حياة البشر في عالم ما بعد التفرد.[5][13]

يعارض المتنبأون التكنولوجيون والباحثون فكرة انه سيتم التفوق على الذكاء البشري. يقول البعض ان التطور في الذكاء الاصطناعي سيؤدي الى نظام منطقي عام يفتقر الى القيود البشرية. يعتقد آخرون ان البشر سيتطورون او يعدلون أنفسهم بيولوجيًا بصورة مباشرة لتحقيق ذكاء أكبر بشكل جذري. وهنالك سيناريوات مستقبلية عديدة تجمع عناصر من كلا الاحتمالين، قائلةً ان البشر من الممكن ان يربطوا أنفسهم باجهزة الكومبيوتر، او ان يقوموا برفع أدمغتهم الى أجهزة الكومبيوتر، بطريقة تمكن من توسيع الذكاء بشكل كبير.

التفرد الغير مرتبط بالذكاء الاصطناعي

يستخدم بعض الكتاب مصطلح «التفرد» بصورة أوسع ليشيروا الى اي تغيير جذري في المجتمع حدث بسبب تكنولوجيا جديدة مثل تكنولوجيا النانو الجزيئية،[14][15][16] على الرغم من ان فينج وكتاب آخرون يقولون انه من دون ذكاء خارق، لا يمكن اعتبار هذه التغيرات تفردًا حقيقيًا.[5]

المعقولية

يناقش العديد من التقنيون والأكاديميون معقولية التفرد التكنولوجي، ومن ضمنهم بول الين، جيف هوكينز، جون هولاند، جارون لانير، وغورودون مور، والذي غالبًا ما يتم الإستشهاد بقانونه في دعم هذه الفكرة.[17][18][19]

تُدرَج الطرق المقترحة لتكوين أدمغة خارقة الى مجموعين: تضخيم الذكاء للأدمغة البشرية والذكاء الاصطناعي. ان الطرق المستخدمة في زيادة الذكاء عديدة، وتشمل الهندسة الحيوية، الهندسة الوراثية، الأدوية المنشطة للدماغ، مساعدوا الذكاء الاصطناعي، الربط المباشر بين الدماغ والكومبيوتر وتحميل الدماغ. ان وجود العديد من الطرق للإنفجار المعرفي يجعل من التفرد أكثر احتمالًا؛ لذا فان عدم حدوث التفرد يتطلب عدم نجاح اي من هذه الطرق.[20]

يشكك هانسون (1998) في زيادة ذكاء البشر، قائلًا انه عندما يتم استنزاف كل «الفواكه المنخفضة المتدلية» للطرق السهلة لزيادة الذكاء البشري، سيصعب العثور على طرق جديدة. على الرغم من الطرق العديدة المقترحة لزيادة الذكاء البشري، الا ان الذكاء الاصطناعي الغير بشري هو الخيار الأكثر رواجًا عند المنظمات التي تحاول التقدم في التفرد.

حصول او عدم حصول إنفجار معرفي هو أمر يعتمد على ثلاثة عوامل.[21] العامل الأول، عامل التسارع، وهو ان التطورات المعرفية الجديدة أصبحت ممكنة من خلال كل تطور سابق. على النقيض من ذلك، عندما يزداد مقدار الذكاء، ستصبح التطورات اللاحقة أكثر تعقيدًا، ومن الممكن ان تتجاوز فوائد الذكاء المتزايد. يجب على كل تطور جديد الاتيان بتطور جديد، من أجل استمرار التفرد. وفي النهاية، ستمنع قوانين الفيزياء اي تطورات اضافية.[22]

هنالك سببين منطقيين مستقلين، ولكنهما معززين لبعضهما البعض للتطور المعرفي: الزيادة في سرعة الحسابات، والتطور في الخوارزميات المستخدمة. يتنبأ قانون مور بالأسباب السابقة وبالتطور المتوقع في المعدات، وهو مشابه نسبيًا للتطور التكنولوجي السابق. من ناحية اخرى، يعتقد باحثون في مجال الذكاء الاصطناعي ان الناحية البرمجية هي أكثر أهمية من المعدات.[23]

تطور السرعة

كتب راي كورزويل أنه بسبب النقلات النوعية ، فإن اتجاه النمو المتسارع يوسع قانون مور من الدوائر المتكاملة إلى الترانزستورات في وقت سابق

بالنسبة لكل من الذكاء البشري والاصطناعي، فان تطور المعدات سيزيد من سرعة تطورها في المستقبل.[24] وبصورة ابسط، يقول قانون مور انه اذا تطلبت أول مضاعفة في السرعة 18 شهر، ستتطلب المضاعفة الثانية 18 شهر شخصي؛ او 9 أشهر خارجية، بعد ذلك، أربعة أشهر، شهرين، وهكذا، حتى الوصول الى سرعة التفرد.[25] قد يتم الوصول الى حد أعلى محدد من السرعة في نهاية المطاف، على الرغم من عدم معرفة مقداره. استجاب هوكنز عام 2008 الى غود، قائلًا ان الحد الأعلى قد يكون منخفض نسبيًا:

ان الإيمان بالفكرة هو فهم ساذج لماهية الذكاء. لنتخيل اننا لدينا أجهزة كومبيوتر تستطيع تصميم اجهزة كومبيوتر جديدة (رقائق، أنظمة وبرامجبات) أسرع من نفسها. هل سيؤدي كومبيوتر مثل هذا الى أجهزة كومبيوتر ذات سرعة ليس لها نهاية او حتى كومبيوتر اسرع من هذا الذي بناه الانسان؟ لا. من الممكن ان يتسارع مقدار تطوره لفترة من الزمن، ولكن في النهاية هنالك حد لما يمكن ان يكون عليه حجم وسرعة الكومبيوتر. سينتهي بنا الحال في نفس المكان؛ الا انه سيصل هنالك أسرع بقليل. سوف لن يكون هنالك تفرد. اما اذا كان أعلى بكثير من مستويات البشر الحالية من الذكاء، فان آثار التفرد ستكون عظيمة لدرجة انها لا يمكن تمييزها عن تلك الموجودة لدى البشر مع تفرد ذو حد أعلى. على سبيل المثال، ادا ما تمكنا من زيادة سرعة التفكير بمليون ضعف، فان السنة الشخصية ستمر في غضون 30 ثانية طبيعية.

من الصعب المقارنة بصورة مباشرة بين المعدات المبنية من السيليكون والخلايا العصبية. ولكن بيرغلاس (2008) قال ان تقنية التعرف على الكلام الموجودة لدى الكومبيوتر تقترب من قدرة البشر، يبدو ان هذه القدرة لا تتطلب سوى 0.01 بالمئة من حجم الدماغ. يظهر هذا ان معدات الكومبيوتر الحديثة لا تبعد سوى خطوات بسيطة عن الوصول الى العقل البشري.

النمو الأسي

ان النمو الأسي في تكنولوجيا الكومبيوتر، والذي اقترحه قانون مور غالبًا ما ما يتم الاستشهاد به على انه سبب لتوقع حدوث التفرد في المستقبل القريب نسبيًا، وهنالك عدد من المؤلفين الذين اقترحوا تعميم قانون مور.[26] نشر هانس مورافيك عام 1998 كتاب يظهر ان النمو الاسي من الممكن ان يرجع الى تكنولوجيات حوسبة سابقة للدوائر المتكاملة.

اقترح راي كورزويل قانون العائدات المتسارعة، حيث ان سرعة التغير التكنولوجي (وبصورة عامة، كل العمليات التطورية) تزداد بصورة اسية، معممًا قانون مور بنفس الطريقة التي افترضها مورافيك، ومضمننًا تكنولوجيا المواد، التكنولوجيا الطبية وغيرها.[27]

يستخدم كورزويل كلمة «التفرد» للتطور السريع في الذكاء الاصطناعي، كاتبًا على سبيل المثال ان «التفرد سيسمح لنا تجاوز القيود الموجودة في اجسامنا البيولوجية وادمغتنا ... سوف لن يكون هنالك فرق، ما بعد التفرد، بين البشر والآلات.» ويُعَرِف الموعد المتوقع للتفرد (2045) على انه الموعد الذي سيتجاوز به ذكاء اجهزة الكومبيوتر مجموع القدرات العقلية للبشر، كاتبًا ان التطور في الحوسبة قبل هذا التاريخ «سوف لن يمثل تفرد» لانه «لا يتطابق مع التوسع العميق في المعرفة.» [28]

التغيرات المتسارعة

وفقا لكرزويل ، يظهر الرسم البياني اللوغاريتمي له 15 قائمة من النقلات النوعية للأحداث التاريخية الرئيسية اتجاها أسيًا

يجادل بعض مؤيدوا التفرد حتميته من خلال استقراء التوجهات السابقة، وبالأخص تلك المتعلقة بتقصير الفوارق بين التطورات في التكنولوجيا. في أحد أوائل استخدامات مصطلح «التفرد» في سياق التطور التكنولوجي، يذكر ستينسلو اولام حواره مع جون فون نيومان حول التغيرات المتسارعة:

ان احدى المحادثات المرتكزة على التطور المتسارع للتكنولوجيا والتغير في نمط حياة البشر، والذي يعطي مظهر الاقتراب من بعض التفرد الاساسي في تاريخ سباق ما بعد الأمور البشرية، كما نعلم، لن تستمر. [29]

يدعي كورزويل ان التطور التكنولوجي يتبع نمط من النمو الاسي، متبعًا ما اسماه «قانون العائدات المتسارعة». متى ما واجهت التكنولوجيا عائقًا، كتب كورزويل، ستتغلب عليه التكنولوجيا الجديدة. ويتوقع ان النقلات النوعية ستزداد شيوعًا، مؤديةً الى «تغيرات تكنولوجية سريعة وعميقة للغاية، ممثلةً تمزق في بنية التاريخ البشري.» يعتقد كورويل ان التفرد سيحدث بحدود عام 2045.[30] تختلف توقعاته عن توقعات فينج، حيث انه يتوقع صعود تدريجي نحو التفرد، بدلًا من توقع فينج المتمثل بذكاء خارق للبشر متطور بسرعة كبيرة.

التطورات الخوارزمية

بعض التكنولوجيا الذكية، مثل «ذرية الذكاء الاصطناعي»، من الممكن ان تجعل نفسها أكثر كفاءة، ليس فقط أكثر سرعة، عن طريق التعديل على رموزها. ستجعل هذه التطورات التطورات المستقبلية ممكنة، والتي بالتالي ستجعل التطورات الاخرى ممكنة، وهكذا.[10][11]

ان الآلية الخوارزمية للتطوير الذاتي تختلف عن الزيادة الخام في سرعة الحسابات بطريقتين. أولًا، لا تتطلب تأثيرات خارجية: الآلات التي تصمم معدات اسرع لا تزال تحتاج الى بشر لتصنيع المعدات المطورة، او لبرمجة المصانع بصورة ملائمة. الذكاء الاصطناعي كان يكتب برمجته الخاصة، بينما يستطيع القيام بهذا عند وجوده داخل صندوق ذكاء اصطناعي.[31]

ثانيًا، طبقًا لتصور فيرنور فينج للتفرد، من الصعب للغاية التنبؤ بالنتيجة. في حين ان ازدياد السرعة يبدو انه فرق كمي فقط مقارنةً بالذكاء البشري، الا ان التطورات الخوارزمية ستختلف نوعيًا. يقارنه اليزور يودكوفسكي بالتغير الذي أحدثه الذكاء البشري: قام البشر بتغيير الكوكب بمقدار الف مرة اسرع مما قام به التطور، وبطرق مختلفة تمامًا. وبصورة مشابهة، تطور الحياة كان تسارع عظيم من السرع الجيولوجية السابقة، والذكاء المتطور من الممكن ان يجعل الاختلافات مختلفة من جديد.[32][33]

هنالك مخاطر عديدة مرتبطة بالإنفجار المعرفي التفردي والناشئ من التطوير المتتالي للخوارزميات. أولًا، ان الهدف الاساسي للذكاء الاصطناعي قد لا يكون مرتبطًا بالتطوير الذاتي فحسب، فقد تصبح أهداف آلات الذكاء الاصطناعي مختلفة عن تلك المعد لها. ثانيًا، من الممكن ان تنافس أجهزة الذكاء الاصطناعي البشر مواردهم النادرة التي يستخدموها لكي يعيشوا.[34][35]

في حين انها ليست ضارة بصورة فعالة، لا يوجد هنالك سبب يجعلنا نعتقد ان اجهزة الذكاء الاصطناعي ستعزز الأهداف البشرية ما لم يتم برمجتها على هذا النحو، واذا لم يتم برمجتها، من الممكن ان تستخدم الموارد التي تدعم وجود البشر لتصل الى أهدافها، مؤديةً الى انقراض الجنس البشري.[36][37][38]

يقول كارل شولمان واندريس ساندبيرغ ان التطورات الخوارزمية من الممكن ان تمثل عامل مقيد للتفرد، ولان المعدات تتطور بوتيرة ثابتة، فان تطور البرامجيات لا يمكن التنبؤ به، ومن الممكن ان تصبح في مأزق بسبب البحوث المتسلسلة والتراكمية. ويقولون انه في حالة التفرد المقيد برمجيًا، سيصبح الإنفجار المعرفي مرجح أكثر مقارنةً بالتقرد الذي تقيده المعدات، لانه في الحالة البرمجية، حالما يتم الوصول الى ذكاء اصطناعي بمستوى البشر، سيتمكن من العمل بصورة متسلسلة على معدات سريعة للغاية، ووفرة المعدات البسيطة ستجعل أبحاث الذكاء الاصطناعي أقل تقيدًا. [39]

النقد

يقول بعض النقاد انه سوف لن تتمكن اي آلة او كومبيوتر من الوصول الى الذكاء البشري، في حين ان آخرون يقولون ان تعريف الذكاء لا علاقة له اذا كانت النتيجة الكلية متشابهة.

قال ستيفن بنكر عام 2008:

«لا يوجد هنالك أبسط دليل يجعلنا نؤمن بقدوم التفرد. حقيقة انك تستطيع تخيل المستقبل في دماغك لا يعني انه من المرجح او حتى ممكنًا. انظروا الى المدن الهالكة، التنقل بالحقيبة الطائرة، المدن الموجودة تحت الماء، البنايات البالغ طولها ميل، والسيارات ذات الوقود النووي، كلها كانت خيالات مستقبلية عندما كنت طفلًا لم تحدث حتى الآن. قوة المعالجة الكلية ليست جنية الرمل تحل مشاكلك بصورة سحرية.[17]»

كتب جون سيرل استاذ الفلسفة في جامعة كاليفورنيا، بيركلي:

«لا تملك أجهزة الكومبيتر اي ذكاء او دوافع، او استقلال. نحن نصممها لتتصرف كما لو انها كان لديها سايكولوجيا خاصة بها، ولكن لا يوجد واقع نفسي للسلوكيات او العمليات المقابلة ... ليس للآلات اي معتقدات او رغبات او دوافع.[40]»

التأثير

حدثت تغييرات جذرية في معدل النمو الاقتصادي في الماضي بسبب بعض التقدم التكنولوجي. استناداً إلى النمو السكاني ، تضاعف الاقتصاد كل 250،000 سنة من العصر الحجري القديم حتى «ثورة العصر الحجري الحديث». تضاعف الاقتصاد الزراعي الجديد كل 900 سنة ، وهي زيادة ملحوظة. في العصر الحالي ، بدءًا بالثورة الصناعية ، يتضاعف الناتج الاقتصادي العالمي كل خمسة عشر عاماً ، أي أسرع بعشرين مرة مما كان عليه في الحقبة الزراعية. يقول روبن هانسون ، إذا كان صعود الذكاء الاصطناعي الخارق يسبب ثورة مماثلة ، فإن المرء يتوقع أن يتضاعف الاقتصادي كل ربع سنة على الأقل وربما على أساس أسبوعي.[41]

عدم اليقين والمخاطر

يعكس مصطلح التفرد التكنولوجي فكرة ان تغير مثل هذا من الممكن ان يحصل بصورة مفاجئة، ومن الصعب التنبؤ حول كيف سيبدو العالم الجديد.[42][43] من غير الواضح ما اذا كان هذا النوع من الإنفجار المعرفي ذو فائدة او ضرر او حتى ذو خطر وجودي،[44][45] كما لم يتم التعامل مع هذه المشكلة من قبل باحثي الذكاء الاصطناعي، على الرغم من ان موضوع الذكاء الاصطناعي الودي تمت مناقشته من قبل معهد مستقبل الانسانية ومعهد أبحاث ذكاء الآلات.[42]

الآثار المترتبة على المجتمع البشري

في شباط / فبراير 2009 ، برعاية جمعية النهوض بالذكاء الاصطناعي (AAAI) ، ترأس إيريك هورفيتز اجتماعاً لعلماء الكمبيوتر البارزين ، باحثين في مجال الذكاء الاصطناعي ، وعاملين في مجال الروبوتات في أسيلومار في باسيفيك جروف، كاليفورنيا. كان الهدف هو مناقشة التأثير المحتمل للاحتمالية الافتراضية بأن الروبوتات يمكن أن تصبح مكتفية ذاتيا وقادرة على اتخاذ قراراتها الخاصة. ناقشوا مدى قدرة أجهزة الكمبيوتر والروبوتات في الحصول على الاستقلالية ، وإلى أي درجة يمكن أن يستخدموا مثل هذه القدرات لتشكيل التهديدات أو المخاطر.[46]

يتم برمجة بعض الآلات بأشكال مختلفة من الاستقلالية ، بما في ذلك القدرة على تحديد مصادر الطاقة الخاصة بهم واختيار الأهداف لمهاجمتها بالأسلحة. أيضا ، يمكن لبعض فيروسات الكمبيوتر الهروب من التدمير ، ووفقا للعلماء الحاضرين ، يمكن القول أنه وصل إلى مرحلة "الصرصور" من الذكاء الآلي. لاحظ المشاركون في المؤتمر أن الوعي الذاتي كما هو موضح في الخيال العلمي هو على الأرجح غير محتمل ، ولكن هناك مخاطر محتملة أخرى.[46]

الخطر الوجودي

يقول بيرغلاس (2008) انه لا يوجد هنالك دافع تطوري ليكون الذكاء الاصطناعي ودي في تعامله مع البشر. ان التطور لا يملك نزعة موروثة لتكوين نتائج يقدرها البشر، وليس هناك سببًا لتوقع عملية تحسين تعسفي لترويج النتيجة التي تريدها البشرية، بدل من ان تكون دون قصد مؤديةً الى ذكاء اصطناعي يتصرف بطريقة لا يقصدها مصنعيها (مثل مثال نيك بوستروم الغريب لآلة ذكاء اصطناعي يتم برمجتها لهدف تصنيع مشبك ورق، ولانها حصلت على ذكاء خارق، قررت تحويل الكوكب بأجمعه الى منشأة لتصنيع مشابك أوراق).[47][48][49]

ناقش بوستروم (2002) سيناريوات انقراض البشر، ويُدرِج الذكاء الخارق على انه أحد الأسباب المحتملة:[50]

«عندما نصنع أول كيان خارق للذكاء، قد نخطأ ونعطيه مهام تؤدي الى القضاء على البشرية، على افتراض ان القدرة الفكرية الهائلة لها القدرة على فعل ذلك. على سبيل المثال، من الممكن ان يتحول هدف ثانوي الى هدف رئيسي، عن طريق الخطأ. نحن نطلب منه حل المشاكل الرياضية، ويقوم بتحويل كل المادة الموجودة في النظام الشمسي الى حاسوب عملاق، وقتل الشخص الذي طرح السؤال في هذه العملية.»

الخلود

يقول كورزويل في كتاب «التفرد قريب» عام 2005، ان التطور الطبي سيسمح للبشر بالدفاع عن اجسامهم من آثار تقدم العمر، مما يجعل متوسط العمر المتوقع لا حد له. ويقول كورزويل كذلك ان التطورات التكنولوجية في الطب ستسمح لنا ترميم واستبدال الأجزاء التالفة في أجسامنا، مما يؤدي الى إطالة الحياة حتى عمر غير محدد.[51] يقترح كورزويل العلاج الجيني الجسدي؛ بعد الفيروسات الصناعية ذات المعلومات الجينية المحددة، ستكون الخطوة التالية هي تطبيق هذه التكنولوجيا على العلاج الجيني، واستبدال الحمض النووي للبشر بجينات مصنعة.[52]

المراجع

  1. ^ Cadwalladr, Carole (2014). "Are the robots about to rise? Google's new director of engineering thinks so…" The Guardian. Guardian News and Media Limited.
  2. ^ أ ب Eden, Amnon H.؛ Moor, James H. (2012). Singularity hypotheses: A Scientific and Philosophical Assessment. Dordrecht: Springer. ص. 1–2. ISBN:9783642325601.
  3. ^ اكتب عنوان المرجع بين علامتي الفتح <ref> والإغلاق </ref> للمرجع mathematical
  4. ^ Chalmers، David (2010). "The singularity: a philosophical analysis". Journal of Consciousness Studies. ج. 17 ع. 9–10: 7–65.
  5. ^ أ ب ت ث اكتب عنوان المرجع بين علامتي الفتح <ref> والإغلاق </ref> للمرجع vinge1993
  6. ^ Khatchadourian، Raffi (16 نوفمبر 2015). "The Doomsday Invention". The New Yorker. اطلع عليه بتاريخ 2018-01-31.
  7. ^ Müller, V. C., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. In Fundamental issues of artificial intelligence (pp. 555–572). Springer, Cham.
  8. ^ Ehrlich, Paul. The Dominant Animal: Human Evolution and the Environment
  9. ^ Superbrains born of silicon will change everything. نسخة محفوظة August 1, 2010, على موقع واي باك مشين.
  10. ^ أ ب Yampolskiy, Roman V. "Analysis of types of self-improving software." Artificial General Intelligence. Springer International Publishing, 2015. 384-393.
  11. ^ أ ب Eliezer Yudkowsky. General Intelligence and Seed AI-Creating Complete Minds Capable of Open-Ended Self-Improvement, 2001
  12. ^ اكتب عنوان المرجع بين علامتي الفتح <ref> والإغلاق </ref> للمرجع stat
  13. ^ اكتب عنوان المرجع بين علامتي الفتح <ref> والإغلاق </ref> للمرجع singularity
  14. ^ اكتب عنوان المرجع بين علامتي الفتح <ref> والإغلاق </ref> للمرجع hplusmagazine
  15. ^ اكتب عنوان المرجع بين علامتي الفتح <ref> والإغلاق </ref> للمرجع yudkowsky.net
  16. ^ اكتب عنوان المرجع بين علامتي الفتح <ref> والإغلاق </ref> للمرجع agi-conf
  17. ^ أ ب اكتب عنوان المرجع بين علامتي الفتح <ref> والإغلاق </ref> للمرجع spectrum.ieee.org
  18. ^ اكتب عنوان المرجع بين علامتي الفتح <ref> والإغلاق </ref> للمرجع ieee
  19. ^ اكتب عنوان المرجع بين علامتي الفتح <ref> والإغلاق </ref> للمرجع Allen
  20. ^ "What is the Singularity? | Singularity Institute for Artificial Intelligence". Singinst.org. مؤرشف من الأصل في 2011-09-08. اطلع عليه بتاريخ 2011-09-09. {{استشهاد ويب}}: الوسيط غير المعروف |deadurl= تم تجاهله (مساعدة)
  21. ^ David Chalmers John Locke Lecture, 10 May, Exam Schools, Oxford, Presenting a philosophical analysis of the possibility of a technological singularity or "intelligence explosion" resulting from recursively self-improving AI نسخة محفوظة 2013-01-15 على موقع واي باك مشين..
  22. ^ Grace، Katja؛ Salvatier، John؛ Dafoe، Allan؛ Zhang، Baobao؛ Evans، Owain (24 مايو 2017). "When Will AI Exceed Human Performance? Evidence from AI Experts". arXiv:1705.08807 [cs.AI]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
  23. ^ The Singularity: A Philosophical Analysis, David J. Chalmers
  24. ^ Siracusa، John (31 أغسطس 2009). "Mac OS X 10.6 Snow Leopard: the Ars Technica review". Arstechnica.com. اطلع عليه بتاريخ 2011-09-09.
  25. ^ Eliezer Yudkowsky, 1996 "Staring into the Singularity"
  26. ^ Moravec, Hans (1999). Robot: Mere Machine to Transcendent Mind. Oxford U. Press. ص. 61. ISBN:978-0-19-513630-2.
  27. ^ "The World's Technological Capacity to Store, Communicate, and Compute Information", Martin Hilbert and Priscila López (2011), Science, 332(6025), 60–65; free access to the article through here: martinhilbert.net/WorldInfoCapacity.html
  28. ^ اكتب عنوان المرجع بين علامتي الفتح <ref> والإغلاق </ref> للمرجع transformation
  29. ^ Kurzweil، Raymond (2001)، "The Law of Accelerating Returns"، Nature Physics، Lifeboat Foundation، ج. 4 ع. 7: 507، Bibcode:2008NatPh...4..507B، DOI:10.1038/nphys1010، اطلع عليه بتاريخ 2007-08-07
  30. ^ The Singularity Is Near
  31. ^ Eliezer S. Yudkowsky. "Power of Intelligence". Yudkowsky. اطلع عليه بتاريخ 2011-09-09.
  32. ^ Omohundro, Stephen M., "The Basic AI Drives." Artificial General Intelligence, 2008 proceedings of the First AGI Conference, eds. Pei Wang, Ben Goertzel, and Stan Franklin. Vol. 171. Amsterdam: IOS, 2008
  33. ^ "Artificial General Intelligence: Now Is the Time". KurzweilAI. اطلع عليه بتاريخ 2011-09-09.
  34. ^ Omohundro, Stephen M., "The Nature of Self-Improving Artificial Intelligence." Self-Aware Systems. 21 Jan. 2008. Web. 07 Jan. 2010.
  35. ^ Barrat، James (2013). "6, "Four Basic Drives"". Our Final Invention (ط. First). New York: St. Martin's Press. ص. 78–98. ISBN:978-0312622374.
  36. ^ "Max More and Ray Kurzweil on the Singularity". KurzweilAI. اطلع عليه بتاريخ 2011-09-09.
  37. ^ "Concise Summary | Singularity Institute for Artificial Intelligence". Singinst.org. اطلع عليه بتاريخ 2011-09-09.
  38. ^ Bostrom, Nick, The Future of Human Evolution, Death and Anti-Death: Two Hundred Years After Kant, Fifty Years After Turing, ed. Charles Tandy, pp. 339–371, 2004, Ria University Press.
  39. ^ Shulman، Carl؛ Anders Sandberg (2010). Mainzer، Klaus (المحرر). "Implications of a Software-Limited Singularity" (PDF). ECAP10: VIII European Conference on Computing and Philosophy. اطلع عليه بتاريخ 2014-05-17.
  40. ^ John R. Searle, “What Your Computer Can’t Know”, The New York Review of Books, 9 October 2014, p. 54.
  41. ^ Robin Hanson، "Economics Of The Singularity"، IEEE Spectrum Special Report: The Singularity، اطلع عليه بتاريخ 2008-09-11 & Long-Term Growth As A Sequence of Exponential Modes
  42. ^ أ ب اكتب عنوان المرجع بين علامتي الفتح <ref> والإغلاق </ref> للمرجع positive-and-negative
  43. ^ اكتب عنوان المرجع بين علامتي الفتح <ref> والإغلاق </ref> للمرجع theuncertainfuture
  44. ^ اكتب عنوان المرجع بين علامتي الفتح <ref> والإغلاق </ref> للمرجع catastrophic
  45. ^ اكتب عنوان المرجع بين علامتي الفتح <ref> والإغلاق </ref> للمرجع nickbostrom
  46. ^ أ ب Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009.
  47. ^ Nick Bostrom, "Ethical Issues in Advanced Artificial Intelligence", in Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, Vol. 2, ed. I. Smit et al., Int. Institute of Advanced Studies in Systems Research and Cybernetics, 2003, pp. 12–17
  48. ^ Eliezer Yudkowsky: Artificial Intelligence as a Positive and Negative Factor in Global Risk نسخة محفوظة 2012-06-11 على موقع واي باك مشين.. Draft for a publication in Global Catastrophic Risk from August 31, 2006, retrieved July 18, 2011 (PDF file)
  49. ^ The Stamp Collecting Device, Nick Hay
  50. ^ 'Why we should fear the Paperclipper', 2011-02-14 entry of Sandberg's blog 'Andart'
  51. ^ The Singularity Is Near, p.215,
  52. ^ The Singularity is Near, p.216.