مغالطة معدل الأساس

من ويكيبيديا، الموسوعة الحرة
اذهب إلى التنقل اذهب إلى البحث

مغالطة معدل الأساس أيضا تسمى إهمال معدل الأساس أو انحياز معدل الأساس هي مغالطة رسمية عندما تُقدم مع معلومات متعلقة بمعدل الأساس (كالمعلومات العامة) و معلومات مُحدَدَة (المعلومات المتعلقة بحالة معينة فقط)، فسيميل العقل في هذا الموقف إلى تجاهل المجموعة الاولى من المعلومات والتركيز على المجموعة الثانية.[1]

مغالطة معدل الأساس هي نوع من أنواع إهمال الامتداد (أحد انواع الانحياز المعرفي).

مفارقة الإيجابية الكاذبة[عدل]

أحد أنواع مغالطة معدل الأساس هي مفارقة الإيجابية الكاذبة، عندما تكون احتمالية ظهور نتائج اختبارات إيجابية كاذبة أكبر من احتمالية حدوث نتائج إيجابية حقيقية للأختبارات. يحدُث ذلك عندما يكون التعداد السكاني الكلي لديه نسبة حدوث حالة معينة ونسبة الحدوث هذه أقل من نسبة الأيجابية الكاذبة. احتمالية تحصيل نتيجة الاختبار الإيجابي لا تحددها فقط دقة الأختبار ولكن تحددها أيضا صفات العينة المأخوذة من السكان.[2] عند الحدوث، نسبة اللذين لديهم حالة معينة، أقل من معدل الأيجابية الكاذبة للأختبار، حتى الأختبارات اللتي لديها فرصة قليلة في اعطاء نتائج ايجابية كاذبة في حالة واحدة مُفردة ستعطي نتائج ايجابية كاذبة أكثر من النتائج الايجابية الحقيقية بشكل كلي.[3] لذلك، في مجتمع فيه عدد قليل من الناس المصابين (أقل نسبيًا من الايجابيات الكاذبة اللتي يعطيها الأختبار) سيكون هنالك في الحقيقة ناس تثبُتُ إصابتهم بمرضٍ معين بشكل غير صحيح من دون أن يكون لديهم ذلك المرض أكثر من الناس اللذين تثبُتُ إصابتهم بالمرض وهم لديهم المرض فعلاً. هذه المفارقة قد فاجئت الكثيرين.[4]

من غير البديهي عند تفسير نتيجة إيجابية في اختبار ما على سكان لديهم نسبة إصابة منخفضة بعد التعامل مع نتائج إيجابية اّتية من سكان ليديهم نسبة إصابة عالية.[3] إذا كانت نسبة الايجابيات الكاذبة لأحد الأختبارات أعلى من نسبة مقدار السكان الجدد اللذين لديهم الحالة، فمدير الأختبار اللذي خبرتهُ اّتية من اختبار سكان ذوي نسبة إصابة عالية يُمكن أن يستنتج عن طريق تلك الخبرة أن النتائج الأيجابية للأختبار عادةً تُشير إلى موضوع ايجابي، بينما في الحقيقة والأكثر احتمالاً للحدوث هو أن تكون النتائج الأيجابية المستنتجة هي كاذبة.

أمثلة[عدل]

المثال 1: فيروس نقص المناعة البشرية[عدل]

في حالة سكان ذوي نسبة حدوث عالية[عدل]

تخيل إجراء اختبار فيروس نقص المناعة البشرية على العينة السكانية (أ) من 1000 شخص، فيها 40% من الناس مصابين. الاختبار فيه نسبة ايجابية كاذبة 5% و لا يوجد نسبة سلبية كاذبة. النتيجة المتوقعة لهؤلاء الألف اختبار على العينة السكانية (أ) سيكون:

مصابين والأختبار يُظهر نتيجة ايجابية حقيقية
1000 × 40/100 = 400
400 شخص سيستلمون نتيجة ايجابية حقيقية
غير مصابين والأختبار يُظهر نتيجة ايجابية كاذبة
1000 × 100 – 40/100 × 0.05 = 30

ال570 شخصًا المتبقين نتيجتهم ستكون سلبية حقيقية. لذلك، في العينة السكانية (أ) الشخص اللذي يستلم نتيجة اختبار ايجابية سوف يكون واثق بنسبة أكثر من 93% (400/30 + 400) بأنه مصاب بالمرض.

مثال 2: السائقين في حالة الثمالة[عدل]

يملك مجموعة من ضبّاط الشرطة جهاز لكشف الثمالة يعطي نتائجَ خاطئة في 5% من الحالات، بحيث يعطي نتيجة أنّ السائق مخمور بالوقت الذي يكون فيه السائق متّزناً. وبالمقابل فإنّ جهاز كاشف الثمالة لا يفشل أبداً في اكتشاف السائق المخمور بالفعل. وقد وُجد إحصائيّاً أنّ سائقاً واحداً فقط من كلّ ألف سائق يقود سيّارته في حالة ثمالة. لنفترض أن ضباط الشرطة أوقفوا السائق بشكل عشوائي، وأجبروا السائق على إجراء اختبار الكحول. وأشارت نتيجة الاختبار أنّ السائق في حالة سكر. نحن نفترض أنك لا تعرف أي شيء آخر عنه. ما هو احتمال أن يكون/ تكون بالفعل في حالة سكر؟

قد يجيب الكثيرون أنّ النسبة قد تصل إلى 95%، ولكن في الواقع فإنّ الاحتمال الصحيح هو حوالي 2%.

وفيما يلي شرح لذلك: في المتوسّط، لكلّ 1000 سائق تم اختباره:

  • سائق واحد في حالة سكر، ومن المؤكّد 100% أنّ جهاز كشف الثمالة قد أعطى نتيجة إيجابيّة صحيحة، لذلك هناك نتيجة اختبار إيجابية حقيقيّة واحدة.
  • مقابل 999 من السائقين ليسوا في حالة سكر، ويعطي جهاز كشف الثمالة نتائج (ثمالة إيجابية) خاطئة بنسبة 5%، ممّا يعني وجود 49.95 حالة (اكتشاف ثمالة خاطئ).

لذلك فإنّ احتمال أن يكون سائق ما من بين ( 1 + 49.95 = 50.95 ) سائق أعطى جهاز كشف الثمالة عند إجراء الفحص عليه نتيجة إيجابيّة ثملاً بالفعل هو .

ومع ذلك، فإنّ صحة هذه النتيجة تعتمد على تحقّق الافتراض الأوّلي بأنّ ضابط الشرطة قد أوقف السائق بشكل عشوائيّ، وليس بسبب القيادة السيّئة. في حالة وجود هذا السبب أو أي سبب آخر غير تعسّفي لإيقاف السائق، فإنّ الحساب ينطوي أيضًا على احتمال أن يقود سائق مخمور القيادة بكفاءة وأن يقود سائق غير مخمور بغير كفاءة.

بشكلٍ أكثر رسميّة، يمكن الحصول على نفس النتيجة (احتمال 2%) باستخدام مبرهنة بايز. هدفنا هو الوصول إلى احتمال أن يكون السائق بالفعل في حالة ثمالة مع العلم أنّ نتيجة جهاز كشف الثمالة قد أشارت إلى ذلك، وهو ما سمنثّله كما يلي:

حيث تمثّل D السائق الثمل بالفعل، فيكون حسب مبرهنة بايز:

ووفقاً لحساباتنا السابقة فإنّ:

and

وباستخدام القيم السابقة وبتعويضها في قانون الاحتمال الكلّي ينتج:

وهذا يعطي:

وبتعويض هذه النتائج في مبرهنة بايز نحصل على:

وهي نفس النتيجة التي حصلنا عليها في السابق.

في حالة سكان ذوي نسبة حدوث منخفضة[عدل]

الان، اعتبر أن نفس الاختبار تم تطبيقُهُ على العينة السكانية (ب)، حيث فقط 2% من السكان مصابون بالمرض، النتيجة المتوقعة من 1000 اختبار على العينة السكانية (ب) سوف يكون:

مصابين والأختبار يُظهر نتيجة ايجابية حقيقية
1000 × 2/100 = 20
20 شخصًا سوف يستلمون نتيجة فحص ايجابية حقيقية
غير مصابين والأختبار يُظهر نتيجة فحص ايجابية كاذبة
1000 × 100 – 2/100 × 0.05 = 49

49 شخصًا سوف يستلمون نتيجة فحص ايجابية كاذبة ال931 شخصًا المتبقين سوف يستلمون نتيجة اختبار حقيقية سالبة 931 (= 1000 - (49 + 20)).

في العينة السكانية (ب)، فقط 20 شخصًا من مجموع 69 شخصًا من اللذين لديهم نتيجة فحص إيجابية هم مصابون بالمرض فعلًا. لذلك، احتمالية كون الشخص مصاب فعلا بعد أن يُقال لهُ أنه مُصاب هي فقط 29% (20/20 + 49) لاختبار يبدو بطريقة مختلفة على أنه "دقيق بنسبة 95%"

الفاحص اللذي لديه خبرة في العينة السكانية (أ) يمكن أن يجد مفارقًة في العينة السكانية (ب)، نتيجة لطالما كانت تبين الإصابة بشكل صحيح أصبحت الان ايجابية كاذبة عادًة. الأرتباك الناتج من الاحتماليات اللاحقة للأصابة مع الاحتمالية السابقة في استلام نتائج ايجابية كاذبة هو خطأ طبيعي بعد استلام نتيجة أختبار مهدد للحياة.

مثال 3: التعرف على الأرهابي[عدل]

في مدينة يقطُنُها مليون شخص ليكن هنالك 100 إرهابي و 999900 غير إرهابيين. لتبسيط المثال، نفترضُ أن جميع من في المدينة هم سكانُها. لذلك، احتمالية معدل الأساس لكون عينة عشوائية مُختارة من احد السكان إرهابيا هي 0.0001، واحتمالية معدل الأساس لنفس الشخص كونه غير ارهابي هي 0.9999. في محاولة للإمساك بالإرهابيين، المدينة قامت بنصب نظام للإنذار مع كامرات مراقبة وبرنامج لتمييز الوجوه بشكل تلقائي.

البرنامج فيه نسبتين للفشل بمقدار 1%:

  • النسبة السلبية الكاذبة: إذا ما مسحت الكامرة إرهابيا، سيرن جرس في 99% من الاوقات، وسيفشل الجرص بالرنين في 1% من الأوقات.
  • النسبة الايجابية الكاذبة: إذا ما مسحت الكامرة غير إرهابي، سوف لن يرِنَ الجرس في 99% من الاوقات، وسيرنُ الجرص في 1% من الأوقات

افترض أن احد السكان تسبب في تشغيل الإنذار، ما هي احتمالية كون ذلك الشخص ارهابيًا؟ بكلمات اخرى، الاحتمالية (عدد الارهابيين / عدد مرات رنين الجرس)، احتمالية كون الشخص اللذي تسبب برنين الجرس ارهابيًأ مع اخذ عدد مرات رنين الجرس بنظر الأعتبار، شخص يعمل على مغالطة معدل الأساس سوف يستنتج أن هنالك فرصة 99% أن الشخص اللذي تم تشخيصه هو إرهابي. بالرغم من أن الاستنتاج يبدو عقلانيًا، هو في الحقيقة منطقٌ سيء، والحسابات الاّتية ستُظهر فُرَص كون الشخص إرهابيًا هي في الحقيقة مقاربة ل1%، وليس 99%.

المغالطة تنشأُ من خلط طبيعتين لنسبتي فشل مختلفتين. 'عدد مرات عدم رنين الجرس لكل 100 إرهابي' و 'عدد الارهابيين لكل 100 دقة جرس' هما كميتان غير مرتبطتان. إحداهما لا تساوي الاُخرى بالضرورة، وليس من الواجب حتى كونهُنَ متساويتين تقريبًا. لتوضيح ذلك، إعتبر ما يحدُث إذا ما تم نصبُ نفس نظام الإنذار في مدينة ثانية لا تحتوي على ارهابيين بالمرة. ففي المدينة الأولى، الإنذار كان يشتغل مرة واحدة من كل 100 مرة يُشخَص فيها شخص غير إرهابي، ولكن خلافًا للمدينة الأولى، الإنذار لن يشتغل بسبب وجود شخص إرهابٍي. لهذا، فإن نسبة 100% من جميع الانذارات كانت لغير الإرهابيين، ولكن النسبة السلبية الكاذبة لا يمكن حتى حسابها. عدد غير الإرهابيين لكل 100 رنة جرس في تلك المدينة هو 100، مع ذلك فإن احتمالية تشخيص شخصٍ إرهابي هي صفر مع اخذ عدد مرات رنين الجرس بنظر الاعتبار (عدد الارهابيين / عدد مرات رنين الجرس = 0%)

تخيل ان سكان المدينة الاولى بالكامل واللذين تعدادهم مليون شخص قد عبرو من امام الكامرة. ما يُقارب 99 من الارهابيين سوف ستسببون بتشغيل الإنذار وكذلك سيفعل 9,999 من ال999900 شخص غير الارهابيين. لهذا، ما يُقارب 10098 من الاشخاص سوف يشغلون الإنذار، اللذين 99 منهم سيكونون ارهابيين. لذلك، احتمالية كون الشخص اللذي شغل الإنذار ارهابيًا فعلًا، هي فقط 99 في 10098، أي أقل من 1%، و تحت نسبة تخميننا الابتدائي بكثير اللذي كان 99%. مغالطة معدل الأساس مُضللة في هذا المثال بسبب وجود عدد من من غير الارهابيين أكثر من الارهابيين، وعدد الايجابيات الكاذبة (غير الارهابيين مٌشخصين كأرهابيين) هي أكبر بكثير من الايجابيات الحقيقية (العدد الحقيقي للإرهابيين).

نتائج في علم النفس[عدل]

في التجارب، وُجد أن الناس يُفضلون معلومات فردية على معلومات عامة في حالة وجود النوع الأول.[5][6][7]

في بعض التجارب، طُلب من الطلاب تقدير متوسط نقاط الصف (GPA) لطلاب افتراضيين. عند اعطائهم احصائيات متعلقة بتوزيع ال(GPA)، مالَ الطلاب إلى تجاهل تلك الاحصائيات عندما تم إعطائهم معلومات مفصلة عن طالب معين حتى لو كانت تلك المعلومات المفصلة الجديدة لا علاقة لها بأداء المدرَسةَ بشكل واضح. [6]لقد ت استخدام هذه النتيجة لمناقشة عدم ضرورية اجراء المقابلات لمنح الكليات لأن المقابلات لا تقدِر أن تختار المُرشحين الناجحين أفضل من الاحصائيات الأساسية. الطبيب النفسي دانيل كاهنيمان واّموس تفيرسكي حاولوا شرح تلك النتيجة في إطار قاعدة بسيطة أو "إرشادية" تُسمى ألتمثيل. ناقشوا أن العديد من الأحكام ذات العلاقة بالأرجحية، أو بالسبب والنتيجة، تبنى على كيفية تمثيل شيء ما مقارنًة بشيِء اخر، أو بتصنيف ما.[6] كاهنيمان يعتَبِرُ أن معدل الاساس بأنها نوع من أنواع تجاهل الامتداد.[6] ريتشارد نيسبيت ناقَشَ أن بعض التحيزات النسبية مثل خطأ الإسناد الأساسي هي حالات من مغالطة معدل الأساس: الناس لا يسلعملون "إجماع المعلومات" (معدل الاساس) عن كيفية تصرف الاخرين في مواقف مماثلة وبدلًا من ذلك يفضلون أبسط سِمات التصرف.[8]

هذا نقاش كبير في علم النفس حول الظروف اللتي على أساسها يقرر الناس تقدير معلومة معدل الأساس أم لا.[9] الباحثون في برنامج الإستدلال والتحيز أكدو نتائج تجريبية تُبين أن الناس يميلون إلى تجاهل معدل الأساس وعمل إستدلالات تَخرِق معايير معينة للتفكير الاحتمالي، مثل نظرية بايس. الإستنتاج المأخوذ من هذا الخط من البحث كان أن التفكير الاحتمالي البشري هو مُعيب ومُعرض للخطأ.[10] باحثون اخرون أكدو على الصلة بين العمليات المعرفية وأشكال المعلومات، النقاش بأن إستنتاجاتٍ كتلك هي بصورة عامة غير مضمونة.[11][12]


المراجع[عدل]

  1. ^ "Logical Fallacy: The Base Rate Fallacy". Fallacyfiles.org. مؤرشف من الأصل في 24 مارس 2019. اطلع عليه بتاريخ 15 يونيو 2013. الوسيط |CitationClass= تم تجاهله (مساعدة)
  2. ^ Rheinfurth, M. H.; Howell, L. W. (March 1998). Probability and Statistics in Aerospace Engineering (PDF). ناسا. صفحة 16. مؤرشف من الأصل (PDF) في 13 أغسطس 2011. MESSAGE: False positive tests are more probable than true positive tests when the overall population has a low incidence of the disease. This is called the false-positive paradox. الوسيط |CitationClass= تم تجاهله (مساعدة)
  3. أ ب Vacher, H. L. (May 2003). "Quantitative literacy - drug testing, cancer screening, and the identification of igneous rocks". Journal of Geoscience Education: 2. مؤرشف من الأصل في 29 مايو 2010. At first glance, this seems perverse: the less the students as a whole use ستيرويد, the more likely a student identified as a user will be a non-user. This has been called the False Positive Paradox الوسيط |CitationClass= تم تجاهله (مساعدة) - Citing: Gonick, L.; Smith, W. (1993). The cartoon guide to statistics. New York: Harper Collins. صفحة 49. الوسيط |CitationClass= تم تجاهله (مساعدة) نسخة محفوظة 29 مايو 2010 على موقع واي باك مشين.
  4. ^ Madison, B. L. (August 2007). "Mathematical Proficiency for Citizenship". In Schoenfeld, A. H. (المحرر). Assessing Mathematical Proficiency. (الطبعة New). Cambridge University Press. صفحة 122. ISBN 978-0-521-69766-8. مؤرشف من الأصل في 26 يوليو 2020. اطلع عليه بتاريخ 12 مايو 2019. The correct [probability estimate...] is surprising to many; hence, the term paradox. الوسيط |CitationClass= تم تجاهله (مساعدة)
  5. ^ Bar-Hillel, Maya (1980). "The base-rate fallacy in probability judgments". Acta Psychologica. 44 (3): 211–233. doi:10.1016/0001-6918(80)90046-3. الوسيط |CitationClass= تم تجاهله (مساعدة)
  6. أ ب ت Kahneman, Daniel; Amos Tversky (1973). "On the psychology of prediction". Psychological Review. 80 (4): 237–251. doi:10.1037/h0034747. الوسيط |CitationClass= تم تجاهله (مساعدة)
  7. ^ Kahneman, Daniel; Amos Tversky (1985). "Evidential impact of base rates". In Daniel Kahneman, Paul Slovic & Amos Tversky (المحرر). Judgment under uncertainty: Heuristics and biases. صفحات 153–160. الوسيط |CitationClass= تم تجاهله (مساعدة)
  8. ^ Kahneman, Daniel (2000). "Evaluation by moments, past and future". In Daniel Kahneman and Amos Tversky (المحرر). Choices, Values and Frames. الوسيط |CitationClass= تم تجاهله (مساعدة)
  9. ^ Nisbett, Richard E.; E. Borgida; R. Crandall; H. Reed (1976). "Popular induction: Information is not always informative". In J. S. Carroll & J. W. Payne (المحرر). Cognition and social behavior. 2. صفحات 227–236. الوسيط |CitationClass= تم تجاهله (مساعدة)
  10. ^ Tversky, A.; Kahneman, D. (1974). "Judgment under Uncertainty: Heuristics and Biases". Science. 185 (4157): 1124–1131. doi:10.1126/science.185.4157.1124. PMID 17835457. الوسيط |CitationClass= تم تجاهله (مساعدة)
  11. ^ Koehler, J. J. (2010). "The base rate fallacy reconsidered: Descriptive, normative, and methodological challenges". Behavioral and Brain Sciences. 19: 1. doi:10.1017/S0140525X00041157. الوسيط |CitationClass= تم تجاهله (مساعدة)
  12. ^ Barbey, A. K.; Sloman, S. A. (2007). "Base-rate respect: From ecological rationality to dual processes". Behavioral and Brain Sciences. 30 (3): 241–254, discussion 255–297. doi:10.1017/S0140525X07001653. PMID 17963533. الوسيط |CitationClass= تم تجاهله (مساعدة)