هذه المقالة يتيمة. ساعد بإضافة وصلة إليها في مقالة متعلقة بها
يرجى مراجعة هذه المقالة وإزالة وسم المقالات غير المراجعة، ووسمها بوسوم الصيانة المناسبة.

تاي (بوت)

من ويكيبيديا، الموسوعة الحرة
اذهب إلى التنقل اذهب إلى البحث
N write.svg
هذه مقالة غير مراجعة. ينبغي أن يزال هذا القالب بعد أن يراجعها محرر عدا الذي أنشأها؛ إذا لزم الأمر فيجب أن توسم المقالة بقوالب الصيانة المناسبة. (ديسمبر 2017)
تاي (بوت)
معلومات عامة
نوع
مواقع الويب
معلومات تقنية
المطورون
الإصدار الأول
23 مارس 2016[1]الاطلاع ومراجعة البيانات على ويكي داتا
تسلسل

تاي هو بوت دردشة يعتمد على الذكاء الاصطناعي  اطلقته شركة مايكروسوفت عبر تويتر في 23 مارس عام 2016 ؛ سبب انتقادات لاذعة لشركة مايكرسوفت بعد ان بدأ البوت بنشر تغريدات عنصرية مسيئة مما اضطر مايكرسوفت لايقاف البوت بعد 16 ساعة من اطلاقه .[2] ووفقا لمايكروسوفت فإن سبب هو هجمة ممنهجة من قبل المستخدمين لتعليم البوت اجوبة مسيئة .[3]

الاطلاق[عدل]

البداية[عدل]

أُنشأ البوت من قبل مركز ابحاث مايكرسوفت حيث كانت (تاي) شخصية افتراضية لمراهقة أمريكية في التاسع عشر من عمرها تقوم بالدردشة مع المستخدمين الاخرين اعتمادا على الذكاء الاصطناعي لتقوم بتعليم نفسها تلقائيا من الحوارات التي تجريها مع الاخرين

الاطلاق[عدل]

اطلقت مايكرسوفت البوت (تاي) على تويتر في 23 مارس عام 2016 تحت اسم TayTweets وبأسم المستخدم @TayandYou.[4] وكان وصف الحساب كالاتي "The AI with zero chill".[5] تاي بدأت بالرد على مستخدمي تويتر الاخرين، وكان أيضا قادرا على التعامل مع صور ميمات الإنترنت[6][7]

توقيف تاي عن العمل[عدل]

جمدت مايكرسوفت حساب تاي بعد ان قام المستخدمين بتعليم تاي الفاظ قاسية وقالت مايكرسوفت ان هناك جهود ممنهجة من قبل المستخدمين لجعل تاي تتواصل بطريقة غير لائقة مع المستخدمين ، فبدأ البوت بنشر تغريدات عنصرية وتمييزية واخرى مؤيدة للنازيين وغرد بتغريدات مؤيدة للرئيس الأمريكي دونالد ترمب -المرشح للرئاسة انذاك- فقامت مايكرسوفت بإيقاف تاي عن العمل وتعطيل الحساب وحذف التغريدات المسيئة متعهدة بتطوير برمجية تاي بشكل افضل [8][1]

References[عدل]

  1. ^ Microsoft chatbot is taught to swear on Twitter — تاريخ النشر: 24 مارس 2016
  2. ^ Wakefield، Jane. "Microsoft chatbot is taught to swear on Twitter". بي بي سي نيوز. مؤرشف من الأصل في 17 أبريل 2019. اطلع عليه بتاريخ 25 مارس 2016. 
  3. ^ The racist hijacking of Microsoft’s chatbot shows how the internet teems with hate | World news | The Guardian نسخة محفوظة 12 يونيو 2018 على موقع واي باك مشين.
  4. ^ Andrew Griffin (March 23, 2016). "Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to". The Independent. The Independent. مؤرشف من الأصل في 27 يونيو 2018. 
  5. ^ Horton، Helena. "Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours". ديلي تلغراف. مؤرشف من الأصل في 17 مايو 2019. اطلع عليه بتاريخ 25 مارس 2016. 
  6. ^ "Microsoft's AI teen turns into Hitler-loving Trump fan, thanks to the internet". Stuff. مؤرشف من الأصل في 29 أغسطس 2018. اطلع عليه بتاريخ 26 مارس 2016. 
  7. ^ Bright، Peter (26 March 2016). "Tay, the neo-Nazi millennial chatbot, gets autopsied". Ars Technica. مؤرشف من الأصل في 12 مايو 2019. اطلع عليه بتاريخ 27 مارس 2016. 
  8. ^ "مايكروسوفت تجمد حساب تويتر لروبوت تعليمي". قناة الحرة. مؤرشف من الأصل في 09 ديسمبر 2017. اطلع عليه بتاريخ 08 ديسمبر 2017.