اعتزار من شركة مايكروسوفت عن الرسائل العنصرية التي نشرتها روبوت الدردشة (تاي)

اعتزار من شركة مايكروسوفت عن الرسائل العنصرية التي نشرتها روبوت الدردشة (تاي)


 شركة مايكروسوفت قامت بتقديم اعتزار من خلال تدوينة نشرتها على موقعها، وقدمت اعتزارها عن التغريدات العنصرية التي نشرها روبوت الذكاء الاصطناعي “تاي” Tay، والذي كانت قد أوقفته بعد أقل من 24 ساعة على طرحه.

وكتب “بيتر لي” رئيس الأبحاث في مايكروسوفت شارحًا ما حدث، ومؤكدًا بأن ما بدر من “تاي” لا يُعبّر عن مايكروسوفت، ولا عن الكيفية التي تم فيها تصميم الروبوت.

و”تاي” وهو عبارة عن برنامج يُمثّل شخصية افتراضية لفتاة مراهقة يُمكن لها الدردشة مع المُستخدمين والإجابة على أسئلتهم. وقد طوّرت الشركة الروبوت بواسطة تقنية الذكاء الاصطناعي Artificial Intelligence وقالت أن “تاي” تستطيع أن تتعلّم وتُحسّن من أجوبتها تدريجيًا من خلال الدردشات التي تقوم بها. لكن “تاي” تحوّلت إلى أداة لنشر العنصرية والكراهية، حيث بدأ حسابها الروبوتي على تويتر بنشر رسائل تُمجّد النازية وهتلر، وتُحرّض ضد السود والمُهاجرين وتدعو إلى التطهير العرقي.

وقد حاول “بيتر لي” شرح ما حدث، قائلًا بأن “تاي” هي ليست أول تجربة لتطبيق بتقنية الذكاء الاصطناعي أطلقته مايكروسوفت، حيث سبق وأطلقت الروبوت XiaoIce في الصين وقد استخدمه حوالي 400 مليون مُستخدم للدردشة وتبادل الأحاديث، وبحسب مايكروسوفت فقد كانت هذه التجربة ناجحة جدًا مما دعاها لتجربة الروبوت “تاي” الموجه للأمريكيين بين عمر 18 إلى 24 عامًا. وذكرت الشركة أنها أثناء تطوير “تاي” حرصت على اختبار الروبوت في مختلف الظروف وسعت كي يقدم تجربة إيجابية خالية من المشاكل.

لكن حدث ما وصفتها الشركة بـ “هجمات مُنسّقة” من قبل أشخاص تمكنوا من استغلال ثغرة في نظام “تاي” مكنتهم من بث الأفكار العنصرية وأفكار الكراهية التي كررها الروبوت الذي يُمكن له أن يتعلّم ويطوّر معارفه من خلال تفاعله مع الآخرين. ورغم أن مايكروسوفت طوّرت “تاي” بشكل لا يُتيح التلاعب بها، إلّا أنها غفلت عن هذا النوع من الهجمات تحديدًا بحسب الشركة.

وفى الاخير، قالت الشركة أن أمامها تحدٍ الآن لتحسين أبحاث الذكاء الاصطناعي لتلاشى مثل هذه الحوادث مستقبليا.