نظرًا لاستلهامها من نجاح chatbot الاجتماعي الذي يتخذ من منظمة العفو الدولية مقراً له في الصين ، فقد خططت Microsoft لإفاتارها الأمريكي باسم "Tay" والذي أثار جدلاً على الفور مع المغني Taylor Swift.
وكشف النقاب عن الجدل لأول مرة ، قال رئيس مايكروسوفت براد سميث ، في كتابه الجديد بعنوان "الأدوات والأسلحة: الوعد وخطر العصر الرقمي" ، إن كل شيء قد حدث خطأ مع تاي ، بما في ذلك اسمه.
"تم الكشف عن الذوق العالمي المختلف في التكنولوجيا عندما قدمنا" Xiaoice "إلى الولايات المتحدة في ربيع عام 2016. أطلقناها على السوق الأمريكية باسم جديد" Tay ". لقد ظهر الاسم الجديد ليكون مجرد بداية لدينا مشاكل مع لاول مرة الأمريكية شياويس ، "كتب سميث.
في إجازة ، تلقى رسالة بالبريد الإلكتروني: "نحن نمثل تايلور سويفت ، الذي يتم توجيه هذا نيابةً عنك".
استمر محام بيفرلي هيلز الذي يمثل تايلور في التصريح بأن "الاسم" تاي "، كما أنا متأكد من أنك يجب أن تعرفه ، يرتبط ارتباطًا وثيقًا بعملائنا".
جادل المحامي بأن استخدام اسم تاي "خلق علاقة زائفة ومضللة بين المغني الشعبي و chatbot ، وأنه ينتهك القوانين الفيدرالية وقوانين الولايات".
قال سميث إن محامي مايكروسوفت اتخذوا وجهة نظر مختلفة ، لكن "لم نسعى إلى خوض معركة مع تايلور سويفت أو حتى الإساءة إليها" ، حيث كانت الشركة تصارع قضايا أكبر مع تاي.
واجه chatbot Tay AI مشكلة عندما بدأ Twitterati في انتزاع الروبوت "البريء" بالتعليقات العنصرية والهجومية. تم إطلاق Tay كتجربة لإشراك الناس من خلال "محادثة غير رسمية ومرحة" ، تم إقلاع تاي سريعًا Twitter.
وقال سميث: "في أكثر من يوم واحد بقليل ، اضطررنا إلى سحب تاي من السوق ، وقدم درسًا ليس فقط حول المعايير بين الثقافات ، ولكن أيضًا عن الحاجة إلى ضمانات أقوى لمنظمة العفو الدولية".
اعتذرت شركة Microsoft حتى في أحد التدوينات على موقع "Tay" "التغريدات غير المقصودة والمسيئة."