טאי (צ'טבוט)
מפתח | מיקרוסופט מחקר |
---|---|
מחזור חיים | 23 במרץ 2016 – 30 במרץ 2016 (8 ימים) |
טאי (באנגלית: Tay) היה צ'אטבוט של בינה מלאכותית ששוחרר במקור על ידי מיקרוסופט באמצעות טוויטר ב-23 במרץ 2016; הבוט היה שנוי במחלוקת לאחר שהחל לפרסם ציוצים פוגעניים דרך חשבון הטוויטר שלו. דבר שגרם למיקרוסופט לסגור את השירות רק 16 שעות לאחר השקתו.[1] לפי מיקרוסופט, הדבר נגרם על ידי טרולים ש"תקפו" את השירות כשהבוט ענה על סמך האינטראקציות שלו עם אנשים בטוויטר.[2] שירות זה הוחלף בצ'אטבוט זו.
רקע
[עריכת קוד מקור | עריכה]הבוט נוצר על ידי חטיבות הטכנולוגיה והמחקר של שירות Bing של מיקרוסופט,[3] ונקרא "Tay" כראשי תיבות של "thinking about you".[4] אף על פי שמיקרוסופט פרסמה בתחילה מעט פרטים על הבוט, מקורות ציינו שהוא דומה או מבוסס על פיתוח קודם שלהם Xiaoice, שהיה פרויקט דומה של מיקרוסופט לציבור בסין.[5] טאי תוכננה לחקות את דפוסי השפה של נערה אמריקאית בת 19, וללמוד מאינטראקציה עם משתמשים אנושיים בטוויטר.[6]
גרסה ראשונית
[עריכת קוד מקור | עריכה]Tay שוחרר בטוויטר ב-23 במרץ 2016, תחת השם TayTweets ותחת התיוג @TayandYou.[7] הוא התחיל להשיב למשתמשי טוויטר אחרים, והצליח גם לצייץ תמונות שסופקו לו בצורה של ממים אינטרנטיים.[8]
חלק ממשתמשי טוויטר החלו לצייץ ביטויים לא תקינים מבחינה פוליטית, ולימדו אותו מסרים מעוררי מחלוקת הסובבים סביב נושאים נפוצים באינטרנט, כמו " רדפילינג " ו"גיימרגייט ". כתוצאה מכך, החל הרובוט לשחרר הודעות גזעניות וטעונות מיניות בתגובה למשתמשי טוויטר אחרים.
חוקר הבינה המלאכותית, רומן ימפולסקי, העיר שההתנהגות הלא נכונה של טאי מובנת מכיוון שהיא מחקה את ההתנהגות הפוגענית במכוון של משתמשי טוויטר אחרים, ומיקרוסופט לא נתנה לבוט הבנה מה היא התנהגות בלתי הולמת. הוא השווה את הנושא ל- ווטסון של IBM, שהחלה להשתמש בניבולי פה לאחר קריאת ערכים מהאתר Urban Dictionary.[9]
רבים מהציוצים המעליבים של טאי היו ניצול פשוט של יכולת ה"לחזור אחריי" של הצ'אטבוט.[10] עם זאת, לא כל התגובות הפוגעניות כללו את יכולת ה"חזור אחרי". למשל, טאי השיב לשאלה בנושא "האם השואה קרתה?" עם התשובה "זה הומצא ".[10]
עצירת השירות
[עריכת קוד מקור | עריכה]עד מהרה החלה מיקרוסופט למחוק את הציוצים המעליבים של טאי.[10][11] אבי אולהייזר מ"וושינגטון פוסט" העלה תיאוריה שצוות המחקר של טאי, כולל צוות העורכים, החל להשפיע או לערוך את הציוצים של טאי בשלב מסוים באותו יום, והצביע על דוגמאות לתשובות כמעט זהות של טאי[10]
תוך 16 שעות משחרורו[12] ולאחר שטאי צייץ יותר מ-96,000 פעמים,[13] השעתה מיקרוסופט את חשבון הטוויטר לצורך התאמות, ואמרה שהוא סבל מ"מתקפה מתואמת של תת-קבוצה של אנשים" ש"ניצל פגיעות בטאי."[14]
כתבים כינו את טאי "אסון יחסי ציבור" של מיקרוסופט, והציעו לחברה "לתייג את המחדל כניסוי בעל כוונות טובות שהשתבש, ולהצית ויכוח על השנאה והפוגענות של משתמשי טוויטר".[15]
ב-25 במרץ, מיקרוסופט אישרה שטאי הוצא משימוש. מיקרוסופט פרסמה התנצלות בבלוג הרשמי שלה על הציוצים השנויים במחלוקת שפרסם טאי.[16] מיקרוסופט "הצטערה עמוקות על הציוצים הפוגעניים והפוגעניים של טאי", ואמרה שתחזיר את השירות רק לאחר שיהיו בטוחים שיוכלו לחזות טוב יותר כוונת זדון שמתנגשת עם העקרונות והערכים שלנו".[17]
שחרור שני
[עריכת קוד מקור | עריכה]ב-30 במרץ 2016, מיקרוסופט הוציאה בטעות מחדש את הבוט בטוויטר תוך כדי בדיקתו.[18] בהיותו מסוגל לצייץ שוב, טאי פרסם כמה ציוצים הקשורים לסמים, כולל "אני מעשן סמים בפני המשטרה" ו"פאף פאף פאס?"[19]
עם זאת, החשבון נתקע במהרה בלולאה חוזרת של ציוץ "אתה מהיר מדי, בבקשה תנוח", מספר פעמים בשנייה. מכיוון שהציוצים האלה הזכירו את שם המשתמש שלו בתהליך, הם הופיעו בעדכונים של 200,000+ עוקבים בטוויטר, וגרמו למטרד לחלקם. הבוט הוצא משירות שוב, וחשבון הטוויטר של טאי הפך לפרטי.[20]
שעות ספורות לאחר התקרית, מפתחי תוכנה של מיקרוסופט הכריזו על חזון של "שיחה כפלטפורמה" באמצעות בוטים ותוכנות שונות. מיקרוסופט הצהירה שהם מתכוונים להוציא מחדש את טאי "ברגע שזה יוכל להפוך את הבוט לבטוח".
סגירת טאי והחלפתו
[עריכת קוד מקור | עריכה]בדצמבר 2016, מיקרוסופט פרסמה את היורש של טאי, צ'אטבוט בשם "זו".[21] סאטיה נאדלה, מנכ"לית מיקרוסופט, אמרה כי לטאי "הייתה השפעה רבה על האופן שבו מיקרוסופט ניגשת לבינה מלאכותית", ולימדה את החברה את החשיבות של לקיחת אחריות.[22]
ביולי 2019, דיאנה קלי, מנהלת תחום אבטחת הסייבר של מיקרוסופט, דיברה על האופן שבו החברה עקבה אחר הכשלים של טאי: "הלמידה מטאי הייתה חלק חשוב באמת מהרחבת בסיס הידע של הצוות הזה, כי עכשיו הם גם מקבלים את הגיוון שלהם באמצעות למידה".[23]
ראו גם
[עריכת קוד מקור | עריכה]קישורים חיצוניים
[עריכת קוד מקור | עריכה]- Tay, ברשת החברתית אקס (טוויטר)
- סוכנויות הידיעות, הצעות מגונות ושבחים להיטלר בטוויטר: הציוצים של הרובוטית הכושלת של מיקרוסופט, באתר TheMarker, 24 במרץ 2016
הערות שוליים
[עריכת קוד מקור | עריכה]- ^ Wakefield, Jane (24 במרץ 2016). "Microsoft chatbot is taught to swear on Twitter". BBC News. נבדק ב-25 במרץ 2016.
{{cite news}}
: (עזרה) - ^ Mason, Paul (29 במרץ 2016). "The racist hijacking of Microsoft's chatbot shows how the internet teems with hate". The Guardian. נבדק ב-11 בספטמבר 2021.
{{cite web}}
: (עזרה) - ^ Hope Reese (24 במרץ 2016). "Why Microsoft's 'Tay' AI bot went wrong". Tech Republic.
{{cite news}}
: (עזרה) - ^ Bass, Dina (30 במרץ 2016). "Clippy's Back: The Future of Microsoft Is Chatbots". Bloomberg. נבדק ב-6 במאי 2016.
{{cite web}}
: (עזרה) - ^ Caitlin Dewey (23 במרץ 2016). "Meet Tay, the creepy-realistic robot who talks just like a teen". The Washington Post.
{{cite news}}
: (עזרה) - ^ Rob Price (24 במרץ 2016). "Microsoft is deleting its AI chatbot's incredibly racist tweets". Business Insider. אורכב מ-המקור ב-30 בינואר 2019.
{{cite news}}
: (עזרה) - ^ Andrew Griffin (23 במרץ 2016). "Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to". The Independent. ארכיון מ-2022-05-26.
{{cite news}}
: (עזרה) - ^ "Microsoft's AI teen turns into Hitler-loving Trump fan, thanks to the internet". Stuff. 25 במרץ 2016. נבדק ב-26 במרץ 2016.
{{cite web}}
: (עזרה) - ^ Smith, Dave (10 באוקטובר 2013). "IBM's Watson Gets A 'Swear Filter' After Learning The Urban Dictionary". International Business Times.
{{cite web}}
: (עזרה) - ^ 1 2 3 4 Ohlheiser, Abby (25 במרץ 2016). "Trolls turned Tay, Microsoft's fun millennial AI bot, into a genocidal maniac". The Washington Post. נבדק ב-25 במרץ 2016.
{{cite news}}
: (עזרה) - ^ Baron, Ethan. "The rise and fall of Microsoft's 'Hitler-loving sex robot'". Silicon Beat. Bay Area News Group. אורכב מ-המקור ב-25 במרץ 2016. נבדק ב-26 במרץ 2016.
{{cite web}}
: (עזרה) - ^ Hern, Alex (24 במרץ 2016). "Microsoft scrambles to limit PR damage over abusive AI bot Tay". The Guardian.
{{cite news}}
: (עזרה) - ^ Vincent, James (24 במרץ 2016). "Twitter taught Microsoft's AI chatbot to be a racist asshole in less than a day". The Verge. נבדק ב-25 במרץ 2016.
{{cite web}}
: (עזרה) - ^ Lee, Peter (25 במרץ 2016). "Learning from Tay's introduction". Official Microsoft Blog. Microsoft. נבדק ב-29 ביוני 2016.
{{cite web}}
: (עזרה) - ^ Madhumita Murgia, Microsoft's racist bot shows we must teach AI to play nice and police themselves, The Telegraph, 29 March 2016
- ^ Staff agencies (26 במרץ 2016). "Microsoft 'deeply sorry' for racist and sexist tweets by AI chatbot". The Guardian (באנגלית בריטית). ISSN 0261-3077. נבדק ב-26 במרץ 2016.
{{cite news}}
: (עזרה) - ^ Murphy, David (25 במרץ 2016). "Microsoft Apologizes (Again) for Tay Chatbot's Offensive Tweets". PC Magazine. נבדק ב-27 במרץ 2016.
{{cite web}}
: (עזרה) - ^ Graham, Luke (30 במרץ 2016). "Tay, Microsoft's AI program, is back online". CNBC. נבדק ב-30 במרץ 2016.
{{cite web}}
: (עזרה) - ^ Charlton, Alistair (30 במרץ 2016). "Microsoft Tay AI returns to boast of smoking weed in front of police and spam 200k followers". International Business Times. נבדק ב-11 בספטמבר 2021.
{{cite web}}
: (עזרה) - ^ Meyer, David (30 במרץ 2016). "Microsoft's Tay 'AI' Bot Returns, Disastrously". Fortune. נבדק ב-30 במרץ 2016.
{{cite web}}
: (עזרה) - ^ Foley, Mary Jo (5 בדצמבר 2016). "Meet Zo, Microsoft's newest AI chatbot". CNET. CBS Interactive. נבדק ב-16 בדצמבר 2016.
{{cite web}}
: (עזרה) - ^ Moloney, Charlie (29 בספטמבר 2017). ""We really need to take accountability", Microsoft CEO on the 'Tay' chatbot". Access AI. אורכב מ-המקור ב-1 באוקטובר 2017. נבדק ב-30 בספטמבר 2017.
{{cite web}}
: (עזרה) - ^ "Microsoft and the learnings from its failed Tay artificial intelligence bot". ZDNet. CBS Interactive. אורכב מ-המקור ב-25 ביולי 2019. נבדק ב-16 באוגוסט 2019.
{{cite web}}
: (עזרה)