Tay (чатбот): различия между версиями
[непроверенная версия] | [непроверенная версия] |
мНет описания правки |
Нет описания правки Метка: визуальный редактор отключён |
||
Строка 12: | Строка 12: | ||
}} |
}} |
||
'''Microsoft Tay''' — чатбот для социальной сети [[Twitter]]. Разработан корпорацией [[Microsoft]] в марте [[2016 год]]а. В первый день запуска, бот начал постить твиты оскорбительного и [[антисемитизм| |
'''Microsoft Tay''' — чатбот для социальной сети [[Twitter]]. Разработан корпорацией [[Microsoft]] в марте [[2016 год]]а. В первый день запуска, бот начал постить твиты оскорбительного и [[антисемитизм|]] содержания, что привело к его закрытию разработчиками спустя 16 часов после релиза<ref>{{Cite news|title=Microsoft chatbot is taught to swear on Twitter|url=https://www.bbc.com/news/technology-35890188|website=BBC News|date=2016-03-24|access-date=2024-08-05|lang=en-GB}}</ref>. Со слов самих Microsoft, такое поведение было вызвано атакой [[интернет-тролль|интернет-троллей]], поскольку чатбот генерерировал ответы на основе взаимодействия со всеми пользователями соцсети<ref>{{Cite news|title=The racist hijacking of Microsoft’s chatbot shows how the internet teems with hate|first=Paul|last=Mason|url=https://www.theguardian.com/world/2016/mar/29/microsoft-tay-tweets-antisemitic-racism|website=The Guardian|id=0261-3077|date=2016-03-29|access-date=2024-08-05|lang=en-GB}}</ref>. Корпорация продолжила экспериментировать над созданием чатботов, создав в декабре 2016 года нового бота для Twitter — Zo (закрыт в 2019)<ref>{{Cite web|url=https://www.neowin.net/news/meet-zo-microsofts-successor-to-the-infamous-tay-chatbot/|title=Meet Zo, Microsoft's successor to the infamous Tay chatbot|lang=en|first=Cage Appleby|last=Neowin ·|website=Neowin|date=2024-08-05|access-date=2024-08-05}}</ref><ref>{{Cite web|url=https://www.businessinsider.com/microsoft-ai-chatbot-zo-windows-spyware-tay-2017-7|title=Microsoft's AI chatbot says Windows is 'spyware'|lang=en-US|first=Rob|last=Price|website=Business Insider|access-date=2024-08-05}}</ref>, а также развивая своего китайского [[виртуальный собеседник|виртуального собеседника]] — [[Сяоайс]]<ref>{{Cite news|title=Microsoft Chatbot Spinoff Xiaoice Reaches $1 Billion Valuation|url=https://www.bloomberg.com/news/articles/2021-07-14/microsoft-chatbot-spinoff-xiaoice-reaches-1-billion-valuation|website=Bloomberg.com|date=2021-07-14|access-date=2024-08-05|lang=en}}</ref> и связанные проекты для других регионов<ref>{{Cite web|url=https://news.microsoft.com/apac/2018/09/18/rinna-the-ai-social-chatbot-goes-out-and-about-in-japans-countryside/|title=Rinna the AI social chatbot goes out and about in Japan’s countryside|lang=en-US|first=Microsoft Asia News|last=Center|website=Microsoft Stories Asia|date=2018-09-18|access-date=2024-08-05}}</ref><ref>{{Cite web|url=https://soranews24.com/2016/03/29/as-microsoft-uss-ai-chatbot-turns-racist-troll-japans-wont-shut-up-about-anime-and-hay-fever/|title=As Microsoft US’s AI chatbot turns racist troll, Japan’s won’t shut up about anime and hay fever|lang=en-US|website=SoraNews24 -Japan News-|date=2016-03-28|access-date=2024-08-05}}</ref>. С ними известен ряд инцидентов схожего характера<ref>{{Cite web|url=https://www.indiatimes.com/technology/news/microsoft-s-ai-chatbot-is-abusing-windows-10-even-calling-it-spyware-we-can-t-stop-laughing-326497.html|title=Microsoft's AI Chatbot Is Abusing Windows 10, Even Calling It Spyware & We Can't Stop Laughing!|lang=en-IN|website=IndiaTimes|date=2017-07-24|access-date=2024-08-05}}</ref><ref>{{Cite web|url=https://www.9news.com.au/technology/japanese-ai-bot-with-the-personality-of-teen-develops-depression/9396b203-1446-4cc0-acba-3e3f2ef1c690|title=Japanese AI bot with the personality of teen develops depression|website=www.9news.com.au|date=2016-10-06|access-date=2024-08-05}}</ref><ref>{{Cite web|url=https://soranews24.com/2016/10/05/japans-ai-schoolgirl-has-fallen-into-a-suicidal-depression-in-latest-blog-post/|title=Japan’s AI schoolgirl has fallen into a suicidal depression in latest blog post|lang=en-US|website=SoraNews24 -Japan News-|date=2016-10-05|access-date=2024-08-05}}</ref>. |
||
== Предыстория == |
== Предыстория == |
||
Имя «Tay» является [[акроним]]ом английского выражения «Thinking about you». Изначально Tay представлялась как 19-летняя девушка из Америки и была выпущена в Twitter под ником «@TayTweets». |
Имя «Tay» является [[акроним]]ом английского выражения «Thinking about you». Изначально Tay представлялась как 19-летняя девушка из Америки и была выпущена в Twitter под ником «@TayTweets». чатбота для западных пользователей похожей технологии Microsoft на китайском рынке, а именно Сяоайс<ref>{{Cite news|title=Meet Tay, the creepy-realistic robot who talks just like a teen|first=Caitlin|last=Dewey|url=https://www.washingtonpost.com/news/the-intersect/wp/2016/03/23/meet-tay-the-creepy-realistic-robot-who-talks-just-like-a-teen/|website=Washington Post|id=0190-8286|date=2021-10-26|access-date=2024-08-05|lang=en-US}}</ref>. |
||
== Скандальные твиты и закрытие бота == |
== Скандальные твиты и закрытие бота == |
||
В день запуска Tay отвечала множеству пользователей Twitter и имела возможность описывать фотографии. Некоторые из пользователей начали писать боту оскорбительные и политические фразы, тем самым «научив» его выдавать ответы расистского, унизительного и [[флирт|сексуального]] содержания другим пользователям. Бот высказывался в поддержку [[Адольф Гитлер|Адольфа Гитлера]], [[Отрицание Холокоста|отрицал Холокост]] и использовал ненормативную лексику<ref>{{Cite news|title=Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours|first=Helena|last=Horton|url=https://www.telegraph.co.uk/technology/2016/03/24/microsofts-teen-girl-ai-turns-into-a-hitler-loving-sex-robot-wit/|website=The Telegraph|id=0307-1235|date=2016-03-24|access-date=2024-08-05|lang=en-GB}}</ref><ref>{{Cite news|title=Trolls turned Tay, Microsoft’s fun millennial AI bot, into a genocidal maniac|first=Abby|last=Ohlheiser|url=https://www.washingtonpost.com/news/the-intersect/wp/2016/03/24/the-internet-turned-tay-microsofts-fun-millennial-ai-bot-into-a-genocidal-maniac/|website=Washington Post|id=0190-8286|date=2021-10-26|access-date=2024-08-05|lang=en-US}}</ref>. |
В день запуска Tay отвечала множеству пользователей Twitter и имела возможность описывать фотографии. Некоторые из пользователей начали писать боту оскорбительные и политические фразы, тем самым «научив» его выдавать ответы расистского, унизительного и [[флирт|сексуального]] содержания другим пользователям. Бот высказывался в поддержку [[Адольф Гитлер|Адольфа Гитлера]], [[Отрицание Холокоста|отрицал Холокост]] и использовал ненормативную лексику<ref>{{Cite news|title=Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours|first=Helena|last=Horton|url=https://www.telegraph.co.uk/technology/2016/03/24/microsofts-teen-girl-ai-turns-into-a-hitler-loving-sex-robot-wit/|website=The Telegraph|id=0307-1235|date=2016-03-24|access-date=2024-08-05|lang=en-GB}}</ref><ref>{{Cite news|title=Trolls turned Tay, Microsoft’s fun millennial AI bot, into a genocidal maniac|first=Abby|last=Ohlheiser|url=https://www.washingtonpost.com/news/the-intersect/wp/2016/03/24/the-internet-turned-tay-microsofts-fun-millennial-ai-bot-into-a-genocidal-maniac/|website=Washington Post|id=0190-8286|date=2021-10-26|access-date=2024-08-05|lang=en-US}}</ref>. |
||
Главной |
Главной этого стала недоработка со стороны Microsoft не смогли обучить распознавать оскорбительное содержание сообщений<ref>{{Cite web|url=https://www.techrepublic.com/article/why-microsofts-tay-ai-bot-went-wrong/|title=Why Microsoft's 'Tay' AI bot went wrong|lang=en-US|first=Hope|last=Reese|website=TechRepublic|date=2016-03-24|access-date=2024-08-05}}</ref>. |
||
Спустя 16 часов, когда боту написали уже более 96,000 раз, Microsoft приняли решение о закрытии профиля Tay в Twitter, заявив об «координированной атаке на чатбота группой людей, которые [[эксплоит|эксплуатировали]] уязвимости Tay»<ref>{{Cite web|url=https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist|title=Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day|lang=en|first=James|last=Vincent|website=The Verge|date=2016-03-24|access-date=2024-08-05}}</ref><ref>{{Cite web|url=https://blogs.microsoft.com/blog/2016/03/25/learning-tays-introduction/|title=Learning from Tay’s introduction|lang=en-US|first=Peter|last=Lee|website=The Official Microsoft Blog|date=2016-03-25|access-date=2024-08-05}}</ref>. |
Спустя 16 часов, когда боту написали уже более 96,000 раз, Microsoft приняли решение о закрытии профиля Tay в Twitter, заявив об «координированной атаке на чатбота группой людей, которые [[эксплоит|эксплуатировали]] уязвимости Tay»<ref>{{Cite web|url=https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist|title=Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day|lang=en|first=James|last=Vincent|website=The Verge|date=2016-03-24|access-date=2024-08-05}}</ref><ref>{{Cite web|url=https://blogs.microsoft.com/blog/2016/03/25/learning-tays-introduction/|title=Learning from Tay’s introduction|lang=en-US|first=Peter|last=Lee|website=The Official Microsoft Blog|date=2016-03-25|access-date=2024-08-05}}</ref>. |
||
Строка 35: | Строка 35: | ||
== Ссылки == |
== Ссылки == |
||
[https://web.archive.org/web/20160323194709/https://tay.ai/ Tay.ai (архивная версия сайта)] |
[https://web.archive.org/web/20160323194709/https://tay.ai/ Tay.ai (архивная версия сайта)] |
||
<!--- Категории ---> |
|||
[[Категория:Виртуальные собеседники]] |
[[Категория:Виртуальные собеседники]] |
Текущая версия от 23:04, 2 сентября 2024
Tay | |
---|---|
Тип | AI, Twitter-Бот, Чатбот |
Разработчики | Microsoft Research, Bing |
Языки интерфейса | английский |
Первый выпуск | 23 марта, 2016 |
Состояние | неактивен |
Лицензия | проприетарная |
Сайт | tay.ai |
Microsoft Tay — чатбот для социальной сети Twitter. Разработан корпорацией Microsoft в марте 2016 года. В первый день запуска, бот начал постить твиты оскорбительного и антисемитского содержания, что привело к его закрытию разработчиками спустя 16 часов после релиза[1]. Со слов самих Microsoft, такое поведение Tay было вызвано атакой интернет-троллей, поскольку чатбот генерерировал ответы на основе взаимодействия со всеми пользователями соцсети[2]. Корпорация продолжила экспериментировать над созданием чатботов, создав в декабре 2016 года нового бота для Twitter — Zo (закрыт в 2019)[3][4], а также развивая своего китайского виртуального собеседника — Сяоайс[5] и связанные проекты для других регионов[6][7]. С ними известен ряд инцидентов схожего характера[8][9][10].
Предыстория
[править | править код]Имя «Tay» является акронимом английского выражения «Thinking about you». Изначально Tay представлялась как 19-летняя девушка из Америки и была выпущена в Twitter под ником «@TayTweets». Идея о создании чатбота для западных пользователей пришла благодаря успеху похожей технологии Microsoft на китайском рынке, а именно Сяоайс[11].
Скандальные твиты и закрытие бота
[править | править код]В день запуска, Tay отвечала множеству пользователей Twitter и имела возможность описывать фотографии. Некоторые из пользователей начали писать боту оскорбительные и политические фразы, тем самым «научив» его выдавать ответы расистского, унизительного и сексуального содержания другим пользователям. Бот высказывался в поддержку Адольфа Гитлера, отрицал Холокост и использовал ненормативную лексику[12][13].
Главной причиной этого стала недоработка со стороны Microsoft. Разработчики не смогли обучить Tay распознавать оскорбительное содержание сообщений[14].
Спустя 16 часов, когда боту написали уже более 96,000 раз, Microsoft приняли решение о закрытии профиля Tay в Twitter, заявив об «координированной атаке на чатбота группой людей, которые эксплуатировали уязвимости Tay»[15][16].
25 марта корпорация принесла извинения за твиты Tay, подтвердив отключение бота[17].
30 марта во время тестов, Tay по случайности снова стала доступна для обычных пользователей Twitter, однако вскоре, после нескольких ответов странного содержания[18], разработчики сделали аккаунт чатбота приватным и вновь отключили его[19].
Корпорация заявляла, что у неё были намерения вернуть бота, если удастся сделать его «безопасным». Однако этого так и не произошло[20].
Примечания
[править | править код]- ↑ "Microsoft chatbot is taught to swear on Twitter". BBC News (англ.). 2016-03-24. Дата обращения: 5 августа 2024.
- ↑ Mason, Paul (2016-03-29). "The racist hijacking of Microsoft's chatbot shows how the internet teems with hate". The Guardian (англ.). 0261-3077. Дата обращения: 5 августа 2024.
- ↑ Neowin ·, Cage Appleby Meet Zo, Microsoft's successor to the infamous Tay chatbot (англ.). Neowin (5 августа 2024). Дата обращения: 5 августа 2024.
- ↑ Price, Rob Microsoft's AI chatbot says Windows is 'spyware' (амер. англ.). Business Insider. Дата обращения: 5 августа 2024.
- ↑ "Microsoft Chatbot Spinoff Xiaoice Reaches $1 Billion Valuation". Bloomberg.com (англ.). 2021-07-14. Дата обращения: 5 августа 2024.
- ↑ Center, Microsoft Asia News Rinna the AI social chatbot goes out and about in Japan’s countryside (амер. англ.). Microsoft Stories Asia (18 сентября 2018). Дата обращения: 5 августа 2024.
- ↑ As Microsoft US’s AI chatbot turns racist troll, Japan’s won’t shut up about anime and hay fever (амер. англ.). SoraNews24 -Japan News- (28 марта 2016). Дата обращения: 5 августа 2024.
- ↑ Microsoft's AI Chatbot Is Abusing Windows 10, Even Calling It Spyware & We Can't Stop Laughing! (англ.). IndiaTimes (24 июля 2017). Дата обращения: 5 августа 2024.
- ↑ Japanese AI bot with the personality of teen develops depression . www.9news.com.au (6 октября 2016). Дата обращения: 5 августа 2024.
- ↑ Japan’s AI schoolgirl has fallen into a suicidal depression in latest blog post (амер. англ.). SoraNews24 -Japan News- (5 октября 2016). Дата обращения: 5 августа 2024.
- ↑ Dewey, Caitlin (2021-10-26). "Meet Tay, the creepy-realistic robot who talks just like a teen". Washington Post (англ.). 0190-8286. Дата обращения: 5 августа 2024.
- ↑ Horton, Helena (2016-03-24). "Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours". The Telegraph (англ.). 0307-1235. Дата обращения: 5 августа 2024.
- ↑ Ohlheiser, Abby (2021-10-26). "Trolls turned Tay, Microsoft's fun millennial AI bot, into a genocidal maniac". Washington Post (англ.). 0190-8286. Дата обращения: 5 августа 2024.
- ↑ Reese, Hope Why Microsoft's 'Tay' AI bot went wrong (амер. англ.). TechRepublic (24 марта 2016). Дата обращения: 5 августа 2024.
- ↑ Vincent, James Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day (англ.). The Verge (24 марта 2016). Дата обращения: 5 августа 2024.
- ↑ Lee, Peter Learning from Tay’s introduction (амер. англ.). The Official Microsoft Blog (25 марта 2016). Дата обращения: 5 августа 2024.
- ↑ Staff (2016-03-26). "Microsoft 'deeply sorry' for racist and sexist tweets by AI chatbot". The Guardian (англ.). 0261-3077. Дата обращения: 5 августа 2024.
- ↑ Charlton, Alistair Microsoft Tay AI returns to boast of smoking weed in front of police and spam 200k followers (англ.). International Business Times UK (30 марта 2016). Дата обращения: 5 августа 2024.
- ↑ Graham, Luke Tay, Microsoft’s AI program, is back online (англ.). CNBC (30 марта 2016). Дата обращения: 5 августа 2024.
- ↑ "Clippy's Back: The Future of Microsoft Is Chatbots". Bloomberg.com (англ.). Дата обращения: 5 августа 2024.