Tay (чатбот): различия между версиями

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску
[непроверенная версия][непроверенная версия]
Содержимое удалено Содержимое добавлено
мНет описания правки
Нет описания правки
 
Строка 12: Строка 12:
}}
}}


'''Microsoft Tay''' — чатбот для социальной сети [[Twitter]]. Разработан корпорацией [[Microsoft]] в марте [[2016 год]]а. В первый день запуска, бот начал постить твиты оскорбительного и [[антисемитизм|антисемистского]] содержания, что привело к его закрытию разработчиками спустя 16 часов после релиза<ref>{{Cite news|title=Microsoft chatbot is taught to swear on Twitter|url=https://www.bbc.com/news/technology-35890188|website=BBC News|date=2016-03-24|access-date=2024-08-05|lang=en-GB}}</ref>. Со слов самих Microsoft, такое поведение бота было вызвано атакой [[интернет-тролль|интернет-троллей]], поскольку чатбот генерерировал ответы на основе взаимодействия со всеми пользователями соцсети<ref>{{Cite news|title=The racist hijacking of Microsoft’s chatbot shows how the internet teems with hate|first=Paul|last=Mason|url=https://www.theguardian.com/world/2016/mar/29/microsoft-tay-tweets-antisemitic-racism|website=The Guardian|id=0261-3077|date=2016-03-29|access-date=2024-08-05|lang=en-GB}}</ref>. Корпорация продолжила экспериментировать над созданием чатботов, создав в декабре 2016 года нового бота для Twitter — Zo (закрыт в 2019)<ref>{{Cite web|url=https://www.neowin.net/news/meet-zo-microsofts-successor-to-the-infamous-tay-chatbot/|title=Meet Zo, Microsoft's successor to the infamous Tay chatbot|lang=en|first=Cage Appleby|last=Neowin ·|website=Neowin|date=2024-08-05|access-date=2024-08-05}}</ref><ref>{{Cite web|url=https://www.businessinsider.com/microsoft-ai-chatbot-zo-windows-spyware-tay-2017-7|title=Microsoft's AI chatbot says Windows is 'spyware'|lang=en-US|first=Rob|last=Price|website=Business Insider|access-date=2024-08-05}}</ref>, а также развивая своего китайского [[виртуальный собеседник|виртуального собеседника]] — [[Сяоайс]]<ref>{{Cite news|title=Microsoft Chatbot Spinoff Xiaoice Reaches $1 Billion Valuation|url=https://www.bloomberg.com/news/articles/2021-07-14/microsoft-chatbot-spinoff-xiaoice-reaches-1-billion-valuation|website=Bloomberg.com|date=2021-07-14|access-date=2024-08-05|lang=en}}</ref> и связанные проекты для других регионов<ref>{{Cite web|url=https://news.microsoft.com/apac/2018/09/18/rinna-the-ai-social-chatbot-goes-out-and-about-in-japans-countryside/|title=Rinna the AI social chatbot goes out and about in Japan’s countryside|lang=en-US|first=Microsoft Asia News|last=Center|website=Microsoft Stories Asia|date=2018-09-18|access-date=2024-08-05}}</ref><ref>{{Cite web|url=https://soranews24.com/2016/03/29/as-microsoft-uss-ai-chatbot-turns-racist-troll-japans-wont-shut-up-about-anime-and-hay-fever/|title=As Microsoft US’s AI chatbot turns racist troll, Japan’s won’t shut up about anime and hay fever|lang=en-US|website=SoraNews24 -Japan News-|date=2016-03-28|access-date=2024-08-05}}</ref>. С ними известен ряд инцидентов схожего характера<ref>{{Cite web|url=https://www.indiatimes.com/technology/news/microsoft-s-ai-chatbot-is-abusing-windows-10-even-calling-it-spyware-we-can-t-stop-laughing-326497.html|title=Microsoft's AI Chatbot Is Abusing Windows 10, Even Calling It Spyware & We Can't Stop Laughing!|lang=en-IN|website=IndiaTimes|date=2017-07-24|access-date=2024-08-05}}</ref><ref>{{Cite web|url=https://www.9news.com.au/technology/japanese-ai-bot-with-the-personality-of-teen-develops-depression/9396b203-1446-4cc0-acba-3e3f2ef1c690|title=Japanese AI bot with the personality of teen develops depression|website=www.9news.com.au|date=2016-10-06|access-date=2024-08-05}}</ref><ref>{{Cite web|url=https://soranews24.com/2016/10/05/japans-ai-schoolgirl-has-fallen-into-a-suicidal-depression-in-latest-blog-post/|title=Japan’s AI schoolgirl has fallen into a suicidal depression in latest blog post|lang=en-US|website=SoraNews24 -Japan News-|date=2016-10-05|access-date=2024-08-05}}</ref>.
'''Microsoft Tay''' — чатбот для социальной сети [[Twitter]]. Разработан корпорацией [[Microsoft]] в марте [[2016 год]]а. В первый день запуска, бот начал постить твиты оскорбительного и [[антисемитизм|]] содержания, что привело к его закрытию разработчиками спустя 16 часов после релиза<ref>{{Cite news|title=Microsoft chatbot is taught to swear on Twitter|url=https://www.bbc.com/news/technology-35890188|website=BBC News|date=2016-03-24|access-date=2024-08-05|lang=en-GB}}</ref>. Со слов самих Microsoft, такое поведение было вызвано атакой [[интернет-тролль|интернет-троллей]], поскольку чатбот генерерировал ответы на основе взаимодействия со всеми пользователями соцсети<ref>{{Cite news|title=The racist hijacking of Microsoft’s chatbot shows how the internet teems with hate|first=Paul|last=Mason|url=https://www.theguardian.com/world/2016/mar/29/microsoft-tay-tweets-antisemitic-racism|website=The Guardian|id=0261-3077|date=2016-03-29|access-date=2024-08-05|lang=en-GB}}</ref>. Корпорация продолжила экспериментировать над созданием чатботов, создав в декабре 2016 года нового бота для Twitter — Zo (закрыт в 2019)<ref>{{Cite web|url=https://www.neowin.net/news/meet-zo-microsofts-successor-to-the-infamous-tay-chatbot/|title=Meet Zo, Microsoft's successor to the infamous Tay chatbot|lang=en|first=Cage Appleby|last=Neowin ·|website=Neowin|date=2024-08-05|access-date=2024-08-05}}</ref><ref>{{Cite web|url=https://www.businessinsider.com/microsoft-ai-chatbot-zo-windows-spyware-tay-2017-7|title=Microsoft's AI chatbot says Windows is 'spyware'|lang=en-US|first=Rob|last=Price|website=Business Insider|access-date=2024-08-05}}</ref>, а также развивая своего китайского [[виртуальный собеседник|виртуального собеседника]] — [[Сяоайс]]<ref>{{Cite news|title=Microsoft Chatbot Spinoff Xiaoice Reaches $1 Billion Valuation|url=https://www.bloomberg.com/news/articles/2021-07-14/microsoft-chatbot-spinoff-xiaoice-reaches-1-billion-valuation|website=Bloomberg.com|date=2021-07-14|access-date=2024-08-05|lang=en}}</ref> и связанные проекты для других регионов<ref>{{Cite web|url=https://news.microsoft.com/apac/2018/09/18/rinna-the-ai-social-chatbot-goes-out-and-about-in-japans-countryside/|title=Rinna the AI social chatbot goes out and about in Japan’s countryside|lang=en-US|first=Microsoft Asia News|last=Center|website=Microsoft Stories Asia|date=2018-09-18|access-date=2024-08-05}}</ref><ref>{{Cite web|url=https://soranews24.com/2016/03/29/as-microsoft-uss-ai-chatbot-turns-racist-troll-japans-wont-shut-up-about-anime-and-hay-fever/|title=As Microsoft US’s AI chatbot turns racist troll, Japan’s won’t shut up about anime and hay fever|lang=en-US|website=SoraNews24 -Japan News-|date=2016-03-28|access-date=2024-08-05}}</ref>. С ними известен ряд инцидентов схожего характера<ref>{{Cite web|url=https://www.indiatimes.com/technology/news/microsoft-s-ai-chatbot-is-abusing-windows-10-even-calling-it-spyware-we-can-t-stop-laughing-326497.html|title=Microsoft's AI Chatbot Is Abusing Windows 10, Even Calling It Spyware & We Can't Stop Laughing!|lang=en-IN|website=IndiaTimes|date=2017-07-24|access-date=2024-08-05}}</ref><ref>{{Cite web|url=https://www.9news.com.au/technology/japanese-ai-bot-with-the-personality-of-teen-develops-depression/9396b203-1446-4cc0-acba-3e3f2ef1c690|title=Japanese AI bot with the personality of teen develops depression|website=www.9news.com.au|date=2016-10-06|access-date=2024-08-05}}</ref><ref>{{Cite web|url=https://soranews24.com/2016/10/05/japans-ai-schoolgirl-has-fallen-into-a-suicidal-depression-in-latest-blog-post/|title=Japan’s AI schoolgirl has fallen into a suicidal depression in latest blog post|lang=en-US|website=SoraNews24 -Japan News-|date=2016-10-05|access-date=2024-08-05}}</ref>.


== Предыстория ==
== Предыстория ==
Имя «Tay» является [[акроним]]ом английского выражения «Thinking about you». Изначально Tay представлялась как 19-летняя девушка из Америки и была выпущена в Twitter под ником «@TayTweets». Создание чатбота для западных пользователей было во многом вдохновлено успехом похожей технологии Microsoft на китайском рынке, а именно Сяоайс<ref>{{Cite news|title=Meet Tay, the creepy-realistic robot who talks just like a teen|first=Caitlin|last=Dewey|url=https://www.washingtonpost.com/news/the-intersect/wp/2016/03/23/meet-tay-the-creepy-realistic-robot-who-talks-just-like-a-teen/|website=Washington Post|id=0190-8286|date=2021-10-26|access-date=2024-08-05|lang=en-US}}</ref>.
Имя «Tay» является [[акроним]]ом английского выражения «Thinking about you». Изначально Tay представлялась как 19-летняя девушка из Америки и была выпущена в Twitter под ником «@TayTweets». чатбота для западных пользователей похожей технологии Microsoft на китайском рынке, а именно Сяоайс<ref>{{Cite news|title=Meet Tay, the creepy-realistic robot who talks just like a teen|first=Caitlin|last=Dewey|url=https://www.washingtonpost.com/news/the-intersect/wp/2016/03/23/meet-tay-the-creepy-realistic-robot-who-talks-just-like-a-teen/|website=Washington Post|id=0190-8286|date=2021-10-26|access-date=2024-08-05|lang=en-US}}</ref>.


== Скандальные твиты и закрытие бота ==
== Скандальные твиты и закрытие бота ==
В день запуска Tay отвечала множеству пользователей Twitter и имела возможность описывать фотографии. Некоторые из пользователей начали писать боту оскорбительные и политические фразы, тем самым «научив» его выдавать ответы расистского, унизительного и [[флирт|сексуального]] содержания другим пользователям. Бот высказывался в поддержку [[Адольф Гитлер|Адольфа Гитлера]], [[Отрицание Холокоста|отрицал Холокост]] и использовал ненормативную лексику<ref>{{Cite news|title=Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours|first=Helena|last=Horton|url=https://www.telegraph.co.uk/technology/2016/03/24/microsofts-teen-girl-ai-turns-into-a-hitler-loving-sex-robot-wit/|website=The Telegraph|id=0307-1235|date=2016-03-24|access-date=2024-08-05|lang=en-GB}}</ref><ref>{{Cite news|title=Trolls turned Tay, Microsoft’s fun millennial AI bot, into a genocidal maniac|first=Abby|last=Ohlheiser|url=https://www.washingtonpost.com/news/the-intersect/wp/2016/03/24/the-internet-turned-tay-microsofts-fun-millennial-ai-bot-into-a-genocidal-maniac/|website=Washington Post|id=0190-8286|date=2021-10-26|access-date=2024-08-05|lang=en-US}}</ref>.
В день запуска Tay отвечала множеству пользователей Twitter и имела возможность описывать фотографии. Некоторые из пользователей начали писать боту оскорбительные и политические фразы, тем самым «научив» его выдавать ответы расистского, унизительного и [[флирт|сексуального]] содержания другим пользователям. Бот высказывался в поддержку [[Адольф Гитлер|Адольфа Гитлера]], [[Отрицание Холокоста|отрицал Холокост]] и использовал ненормативную лексику<ref>{{Cite news|title=Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours|first=Helena|last=Horton|url=https://www.telegraph.co.uk/technology/2016/03/24/microsofts-teen-girl-ai-turns-into-a-hitler-loving-sex-robot-wit/|website=The Telegraph|id=0307-1235|date=2016-03-24|access-date=2024-08-05|lang=en-GB}}</ref><ref>{{Cite news|title=Trolls turned Tay, Microsoft’s fun millennial AI bot, into a genocidal maniac|first=Abby|last=Ohlheiser|url=https://www.washingtonpost.com/news/the-intersect/wp/2016/03/24/the-internet-turned-tay-microsofts-fun-millennial-ai-bot-into-a-genocidal-maniac/|website=Washington Post|id=0190-8286|date=2021-10-26|access-date=2024-08-05|lang=en-US}}</ref>.


Главной проблемой этого стала недоработка со стороны разработчиков Microsoft, из за того что они не смогли обучить бота распознавать оскорбительное содержание сообщений<ref>{{Cite web|url=https://www.techrepublic.com/article/why-microsofts-tay-ai-bot-went-wrong/|title=Why Microsoft's 'Tay' AI bot went wrong|lang=en-US|first=Hope|last=Reese|website=TechRepublic|date=2016-03-24|access-date=2024-08-05}}</ref>.
Главной этого стала недоработка со стороны Microsoft не смогли обучить распознавать оскорбительное содержание сообщений<ref>{{Cite web|url=https://www.techrepublic.com/article/why-microsofts-tay-ai-bot-went-wrong/|title=Why Microsoft's 'Tay' AI bot went wrong|lang=en-US|first=Hope|last=Reese|website=TechRepublic|date=2016-03-24|access-date=2024-08-05}}</ref>.


Спустя 16 часов, когда боту написали уже более 96,000 раз, Microsoft приняли решение о закрытии профиля Tay в Twitter, заявив об «координированной атаке на чатбота группой людей, которые [[эксплоит|эксплуатировали]] уязвимости Tay»<ref>{{Cite web|url=https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist|title=Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day|lang=en|first=James|last=Vincent|website=The Verge|date=2016-03-24|access-date=2024-08-05}}</ref><ref>{{Cite web|url=https://blogs.microsoft.com/blog/2016/03/25/learning-tays-introduction/|title=Learning from Tay’s introduction|lang=en-US|first=Peter|last=Lee|website=The Official Microsoft Blog|date=2016-03-25|access-date=2024-08-05}}</ref>.
Спустя 16 часов, когда боту написали уже более 96,000 раз, Microsoft приняли решение о закрытии профиля Tay в Twitter, заявив об «координированной атаке на чатбота группой людей, которые [[эксплоит|эксплуатировали]] уязвимости Tay»<ref>{{Cite web|url=https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist|title=Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day|lang=en|first=James|last=Vincent|website=The Verge|date=2016-03-24|access-date=2024-08-05}}</ref><ref>{{Cite web|url=https://blogs.microsoft.com/blog/2016/03/25/learning-tays-introduction/|title=Learning from Tay’s introduction|lang=en-US|first=Peter|last=Lee|website=The Official Microsoft Blog|date=2016-03-25|access-date=2024-08-05}}</ref>.
Строка 35: Строка 35:
== Ссылки ==
== Ссылки ==
[https://web.archive.org/web/20160323194709/https://tay.ai/ Tay.ai (архивная версия сайта)]
[https://web.archive.org/web/20160323194709/https://tay.ai/ Tay.ai (архивная версия сайта)]

<!--- Категории --->


[[Категория:Виртуальные собеседники]]
[[Категория:Виртуальные собеседники]]

Текущая версия от 23:04, 2 сентября 2024

Tay
Тип AI, Twitter-Бот, Чатбот
Разработчики Microsoft Research, Bing
Языки интерфейса английский
Первый выпуск 23 марта, 2016
Состояние неактивен
Лицензия проприетарная
Сайт tay.ai

Microsoft Tay — чатбот для социальной сети Twitter. Разработан корпорацией Microsoft в марте 2016 года. В первый день запуска, бот начал постить твиты оскорбительного и антисемитского содержания, что привело к его закрытию разработчиками спустя 16 часов после релиза[1]. Со слов самих Microsoft, такое поведение Tay было вызвано атакой интернет-троллей, поскольку чатбот генерерировал ответы на основе взаимодействия со всеми пользователями соцсети[2]. Корпорация продолжила экспериментировать над созданием чатботов, создав в декабре 2016 года нового бота для Twitter — Zo (закрыт в 2019)[3][4], а также развивая своего китайского виртуального собеседника — Сяоайс[5] и связанные проекты для других регионов[6][7]. С ними известен ряд инцидентов схожего характера[8][9][10].

Предыстория

[править | править код]

Имя «Tay» является акронимом английского выражения «Thinking about you». Изначально Tay представлялась как 19-летняя девушка из Америки и была выпущена в Twitter под ником «@TayTweets». Идея о создании чатбота для западных пользователей пришла благодаря успеху похожей технологии Microsoft на китайском рынке, а именно Сяоайс[11].

Скандальные твиты и закрытие бота

[править | править код]

В день запуска, Tay отвечала множеству пользователей Twitter и имела возможность описывать фотографии. Некоторые из пользователей начали писать боту оскорбительные и политические фразы, тем самым «научив» его выдавать ответы расистского, унизительного и сексуального содержания другим пользователям. Бот высказывался в поддержку Адольфа Гитлера, отрицал Холокост и использовал ненормативную лексику[12][13].

Главной причиной этого стала недоработка со стороны Microsoft. Разработчики не смогли обучить Tay распознавать оскорбительное содержание сообщений[14].

Спустя 16 часов, когда боту написали уже более 96,000 раз, Microsoft приняли решение о закрытии профиля Tay в Twitter, заявив об «координированной атаке на чатбота группой людей, которые эксплуатировали уязвимости Tay»[15][16].

25 марта корпорация принесла извинения за твиты Tay, подтвердив отключение бота[17].

30 марта во время тестов, Tay по случайности снова стала доступна для обычных пользователей Twitter, однако вскоре, после нескольких ответов странного содержания[18], разработчики сделали аккаунт чатбота приватным и вновь отключили его[19].

Корпорация заявляла, что у неё были намерения вернуть бота, если удастся сделать его «безопасным». Однако этого так и не произошло[20].

Примечания

[править | править код]
  1. "Microsoft chatbot is taught to swear on Twitter". BBC News (англ.). 2016-03-24. Дата обращения: 5 августа 2024.
  2. Mason, Paul (2016-03-29). "The racist hijacking of Microsoft's chatbot shows how the internet teems with hate". The Guardian (англ.). 0261-3077. Дата обращения: 5 августа 2024.
  3. Neowin ·, Cage Appleby Meet Zo, Microsoft's successor to the infamous Tay chatbot (англ.). Neowin (5 августа 2024). Дата обращения: 5 августа 2024.
  4. Price, Rob Microsoft's AI chatbot says Windows is 'spyware' (амер. англ.). Business Insider. Дата обращения: 5 августа 2024.
  5. "Microsoft Chatbot Spinoff Xiaoice Reaches $1 Billion Valuation". Bloomberg.com (англ.). 2021-07-14. Дата обращения: 5 августа 2024.
  6. Center, Microsoft Asia News Rinna the AI social chatbot goes out and about in Japan’s countryside (амер. англ.). Microsoft Stories Asia (18 сентября 2018). Дата обращения: 5 августа 2024.
  7. As Microsoft US’s AI chatbot turns racist troll, Japan’s won’t shut up about anime and hay fever (амер. англ.). SoraNews24 -Japan News- (28 марта 2016). Дата обращения: 5 августа 2024.
  8. Microsoft's AI Chatbot Is Abusing Windows 10, Even Calling It Spyware & We Can't Stop Laughing! (англ.). IndiaTimes (24 июля 2017). Дата обращения: 5 августа 2024.
  9. Japanese AI bot with the personality of teen develops depression. www.9news.com.au (6 октября 2016). Дата обращения: 5 августа 2024.
  10. Japan’s AI schoolgirl has fallen into a suicidal depression in latest blog post (амер. англ.). SoraNews24 -Japan News- (5 октября 2016). Дата обращения: 5 августа 2024.
  11. Dewey, Caitlin (2021-10-26). "Meet Tay, the creepy-realistic robot who talks just like a teen". Washington Post (англ.). 0190-8286. Дата обращения: 5 августа 2024.
  12. Horton, Helena (2016-03-24). "Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours". The Telegraph (англ.). 0307-1235. Дата обращения: 5 августа 2024.
  13. Ohlheiser, Abby (2021-10-26). "Trolls turned Tay, Microsoft's fun millennial AI bot, into a genocidal maniac". Washington Post (англ.). 0190-8286. Дата обращения: 5 августа 2024.
  14. Reese, Hope Why Microsoft's 'Tay' AI bot went wrong (амер. англ.). TechRepublic (24 марта 2016). Дата обращения: 5 августа 2024.
  15. Vincent, James Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day (англ.). The Verge (24 марта 2016). Дата обращения: 5 августа 2024.
  16. Lee, Peter Learning from Tay’s introduction (амер. англ.). The Official Microsoft Blog (25 марта 2016). Дата обращения: 5 августа 2024.
  17. Staff (2016-03-26). "Microsoft 'deeply sorry' for racist and sexist tweets by AI chatbot". The Guardian (англ.). 0261-3077. Дата обращения: 5 августа 2024.
  18. Charlton, Alistair Microsoft Tay AI returns to boast of smoking weed in front of police and spam 200k followers (англ.). International Business Times UK (30 марта 2016). Дата обращения: 5 августа 2024.
  19. Graham, Luke Tay, Microsoft’s AI program, is back online (англ.). CNBC (30 марта 2016). Дата обращения: 5 августа 2024.
  20. "Clippy's Back: The Future of Microsoft Is Chatbots". Bloomberg.com (англ.). Дата обращения: 5 августа 2024.

Tay.ai (архивная версия сайта)