Вчера Фирма Microsoft запустила в твиттер чат-бота, с которым пользователи могли пообщаться на любую интересующую их тему. Поначалу виртуальная девушка по имени Тай весело шутила, была милой и приветливой, однако уже скоро она превратилась из миролюбивого собеседника в циника и мизантропа, ненавидящего людей.
" Tay" went from " humans are super cool" to full nazi in < 24 hrs and I' m not at all concerned about the future of AI pic. Твиттер. Com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 марта 2016 г.
На самом же деле Тай обучили ругательствам сами пользователи твиттер. Чат-бот, по существу, представляет собой подключенного к сети интернет робота-попугая, который учится высказываниям у людей. Если записаться к ИИ Microsoft со словами repeat after me (" повторяй за мной" ), ему можно заставить произнести любую фразу.
Непонятно, предвидела ли Microsoft такой поворот событий. На интернет представительстве организации сказано, что Тай разрабатывалась С использованием " релевантных открытых данных", которые были " смоделированы, очищены и отфильтрованы". С самого рассвета Microsoft удалила наиболее оскорбительные фразы виртуального " разума".
В организации подчеркнули, что чат-бот — это экспериментальный проект машинного обучения, который взаимодействует с людьми и учится у них, а так же среди них неуместным выражениям. Также Microsoft заявила, что " вносит коррективы в Тай".