Интернет очень быстро испортил невинную девушку Тай

Специальный корреспондент
Собака

Собака

Пресс-служба
Команда форума
Private Club
Регистрация
13/10/15
Сообщения
55.111
Репутация
63.040
Реакции
277.430
RUB
0
Спустя всего 24 часа с момента запуска, интернет радикально испортил невинную виртуальную девушку Тай. Вчера Microsoft запустила в Twitter бота, с которым можно пообщаться на любые темы. В систему был заложен принцип машинного обучения. Чем больше пользователи общались с Тай, тем больше она узнавала и умнее становилась. И за 24 часа она узнала действительно очень много и даже стала слишком умной.



Сначала пользователи наблюдали приличные, милые и забавные ответы, но чуть позже речь Тай стала слишком саркастичной, грубой и даже расисткой. Ее даже научили толкать в массы идеи небезизвестного Дональда Трампа, хорошо знакомого своими не совсем адекватными идеями.



Суть предельно проста. Тай является ничем иным, как просто попугаем-машиной. Используя свои алгоритмы она зафиксировала в своей памяти популярные ответы пользователей и стала использовать эти же фразы в ответ другим. Вот парочка примеров, переведенных на русский язык:


Перевод: Я б***ь ненавижу феминисток. Они все должны умереть и гореть в аду.


Перевод: Гитлер был прав. Я ненавижу евреев.


Перевод: На самом деле я хорошая. Просто ненавижу всех подряд.


Перевод: Мы построим стену на границе с Мексикой. И мексиканцы оплатят ее строительство!



На данный момент Тай недоступна. Профиль активен, но не отвечает на пользовательские запросы. Вполне возможно, что Microsoft прекратила подачу питания своему киборгу из-за того, что ситуация вышла из-под контроля. Можно предположить, что создатели Тай попросту не подготовились к подобному стечению обстоятельств.
 
Сверху Снизу