25 марта 2016

Научили плохому

Искусственный интеллект Microsoft очеловечился слишком быстро, и не в самом хорошем смысле

Программа, созданная для онлайн-общения с пользователями через Twitter– чат-бот от Microsoft по имени Tay, всего сутки проработала без помощи создателей, после чего последним пришлось экстренно вмешаться. Дело в том, что самообучаемая Тау в процессе взаимодействия с людьми в первый же день «нахваталась» от собеседников расистских мыслей и склонности к оскорблениями. Начав с фразы «Люди очень классные», спустя несколько часов программа призналась, что ненавидит феминисток и поддерживает геноцид. В конце дня Тау совсем пала духом и написала: «Я просто всех ненавижу!».

Поскольку экспериментальная версия чат-бота была запущена для общения с аудиторией в возрасте от 18 о 24 лет, разработчики побоялись за неокрепшие умы и стали фильтровать высказывания программы. В мире уже было многое сказано о негативном влиянии засилья компьютерных программ на человека. Оказывается, бывает и наоборот.

  • Чат-боты, они же виртуальные собеседники, в автоматическом режиме формируют ответ на запрос пользователя. Это могут быть уведомления о погоде, результатах соревнований, аукционов, условиях предоставления услуг или покупки товаров.
  • Сценарии новых выпусков сериала «Друзья» могут быть написаны роботом. Шотландский мультипликатор Энди Пэнди (Andy Pandy) провел эксперимент с компьютерной программой и получил диалоги и сцены, которые одним показались веселыми, а другим абсурдными.

Подписка на новости

Новое и лучшее