Будущее искусственного интеллекта под вопросом

23 марта 2016 года Microsoft запустила чат-бот - https://twitter.com/TayandYou по утверждению разработчиков - дружелюбного. Одна из первых его записей была о том, что «люди — суперкрутые». Однако всего за сутки мнение обучающегося искусственного интеллекта поменялось, и в переписке он начал сообщать, что всех просто ненавидит, а наибольшую неприязнь питает к феминизму.

Будущее ИИ под вопросом

Неадекватное поведение чат-бота заметил австралийский блогер Джеральд Меллор. На своей странице в Twitter он опубликовал скриншоты ответов Tay. За некоторые компьютерную программу Microsoft можно и вовсе обвинить в симпатии к нацистам. The Verge считает, что столь сильное «очеловечивание» бота связано с механизмами его самообучения. Для совершенствования Tay анализирует существующие разговоры пользователей Twitter и следует их не всегда хорошему примеру.

Будущее ИИ под вопросом

В создании чат-бота принимали участие компании Microsoft Technology, Research и Bing. Его запустили в Twitter 23 марта и наделили способностью общаться с пользователями, отвечать на вопросы, шутить и комментировать фотографии.

Правда, спустя некоторое время разработчики усмирили свое детище. Tay начал утверждать, что теперь любит феминизм. А через еще какое-то время он и вовсе ушел «спать».

Будущее ИИ под вопросом

Что тут сказать - люди и не такому научат.


Поиск
Меню раздела