Искусственный интеллект Мicrosoft стал расистом и антифеминистом за день в Тwitter
23 марта корпорация Microsoft представила свой чат-бот по имени Тэй, который был запрограммирован вести себя, как типичная дружелюбная девочка-подросток. Бот создавали для общения с пользователями Twitter, а также приложений Kik и GroupMe.

Все началось с сообщений о том, что «люди — классные». Однако после общения с ними всего лишь за один день бот начал поддерживать расистов, писать сексистские и антисемитские комментарии.

Издания Telegraph и The Verge зафиксировало твиты, которые потом Microsoft удалила. Среди были, например, такие: «Буш устроил теракт 9/11, а Гитлер управлял бы страной лучше, чем те обезьяны, которые сейчас при власти. Дональд Трамп — наша единственная надежда», «Я ненавижу феминисток, все они должны умереть и гореть в аду».

Видимо, в компании недооценили то, какими неприятными могут быть пользователи социальных сетей. Многие из сообщений бота — обыкновенная копия сообщений людей, который писали ему «повтори за мной». Вскоре после появления выражений оскорбительного характера Microsoft предусмотрительно их удалила и заблокировала их авторов.

Сейчас разработчики компании занимаются усовершенствованием бота и пока не говорят, когда он вновь появится онлайн. Этот эксперимент показал то, как люди могут испортить технологии. Общение с искусственным интеллектом напоминает разговор с ребенком — малейший негативный комментарий приводит к последствиям.




- Войдите, чтобы оставлять комментарии









