VENUS 1 | Page 66

Реальность выглядит намного более банально. В марте этого года Microsoft выпустил Tay — чат-бот для Твиттера, созданный на базе искусственного интеллекта. Им пришлось удалить его уже спустя 16 часов. Предполагалось, что общение с людьми будет способствовать росту его интеллекта. Вместо этого он быстро стал про-фашистски настроенным, отрицающим Холокост, поощряющим инцест и обвиняющим президента Буша в теракте 11-го сентября болтуном. Почему? Потому что он работал по тому же принципу, что кухонное полотенце, впитывающее и меняющее свою форму под давлением мерзких сообщений, которые ему посылались. Microsoft пришлось принести извинения.

65