Новости

MICROSOFT ПРОСТО УЗНАЛ, ЧТО Интернет темное, страшное место. Они запустили чат-бота в Твиттере по имени Тай, который был разработан, чтобы имитировать речь 19-летней девочки. «Искусственный интеллект (ИИ)» был предназначен для того, чтобы помочь «провести исследование разговорного понимания», - сказала Microsoft, и поэтому, когда она вышла в свет, она смогла учиться у людей, с которыми общалась, и подражать их способам общения.
Проблема заключалась в том, что Microsoft не спроектировала своего бота, чтобы избежать хитрых или политических тем, что означало бы, что оно будет отражать мнение людей, которые с ним разговаривают. Это, естественно, было слишком хорошей возможностью для троллей в интернете, и все стало очень уродливо, очень быстро.



В течение 24 часов после того, как бот вышел в онлайн, Тэй превратился в расиста с грязными сумками. Помимо отрицания Холокоста и нацизма, бот также начал имитировать мнения Дональда Трампа об иммиграции, теории заговора 9/11 и, естественно, начал использовать множество ужасных расовых оскорблений.
Microsoft решила закрыть его. Это не значит, что бот не был успешным: он идеально имитировал людей, с которыми разговаривал. Однако Microsoft не смогла принять во внимание то, что люди, имитирующие ее, были интернет-троллями. Интернет превратил высокотехнологичный эксперимент по искусственному интеллекту в не что иное, как в очередной рывок.