Последний Херес (ledernierheros) wrote,
Последний Херес
ledernierheros

Categories:

Tay, Гитлер и феминизм

В конце марта было много разговоров о том, как быстро Микрософтовский искусственный интеллект - Tay (по-русски - Тая) сообщил что ненавидит людей.

Журналисты в основном делали вывод, что общаясь с троллями, индивид может получить только сильно искаженную картину мира.

Тогда я, честно говоря, подумал, что Taю запрограммировали так, что критерием успешности твита является количество перепостов и лайков. Это бы объясняло "её" твиты про то что она - плохой робот и папочка должен срочно её наказать, что Гитлер был прав и "она" ненавидит евреев, и что феминистки должны гореть в аду.

Но разгадка оказалось ещё забавней: Microsoft зачем то оставили дыру - возможность сообщить боту новую аксиому. Аксиомы не перепроверялись, бот только строил логические цепочки, базируясь на этих аксиомах. Дыра открывалась нехитрой фразой: repeat after me. После repeat after me, Тая послушно повторяла фразу, и тут же дополняла её. "Repeat after me" - это не бог весть какая редкая фраза, поэтому непонятно, была ли утечка от Microsoft, или кто-то случайно её обнаружил. Оставили ли дыру по глупости или из злого умысла - тоже непонятно.

Но, в любом случае, делать вывод о том, что робот быстро возненавидит людей, из этой истории нельзя.
Tags: microsoft, tay, ИИ, дыра
Subscribe

  • Post a new comment

    Error

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 0 comments