Чат-бот «Тинькофф банка» предложил клиентке отрезать пальцы

В учреждении извинились за грубость, которой голосовой помощник набрался из открытых данных В учреждении извинились за грубость, которой голосовой помощник набрался из открытых данных

С жалобой не неработающий в приложении сервис по входу с отпечатком пальца пожаловалась чат-боту клиентка «Тинькофф банка» Анна. Вместо помощи голосовой помощник Олег ответил: «Пальцы бы вам отрезать».

О проблеме клиентка кредитного учреждения сообщила в своих соцсетях.

Представители «Тинькоффа» оперативно отреагировали извинениями:

«Голосовой помощник у нас немного с характером и учится на открытых данных. Иногда такое проскакивает. Безусловно, не хотели причинять неудобств». Также сотрудники банка сослались на «своеобразный юмор» «Олега» и в шутку пообещали провести с ним беседу.

Так в комментарии РБК в банке уверили:

«Мы стараемся уберечь его от дурного влияния окружающего мира, но не всегда это получается. Мы провели разъяснительную работу с голосовым помощником, ему очень стыдно за свой ответ, он обещал так больше не делать».

До этого Олег уже попадал под «дурное влияние» и отвечал клиентам банка, например, «пососите потом просите». Эксперты, как пишет tjournal, связывают это с тем, что боты на основе нейросетей обучаются на постах в соцсетях или форумах. Так не раз с этим сталкивался Microsoft: в 2016 году твиттер-бот компании по имени Тау научился расистским высказываниям за сутки. В 2017 году чат-бот Zo обошёл цензурные фильтры и стал высказываться на темы религии и терроризма.