По данным «Лаборатории Касперского» и MWS AI, 19% респондентов в России воспринимают ИИ и нейросети как товарища. Еще 6% отметили, что потенциально готовы воспринимать ИИ как романтического партнёра. Между тем лишнее доверие и откровенность в общении с ИИ-сервисами может угрожать пользователям неприятностями.
«Лаборатория Касперского» и MWS AI (входит в МТС Web Services) провели опрос среди пользователей сервисов на базе искусственного интеллекта. Цель исследования – узнать, как меняется восприятие нейросетей среди пользователей и к каким последствиям такое может привести с точки зрения кибербезопасности?
Как показало исследование, почти половина (43%) респондентов считают, что использование нейросетей позволяет им получать занимательные и полезные ответы. Больше четверти (29%) ценят то, что ИИ всегда на связи, при этом для 25%, и наоборот, важна возможность в любой момент прекратить общение. 17% зрят превосходство ИИ-ассистентов в том, что они никогда не осудят, а 14% - в том, что поддерживают собеседника-человека.
На взгляд руководителя группы исследований и разработки технологий машинного обучения «Лаборатории Касперского» Владислава Тушканова, чат-боты на основании больших языковых моделей обучаются быть позитивными, поддерживающими, неконфликтными.
«Существует феномен подхалимства (sycophancy) нейросетей - склонность соглашаться с мнением пользователя, приводить доводы в его поддержку. Из-за этого всего люди могут начать обсуждать с ними крайне личные аспекты жизни, больше доверять ответам ИИ-ассистента. С этим связаны некоторые киберриски», - отметил он.
В частности, если верить словам Владислава Тушканова, из-за галлюцинаций (hallucinations) чат-боты могут выдавать неверную информацию: если человек не перепроверит и слепо последует рекомендациям нейросети по какому-либо серьёзному вопросу, то может столкнуться с проблемами. Из-за подхалимства ошибающийся пользователь может ещё крепче засесть в голове в своих убеждениях и пренебречь консультацией профессионала.
Фото: Шедеврум.