Современные системы искусственного интеллекта способны помогать в установлении личности пользователей, скрывающихся за анонимными профилями в социальных сетях. К такому выводу пришли авторы исследования — Саймон Лермен и Даниэль Палека.
Метод основан на анализе текстов, которые публикуются в анонимных аккаунтах. Алгоритмы выявляют характерные особенности сообщений, после чего сопоставляют их с информацией из открытых источников, где пользователь может быть зарегистрирован под настоящим именем или с меньшей степенью анонимности.
Во время тестирования исследователи использовали большие языковые модели для обработки публикаций и поиска совпадений в интернете. По их оценке, такие технологии способны значительно ускорить процесс установления личности владельца аккаунта.
В качестве примера специалисты приводят ситуацию, когда пользователь описывает в публикациях бытовые детали — например, школьные проблемы или прогулки с собакой в определённом парке. Для системы искусственного интеллекта подобные сведения могут стать отправной точкой для поиска совпадений в других источниках и установления связи между анонимным профилем и конкретным человеком.
По мнению авторов работы, использование крупных языковых моделей делает подобные методы не только технически возможными, но и сравнительно доступными с экономической точки зрения. Это может потребовать пересмотра подходов к защите конфиденциальности в цифровой среде.
Исследователи также обращают внимание на возможные риски применения технологии. Она может использоваться как злоумышленниками, так и государственными структурами для мониторинга пользователей, предпочитающих сохранять анонимность. Кроме того, полученные данные могут применяться для проведения персонализированных мошеннических атак, включая фишинг.
Развитие технологий искусственного интеллекта делает более доступными методы сбора информации из открытых источников, известные как OSINT. Ранее подобная работа требовала значительных ресурсов и времени, тогда как сегодня её можно автоматизировать с помощью публичных моделей.
При этом специалисты отмечают, что системы ИИ не гарантируют абсолютной точности. Большие языковые модели могут допускать ошибки и формировать ложные совпадения, что создаёт риск неправильной идентификации пользователей.
Для снижения угроз эксперты предлагают ограничивать массовый сбор данных на платформах, вводить контроль за автоматическим скачиванием информации и устанавливать лимиты на экспорт данных. Пользователям также рекомендуют осторожно относиться к публикации личных сведений в открытом доступе.