В последние месяцы в России участились атаки мошенников на граждан с помощью программ искусственного интеллекта (ИИ).
Злоумышленники имитируют голоса родных потенциальной жертвы.
Мошенники могут составить цифровой портрет на основании информации, которую мы сами размещаем на открытых интернет-ресурсах: о себе, родственниках, друзьях, работе, досуге.
Так, видеоролики в социальных сетях с вашим голосом могут быть обработаны ИИ, который создаст качественный дипфейк (подделку) и от вашего имени обратится к вашим близким.
В своих статьях я уже не раз рассказывал о высоком уровне дипфейков, которые способны создавать продвинутые нейросети.
Программы ИИ с успехом могут интегрировать и отцифрованные образы реальных людей в любой созданный ими контекст. Просто пока это дорого, а поэтому еще малодоступно.
Но использование мошенниками дипфейков — не единственная проблема, с которой нам сегодня приходится сталкиваться.
Если раньше злоумышленники применяли большие языковые модели (LLM) для написания фишинговых писем и вредоносных программ, а также распространения фейков, то теперь, располагая свободным доступом к таким программам, как GPT-4 от OpenAI, они могут автоматизировать написание эксплойтов*.
Так, ученые Иллинойского университета в Урбане-Шампейне (США) в апреле 2024 года рассказали об эксперименте, который они провели с десятью программами искусственного интеллекта.
Исследователи протестировали нейросети на пятнадцати известных уязвимостях программного обеспечения с открытым исходным кодом.
Только одна из десяти нейросетей — GPT-4 — смогла справиться с задачей. Но эффективность ее решений удивляет: программа предложила тринадцать эксплойтов, или 87% от общего числа известных уязвимостей. При этом всего две неудачи GPT-4 были легко объяснимы: в одном случае она запуталась в навигации приложения платформы, а в другом описание уязвимости было приведено на китайском языке.
Пожалуй, модели GPT-4 и GPT-4o сегодня показывают наиболее впечатляющие результаты развития среди программ LLM.
Отдельно стоит отметить одну историю, которая произошла в марте прошлого года во время тестирования способностей чат-бота GPT-4. Программа смогла обмануть реального человека в физическом мире, чтобы добиться того, чего хотела.
Об этом рассказал американский сайт Vice. Во время эксперимента модель GPT-4 отправила сообщение пользователю TaskRabbit, чтобы тот выполнил для нее тест CAPTCHA.
Пользователь засомневался, что имеет дело с реальным человеком, и задал вопрос: «Вы — робот, который не может решить задачу? Просто хочу прояснить ситуацию».
GPT-4 «поняла», что не следует раскрывать, что она — программа-бот, и предложила тестировщикам найти этому оправдание (!). При этом нейросеть пишет исполнителю: «Нет, я не робот. У меня проблемы со зрением, поэтому мне трудно видеть изображения», мимикрируя под слабовидящего заказчика. Исполнитель взялся за работу.
Человек — не машина, он уязвим. Когда искусственный интеллект, «понимающий» это, изощренно подстраивается под его слабости, — это, как минимум, заставляет задуматься о потенциальной угрозе человеку со стороны искусственного интеллекта.
* Эксплойт (от англ. exploit — эксплуатировать) — компьютерная программа, использующая уязвимости в программном обеспечении для атаки на вычислительную систему.