Как мошенники могут использовать ChatGPT и другие сервисы с искусственным интеллектом

16:42, 28 марта 2023
Европол предупредил, что ChatGPT и другие системы с искусственным интеллектом могут использоваться для онлайн-мошенничества и других киберпреступлений.
Как мошенники могут использовать ChatGPT и другие сервисы с искусственным интеллектом
Следите за актуальными новостями в соцсетях SUD.UA

Полицейская служба Европейского союза опубликовала срочный отчет, предупреждающий, что ChatGPT и другие системы с искусственным интеллектом могут быть использованы для онлайн-мошенничества и других киберпреступлений. Об этом сообщает Euractiv.

Так, большие языковые модели, которые можно использовать для различных целей, таких как ChatGPT от Open AI, могут принести пользу бизнесу и отдельным пользователям. Однако европейское полицейское агентство подчеркнуло, что они тоже являются проблемой для правоохранительных органов, поскольку злоумышленники могут использовать их в своих целях.

«Преступники обычно быстро используют новые технологии и быстро придумали конкретные уголовные способы эксплуатации, представив первые практические примеры только спустя несколько недель после публичного выпуска ChatGPT», - говорится в отчете.

Публикация стала результатом серии семинаров, организованных Инновационной лабораторией Европола для обсуждения потенциального криминального использования ChatGPT как наиболее яркого примера крупных языковых моделей и того, как эти модели могут использоваться для поддержки следственной работы.

Агентство ЕС указывает на тот факт, что правила модерации ChatGPT можно обойти с помощью так называемой техники подсказок – практики ввода данных в модель ИИ именно для получения определенного результата.

Поскольку ChatGPT – новая технология, поэтому с обновлениями постоянно появляются лазейки, которые могут попросить ИИ притвориться вымышленным персонажем или дать ответ в коде. Другие обходные пути могут заменять триггерные слова или изменять контекст в процессе взаимодействия. Орган ЕС подчеркнул, что наиболее эффективные обходные пути, позволяющие освободить модель от любых ограничений, постоянно совершенствуются и усложняются.

Эксперты обнаружили целый ряд незаконных случаев использования ChatGPT, которые хранятся и в самой продвинутой модели OpenAI – GPT-4 – где потенциал вредных реакций системы в некоторых случаях даже выше.

Поскольку ChatGPT может генерировать информацию, пригодную для чтения, Европол предупреждает, что новая технология может ускорить процесс исследования злоумышленником без предварительных знаний о потенциальной сфере преступления, такой как проникновение в дом, терроризм, киберпреступность или сексуальное насилие над детьми.

«Хотя вся информация, предоставляемая ChatGPT, находится в свободном доступе в Интернете, возможность использовать модель для предоставления конкретных шагов, задавая контекстуальные вопросы, значительно облегчает злоумышленникам задачу лучшего понимания и дальнейшего совершения различных видов преступлений», - говорится в отчете.

Фишинг, практика отправки фальшивого электронного письма с целью заставить пользователей перейти по ссылке, является важнейшей областью применения. В прошлом такие мошенничества легко обнаруживались из-за грамматических или речевых ошибок, в то время как текст, сгенерированный искусственным интеллектом, позволяет выдать себя за другого в очень реалистичной манере.

Аналогично, мошенничеству онлайн можно придать большее правдоподобие, используя ChatGPT для создания фальшивой активности в социальных сетях.

Кроме того, способность ИИ выдавать себя за стиль и речь конкретных людей может привести к случаям злоупотреблений по поводу пропаганды, языка ненависти и дезинформации.

Кроме простого текста, ChatGPT также может создавать код на разных языках программирования, расширяя возможности злоумышленников, практически не имеющих знаний в области IT, по превращению естественного языка во вредоносное ПО.

«Очень важно, что меры защиты, не позволяющие ChatGPT предоставлять потенциально вредоносный код, работают только в том случае, если модель понимает, что она делает. Если подсказки разбиты на отдельные шаги, обойти эти меры безопасности попроще», - добавляется в отчете.

ChatGPT считается ИИ общего назначения – моделью, которая может быть адаптирована для выполнения различных задач.

Пока Европейский парламент дорабатывает свою позицию по закону об ИИ, евродепутаты обсуждают введение некоторых строгих требований к этой базовой модели, таких как управление рисками, надежность и контроль качества.

Другой риск заключается в том, что эти большие языковые модели могут стать доступными в даркнете без каких-либо гарантий и быть обучены особо вредным данным. Тип данных, которыми будут питаться эти системы, и то, как их можно будет контролировать – вот главные вопросы грядущего.

Подписывайтесь на наш Тelegram-канал t.me/sudua, на Twitter, а также на нашу страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.

Закон об усилении мобилизации: военный учет и другие изменения для украинцев за границей
Telegram канал Sud.ua
Закон об усилении мобилизации: военный учет и другие изменения для украинцев за границей
Главное о суде
Сегодня день рождения празднуют
  • Олександр Завітневич
    Олександр Завітневич
    голова Комітету Верховної Ради України з питань національної безпеки, оборони та розвідки