Как хакеры используют генеративный ИИ в своих атаках: как мы можем защитить свою безопасность


4

Генеративный ИИ — это палка о двух концах, используемая, как для нападения, так и для и защиты от киберпреступности. Генеративный искусственный интеллект (ИИ) в последнее время находится в центре внимания. Чат-бот ChatGPT на базе ИИ и другие системы с поддержкой обработки естественного языка, такие как VALL-E, сделали генеративный ИИ доступным для широкой публики и раскрыли его преимущества и вредные последствия.

Одна из основных проблем, связанных с генеративным ИИ, заключается в том, что его можно использовать для обновления вредоносных эксплойтов и разработки более изощренных кибератак. Итак, как хакеры используют генеративный ИИ в своих атаках и что это значит для будущего кибербезопасности?

Что такое генеративный ИИ и как он работает?

Как следует из названия, генеративный ИИ — это тип ИИ, способный генерировать новый контент — изображения, текст, аудио и синтетические данные. Одним из известных примеров является ChatGPT, чат-бот на базе искусственного интеллекта, с которым вы можете вести человеческую беседу и получать превосходные рекомендации фильмов, если вы пока не можете придумать вопросы и беседы с ChatGPT.

Вы можете заставить ChatGPT писать за вас все эти сложные электронные письма , использовать ChatGPT в качестве инструмента для перевода и даже превратить ChatGPT в помощника по здоровому питанию. В общем, за считанные секунды этот чат-бот может придумать, казалось бы, новый, убедительный контент и преподнести его в довольно политкорректной форме.

Однако генеративный ИИ пока не может быть таким творческим, как человек. Это связано с тем, что он использует неконтролируемые и полуконтролируемые алгоритмы машинного обучения для обработки огромного количества данных и создания пользовательских выходных данных.

«Герника Пикассо, но с котятами» созданная ИИ

Например, если вы хотите заказать картину, похожую на Пикассо, у генеративного ИИ, такого как DALL-E 2, вам нужно будет ввести свое описание в специально отведенном поле — скажем, «Герника Пикассо, но с котятами» — и остаться там. на пару секунд. За это время ИИ применит все специфические черты стиля художника, которые он изучил ранее, добавит котят на всякий случай и придумает что-то оригинальное — мы получили картинку, которую вы можете видеть чуть выше.

Как хакеры используют генеративный ИИ в своих атаках?

Плохих парней всегда привлекали хорошие алгоритмы. Поэтому неудивительно, что они используют генеративный ИИ для усиления своих атак. Используя методы машинного обучения, такие как обучение с подкреплением и генеративные состязательные сети, киберпреступники могут придумывать новые, более изощренные кибератаки, способные пробить стандартную киберзащиту.

Одним из примеров такого извращения является «передовой» чат-бот OpenAI, поскольку ChatGPT используется киберпреступниками для написания вредоносных программ. В начале ChatGPT казался забавой и игрой, но теперь он выставлен как одна из главных угроз безопасности и конфиденциальности. Если вам нравится общаться в чате ИИ, разумно следить за тем, что киберпреступники могут делать с ChatGPT.

хакеры используют генеративный ИИ

Короче говоря, ChatGPT и другие генеративные инструменты искусственного интеллекта упростили жизнь киберпреступникам и усложнили работу специалистов по безопасности. Некоторые из способов, которыми субъекты киберугроз используют ИИ в своих атаках, включают:

— Создание более совершенных и сложных вредоносных программ . В руках хакеров генеративный ИИ может использоваться для создания труднообнаруживаемых штаммов вредоносных программ и проведения атак. В сочетании с моделями искусственного интеллекта вредоносное ПО может маскировать свои намерения до тех пор, пока не выполнит свою злонамеренную цель.

— Написание персонализированных фишинговых электронных писем с помощью искусственного интеллекта. С помощью генеративного искусственного интеллекта фишинговые электронные письма больше не имеют контрольных признаков мошенничества, таких как неправильное правописание, грамматика и отсутствие контекста. Кроме того, с помощью ИИ, такого как ChatGPT, злоумышленники могут проводить фишинговые атаки с беспрецедентной скоростью и масштабом.

— Генерация глубоких поддельных данных : поскольку он может создавать убедительные имитации человеческой деятельности, такой как письмо, речь и изображения, генеративный ИИ может использоваться в мошеннических действиях, таких как кража личных данных, финансовое мошенничество и дезинформация.

— Взлом CAPTCHA и угадывание паролей. Используемый сайтами и сетями для обнаружения ботов, ищущих несанкционированный доступ, CAPTCHA теперь может быть обойден хакерами. Используя машинное обучение, они также могут выполнять другие повторяющиеся задачи, такие как подбор пароля и атаки методом грубой силы.

— Саботаж машинного обучения при обнаружении киберугроз : если система безопасности перегружена слишком большим количеством ложных срабатываний, хакер может застать ее врасплох реальной кибератакой.

Как мы можем бороться с угрозой генеративного ИИ?

По мере того, как кибератаки будут становиться все более изощренными, а их последствия все более серьезными, традиционные системы безопасности будут превращаться в вещи ушедшей эпохи. Благодаря способности учиться на предыдущих атаках и адаптироваться, ИИ является бесценным активом как для киберпреступников, так и для их противников.

Использование ИИ в кибербезопасности имеет ряд серьезных преимуществ, таких как более быстрое обнаружение угроз, идентификация угроз и реагирование на угрозы, поэтому правильным ответом кажется борьба с огнем. Прежде чем киберпреступники узнают, как наносить сокрушительные удары по отдельным лицам и компаниям по всему миру, специалисты по кибербезопасности должны научить свои системы на базе ИИ защищаться от этих атак.

Однако не все зависит от ИИ. В конце концов, мы также можем усилить нашу собственную безопасность и конфиденциальность с помощью проверенных методов, таких как многофакторная аутентификация (MFA), биометрическая технология, использование менеджера паролей, использование инструментов для совместной работы с лучшим шифрованием и старый добрый здравый смысл.

Борьба с ИИ с помощью ИИ

Итак, станем ли мы свидетелями войн за кибербезопасность ИИ в ближайшем будущем? Ну, мы надеемся, что нет. Однако по мере того, как ИИ продолжает развиваться и становится доступным для всех — как для киберпреступников, так и для специалистов по кибербезопасности, — в ближайшие годы роль ИИ и МО будет возрастать.


НРАВИТСЯ ЭТО? ПОДЕЛИСЬ С ДРУЗЬЯМИ!

4

Один комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

  1. Сейчас все помешались на этом ChatGPT и разных сервисах ИИ. Мне это напомнило время когда для Инсты придумали прогу изменять фото в виде картин и стиля знаменитых художников. Люди побаловались месяц и забыли.

    Но с ИИ конечно проблема гораздо серьезней. Реально это нужно контролировать ибо технология может «слететь с катушек»…
    Но явно это прорыв сегодня.

    Раньше гооврили кто владеет информацией тот …. а сейчас будет правильно сказать — кто владеет ИИ — тот владеет миром…