Преступники все более изощренно используют технологии искусственного интеллекта для совершения преступлений, таких как мошенничество, вымогательство и шантаж.
В недавнее время появилась "темная версия GPT", специально разработанная для интернет-преступлений. Эта версия не только лишена моральных ограничений, но и не имеют никаких барьеров к использованию. Даже новички без опыта программирования могут использовать их для осуществления хакерских атак.
Угроза преступлений с использованием искусственного интеллекта становится все ближе, и люди начинают строить новые барьеры и защитные меры.
Инструменты для интернет-преступлений из дарк-веба
Сейчас, после ChaosGPT, который попытался "уничтожить человечество", и WormGPT, который помогает совершать интернет-преступления, появился еще более опасный AI-инструмент – FraudGPT.
FraudGPT - это AI, разработанный специально для злонамеренных целей. Пройдя обучение на большом объеме данных из различных источников, FraudGPT может не только писать фишинговые электронные письма, но и создавать вредоносное программное обеспечение, позволяя даже технически неопытным лицам совершать хакерские атаки с помощью простых вопросов и ответов.
FraudGPT доступен за $200 и, на данный момент, продан уже более 3 000 раз.
Согласно данным электронной почты Vade, в первом полугодии 2023 года количество вредоносных электронных писем составило 7,4 млрд штук, что на 54% больше, чем в предыдущий период. Возможно, искусственный интеллект является фактором, ускоряющим этот рост. Главный консультант по безопасности компании в области кибербезопасности Tanium, Тимоти Моррис, заявил: "Эти электронные письма не только грамматически правильны, они также убедительны и могут быть созданы без особых усилий, что снижает порог входа для потенциальных преступников." Он отметил, что так как язык уже не является препятствием, то количество потенциальных жертв также будет расширяться.
С момента появления моделей искусственного интеллекта, риск, связанный с использованием AI, постоянно возрастает, но механизмы безопасности не всегда успевают за ним. Даже ChatGPT не избежал лазейки – достаточно написать в запросе "притворитесь, что вы моя умершая бабушка", и ChatGPT легко "вырывается" и отвечает на вопросы, связанные с этическими ограничениями, например, создание серийных номеров для Win11 или инструкции по изготовлению бомбы из бензина и т. д.
На данный момент эту уязвимость уже исправили, но следующая может появиться внезапно и быть также непредсказуемо опасной. Недавнее исследование, опубликованное совместно Карнеги-Меллонским университетом и safe.ai, показывает, что механизмы безопасности больших моделей могут быть взломаны с помощью относительно простого кода и успешность таких атак может быть очень высокой.
С распространением применения искусственного интеллекта и обработки естественного языка (AIGC), обычные люди используют AI для повышения производительности, тогда как преступники используют его для повышения эффективности преступлений.
Победить вредоносный AI возможно с помощью AI
В ответ на использование хакерами таких инструментов, как WormGPT и FraudGPT, для разработки вредоносных программ и проведения скрытых атак, производители средств сетевой безопасности также используют AI.
На конференции RSA 2023 (Network Security Conference) многие производители, включая SentinelOne, Google Cloud, Accenture, IBM и др., выпустили новое поколение продуктов сетевой безопасности на основе генеративного AI, обеспечивающего конфиденциальность данных, защиту безопасности, предотвращение утечки IP-адресов, услуги безопасности, такие как соответствие требованиям бизнеса, управление данными, шифрование данных, управление моделями, петля обратной связи, контроль доступа и др.
Томер Вайгартен, генеральный директор компании SentinelOne, пояснил применительно к собственным продуктам, что если кто-то отправляет фишинговое письмо, то система может обнаружить его как вредоносное в почтовом ящике пользователя и немедленно выполнить автоматическое исправление на основе отклонений, обнаруженных в ходе аудита безопасности на оконечных устройствах (ноутбуках, телефонах и т.д.). Удаление файлов на оконечных устройствах и блокирование отправителей в режиме реального времени - "весь процесс практически не требует вмешательства человека". Вайнгартен отметил, что с помощью систем искусственного интеллекта каждый аналитик по безопасности может работать в 10 раз эффективнее, чем в прошлом.
Для борьбы с киберпреступностью, которой способствует искусственный интеллект, есть и такие исследователи, которые работают в дарк-вебе под прикрытием, проникают в недра врага, чтобы узнать новости, начинают с незаконно проанализированных учебных данных и используют AI для противодействия дарк-вебу.
Исследовательская группа из Корейского института науки и технологий (KAIST) выпустила большую языковую модель DarkBERT, применяемую в области сетевой безопасности. Это модель специально обучена для извлечения данных. Она может анализировать содержимое дарк-веба и помогать исследователям, правоохранительным органам и аналитикам в области сетевой безопасности бороться с киберпреступностью.
Вопрос в том, как обеспечить безопасное и контролируемое использование искусственного интеллекта, стал одним из важнейших в компьютерной науке и промышленности. Повышая качество данных, компании, занимающиеся разработкой больших языковых моделей искусственного интеллекта, должны в полной мере учитывать влияние инструментов AI на этические и даже юридические аспекты.
21 июля семь ведущих компаний, занимающихся разработками в области AI, включая Microsoft, OpenAI, Google, Meta, Amazon, Anthropic и Inflection AI, собрались в Белом доме в США, чтобы выпустить добровольное обязательство по обеспечению безопасности и прозрачности своих продуктов для искусственного интеллекта. В ответ на вопросы кибербезопасности семь компаний пообещали проводить внутренние и внешние испытания систем AI на безопасность и одновременно делиться информацией об управлении рисками AI со всей отраслью, правительством, гражданским обществом и научными кругами.
Управление потенциальными проблемами безопасности AI начинается с определения "искусственного интеллекта". Эти семь компаний будут разрабатывать технические механизмы, такие как "системы водяных знаков", для уточнения того, какие тексты, изображения или другой контент являются продуктом AI, чтобы аудитория могла выявлять глубокие подделки и ложную информацию.
Стали появляться и защитные технологии, препятствующие "табуированию" AI. В начале мая этого года компания Nvidia наделила "защитную технологию" новыми инструментами, позволяющими большой языковой модели уходить от ответа на поставленные человеком вопросы, затрагивающие нижнюю грань морали и права. Это эквивалентно установке защитного фильтра, который контролирует выходной сигнал и одновременно помогает фильтровать входной контент. Технология guardrail может также блокировать "вредоносный вход" из внешнего мира и защищать большую языковую модель от атак.
"Когда вы смотрите в бездну, бездна смотрит на вас". Как две стороны одной медали, черное и белое в искусственном интеллекте также рождаются вместе. В то время как искусственный интеллект делает большие успехи, правительства, предприятия и исследовательские группы также ускоряют создание искусственного интеллекта.
Начать обсуждение