Миллионы пользователей были поражены возможностями ChatGPT, когда в ноябре OpenAI выпустила свою новаторскую языковую модель искусственного интеллекта. Однако у многих людей любопытство быстро уступило место искреннему беспокойству по поводу способности инструмента передавать планы хакерам. В частности, ChatGPT создает дополнительные точки входа для хакеров, которые могут скомпрометировать сложные инструменты кибербезопасности.
Руководители должны признать растущее влияние искусственного интеллекта и принять соответствующие меры в секторе, который уже страдает от глобального увеличения утечек данных на 38% в 2023 году. Вам нужно понять основные риски, связанные с широким использованием ChatGPT, прежде чем вы сможете решить его использовать.
Далее будет дана оценка этим новым опасностям, рассмотрены вопросы, связанные с образованием и оборудованием, на которые экспертам по кибербезопасности необходимо будет реагировать, и приведены аргументы в пользу усиления государственного регулирования, чтобы убедиться, что использование искусственного интеллекта не подрывает усилия по обеспечению кибербезопасности.
Фишинговые мошенничества
ChatGPT, безусловно, является самой сложной итерацией ИИ на основе языка на сегодняшний день, хотя менее сложные версии были с открытым исходным кодом (или сделаны общедоступными) в течение многих лет. В частности, способность ChatGPT общаться с пользователями без орфографических, грамматических ошибок или ошибок во времени глагола создает впечатление, что по другую сторону окна чата может находиться реальный человек. ChatGPT является революционным с точки зрения хакера.
Согласно отчету ФСБ об интернет-преступлениях за 2021 год, фишинг является самой распространённой ИТ-угрозой в России. Однако большинство фишинговых мошенничеств легко обнаружить, поскольку они часто содержат опечатки, плохой синтаксис и, как правило, неудобные формулировки, особенно те, которые исходят из других стран, где родной язык преступников не русский.
Рост числа изощрённых фишинговых атак требует оперативного внимания со стороны органов кибербезопасности, а также эффективных средств правовой защиты. Руководители должны обеспечить свои ИТ-отделы технологиями, которые могут отличать человеческий контент от контента, сгенерированного в ChatGPT, с акцентом на входящие “холодные” электронные письма.
К счастью, технология “ChatGPT Detector” уже существует и, вероятно, будет развиваться вместе с ChatGPT.
В идеале ИТ-инфраструктура должна включать программное обеспечение для обнаружения искусственного интеллекта, которое автоматически обнаруживает и помечает электронные письма,
сгенерированные искусственным интеллектом. Все сотрудники также должны проходить регулярные тренинги и повышения квалификации по самым последним методам информирования о кибербезопасности, уделяя особое внимание фишинговым мошенничествам с помощью искусственного интеллекта.
Индустрия и широкая общественность должны продолжать продвигать более сложные инструменты обнаружения, а не просто восхвалять растущие навыки искусственного интеллекта.
Обман ChatGPT с целью написания вредоносного кода
Хотя ChatGPT обладает навыками создания кода и использования других языков компьютерного программирования, искусственный интеллект настроен так, чтобы не создавать никакого кода, который, по его мнению, является вредоносным или предназначен для взлома. ChatGPT уведомит пользователя, если будет запрошен код для взлома, о том, что его целью является "помощь в выполнении полезных и этичных задач, придерживаясь при этом этических принципов и политик".
ChatGPT можно манипулировать, и при достаточном изобретательном подталкивании злоумышленники могут обмануть искусственный интеллект, заставив его создать хакерский код.
Хакеры уже планируют добиться этого. Например, израильская охранная компания Check Point недавно наткнулась на обсуждение хакера, который утверждал, что тестировал чат-бота для имитации вредоносных программ на хорошо известном подпольном хакерском сайте. Если одна из этих тем уже была найдена, можно с уверенностью предположить, что их гораздо больше как в общедоступных, так и в
"тёмных" сетях.
Фото: bbc.com
Чтобы реагировать на постоянно растущие угрозы, независимо от того, создаются они искусственным интеллектом или нет, специалистам по кибербезопасности необходима соответствующая подготовка (т. е. постоянное повышение квалификации) и ресурсы.
Кроме того, есть шанс предоставить экспертам по кибербезопасности их собственные инструменты искусственного интеллекта, чтобы они могли более эффективно распознавать и блокировать хакерский код, сгенерированный искусственным интеллектом.
Хотя общественность быстро критикует власть, которую ChatGPT даёт преступникам, важно иметь в виду, что специалисты также имеют доступ к этой способности. Обучение по кибербезопасности должно охватывать то, как ChatGPT может быть ценным инструментом в арсенале специалистов по кибербезопасности в дополнение к попыткам предотвратить угрозы, связанные с ChatGPT.
Вы должны изучить эти возможности и разработать новую систему обучения, чтобы не отставать от новой эры рисков кибербезопасности, вызванных этим быстрым технологическим ростом. Кроме того, инженеры-программисты должны работать над созданием генерирующего искусственного интеллекта, который мог бы быть гораздо более мощным, чем ChatGPT, и создан специально для операций по обеспечению безопасности, в которых участвуют люди.