ChatGPT та кібербезпека: дослідження двосічного меча інновацій ШІ

Швидка еволюція штучного інтелекту, зокрема таких інструментів, як ChatGPT, змінила багато галузей — але вона також відкрила ящик Пандори кіберзагроз. Від шкідливих чат-ботів до регуляторних змін, перетин ШІ та кібербезпеки вимагає невідкладної уваги. Ось огляд останніх загроз і способів їх усунення.

1. Поява шкідливих чат-ботів на базі ШІ

Кіберзлочинці використовують ШІ для створення інструментів, таких як GhostGPT, фейковий клон ChatGPT, що продається в Telegram, і спрощує створення шкідливого ПЗ, фішингових кампаній і генерацію коду для атакуючих з низькими навичками. Подібно до цього, WormGPT (попередник) підкреслює тренд: ШІ демократизує кіберзлочинність.

  • Основний висновок: Інструменти, такі як GhostGPT, дозволяють навіть новачкам створювати переконливі фішингові листи чи шкідливий код за лічені хвилини.

2. Shadow AI: Тиха загроза для компаній

Співробітники дедалі частіше використовують несанкціоновані інструменти ШІ ("shadow AI") поза корпоративним контролем. Вражаючі 74% використання ChatGPT відбувається через особисті акаунти, що піддає конфіденційну інформацію (наприклад, медичні записи, фінансові дані) стороннім платформам.

  • Основний висновок: Несанкціоноване використання ШІ створює ризики витоків даних, порушень вимог до конфіденційності та зломів.

3. Використання великих мовних моделей (LLM) в циклі кібератак

Великі мовні моделі (LLM) змінюють кібератаки, автоматизуючи етапи Cyber Kill Chain:

  • Розвідка: Збирання публічних даних для виявлення вразливостей.
  • Озброєння: Генерація шкідливого коду або фішингових скриптів.
  • Командування та контроль (C2): Керування вантажами через інфраструктуру на базі ШІ.
  • Приклад: Атакувальники використовують зламані LLM (як модифікований ChatGPT) для обходу етичних обмежень і створення шкідливих інструментів.

4. Регуляторні зрушення: Пробіл безпеки

Недавній скасування виконавчого указу Байдена 2023 року — який зобов’язував розробників LLM впроваджувати стандарти безпеки — залишив критичну інфраструктуру вразливою. Приватні компанії, такі як OpenAI, тепер стикаються з меншими заходами відповідальності, що може послабити захист від кіберзагроз на основі ШІ.

  • Основний висновок: Політичні зміни можуть затримати впровадження захисту від загроз, пов'язаних з ШІ, таких як біологічні зброї або атаки на інфраструктуру.

5. Технічні вразливості ChatGPT

Дослідники виявили недоліки в API ChatGPT, що дозволяють DDoS-атаки і ін’єкції запитів:

  • Один HTTP-запит може ініціювати тисячі запитів до цільового сайту, перевантажуючи його.
  • Погане видалення дублювання URL і слабкі обмеження запитів надають можливість для зловживань.

6. Атаки на ланцюг постачання: Компрометація браузерних розширень

У грудні 2024 року фішингова кампанія спрямована на розробників розширень для Chrome, ввела шкідливе ПЗ в законні інструменти, як розширення Cyberhaven. Атакувальники зібрали:

  • API-ключі, сесійні cookies і токени аутентифікації.
  • Дані з ChatGPT, Facebook для бізнесу та інших платформ.
  • Основний висновок: Навіть надійні розширення можуть стати точками атаки.

Стратегії зниження ризиків: Як залишатися попереду загроз ШІ

  1. Впроваджуйте керування ШІ: Встановіть строгі політики для корпоративного використання ШІ, включаючи дозволені інструменти та шифрування даних.
  2. Навчання співробітників: Навчайте команди щодо ризиків використання "shadow AI" і витоків даних.
  3. Використовуйте ШІ в обороні: Використовуйте ШІ для виявлення загроз і протидії шкідливій діяльності LLM.
  4. Оцінка ризиків: Інструменти, такі як безкоштовна оцінка ризиків GenAI (згадано в джерелі 6), допомагають виявляти вразливості в безпеці веб-перегляду, SaaS і ідентифікації.
  5. Оновлюйте і контролюйте: Регулярно оновлюйте програмне забезпечення та аудиторські браузерні розширення.

Висновок: Баланс між інноваціями та обережністю

Потенціал ШІ безперечний, але його зловживання становить екзистенційні ризики.
Пріоритетно впроваджуючи безпекові структури, підтримуючи потужні регулювання та сприяючи культурі обізнаності, організації можуть використовувати потужність ШІ, не ставши жертвами його темних застосувань.

Джерела: Зібрано з звітів з кібербезпеки та аналізів загроз (січень 2025).

https://www.hendryadrian.com/new-ghostgpt-ai-chatbot-facilitates-malware-creation-and-phishing/
https://www.hendryadrian.com/the-security-risk-of-rampant-shadow-ai/
https://www.hendryadrian.com/beyond-flesh-and-code-building-an-llm-based-attack-lifecycle-with-a-self-guided-malware-agent/
https://www.hendryadrian.com/trump-overturns-biden-rules-on-ai-development-security/
https://www.hendryadrian.com/chatgpt-crawler-vulnerability-can-enable-ddos-attacks-via-http-requests/
https://www.hendryadrian.com/discover-hidden-browsing-threats-free-risk-assessment-for-genai-identity-web-and-saas-risks/
https://www.hendryadrian.com/?p=43002
https://www.hendryadrian.com/?p=42730
https://www.hendryadrian.com/employees-enter-sensitive-data-into-genai-prompts-far-too-often/

Перекладено з: ChatGPT and Cybersecurity: Exploring the Dual-Edged Sword of AI Innovation

Leave a Reply

Your email address will not be published. Required fields are marked *