Експерти виявили 7 небезпечних вразливостей ChatGPT: що потрібно знати користувачам

У ChatGPT виявили низку серйозних вразливостей, які можуть дати змогу зловмисникам потайки впроваджувати команди, красти конфіденційні дані та поширювати дезінформацію.
Про це повідомляє РБК-Україна з посиланням на TechRadar.

Фахівці компанії Tenable протестували модель ChatGPT-4o і виявили сім вразливостей, які вони об’єднали під назвою HackedGPT.

Основні вразливості

Прихована індиректна ін’єкція команд через довірені сайти — шкідливі інструкції можуть бути заховані в контенті відкритих веб-сторінок, які ChatGPT автоматично аналізує.

«Нульовий клік» через пошук — ChatGPT може натрапити на сторінку із зашифрованими командами під час веб-пошуку і виконати їх без відома користувача.

Ін’єкція через один клік — аналог фішингу: користувач натискає посилання, що містить приховані команди.

Обхід захисних механізмів — зловмисники маскують шкідливі посилання під нібито довірені.

Вбудовування команд у діалог — через SearchGPT атакувальник може впровадити невидимі інструкції, які ChatGPT потім самостійно прочитає і виконає.

Приховування шкідливого контенту — команди можуть ховатися в коді або markdown-розмітці.

Ін’єкція через пам’ять — шкідливі інструкції можуть бути записані в збережений чат, і модель повторюватиме їх, що призведе до постійних витоків даних.

OpenAI вже усунула частину проблем, але ризики залишаються

За даними Tenable, компанія OpenAI виправила деякі вразливості в наступному поколінні моделі — GPT-5, однак не всі, що зберігає потенційну загрозу для мільйонів користувачів.

Експерти вже давно попереджають про ризики миттєвих ін’єкцій — атак через приховані підказки, що впроваджуються в текст.

Аналогічні проблеми, за інформацією дослідників, спостерігаються і в Google Gemini, особливо через інтеграцію з Gmail: шкідливі підказки можуть бути заховані в листі (наприклад, білим шрифтом на білому тлі), і модель може виконати їх під час аналізу повідомлення.

Що кажуть експерти

«HackedGPT показує фундаментальну проблему: великі мовні моделі поки що не вміють надійно визначати, якій інформації можна довіряти», — зазначає Моше Бернштейн, старший інженер-дослідник Tenable.

Він додає, що кожна вразливість окремо може здаватися незначною, але разом вони утворюють повноцінний ланцюжок атаки — від впровадження команд до крадіжки даних і створення постійного доступу.

Рекомендації для розробників

За даними Tenable, OpenAI виправила лише частину знайдених вразливостей, при цьому «кілька» залишаються активними в GPT-5 — які саме, дослідники не уточнюють.

Експерти рекомендують компаніям, що розробляють ШІ-моделі:

посилювати захист від прихованих команд
регулярно перевіряти коректність роботи захисних механізмів
впроваджувати додаткові рівні фільтрації контенту.

Раніше ми повідомляли, що ChatGPT отримав велике оновлення з розширеними можливостями для спілкування і новими інструментами, що поліпшують взаємодію з користувачем.

Також ми розповідали, як за допомогою ChatGPT можна прискорити вивчення іноземної мови.

Крім того, ми писали, що OpenAI розкрила свої плани щодо розвитку штучного інтелекту найближчими роками і позначила ключові напрямки, над якими компанія працює вже зараз.

Share this post

нет
scroll to top