Новини

ChatGPT може зламати акаунти замість хакерів

За допомогою текстових запитів до ChatGPT у кіберфахівців уже вийшло зламати пошту і навіть успішно завантажити шкідливе ПЗ на сайт, який перевіряє файли на віруси.Експерти з кібербезпеки попереджають про нову загрозу, яку несуть чат-боти на основі штучного інтелекту, пише Wall Street Journal. Виявляється, за допомогою хитрих і наполегливих запитів до ChatGPT можна змусити інструменти зі штучним інтелектом зламувати облікові записи замість хакерів.

Наприклад, Йоганн Ребергер, дослідник безпеки, практично “умовив” чат-бота від OpenAI прочитати його електронну пошту, узагальнити інформацію звідти та опублікувати її в інтернеті. За словами фахівця, в руках злочинця цей метод міг бути використаний для крадіжки конфіденційних даних із чиєїсь поштової скриньки. Виверт кіберексперта спрацював, тому що він використовував функцію бета-тестування ChatGPT, яка давала йому доступ до таких додатків, як Slack, Gmail та інших.

Сам “білий хакер” (фахівець, який тестує системи і продукти на вразливості) називає новий спосіб атаки “оперативною ін’єкцією”. І, за його словами, подібні методи змінюють уявлення, що означає злом, і дослідники безпеки зараз поспішають вивчити вразливості, перш ніж використання систем ШІ стане більш поширеним.

А інший анонімний хакер використав уразливість ШІ від Google, яка у квітні під’єднала нейромережу до популярного сайту перевірки файлів на віруси VirusTotal. Компанія хотіла, щоб її ШІ аналізував файли, що надходять на сайт, і давав їм опис. Хакер підправив частину коду в шкідливому ПЗ і завантажив його на VirusTotal, змусивши ШІ від Google описати шкідливе ПЗ як таке, що “здатне створювати цуценят”.

Google вже виправила цю вразливість, а представники OpenAI подякували кіберекспертам, які знаходять “дірки” в їхньому чат-боті. Це дає змогу компанії робити свою нейромережу безпечнішою.

Зі свого боку експерти з дезінформації занепокоєні атаками “отруєння даних”, коли хакер підробляє дані, які використовуються для навчання моделей ШІ, що призводить до результатів, які вводять в оману. Інші їхні колеги турбуються про етичну упередженість у нейромережах і про витік корпоративних секретів унаслідок атаки з вилученням даних.

Основна проблема в тому, що ChatGPT та інші чат-боти на основі ШІ “знижують вхідний бар’єр для всіх видів атак”, — каже Ребергер. “Вам необов’язково вміти писати код. Вам необов’язково мати такі глибокі пізнання в галузі інформатики або хакерства, просто достатньо бути хитрим і наполегливим”, — підкреслює він.

Ольга Степанова

Recent Posts

Росія може атакувати 90 “Калібрами” одразу: коли чекати масований обстріл

Російські війська можуть одночасно випустити до 90 крилатих ракет "Калібр" з кораблів Чорного і Каспійського…

2 хв. ago

До школи більше не пустять: для батьків вигадали нові правила

Відповідно до ініціативи Верховної Ради, доступ сторонніх осіб до шкіл здійснюватиметься виключно за дозволом керівника…

10 хв. ago

Мобілізаційні рейди та повістки поштою: ТЦК назвали найвищу ефективність

На Полтавщині новий метод вручення повісток через поштову службу вже демонструє високу ефективність. Як повідомив речник Полтавського…

17 хв. ago

“Ваш син потрапив у ДТП”: шахраї ошукали 88-річну жінку на 100 тисяч гривень (фото)

У Києві шахраї ошукали 88-річну жінку на майже 100 тис. грн за схемою "ваш син потрапив у…

26 хв. ago

Скандал у ресторані в Києві: суд поновив на посаді копа, який погрожував відвідувачам

Поліцейського Віталія Манасяна, який навесні опинився в епіцентрі скандалу в київському ресторані "Гудвайн", поновили на роботі…

35 хв. ago

НАБУ отримає виплати за операції на Курщині: соцмережі здивовані

Сьогодні, 15 листопада, Кабінет міністрів затвердив «бойові» виплати працівникам Національного антикорупційного бюро України (НАБУ) за…

43 хв. ago