Новини

ChatGPT може зламати акаунти замість хакерів

За допомогою текстових запитів до ChatGPT у кіберфахівців уже вийшло зламати пошту і навіть успішно завантажити шкідливе ПЗ на сайт, який перевіряє файли на віруси.Експерти з кібербезпеки попереджають про нову загрозу, яку несуть чат-боти на основі штучного інтелекту, пише Wall Street Journal. Виявляється, за допомогою хитрих і наполегливих запитів до ChatGPT можна змусити інструменти зі штучним інтелектом зламувати облікові записи замість хакерів.

Наприклад, Йоганн Ребергер, дослідник безпеки, практично “умовив” чат-бота від OpenAI прочитати його електронну пошту, узагальнити інформацію звідти та опублікувати її в інтернеті. За словами фахівця, в руках злочинця цей метод міг бути використаний для крадіжки конфіденційних даних із чиєїсь поштової скриньки. Виверт кіберексперта спрацював, тому що він використовував функцію бета-тестування ChatGPT, яка давала йому доступ до таких додатків, як Slack, Gmail та інших.

Сам “білий хакер” (фахівець, який тестує системи і продукти на вразливості) називає новий спосіб атаки “оперативною ін’єкцією”. І, за його словами, подібні методи змінюють уявлення, що означає злом, і дослідники безпеки зараз поспішають вивчити вразливості, перш ніж використання систем ШІ стане більш поширеним.

А інший анонімний хакер використав уразливість ШІ від Google, яка у квітні під’єднала нейромережу до популярного сайту перевірки файлів на віруси VirusTotal. Компанія хотіла, щоб її ШІ аналізував файли, що надходять на сайт, і давав їм опис. Хакер підправив частину коду в шкідливому ПЗ і завантажив його на VirusTotal, змусивши ШІ від Google описати шкідливе ПЗ як таке, що “здатне створювати цуценят”.

Google вже виправила цю вразливість, а представники OpenAI подякували кіберекспертам, які знаходять “дірки” в їхньому чат-боті. Це дає змогу компанії робити свою нейромережу безпечнішою.

Зі свого боку експерти з дезінформації занепокоєні атаками “отруєння даних”, коли хакер підробляє дані, які використовуються для навчання моделей ШІ, що призводить до результатів, які вводять в оману. Інші їхні колеги турбуються про етичну упередженість у нейромережах і про витік корпоративних секретів унаслідок атаки з вилученням даних.

Основна проблема в тому, що ChatGPT та інші чат-боти на основі ШІ “знижують вхідний бар’єр для всіх видів атак”, — каже Ребергер. “Вам необов’язково вміти писати код. Вам необов’язково мати такі глибокі пізнання в галузі інформатики або хакерства, просто достатньо бути хитрим і наполегливим”, — підкреслює він.

Ольга Степанова

Recent Posts

Не лише Венеція. Ще одне місто Італії посилило заборони для туристів

Італійське місто Флоренція посилило заборони для туристів. Під заборону потрапили скриньки з ключами та гучномовці…

2 години ago

Риба з “людським обличчям”: чоловік купив японського карпа, а отримав неймовірний екземпляр

Малкольм Поусон став неймовірно популярним через рибку, яку тримає вдома. Він почав знімати свого улюбленця…

2 години ago

Повернутися назад в окупацію спробували мінімум 350 тис українців: шокуючі причини

Щонайменше 30 відсотків маріупольців повертаються в окупацію, частина – назавжди. При чому ще більший відсоток…

2 години ago

Мова розбрату: вчительці української загрожує депортація через мовний конфлікт

У Німеччині вибухнув мовний скандал, який набув гучного розголосу серед української громади. Дві українські біженки…

2 години ago

Привласнив кошти зі збору для ЗСУ. Блогер-військовий Сорд отримав підозру

Військовому блогеру, який ошукав підписників під час збору коштів для підрозділу ЗСУ повідомили про підозру.…

2 години ago

Виробляєш електрику та худнеш: український винахідник змайстрував унікальний тренажер

Українці напередодні зими вже традиційно готуються до можливих затяжних відключень світла. І діляться одне з…

2 години ago