Site icon Експерт

Альтман попередив про загрозу банківських афер із голосом і відео

Штучний інтелект відкриває нові можливості для шахраїв. Вони зможуть не лише відтворити голос людини, а й створити переконливе відео з її образом.

Про це заявив генеральний директор OpenAI Сем Альтман під час розмови з віце-головою Федеральної резервної системи Мішель Боуман, – повідомляє futurism.com. Він наголосив, що фінансова система потребує нових засобів захисту, аби встигати за розвитком технологій.

Альтман звернув увагу на те, що деякі банки досі використовують голос як спосіб ідентифікації. У такій схемі достатньо назвати контрольну фразу, і система виконує фінансову операцію. Однак, за словами розробника, ці методи вже не є надійними, адже сучасні моделі штучного інтелекту можуть безпомилково відтворити людський голос або відеозображення. “Скоро відеодзвінки через FaceTime чи інші платформи не відрізнятимуться від справжніх”, – застеріг він.

На думку Альтмана, зараз єдиним ефективним захистом лишаються паролі. Решта методів, як-от біометрична чи голосова верифікація, вже піддаються маніпуляціям з боку ШІ. І хоча поки що такі інциденти поодинокі, ситуація стрімко змінюється.

У публікації згадується, що вже зафіксовано випадки, коли шахраї використовували імітацію голосу для вимагання викупу або обману співробітників компаній з метою переведення коштів. Торік ФБР офіційно застерігало про “зростаючу небезпеку”, пов’язану з використанням ШІ у фішингових атаках, маніпуляціях із відео та голосовими підмінами.

Крім того, нещодавно було розслідувано інцидент, у якому зловмисник, використовуючи штучний інтелект, представився державним секретарем Марко Рубіо. Він зв’язувався з кількома високопосадовцями у США — зокрема губернатором, членом Конгресу та трьома міністрами закордонних справ — намагаючись отримати доступ до конфіденційної інформації або рахунків.

У матеріалі підсумовують, що така практика — питання часу. Якщо ще не сьогодні, то найближчим часом банківські установи можуть стати мішенню масштабних атак, побудованих на шахрайських відео й голосових фальсифікаціях.

Читати повну версію