У компанії OpenAI визнали, що наступні покоління їхньої мовної моделі ChatGPT можуть бути використані для створення біологічної зброї. Це застереження пролунало на тлі внутрішньої доповіді компанії, яка досліджувала потенційні загрози від новітніх версій штучного інтелекту. Згідно з документом, майбутні моделі можуть суттєво спростити процес створення токсичних речовин навіть для користувачів без спеціальної освіти.
Голова відділу біозахисту OpenAI Йоханнес Гайдеке наголосив, що мовні моделі здатні надавати покрокові інструкції щодо синтезу небезпечних агентів. За його словами, система o3 наразі не демонструє значного зростання ризиків порівняно з Google або стандартним пошуком у мережі. Проте моделі, які з’являться після o3, потенційно матимуть більшу точність, глибину аналізу й здатність до комбінування знань з різних галузей, що може призвести до серйозних викликів для біобезпеки.
У компанії повідомили, що вже почали впроваджувати нові системи моніторингу й фільтрації, зокрема в моделях o3 та o4-mini. Ці механізми мають фіксувати підозрілі запити користувачів, які стосуються створення або використання біологічних агентів. Разом з тим експерти визнають, що забезпечити абсолютну ефективність таких систем складно — точність фільтрації має сягати щонайменше 99,999%, щоб звести ризики до мінімуму.
OpenAI підкреслює, що розробка мовних моделей вимагає жорсткого нагляду, відповідальності та системної перевірки на предмет безпеки. Компанія вже запровадила внутрішню програму «червоних команд», які моделюють найгірші сценарії зловживання ШІ, включаючи створення біозброї. Такий підхід, за словами представників OpenAI, має стати новим стандартом галузі, щоб не допустити катастрофічного використання штучного інтелекту.