Close Menu
    • Українська
    • English
    Facebook X (Twitter) Instagram
    В тренді:
    • Міжзоряний об’єкт 3I/ATLAS зазнав дивних змін у Сонячній системі
    • Шокуючий бізнес на мобілізації: чим займалися правоохоронці в Одесі
    • Про “гарних дівчат” і сигару з натяком: Лавров понад 140 разів фігурує у файлах Епштейна
    • Єрмак після відставки проводить таємні зустрічі з топчиновниками — розслідування УП
    • Однокімнатні квартири в Києві в “простої”: що відбувається на ринку оренди
    • Про цей механізм в авто краще забути на зиму: про що йдеться
    • У США обговорюють недієздатність Трампа після публікації ролика з Обамами в джунглях
    • Тренд із минулого: мода на брови 90-х повертається
    • Українська
    • English
    Facebook X (Twitter) YouTube RSS
    Експерт
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Експерт
    Home » В OpenAI визнали ризик створення біозброї за допомогою ChatGPT

    В OpenAI визнали ризик створення біозброї за допомогою ChatGPT

    Ткаченко ВалентинаТкаченко Валентина20 Червня 2025, 18:502 Mins Read Головні новини
    Поділитись
    Facebook Twitter Telegram

    У компанії OpenAI визнали, що наступні покоління їхньої мовної моделі ChatGPT можуть бути використані для створення біологічної зброї. Це застереження пролунало на тлі внутрішньої доповіді компанії, яка досліджувала потенційні загрози від новітніх версій штучного інтелекту. Згідно з документом, майбутні моделі можуть суттєво спростити процес створення токсичних речовин навіть для користувачів без спеціальної освіти.

    Голова відділу біозахисту OpenAI Йоханнес Гайдеке наголосив, що мовні моделі здатні надавати покрокові інструкції щодо синтезу небезпечних агентів. За його словами, система o3 наразі не демонструє значного зростання ризиків порівняно з Google або стандартним пошуком у мережі. Проте моделі, які з’являться після o3, потенційно матимуть більшу точність, глибину аналізу й здатність до комбінування знань з різних галузей, що може призвести до серйозних викликів для біобезпеки.

    У компанії повідомили, що вже почали впроваджувати нові системи моніторингу й фільтрації, зокрема в моделях o3 та o4-mini. Ці механізми мають фіксувати підозрілі запити користувачів, які стосуються створення або використання біологічних агентів. Разом з тим експерти визнають, що забезпечити абсолютну ефективність таких систем складно — точність фільтрації має сягати щонайменше 99,999%, щоб звести ризики до мінімуму.

    OpenAI підкреслює, що розробка мовних моделей вимагає жорсткого нагляду, відповідальності та системної перевірки на предмет безпеки. Компанія вже запровадила внутрішню програму «червоних команд», які моделюють найгірші сценарії зловживання ШІ, включаючи створення біозброї. Такий підхід, за словами представників OpenAI, має стати новим стандартом галузі, щоб не допустити катастрофічного використання штучного інтелекту.

    Найважливіші події дня, головні заяви, рішення та аналітика — усе, що визначає інформаційний порядок денний України та світу, читайте в розділі «Головні новини».

    Читайте ЕКСПЕРТ у Google News Підписатися
    ChatGPT o3 o4-mini openAI безпека біологічна зброя Гайдеке ші штучний інтелект
    Останні новини
    Сьогодні

    Міжзоряний об’єкт 3I/ATLAS зазнав дивних змін у Сонячній системі

    21:23

    Шокуючий бізнес на мобілізації: чим займалися правоохоронці в Одесі

    21:13

    Про “гарних дівчат” і сигару з натяком: Лавров понад 140 разів фігурує у файлах Епштейна

    21:11

    Єрмак після відставки проводить таємні зустрічі з топчиновниками — розслідування УП

    20:55

    Однокімнатні квартири в Києві в “простої”: що відбувається на ринку оренди

    20:46

    Про цей механізм в авто краще забути на зиму: про що йдеться

    20:38

    У США обговорюють недієздатність Трампа після публікації ролика з Обамами в джунглях

    20:31

    Тренд із минулого: мода на брови 90-х повертається

    20:22

    “Українські біженці пограбували ювелірний магазин у Мілані”: що відомо

    20:13

    Росія створює армію голубів-кіборгів для можливих біоатак: експерти б’ють на сполох

    20:05
    Load More
    Категорії новин
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Інформація
    • Про проект
    • Автори
    • Редакційна політика і стандарти
    • Політика конфіденційності
    • Правила коментування
    • Контакти
    expert.in.ua © 2026 Всі права захищено.

    Type above and press Enter to search. Press Esc to cancel.