Close Menu
    • Українська
    • English
    Facebook X (Twitter) Instagram
    В тренді:
    • Сірий кардинал Трампа: хто формує жорсткий курс США
    • Сніг та ожеледиця у столиці: за ігнорування благоустрою загрожує штраф до 1700 гривень
    • Безугла приголомшила висновками про Сирського та Залужного
    • Плануєте покупку авто: дієві поради, як збити ціну на вторинному ринку
    • Не “стрибайте в них”: спортсмени повідомляють про пошкоджені медалі зимових Ігор-2026
    • Бойлери потрібно замінити на теплові насоси: експерт пояснив причину
    • Нові умови бронювання від мобілізації: хто отримає бронь
    • НБУ запроваджує нові назви для переказів: що зміниться для українців
    • Українська
    • English
    Facebook X (Twitter) YouTube RSS
    Експерт
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Експерт
    Home » В OpenAI визнали ризик створення біозброї за допомогою ChatGPT

    В OpenAI визнали ризик створення біозброї за допомогою ChatGPT

    Ткаченко ВалентинаТкаченко Валентина20 Червня 2025, 18:502 Mins Read Головні новини
    Поділитись
    Facebook Twitter Telegram

    У компанії OpenAI визнали, що наступні покоління їхньої мовної моделі ChatGPT можуть бути використані для створення біологічної зброї. Це застереження пролунало на тлі внутрішньої доповіді компанії, яка досліджувала потенційні загрози від новітніх версій штучного інтелекту. Згідно з документом, майбутні моделі можуть суттєво спростити процес створення токсичних речовин навіть для користувачів без спеціальної освіти.

    Голова відділу біозахисту OpenAI Йоханнес Гайдеке наголосив, що мовні моделі здатні надавати покрокові інструкції щодо синтезу небезпечних агентів. За його словами, система o3 наразі не демонструє значного зростання ризиків порівняно з Google або стандартним пошуком у мережі. Проте моделі, які з’являться після o3, потенційно матимуть більшу точність, глибину аналізу й здатність до комбінування знань з різних галузей, що може призвести до серйозних викликів для біобезпеки.

    У компанії повідомили, що вже почали впроваджувати нові системи моніторингу й фільтрації, зокрема в моделях o3 та o4-mini. Ці механізми мають фіксувати підозрілі запити користувачів, які стосуються створення або використання біологічних агентів. Разом з тим експерти визнають, що забезпечити абсолютну ефективність таких систем складно — точність фільтрації має сягати щонайменше 99,999%, щоб звести ризики до мінімуму.

    OpenAI підкреслює, що розробка мовних моделей вимагає жорсткого нагляду, відповідальності та системної перевірки на предмет безпеки. Компанія вже запровадила внутрішню програму «червоних команд», які моделюють найгірші сценарії зловживання ШІ, включаючи створення біозброї. Такий підхід, за словами представників OpenAI, має стати новим стандартом галузі, щоб не допустити катастрофічного використання штучного інтелекту.

    Читайте ЕКСПЕРТ у Google News Підписатися
    ChatGPT o3 o4-mini openAI безпека біологічна зброя Гайдеке ші штучний інтелект
    Останні новини
    Сьогодні

    Сірий кардинал Трампа: хто формує жорсткий курс США

    23:12

    Сніг та ожеледиця у столиці: за ігнорування благоустрою загрожує штраф до 1700 гривень

    23:04

    Безугла приголомшила висновками про Сирського та Залужного

    22:55

    Плануєте покупку авто: дієві поради, як збити ціну на вторинному ринку

    22:46

    Не “стрибайте в них”: спортсмени повідомляють про пошкоджені медалі зимових Ігор-2026

    22:38

    Бойлери потрібно замінити на теплові насоси: експерт пояснив причину

    22:31

    Нові умови бронювання від мобілізації: хто отримає бронь

    22:22

    НБУ запроваджує нові назви для переказів: що зміниться для українців

    22:13

    Таємні листи Епштейна: як фінансист намагався вийти на Путіна через світових лідерів

    22:05

    Ринок оренди в Україні “переграють”: нові податки та суворий контроль рієлторів

    21:54
    Load More
    Категорії новин
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Інформація
    • Про проект
    • Автори
    • Редакційна політика і стандарти
    • Політика конфіденційності
    • Правила коментування
    • Контакти
    expert.in.ua © 2026 Всі права захищено.

    Type above and press Enter to search. Press Esc to cancel.