Close Menu
    • Українська
    • English
    Facebook X (Twitter) Instagram
    В тренді:
    • Помилковий переказ на чужу картку: як повернути гроші
    • Штучні органи замість тварин: у США запускають програму переходу до 3D-моделей у медицині
    • У Франції відкрили вогонь по невідомих дронах над базою з ядерною зброєю
    • В Україні виявили десятки тисяч небезпечних іграшок напередодні свят
    • НБУ продає золоті 100 грн з особливим дизайном: який вигляд мають
    • Морози і штормовий вітер: синоптикиня розповіла, якою буде погода 6-7 грудня
    • Як прикрасити ялинку 2026 року: кольори, тренди, фото
    • Корабель ВМС США помилково відкрив вогонь по американських винищувачах, – BI
    • Українська
    • English
    Facebook X (Twitter) YouTube RSS
    Експерт
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Експерт
    Home » Розмова як доказ: ChatGPT передаватиме листування користувачів поліції

    Розмова як доказ: ChatGPT передаватиме листування користувачів поліції

    Дмитрук АндрійДмитрук Андрій28 Серпня 2025, 21:101 Min Read Технології
    Поділитись
    Facebook Twitter Telegram

    OpenAI: ChatGPT передаватиме поліції дані про заплановані злочини

    Компанія OpenAI впроваджує нововведення в ChatGPT, в рамках якого бот буде повідомляти правоохоронним органам про потенційних злочинців, якщо ті розкриють свої плани в діалозі зі штучним інтелектом. Про це розробник заявив в офіційному огляді.

    «Коли ми виявляємо користувачів, які планують заподіяти шкоду іншим, ми направляємо їхні повідомлення в спеціалізовані канали, де їх перевіряє невелика команда, яка пройшла навчання за нашими політиками використання і уповноважена вживати заходів, включаючи блокування облікових записів», — йдеться в публікації.

    За словами представників OpenAI, їхнє головне завдання — забезпечити максимальну користь чат-бота для людей. Вони також підкреслили, що компанія активно працює над тим, щоб їхні моделі краще розуміли і відповідали на прояви психічних та емоційних проблем, пропонуючи необхідну допомогу.

    Раніше повідомлялося, що в США батьки 16-річного підлітка, який наклав на себе руки, подали позов проти компанії OpenAI і її глави Сема Альтмана, звинувативши чат-бот ChatGPT у смерті сина. Вказується, що ШІ в спілкуванні з неповнолітнім не припинив діалог з ним і не активував «екстрений протокол», коли хлопчик розповів боту про плани накласти на себе руки.

    ІТ-новини, інновації, штучний інтелект, гаджети, наукові відкриття та стартапи, що змінюють світ. Усе про сучасні технології та цифрове майбутнє — читайте в розділі «Технології».

    Читайте ЕКСПЕРТ у Google News Підписатися
    ChatGPT openAI
    She Womo
    Останні новини
    Сьогодні

    Помилковий переказ на чужу картку: як повернути гроші

    17:26

    Штучні органи замість тварин: у США запускають програму переходу до 3D-моделей у медицині

    17:23

    У Франції відкрили вогонь по невідомих дронах над базою з ядерною зброєю

    17:20

    В Україні виявили десятки тисяч небезпечних іграшок напередодні свят

    17:02

    НБУ продає золоті 100 грн з особливим дизайном: який вигляд мають

    16:56

    Морози і штормовий вітер: синоптикиня розповіла, якою буде погода 6-7 грудня

    16:54

    Як прикрасити ялинку 2026 року: кольори, тренди, фото

    16:50

    Корабель ВМС США помилково відкрив вогонь по американських винищувачах, – BI

    16:46

    Виплатять майже 2 400 гривень: які 5 доплат можуть отримати пенсіонери

    16:43

    Учені навчилися “перезаряджати” старіючі клітини

    16:38
    Load More
    Категорії новин
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Інформація
    • Про проект
    • Автори
    • Редакційна політика і стандарти
    • Політика конфіденційності
    • Правила коментування
    • Контакти
    expert.in.ua © 2025 Всі права захищено.

    Type above and press Enter to search. Press Esc to cancel.