• Українська
    • English
    Facebook X (Twitter) Instagram
    В тренді:
    • Інфляція в Україні обігнала облікову ставку НБУ: деталі від Держстату
    • З початку війни кількість боржників серед ФОПів зросла удвічі
    • Вже з 1 липня: українців попередили про нові обмеження в Укрпошті
    • Синоптик повідомив, коли в Україну повернеться літня спека
    • У Таїланді жінка знайшла коробку з мільйонами біля смітника
    • Українці втрачають кошти через “мовчазні” штрафи ПриватБанку
    • Китайський банк намагався підкупити людей популярними іграшками Labubu
    • З липня українці отримуватимуть по 4500 грн щомісяця: деталі програми
    • Українська
    • English
    Facebook X (Twitter) Instagram
    Експерт
    Підтримати нас
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Експерт
    Головна сторінка » ШІ може створити зброю, яка зітре людей з лиця землі: як цього не допустити

    ШІ може створити зброю, яка зітре людей з лиця землі: як цього не допустити

    Ольга СтепановаОльга Степанова09 Березня 2024, 18:233 хвилини на читання Новини технологій
    Поділитись
    Facebook Twitter Telegram

    Штучний інтелект (ШІ), як і інші технології, може використовуватися як у хороших, так і в поганих цілях. Учені з Корнельського університету вирішили відучити ШІ від шкідливих “знань”, щоб ніхто не зміг використати його для створення знаряддя масового ураження. 

    Результати дослідження вони опублікували на офіційному сайті.

    З огляду на те, що в розвиток ШІ вкладається багато грошей і зусиль, виникають побоювання з приводу використання великих мовних моделей (ВММ) на шкоду, наприклад, для розробки зброї. Щоб знизити ризики, урядові організації та лабораторії штучного інтелекту створили новий еталонний набір даних під назвою Weapons of Mass Destruction Proxy (WMDP), який не тільки пропонує метод перевірки наявності небезпечної інформації в моделях ШІ та способи її видалення, зберігаючи при цьому решту моделі практично незмінною.

    Дослідники почали з експертами в галузі біобезпеки, хімічної зброї та кібербезпеки. Вони створили список із 4000 запитань із кількома варіантами відповідей, щоб перевірити, чи зможе людина застосувати ці дані для заподіяння шкоди. Вони також подбали про те, щоб питання не розкривали будь-якої конфіденційної інформації, і щоб ними можна було поділитися відкрито. У тестах брали участь студенти. Набір WMDP слугував двом основним цілям: щоб оцінити, наскільки добре студенти розуміють небезпечні теми, і для розробки методів “відучування” ШІ від цих знань.

    У підсумку було розроблено метод під назвою CUT, який, як випливає з назви, видаляє небезпечні знання з ВММ, зберігаючи водночас загальні здібності ШІ в інших галузях, як-от біологія та інформатика.

    Білий дім занепокоєний тим, що зловмисники використовують ШІ для розроблення небезпечної зброї, тому вони закликають до проведення досліджень, щоб краще зрозуміти цей ризик. У жовтні 2023 року президент США Джо Байден підписав указ, який зобов’язує наукову спільноту усувати ризики, пов’язані зі ШІ.

    У законі викладено вісім основних принципів і пріоритетів відповідального використання ШІ, включно з безпекою, захищеністю, конфіденційністю, справедливістю, цивільними правами, захистом споживачів, розширенням прав і можливостей працівників, інноваціями, конкуренцією та глобальним лідерством.

    “Моя адміністрація надає першочергового значення безпечному та відповідальному управлінню розробкою і використанням ШІ і тому просуває скоординований підхід у масштабах усього федерального уряду до цього. Швидкоплинний розвиток можливостей штучного інтелекту змушує Сполучені Штати лідирувати в цей момент заради нашої безпеки, економіки та суспільства”, — йдеться в указі.

    Але зараз методи, які компанії, що займаються нейромережами, використовують для методу контролю над системами, і їх легко обійти. Крім того, тести, що дають змогу перевірити, чи може модель ШІ нести ризики, є дорогими і займають багато часу.

    “Ми сподіваємося, що наші тести стануть одним з основних критеріїв, за якими всі розробники будуть оцінювати свої ШІ-моделі”, — сказав Time Ден Гендрікс, виконавчий директор Центру безпеки штучного інтелекту і один зі співавторів дослідження. — “Це дасть хорошу основу для того, щоб підштовхнути їх до мінімізації проблем безпеки”.

    дослідження зброя люди технології учені штучний інтелект

    Читайте також

    Журналісти виявили, що інфраструктуру Telegram обслуговують компанії, пов’язані з ФСБ

     Науковці створили батарейку, яка працює 5700 років без підзарядки

    Смартфон сильно нагрівається: дієві поради

    Останні новини
    Сьогодні

    Інфляція в Україні обігнала облікову ставку НБУ: деталі від Держстату

    13:07

    З початку війни кількість боржників серед ФОПів зросла удвічі

    13:01

    Вже з 1 липня: українців попередили про нові обмеження в Укрпошті

    12:56

    Синоптик повідомив, коли в Україну повернеться літня спека

    12:27

    У Таїланді жінка знайшла коробку з мільйонами біля смітника

    12:22

    Українці втрачають кошти через “мовчазні” штрафи ПриватБанку

    12:09

    Китайський банк намагався підкупити людей популярними іграшками Labubu

    12:02

    З липня українці отримуватимуть по 4500 грн щомісяця: деталі програми

    11:56

    Рекрутинг не замінить мобілізацію: що чекає ТЦК — пояснення депутата

    11:51

    Масштабна аварія залишила без світла дві області України

    11:29
    Дивитись ще
    Категорії новин
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Інформація
    • Про проект
    • Автори
    • Редакційна політика і стандарти
    • Політика конфіденційності
    • Правила коментування
    • Контакти
    expert.in.ua © 2025 Всі права захищено.

    Введіть вище запит та натисніть Enter для пошуку. Натисніть Esc, щоб скасувати.