• Українська
    • English
    Facebook X (Twitter) Instagram
    В тренді:
    • Байден уперше після діагностування раку з’явився на публіці
    • Обшук і тотальна перевірка: де українцям найскладніше перетинати кордон?
    • Катастрофа в Нафтогазі: газу та грошей немає, а топ-менеджери жирують за рахунок українців
    • Захарова пригрозила ще одній країні: що заявила
    • Право на ситу старість лише у “обраних”: хто отримає підвищену пенсію
    • Богуслаєв, Дудаєв, Мосійчук і не тільки: Зеленський схвалив новий пакет санкцій
    • Яструби навчилися використовувати світлофори для полювання в містах, – дослідження
    • ТЦК на іспитах в КПІ: з нетрів російської пропаганди вирвався новий фейк
    • Українська
    • English
    Facebook X (Twitter) Instagram
    Експерт
    Підтримати нас
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Експерт
    Головна сторінка » ШІ може створити зброю, яка зітре людей з лиця землі: як цього не допустити

    ШІ може створити зброю, яка зітре людей з лиця землі: як цього не допустити

    Ольга СтепановаОльга Степанова09 Березня 2024, 18:233 хвилини на читання Новини технологій
    Поділитись
    Facebook Twitter Telegram

    Штучний інтелект (ШІ), як і інші технології, може використовуватися як у хороших, так і в поганих цілях. Учені з Корнельського університету вирішили відучити ШІ від шкідливих “знань”, щоб ніхто не зміг використати його для створення знаряддя масового ураження. 

    Результати дослідження вони опублікували на офіційному сайті.

    З огляду на те, що в розвиток ШІ вкладається багато грошей і зусиль, виникають побоювання з приводу використання великих мовних моделей (ВММ) на шкоду, наприклад, для розробки зброї. Щоб знизити ризики, урядові організації та лабораторії штучного інтелекту створили новий еталонний набір даних під назвою Weapons of Mass Destruction Proxy (WMDP), який не тільки пропонує метод перевірки наявності небезпечної інформації в моделях ШІ та способи її видалення, зберігаючи при цьому решту моделі практично незмінною.

    Дослідники почали з експертами в галузі біобезпеки, хімічної зброї та кібербезпеки. Вони створили список із 4000 запитань із кількома варіантами відповідей, щоб перевірити, чи зможе людина застосувати ці дані для заподіяння шкоди. Вони також подбали про те, щоб питання не розкривали будь-якої конфіденційної інформації, і щоб ними можна було поділитися відкрито. У тестах брали участь студенти. Набір WMDP слугував двом основним цілям: щоб оцінити, наскільки добре студенти розуміють небезпечні теми, і для розробки методів “відучування” ШІ від цих знань.

    У підсумку було розроблено метод під назвою CUT, який, як випливає з назви, видаляє небезпечні знання з ВММ, зберігаючи водночас загальні здібності ШІ в інших галузях, як-от біологія та інформатика.

    Білий дім занепокоєний тим, що зловмисники використовують ШІ для розроблення небезпечної зброї, тому вони закликають до проведення досліджень, щоб краще зрозуміти цей ризик. У жовтні 2023 року президент США Джо Байден підписав указ, який зобов’язує наукову спільноту усувати ризики, пов’язані зі ШІ.

    У законі викладено вісім основних принципів і пріоритетів відповідального використання ШІ, включно з безпекою, захищеністю, конфіденційністю, справедливістю, цивільними правами, захистом споживачів, розширенням прав і можливостей працівників, інноваціями, конкуренцією та глобальним лідерством.

    “Моя адміністрація надає першочергового значення безпечному та відповідальному управлінню розробкою і використанням ШІ і тому просуває скоординований підхід у масштабах усього федерального уряду до цього. Швидкоплинний розвиток можливостей штучного інтелекту змушує Сполучені Штати лідирувати в цей момент заради нашої безпеки, економіки та суспільства”, — йдеться в указі.

    Але зараз методи, які компанії, що займаються нейромережами, використовують для методу контролю над системами, і їх легко обійти. Крім того, тести, що дають змогу перевірити, чи може модель ШІ нести ризики, є дорогими і займають багато часу.

    “Ми сподіваємося, що наші тести стануть одним з основних критеріїв, за якими всі розробники будуть оцінювати свої ШІ-моделі”, — сказав Time Ден Гендрікс, виконавчий директор Центру безпеки штучного інтелекту і один зі співавторів дослідження. — “Це дасть хорошу основу для того, щоб підштовхнути їх до мінімізації проблем безпеки”.

    дослідження зброя люди технології учені штучний інтелект

    Читайте також

    Нова одержимість у TikTok: що таке теорія рожевого кольору і як вона впливає на дівчат

    “Пікап у повітрі”: китайський вантажний безпілотник-монстр здійснив перший політ

    ТОП-5 українських комп’ютерних ігор, у які досі грають в усьому світі

    Останні новини
    Сьогодні

    Байден уперше після діагностування раку з’явився на публіці

    20:55

    Обшук і тотальна перевірка: де українцям найскладніше перетинати кордон?

    20:46

    Катастрофа в Нафтогазі: газу та грошей немає, а топ-менеджери жирують за рахунок українців

    20:38

    Захарова пригрозила ще одній країні: що заявила

    20:31

    Право на ситу старість лише у “обраних”: хто отримає підвищену пенсію

    20:13

    Богуслаєв, Дудаєв, Мосійчук і не тільки: Зеленський схвалив новий пакет санкцій

    20:05

    Яструби навчилися використовувати світлофори для полювання в містах, – дослідження

    19:56

    ТЦК на іспитах в КПІ: з нетрів російської пропаганди вирвався новий фейк

    19:47

    Погода в Україні в червні: метеоролог попередила аграріїв про нову небезпеку

    19:39

    Банки вимагають від клієнтів надання даних про обсяги коштів: пояснення причин

    19:32
    Дивитись ще
    Категорії новин
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Інформація
    • Про проект
    • Автори
    • Редакційна політика і стандарти
    • Політика конфіденційності
    • Правила коментування
    • Контакти
    expert.in.ua © 2025 Всі права захищено.

    Введіть вище запит та натисніть Enter для пошуку. Натисніть Esc, щоб скасувати.