Close Menu
    • Українська
    • English
    Facebook X (Twitter) Instagram
    В тренді:
    • Спите біля вікна: тоді не дивуйтеся, чому щоранку ледве підводитеся
    • Чоловік прожив 30 років із запальничкою у шлунку — вона досі працювала
    • Археологи знайшли під водою посуд, якому понад 900 років: він навіть не змінився
    • ПФУ нараховує “борги” пенсіонерам заднім числом: кого зобов’яжуть повернути виплати
    • Скасування розшуку через “Резерв+”: юристи назвали переваги та недоліки
    • Шиномонтаж може стати пасткою: які помилки здатні знищити керованість авто
    • Зміни у зимових канікулах: як будуть відпочивати школярі
    • Зеленський вивів Єрмака зі складу Ставки та РНБО
    • Українська
    • English
    Facebook X (Twitter) YouTube RSS
    Експерт
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Експерт
    Home » ШІ може створити зброю, яка зітре людей з лиця землі: як цього не допустити

    ШІ може створити зброю, яка зітре людей з лиця землі: як цього не допустити

    Ольга СтепановаОльга Степанова09 Березня 2024, 18:233 Mins Read Технології
    Поділитись
    Facebook Twitter Telegram

    Штучний інтелект (ШІ), як і інші технології, може використовуватися як у хороших, так і в поганих цілях. Учені з Корнельського університету вирішили відучити ШІ від шкідливих “знань”, щоб ніхто не зміг використати його для створення знаряддя масового ураження. 

    Результати дослідження вони опублікували на офіційному сайті.

    З огляду на те, що в розвиток ШІ вкладається багато грошей і зусиль, виникають побоювання з приводу використання великих мовних моделей (ВММ) на шкоду, наприклад, для розробки зброї. Щоб знизити ризики, урядові організації та лабораторії штучного інтелекту створили новий еталонний набір даних під назвою Weapons of Mass Destruction Proxy (WMDP), який не тільки пропонує метод перевірки наявності небезпечної інформації в моделях ШІ та способи її видалення, зберігаючи при цьому решту моделі практично незмінною.

    Дослідники почали з експертами в галузі біобезпеки, хімічної зброї та кібербезпеки. Вони створили список із 4000 запитань із кількома варіантами відповідей, щоб перевірити, чи зможе людина застосувати ці дані для заподіяння шкоди. Вони також подбали про те, щоб питання не розкривали будь-якої конфіденційної інформації, і щоб ними можна було поділитися відкрито. У тестах брали участь студенти. Набір WMDP слугував двом основним цілям: щоб оцінити, наскільки добре студенти розуміють небезпечні теми, і для розробки методів “відучування” ШІ від цих знань.

    У підсумку було розроблено метод під назвою CUT, який, як випливає з назви, видаляє небезпечні знання з ВММ, зберігаючи водночас загальні здібності ШІ в інших галузях, як-от біологія та інформатика.

    Білий дім занепокоєний тим, що зловмисники використовують ШІ для розроблення небезпечної зброї, тому вони закликають до проведення досліджень, щоб краще зрозуміти цей ризик. У жовтні 2023 року президент США Джо Байден підписав указ, який зобов’язує наукову спільноту усувати ризики, пов’язані зі ШІ.

    У законі викладено вісім основних принципів і пріоритетів відповідального використання ШІ, включно з безпекою, захищеністю, конфіденційністю, справедливістю, цивільними правами, захистом споживачів, розширенням прав і можливостей працівників, інноваціями, конкуренцією та глобальним лідерством.

    “Моя адміністрація надає першочергового значення безпечному та відповідальному управлінню розробкою і використанням ШІ і тому просуває скоординований підхід у масштабах усього федерального уряду до цього. Швидкоплинний розвиток можливостей штучного інтелекту змушує Сполучені Штати лідирувати в цей момент заради нашої безпеки, економіки та суспільства”, — йдеться в указі.

    Але зараз методи, які компанії, що займаються нейромережами, використовують для методу контролю над системами, і їх легко обійти. Крім того, тести, що дають змогу перевірити, чи може модель ШІ нести ризики, є дорогими і займають багато часу.

    “Ми сподіваємося, що наші тести стануть одним з основних критеріїв, за якими всі розробники будуть оцінювати свої ШІ-моделі”, — сказав Time Ден Гендрікс, виконавчий директор Центру безпеки штучного інтелекту і один зі співавторів дослідження. — “Це дасть хорошу основу для того, щоб підштовхнути їх до мінімізації проблем безпеки”.

    ІТ-новини, інновації, штучний інтелект, гаджети, наукові відкриття та стартапи, що змінюють світ. Усе про сучасні технології та цифрове майбутнє — читайте в розділі «Технології».

    Читайте ЕКСПЕРТ у Google News Підписатися
    дослідження зброя люди технології учені штучний інтелект
    She Womo
    Останні новини
    Сьогодні

    Спите біля вікна: тоді не дивуйтеся, чому щоранку ледве підводитеся

    22:43

    Чоловік прожив 30 років із запальничкою у шлунку — вона досі працювала

    22:40

    Археологи знайшли під водою посуд, якому понад 900 років: він навіть не змінився

    22:36

    ПФУ нараховує “борги” пенсіонерам заднім числом: кого зобов’яжуть повернути виплати

    22:34

    Скасування розшуку через “Резерв+”: юристи назвали переваги та недоліки

    22:29

    Шиномонтаж може стати пасткою: які помилки здатні знищити керованість авто

    22:14

    Зміни у зимових канікулах: як будуть відпочивати школярі

    22:12

    Зеленський вивів Єрмака зі складу Ставки та РНБО

    22:05

    Кожен може “пробити” себе в реєстрі: як дізнатися про борги за комуналку та кредити в Україні

    22:00

    Податкова Польщі візьметься за банківські рахунки українців: до чого готуватися з 1 січня

    21:52
    Load More
    Категорії новин
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Інформація
    • Про проект
    • Автори
    • Редакційна політика і стандарти
    • Політика конфіденційності
    • Правила коментування
    • Контакти
    expert.in.ua © 2025 Всі права захищено.

    Type above and press Enter to search. Press Esc to cancel.