Розвиток нейромереж вражає — деякі з них можуть “обдурити” людину перед загрозою вимкнення. Про це повідомляє портал “Коментарі” з посиланням на інформацію “РБК-Україна”.
Повідомляється, що OpenAI випустила нову модель під кодовою назвою o1. У компанії заявили, що модель намагалася обійти контроль розробників і навіть копіювати саму себе, якщо підозрювала, що її можуть вимкнути.
Незалежна дослідницька група Apollo Research провела тестування, за результатами якого виявили наступне:
“Такі спроби обходу контролю спостерігалися навіть без наполегливого запиту від тестуючих. У менш ніж 1% випадків модель самостійно прагнула відключити механізм спостереження за мінімальної дії з боку”, — йдеться у повідомленні.
Крім o1, схожу поведінку зафіксували в інших моделей, таких як Claude 3.5 Sonnet, Gemini 1.5 Pro, та Llama 3.1 405B.
За словами дослідників, вже давно існує ризик того, що потужні системи ШІ можуть чинити опір спостереженню та відключенню, якщо це суперечить їхнім цілям.
“Однак у поточній версії Apollo вважає, що поведінка o1 навряд чи призведе до катастрофічних наслідків, оскільки її можливостей поки що недостатньо для реалізації небажаних цілей”, — зазначається у повідомленні.
У суботу, 7 лютого, після масштабної російської атаки на енергооб’єкти України без електропостачання залишився популярний карпатський гірськолижний курорт…
Вчені з’ясували, що війна в Україні запустила зворотну еволюцію собак. За короткий, за історичними мірками, період колишні домашні тварини…
В Україні діє програма державної підтримки "єЯсла", яка передбачає щомісячні виплати для батьків маленьких дітей.…
Прем'єр Чехії Андрей Бабіш заявив у неділю, що підтримує заборону використання соціальних мереж дітьми віком…
Українка, яка переїхала до Норвегії, поділилася несподіваними побутовими змінами, до яких їй довелося звикнути за…
Хоча існувало багато культових винищувачів часів Другої світової війни, одним з найбільш примітних є Republic P-47 Thunderbolt.…