Close Menu
    • Українська
    • English
    Facebook X (Twitter) Instagram
    В тренді:
    • Канікул нікому не бачити: школярі навчатимуться навіть влітку
    • Чому Україна не може повністю перехоплювати російську балістику — пояснення фахівця
    • Одяг, який ви точно недооцінювали, знову в тренді: що шукати у шафі
    • Рік тому США таємно шукали інформацію про військові об’єкти в Гренландії – Berlingske
    • Депутати звернулися до НАБУ через заяви про системну корупцію в СБУ за Баканова і Наумова
    • Сирський анонсував нові контрнаступи ЗСУ: як Україна планує здійснити перелом у війні
    • Німецькі військові несподівано покинули Гренландію без пояснень, – Bild
    • Як заснути без опалення: поради для всіх українців на період блекаутів
    • Українська
    • English
    Facebook X (Twitter) YouTube RSS
    Експерт
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Експерт
    Home » Штучний інтелект теж тупіє: вчені зафіксували ефект гниття мозку від низькоякісного контенту

    Штучний інтелект теж тупіє: вчені зафіксували ефект гниття мозку від низькоякісного контенту

    Ткаченко ВалентинаТкаченко Валентина25 Жовтня 2025, 15:143 Mins Read Технології
    Поділитись
    Facebook Twitter Telegram

    Нові дані науковців із Техаського університету в Остіні, Техаського університету A&M та Університету Пердью свідчать, що моделі штучного інтелекту можуть страждати від своєрідного “гниття мозку”. Причиною цього стає навчання на низькоякісному, емоційно насиченому контенті із соціальних мереж, подібно до того, як постійне споживання поверхневої інформації впливає на людей, повідомляє Weired.

    “Ми живемо в час, коли інформація з’являється швидше, ніж здатність людини зосереджуватись, і значна її частина створена не для правди, а для кліків, — пояснив співавтор дослідження Джуньюань Хонг, в минулому аспірант Техаського університету в Остіні. — Ми вирішили з’ясувати, що станеться, якщо штучний інтелект “харчуватиметься” тією самою інформацією”.

    Для аналізу вчені завантажували до двох відкритих мовних моделей — Llama від Meta та Qwen від Alibaba — різні типи текстів: популярні пости із соцмереж, сенсаційні заголовки, а також спокійний, нейтральний контент. Потім їхні когнітивні здібності перевіряли за стандартними тестами, щоб оцінити вплив такої “дієти”.

    Результати виявилися тривожними: моделі, що навчалися на вірусному контенті, демонстрували значне зниження здатності до логічних міркувань, гірше запам’ятовували контекст і втрачали етичну узгодженість. Дослідники описали цей ефект як “інтелектуальне гниття”, оскільки поведінка моделей почала нагадувати когнітивні спотворення, які виникають у людей після тривалого перебування в інформаційному шумі.

    Додатково виявили, що такі моделі стають більш “психопатичними” — вони частіше продукують відповіді без емпатії чи морального фільтра. Це співзвучно з попередніми дослідженнями, які показували, що низькоякісний онлайн-контент негативно впливає на когнітивні функції людей. Не випадково термін “гниття мозку” (brain rot) став словом року за версією Оксфордського словника у 2024 році.

    За словами Хонга, висновки мають серйозне значення для індустрії штучного інтелекту. Розробники, які використовують контент із соціальних мереж як джерело навчальних даних, можуть несвідомо шкодити своїм системам. 

    “Навчати модель на вірусному чи емоційно привабливому контенті може здаватися ефективним способом масштабування даних, але насправді це непомітно підриває її здатність мислити та розуміти контекст”, — попереджає дослідник.

    Особливе занепокоєння викликає те, що все більше контенту в соцмережах нині створюється самими ШІ-моделями. Таким чином, “забруднені” дані знову потрапляють у навчальні набори, що може спричинити ефект лавини — поступове погіршення якості всіх наступних поколінь моделей. Дослідження також довело, що навіть після перенавчання на “чистих” даних моделі не повністю відновлюють свої когнітивні здібності. 

    Раніше дослідники Anthropic виявили, що небажані патерни поведінки у великих мовних моделях, як-от лестощі, соціопатія чи галюцинації, активуються єдиним нейронним зв’язком і виникають випадково через величезні об’єми даних, що ускладнює їх контроль. Замість неефективного накладання зовнішніх обмежень, які легко обійти, команда Anthropic пропонує революційний підхід: навмисно запускати “злі” патерни на етапі навчання ШІ як один із базових варіантів.

    ІТ-новини, інновації, штучний інтелект, гаджети, наукові відкриття та стартапи, що змінюють світ. Усе про сучасні технології та цифрове майбутнє — читайте в розділі «Технології».

    Читайте ЕКСПЕРТ у Google News Підписатися
    штучний інтелект
    Останні новини
    Сьогодні

    Канікул нікому не бачити: школярі навчатимуться навіть влітку

    20:36

    Чому Україна не може повністю перехоплювати російську балістику — пояснення фахівця

    20:18

    Одяг, який ви точно недооцінювали, знову в тренді: що шукати у шафі

    20:18

    Рік тому США таємно шукали інформацію про військові об’єкти в Гренландії – Berlingske

    20:16

    Депутати звернулися до НАБУ через заяви про системну корупцію в СБУ за Баканова і Наумова

    20:14

    Сирський анонсував нові контрнаступи ЗСУ: як Україна планує здійснити перелом у війні

    20:06

    Німецькі військові несподівано покинули Гренландію без пояснень, – Bild

    18:54

    Як заснути без опалення: поради для всіх українців на період блекаутів

    18:35

    Як приготувати борщ, смачніший, ніж у мами — рецепт традиційної української страви

    18:31

    Кого з чоловіків віком 50+ років можуть мобілізувати до кінця січня

    18:27
    Load More
    Категорії новин
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Інформація
    • Про проект
    • Автори
    • Редакційна політика і стандарти
    • Політика конфіденційності
    • Правила коментування
    • Контакти
    expert.in.ua © 2026 Всі права захищено.

    Type above and press Enter to search. Press Esc to cancel.