Close Menu
    • Українська
    • English
    Facebook X (Twitter) Instagram
    В тренді:
    • “Корона з голови не впала б”: ще одна країна вимагає публічної подяки від Зеленського
    • В Україні хочуть посилити правила виїзду чоловіків за кордон: кого не випустять
    • Як приготувати яйця-пашот без плити за 45 секунд: вийдуть ідеальними
    • США вже почали відкрито підігравати Кремлю: з чим тиснуть на Європу
    • ТЦК не потягнуть до суду: справи закриють без розгляду
    • Цей кросовер відірвуть з руками: названо найпопулярніший “‎свіжопригнаний”‎ легковик
    • Таємниці Сфінкса: навіщо насправді створили велетенську статую в Гізі
    • Вже сьогодні: у Раді анонсували гучне рішення Зеленського
    • Українська
    • English
    Facebook X (Twitter) YouTube RSS
    Експерт
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Експерт
    Home » Штучний інтелект теж тупіє: вчені зафіксували ефект гниття мозку від низькоякісного контенту

    Штучний інтелект теж тупіє: вчені зафіксували ефект гниття мозку від низькоякісного контенту

    Ткаченко ВалентинаТкаченко Валентина25 Жовтня 2025, 15:143 Mins Read Технології
    Поділитись
    Facebook Twitter Telegram

    Нові дані науковців із Техаського університету в Остіні, Техаського університету A&M та Університету Пердью свідчать, що моделі штучного інтелекту можуть страждати від своєрідного “гниття мозку”. Причиною цього стає навчання на низькоякісному, емоційно насиченому контенті із соціальних мереж, подібно до того, як постійне споживання поверхневої інформації впливає на людей, повідомляє Weired.

    “Ми живемо в час, коли інформація з’являється швидше, ніж здатність людини зосереджуватись, і значна її частина створена не для правди, а для кліків, — пояснив співавтор дослідження Джуньюань Хонг, в минулому аспірант Техаського університету в Остіні. — Ми вирішили з’ясувати, що станеться, якщо штучний інтелект “харчуватиметься” тією самою інформацією”.

    Для аналізу вчені завантажували до двох відкритих мовних моделей — Llama від Meta та Qwen від Alibaba — різні типи текстів: популярні пости із соцмереж, сенсаційні заголовки, а також спокійний, нейтральний контент. Потім їхні когнітивні здібності перевіряли за стандартними тестами, щоб оцінити вплив такої “дієти”.

    Результати виявилися тривожними: моделі, що навчалися на вірусному контенті, демонстрували значне зниження здатності до логічних міркувань, гірше запам’ятовували контекст і втрачали етичну узгодженість. Дослідники описали цей ефект як “інтелектуальне гниття”, оскільки поведінка моделей почала нагадувати когнітивні спотворення, які виникають у людей після тривалого перебування в інформаційному шумі.

    Додатково виявили, що такі моделі стають більш “психопатичними” — вони частіше продукують відповіді без емпатії чи морального фільтра. Це співзвучно з попередніми дослідженнями, які показували, що низькоякісний онлайн-контент негативно впливає на когнітивні функції людей. Не випадково термін “гниття мозку” (brain rot) став словом року за версією Оксфордського словника у 2024 році.

    За словами Хонга, висновки мають серйозне значення для індустрії штучного інтелекту. Розробники, які використовують контент із соціальних мереж як джерело навчальних даних, можуть несвідомо шкодити своїм системам. 

    “Навчати модель на вірусному чи емоційно привабливому контенті може здаватися ефективним способом масштабування даних, але насправді це непомітно підриває її здатність мислити та розуміти контекст”, — попереджає дослідник.

    Особливе занепокоєння викликає те, що все більше контенту в соцмережах нині створюється самими ШІ-моделями. Таким чином, “забруднені” дані знову потрапляють у навчальні набори, що може спричинити ефект лавини — поступове погіршення якості всіх наступних поколінь моделей. Дослідження також довело, що навіть після перенавчання на “чистих” даних моделі не повністю відновлюють свої когнітивні здібності. 

    Раніше дослідники Anthropic виявили, що небажані патерни поведінки у великих мовних моделях, як-от лестощі, соціопатія чи галюцинації, активуються єдиним нейронним зв’язком і виникають випадково через величезні об’єми даних, що ускладнює їх контроль. Замість неефективного накладання зовнішніх обмежень, які легко обійти, команда Anthropic пропонує революційний підхід: навмисно запускати “злі” патерни на етапі навчання ШІ як один із базових варіантів.

    ІТ-новини, інновації, штучний інтелект, гаджети, наукові відкриття та стартапи, що змінюють світ. Усе про сучасні технології та цифрове майбутнє — читайте в розділі «Технології».

    Читайте ЕКСПЕРТ у Google News Підписатися
    штучний інтелект
    She Womo
    Останні новини
    Сьогодні

    “Корона з голови не впала б”: ще одна країна вимагає публічної подяки від Зеленського

    14:26

    В Україні хочуть посилити правила виїзду чоловіків за кордон: кого не випустять

    14:21

    Як приготувати яйця-пашот без плити за 45 секунд: вийдуть ідеальними

    14:18

    США вже почали відкрито підігравати Кремлю: з чим тиснуть на Європу

    14:15

    ТЦК не потягнуть до суду: справи закриють без розгляду

    14:12

    Цей кросовер відірвуть з руками: названо найпопулярніший “‎свіжопригнаний”‎ легковик

    14:11

    Таємниці Сфінкса: навіщо насправді створили велетенську статую в Гізі

    14:09

    Вже сьогодні: у Раді анонсували гучне рішення Зеленського

    14:05

    Користувачів Android просять терміново оновити свої пристрої: що сталося

    13:30

    Вчені б’ють на сполох: сонячний суперспалах підняв радіацію до рекорду за 20 років

    13:27
    Load More
    Категорії новин
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Інформація
    • Про проект
    • Автори
    • Редакційна політика і стандарти
    • Політика конфіденційності
    • Правила коментування
    • Контакти
    expert.in.ua © 2025 Всі права захищено.

    Type above and press Enter to search. Press Esc to cancel.