Close Menu
    • Українська
    • English
    Facebook X (Twitter) Instagram
    В тренді:
    • У Європі хочуть залишити українських біженців без житла
    • Розмитнення авто по-новому: що зміниться для водіїв у 2026 році
    • Як підвищити лібідо: поради для жінок і чоловіків
    • Розміщення ядерних боєголовок у Карпатах: чому Європі з Росією потрібно переходити до плану Б
    • В який час доби потрібно їсти ківі для поліпшення травлення та імунітету
    • НАБУ проводить обшуки у проросійської нардепки: розкрито шокуючі деталі
    • Готуйтесь до змін: як перерахують пенсії та соцвиплати у 2026 році
    • Гривня зміцнилася: долар дешевшає напередодні вихідних
    • Українська
    • English
    Facebook X (Twitter) YouTube RSS
    Експерт
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Експерт
    Home » ШІ проти людей: OpenAI визнає ризик випадкового знищення цивілізації

    ШІ проти людей: OpenAI визнає ризик випадкового знищення цивілізації

    Лисенко КатеринаЛисенко Катерина02 Жовтня 2025, 12:391 Min Read Технології
    Поділитись
    Facebook Twitter Telegram

    Генеральний директор OpenAI Сем Альтман висловив занепокоєння щодо потенційної загрози, яку несе штучний інтелект (ШІ) для людства.

    За його словами, один зі сценаріїв розвитку подій – це випадкове захоплення ШІ контролю над світом. Про це він заявив у подкасті генерального директора медіагрупи Axel Springer Матіаса Депфнера, передає Bild.

    “Ця модель бере контроль над світом більш-менш випадково”,- сказав Альтман, коментуючи потенційні ризики.

    Окрім цього, він назвав ще два шляхи, якими ШІ може стати некерованим: підпорядкування людей, які вже мають владу, або формування автономної системи, яка діє незалежно від людського впливу.

    Альтман також звернув увагу на стрімке зростання популярності ChatGPT. За його оцінками, вже найближчим часом кількість користувачів може сягнути мільярдів.

    “Люди дедалі більше покладаються на його відповіді – як у повсякденному житті, так і у важливих професійних рішеннях”, – зазначив він.

    Це, на думку Альтмана, може призвести до втрати контролю, оскільки поради ШІ почнуть замінювати власне критичне мислення людей.

    Занепокоєння поділяють і науковці. Раніше група дослідників опублікувала книгу з промовистою назвою “Якщо хтось це створить – усі помруть”, у якій стверджується, що по-справжньому автономний і неконтрольований суперінтелект може з’явитися вже за 2–5 років, і поставити під загрозу саме існування людства.

    ІТ-новини, інновації, штучний інтелект, гаджети, наукові відкриття та стартапи, що змінюють світ. Усе про сучасні технології та цифрове майбутнє — читайте в розділі «Технології».

    Читайте ЕКСПЕРТ у Google News Підписатися
    openAI ші
    Останні новини
    Сьогодні

    У Європі хочуть залишити українських біженців без житла

    10:53

    Розмитнення авто по-новому: що зміниться для водіїв у 2026 році

    10:50

    Як підвищити лібідо: поради для жінок і чоловіків

    10:40

    Розміщення ядерних боєголовок у Карпатах: чому Європі з Росією потрібно переходити до плану Б

    10:36

    В який час доби потрібно їсти ківі для поліпшення травлення та імунітету

    10:32

    НАБУ проводить обшуки у проросійської нардепки: розкрито шокуючі деталі

    10:27

    Готуйтесь до змін: як перерахують пенсії та соцвиплати у 2026 році

    10:26

    Гривня зміцнилася: долар дешевшає напередодні вихідних

    10:13

    Лайфхаки прання: як прати правильно і економно

    10:00

    День святого Миколая: заборони та прикмети, які варто знати

    09:46
    Load More
    Категорії новин
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Інформація
    • Про проект
    • Автори
    • Редакційна політика і стандарти
    • Політика конфіденційності
    • Правила коментування
    • Контакти
    expert.in.ua © 2025 Всі права захищено.

    Type above and press Enter to search. Press Esc to cancel.