Close Menu
    • Українська
    • English
    Facebook X (Twitter) Instagram
    В тренді:
    • День святого Миколая: заборони та прикмети, які варто знати
    • Штрафи ТЦК: юристи попередили про обов’язкову процедуру після сплати
    • Пришвидши Wi‑Fi за 5 хвилин: прості лайфхаки, про які мовчать провайдери
    • Зима наступає: синоптики попередили про різке зниження температури
    • Не вірите міфам про жінок-водіїв? Ось реальні цифри
    • Модний шок сезону: головний тренд зими повертається після 20 років забуття
    • Медики розкрили, в якій позі спати найкорисніше — а яку варто забути назавжди
    • Комунальники “мухлюють” з платіжками: як не платити зайвого
    • Українська
    • English
    Facebook X (Twitter) YouTube RSS
    Експерт
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Експерт
    Home » ШІ проти людей: OpenAI визнає ризик випадкового знищення цивілізації

    ШІ проти людей: OpenAI визнає ризик випадкового знищення цивілізації

    Лисенко КатеринаЛисенко Катерина02 Жовтня 2025, 12:391 Min Read Технології
    Поділитись
    Facebook Twitter Telegram

    Генеральний директор OpenAI Сем Альтман висловив занепокоєння щодо потенційної загрози, яку несе штучний інтелект (ШІ) для людства.

    За його словами, один зі сценаріїв розвитку подій – це випадкове захоплення ШІ контролю над світом. Про це він заявив у подкасті генерального директора медіагрупи Axel Springer Матіаса Депфнера, передає Bild.

    “Ця модель бере контроль над світом більш-менш випадково”,- сказав Альтман, коментуючи потенційні ризики.

    Окрім цього, він назвав ще два шляхи, якими ШІ може стати некерованим: підпорядкування людей, які вже мають владу, або формування автономної системи, яка діє незалежно від людського впливу.

    Альтман також звернув увагу на стрімке зростання популярності ChatGPT. За його оцінками, вже найближчим часом кількість користувачів може сягнути мільярдів.

    “Люди дедалі більше покладаються на його відповіді – як у повсякденному житті, так і у важливих професійних рішеннях”, – зазначив він.

    Це, на думку Альтмана, може призвести до втрати контролю, оскільки поради ШІ почнуть замінювати власне критичне мислення людей.

    Занепокоєння поділяють і науковці. Раніше група дослідників опублікувала книгу з промовистою назвою “Якщо хтось це створить – усі помруть”, у якій стверджується, що по-справжньому автономний і неконтрольований суперінтелект може з’явитися вже за 2–5 років, і поставити під загрозу саме існування людства.

    ІТ-новини, інновації, штучний інтелект, гаджети, наукові відкриття та стартапи, що змінюють світ. Усе про сучасні технології та цифрове майбутнє — читайте в розділі «Технології».

    Читайте ЕКСПЕРТ у Google News Підписатися
    openAI ші
    Останні новини
    Сьогодні

    День святого Миколая: заборони та прикмети, які варто знати

    09:46

    Штрафи ТЦК: юристи попередили про обов’язкову процедуру після сплати

    09:40

    Пришвидши Wi‑Fi за 5 хвилин: прості лайфхаки, про які мовчать провайдери

    09:39

    Зима наступає: синоптики попередили про різке зниження температури

    09:25

    Не вірите міфам про жінок-водіїв? Ось реальні цифри

    09:13

    Модний шок сезону: головний тренд зими повертається після 20 років забуття

    09:00

    Медики розкрили, в якій позі спати найкорисніше — а яку варто забути назавжди

    08:48

    Комунальники “мухлюють” з платіжками: як не платити зайвого

    08:43

    Кремль запускає нову провокацію: поляків хочуть стравити з українцями

    08:38

    Найдивніші звички диктаторів: від любові до магії вуду до одержимості знаменитостями

    08:33
    Load More
    Категорії новин
    • Всі новини
    • Україна
    • Політика
    • Економіка
    • Світ
    • Стиль життя
    • Авто
    • Технології
    • Суспільство
    • Здоров’я
    Інформація
    • Про проект
    • Автори
    • Редакційна політика і стандарти
    • Політика конфіденційності
    • Правила коментування
    • Контакти
    expert.in.ua © 2025 Всі права захищено.

    Type above and press Enter to search. Press Esc to cancel.