В останні місяці користувачі штучного інтелекту, наприклад ChatGPT від OpenAI, помітили погіршення якості відповідей системи, і відзначають що вони почали давати більш дурні відповіді на запитання, і стають більш «ледачими».
У виданні Computerworld підкреслюється, що нові моделі працюють гірше за своїх попередників, викликаючи розчарування користувачів. Автор статті журналіст Стівен Вон-Ніколс зазначає, що відповіді часто виявляються невірними та хаотичними, що ускладнює використання штучного інтелекту.
«Якщо ви працюєте, скажімо, на рівні звіту середньої школи, то відповіді штучного інтелекту вам підійдуть. Але якщо ви глибоко копаєтеся в предметі, який знаєте, це інша історія», – пише журналіст.
Аналізуючи причини такого погіршення, Вон-Ніколс припускає, що штучний інтелект навчається не лише на даних із соцмереж, а й на інформації, створеної самими моделями. Це може призвести до явища «колапсу моделі», коли якість знижується через використання згенерованих даних. Дослідження показують, що таке застосування контенту без розбору призводить до необоротних дефектів.
З урахуванням того, що інтернет швидко заповнюється штучно-генерованим контентом, проблема може погіршитися вже до 2026 року. Експерти попереджають про необхідність цінувати унікальну роботу людей, проте зміни у цій галузі можуть статися не скоро.
У Telegram-каналі очільника Чечні Рамзана Кадирова опублікували відео-"консерву» з його сином 18-річним Адамом після новин про ДТП…
Президент США Дональд Трамп використовує щодо Гренландії таку саму риторику, яку використовують "бандити" з Росії…
Знакова трансатлантична торговельна угода не буде схвалена законодавцями ЄС після того, як президент США Дональд Трамп ввів…
Наприкінці тижня, 18 січня, українців знову чекає морозна зимова погода. По всій країні буде хмарно…
Адміністрація президента США Дональда Трампа вимагає від країн, які прагнуть отримати постійне місце в його…
У Києві не відключатимуть електроенергію у будинках, в яких немає тепла. Про це повідомив віцепрем'єр-міністр з відновлення України –…