В останні місяці користувачі штучного інтелекту, наприклад ChatGPT від OpenAI, помітили погіршення якості відповідей системи, і відзначають що вони почали давати більш дурні відповіді на запитання, і стають більш «ледачими».
У виданні Computerworld підкреслюється, що нові моделі працюють гірше за своїх попередників, викликаючи розчарування користувачів. Автор статті журналіст Стівен Вон-Ніколс зазначає, що відповіді часто виявляються невірними та хаотичними, що ускладнює використання штучного інтелекту.
«Якщо ви працюєте, скажімо, на рівні звіту середньої школи, то відповіді штучного інтелекту вам підійдуть. Але якщо ви глибоко копаєтеся в предметі, який знаєте, це інша історія», – пише журналіст.
Аналізуючи причини такого погіршення, Вон-Ніколс припускає, що штучний інтелект навчається не лише на даних із соцмереж, а й на інформації, створеної самими моделями. Це може призвести до явища «колапсу моделі», коли якість знижується через використання згенерованих даних. Дослідження показують, що таке застосування контенту без розбору призводить до необоротних дефектів.
З урахуванням того, що інтернет швидко заповнюється штучно-генерованим контентом, проблема може погіршитися вже до 2026 року. Експерти попереджають про необхідність цінувати унікальну роботу людей, проте зміни у цій галузі можуть статися не скоро.
Якщо необхідно відтермінувати мобілізацію, необхідно подати певні документи. Нещодавно Верховна Рада вирішила продовжити воєнний стан…
Публіцист Віталій Портніков відповів на питання, як усунення Путіна могло б змінити перебіг війни. На питання про…
Через пожежі в екосистемі на Київщині українська столиця посіла перше місце в світі за рівнем…
Хвиля смертоносних вибухів пейджерів та інших електронних пристроїв, які носили бойовики в Лівані, різко посилила…
В Україні триває процес загальної мобілізації, під час якого територіальні центри комплектування активно розсилають повістки…
Під час приготування пасти карбонари чи болоньєзе можна допустити деякі помилки, які зіпсують смак страви.…