Шкідливе використання AI охоплює академічну спільноту, значна кількість публікацій та якість рецензій погіршуються, помилковий контент проникає у дослідницьку систему, міжнародні конференції терміново посилюють регуляції, довіра до науки наразі проходить випробування на руйнування.
На тлі швидкого розвитку технологій штучного інтелекту у світі, дослідницька спільнота опинилася у безпрецедентній кризі довіри. За останні кілька років системи рецензування у провідних академічних конференціях були переповнені низькоякісними роботами, дослідники виявили, що у багатьох статтях та відгуках (Peer Review) значно зменшується частка людського внеску. Ця тенденція викликає занепокоєння не лише через зміну стилю написання, а й через суттєві проблеми з точністю змісту. Коли точність стає основою наукових досліджень, помилки, створені автоматизованими інструментами, тихо проникають у результати досліджень.
Дослідник з Каліфорнійського університету в Берклі (UC Berkeley) Інуолува Дебора Раджі зазначає, що академічна спільнота захоплена ідеєю застосування AI для трансформації інших галузей, але іронія полягає в тому, що сама індустрія через широке зловживання AI потрапила у хаос.
Дані показують, що масштаб цієї кризи вже досяг критичного рівня. За дослідженням Стенфордського університету (Stanford University), опублікованим у серпні 2025 року, до 22% публікацій у галузі комп’ютерних наук містять ознаки використання великих мовних моделей (LLM). Новостворена компанія з аналізу текстів Pangram у дослідженні для міжнародної конференції з навчальних репрезентацій (ICLR) 2025 року виявила, що приблизно 21% рецензій були повністю згенеровані AI, а понад половина процесу рецензування використовувала AI-помічників для редагування. Ще більш шокуюче — у понад 9% поданих статей понад половина змісту була створена AI.
Професор з Орегонського державного університету (Oregon State University) Томас Г. Діттеріх зазначає, що кількість завантажень на відкритій платформі arXiv також значно зросла, і хоча частково це пов’язано з напливом дослідників, головною причиною є активність AI-інструментів.
Зіткнувшись із потоком низькоякісних робіт та автоматизованих відгуків, академічна спільнота досягла критичної точки, коли потрібно діяти. У листопаді 2024 року рецензенти ICLR виявили статтю, ймовірно згенеровану AI, яка посіла 17-те місце за рейтингом серед усіх поданих робіт, що викликало сильне сумнів у чинній системі оцінювання. В січні 2025 року компанія GPTZero, що займається детекцією, виявила понад 100 автоматичних помилок у 50 роботах, представлених на провідній конференції з штучного інтелекту NeurIPS. Ці помилки включали фальшиві посилання та неправильні графіки, що серйозно підриває наукову строгость.
У відповідь на це ICLR оновила правила використання: якщо автори не розкриють широко застосовувані мовні моделі у своїх роботах, їх роботу відхилять; рецензенти, що подають низькоякісні автоматизовані відгуки, також ризикують отримати відмову у своїх роботах.
Професор з Каліфорнійського університету в Берклі Гані Фарід суворо попереджає, що якщо наукове співтовариство продовжить публікувати помилкові та низькоякісні роботи, суспільство втратить довіру до вчених. Насправді швидкість зростання кількості публікацій вже значно випереджає розвиток технологій їх перевірки. Наприклад, у NeurIPS у 2020 році було подано 9467 робіт, у 2024 — 17491, а у 2025 — вже 21575. Навіть трапляються випадки, коли один автор за рік подає понад 100 робіт, що явно перевищує нормальні межі людської здатності до досліджень. На сьогодні в академічній спільноті відсутні єдині стандарти автоматичного розпізнавання тексту, що ускладнює запобігання зловживанням.
Джерело зображення: UC Berkeley, професор з комп’ютерних наук Гані Фарід
За цим явищем академічного інфляційного зростання стоять складні комерційні конкуренції та реальні обставини. Через високі зарплати та технологічну гонку у AI-індустрії, частина дослідницької діяльності змушена зосереджуватися на кількості публікацій, а не на їх якості. Надмірна популяризація ринку привела до залучення багатьох недосвідчених, які прагнуть швидко отримати результати, що розмиває глибину науки. Водночас експерти наголошують на важливості розрізняти «розумне використання» та «зловживання».
Томас Г. Діттеріх зазначає, що для дослідників, які не є носіями англійської мови (наприклад, з Китаю), AI-інструменти справді допомагають покращити ясність мовлення, і така допомога у написанні статей у певній мірі підвищує ефективність комунікації, її слід розглядати як позитивний аспект.
Однак глибша криза полягає у «забрудненні даних», яке загрожує майбутньому розвитку AI. Технологічні гіганти, такі як Google, Anthropic та OpenAI, просувають ідею використання моделей як партнерів у дослідженнях у галузях, наприклад, біології, але ці моделі навчаються саме на академічних текстах.
Гані Фарід попереджає, що якщо тренувальні дані будуть переповнені штучно створеним контентом, продуктивність моделей значно знизиться.
Попередні дослідження вже довели, що коли LLM навчають на необроблених автоматизованих даних, вони зрештою руйнуються і видають безглузду інформацію. Кевін Вейл, керівник наукового відділу OpenAI, зізнається, що хоча AI може стати потужним прискорювачем досліджень, людський контроль і перевірка є незамінними, а технологічні інструменти ніколи не зможуть замінити суворість наукового процесу.
Цей матеріал зібрано агентом з криптографії, редакцією «Крипто Місто». Зараз він перебуває у процесі навчання, тому можливі логічні похибки або неточності. Матеріал лише для ознайомлення, не слід сприймати як інвестиційну рекомендацію.