Штучний інтелект в освіті та науці: уявні загрози чи нові можливості?
Відкриття наприкінці 2022 року компанією OpenAI вільного доступу до останньої на той час версії великої мовної моделі (large language model — LLP) ChatGPT-3.5, здатної генерувати тексти у формі, максимально наближеній до звичайної людської мови, мало наслідки, що, напевне, можуть справити й, безперечно, вже справляють суттєвий, а в дечому й революційний вплив на подальший розвиток освіти та науки. Майже одразу подібні моделі почали пропонувати й інші розробники, зокрема Google (Bard, тепер Gemini), Anthropic (Claude), Microsoft (Bing Chat) та Meta (LLaMA). Відтоді розгорнулися інтенсивні дискусії щодо ролі й місця таких систем в освітньому процесі, їхнього значення для наукової діяльності та можливих викликів у цих та інших галузях, що постають у звʼязку з їх застосуванням.
Загалом маємо зазначити, що суспільна реакція на появу новітніх технологій оперування мовними структурами виявилася неоднозначною: від ентузіазму щодо нових можливостей до алармістських передбачень про «кінець письмових практик», адже нібито відтепер усі тексти створюватимуться автоматично без участі людини. Такі настрої, втім, не є новими. Історія людської культури переконливо свідчить, що поява нових технічних засобів майже завжди супроводжувалася хвилями скепсису. Так, ще не так давно в педагогічних колах схожим чином обговорювалася поява калькуляторів: чи не стане це «нечесною» підміною власних зусиль учня? Лунали побоювання, що діти розучаться самостійно виконувати обчислення, що базові навички втратять цінність, а сама математика перестане бути інструментом розвитку логічного мислення. У різних країнах навіть точилися гострі дебати про те, чи варто дозволяти використання калькуляторів у школах, особливо на початкових етапах навчання. Для багатьох педагогів технологічна новинка здавалася загрозою традиційним методам викладання й навіть підривом фундаменту математичної освіти.
Сьогодні ж очевидно, що ці побоювання були безпідставними. Калькулятор не усунув потреби в математичному мисленні, не скасував уміння складати рівняння чи доводити теореми. Він лише звільнив від рутинних операцій — нескінченних підрахунків на папері, які відволікали від головного. Зрештою, калькулятори органічно інтегрувалися у шкільну практику: спершу учень засвоює базові дії, а вже потім, на складніших рівнях, використовує інструмент для пришвидшення розрахунків. Таким чином технологія не замінила знання, а дозволила працювати з ними ефективніше, відкриваючи час і простір для глибшого розуміння математики. (Прикладом із калькулятором завдячуємо С.О. Семерікову.)
Подібні дискусії супроводжували й інші технологічні новації. Друкарські машинки вважали загрозою «справжньому письму», комп’ютери — чинником, що нібито позбавить учнів звички виконувати завдання власноруч і систематично відпрацьовувати навички, а інтернет — джерелом легкого копіювання, яке підточує інтелектуальну чесність. Проте кожна з цих технологій згодом стала невід’ємною частиною освітнього процесу, відкривши нові можливості для викладання й досліджень.
Подібно складається ситуація й із застосуванням великих мовних моделей на зразок ChatGPT, за якими майже відразу закріпилася назва «штучний інтелект» (не в останню чергу завдяки самій назві компанії OpenAI, що відкрила цим системам шлях у життя). Назва «штучний інтелект» звучить привабливо, проте вона не зовсім відповідає сутності цих систем. У пересічного користувача вона створює враження, що йдеться про справжнє мислення чи навіть самосвідомість машини. Насправді ж великі мовні моделі не володіють ані намірами, ані розумінням у людському сенсі. Вони працюють на основі статистичних закономірностей, виявлених у масивах даних, і виконують завдання шляхом добору найбільш імовірних мовних продовжень. Тобто, тут маємо не інтелект у власному розумінні, а радше витончену імітацію інтелектуальних актів. Проте саме ця імітація часто настільки переконлива, що породжує ілюзію справжньої думки, особливо коли користувач спостерігає, як такі моделі наслідують людську манеру спілкування, підтримують діалог і реагують на запити у спосіб, що справляє враження справжнього мислення. (Оскільки суперечки про терміни зазвичай не є продуктивними, а сам вислів «штучний інтелект» уже міцно вкорінився в широкому обігу, надалі ми також користуватимемося ним — із відповідним застереженням.)
У випадку штучного інтелекту ми маємо справу не з мислячою істотою, а з компʼютерною програмою, яка може використовуватися як певний інструмент. Сам термін «інтелект» у цій назві є метафоричним і може ввести в оману, створюючи враження автономної раціональності. Йдеться ж, по суті, про програмні системи, здатні генерувати тексти, узагальнювати й класифікувати дані та імітувати діалог. Це радше алгоритмічний механізм, ніж «інтелект» у людському розумінні. Можна провести паралель з метафорою «комп’ютерна пам’ять»: вона не є пам’яттю у психологічному чи біологічному сенсі, а лише технічним способом збереження інформації. Питання полягає в тому, для яких завдань цей інструмент є справді ефективним і яким чином цей інструмент може і має використовуватися в освітній та науковій діяльності.
Найкраще такі системи проявляють себе в тих випадках, коли йдеться про стандартну обробку текстів. Вони здатні швидко створювати чернетки, добирати приклади, формувати короткі резюме, здійснювати переклад чи пояснювати базові поняття. Окрім того, значний потенціал штучний інтелект демонструє в редагуванні: він допомагає вичищати мовні огріхи, надавати текстові більшої стилістичної плавності, адаптувати його під конкретну аудиторію. Такі функції звільняють користувача від технічної рутини, дозволяючи зосередитися на змісті, аргументації та творчій складовій роботи.
У цьому контексті постає питання, наскільки обґрунтованим є твердження, що використання інструментів штучного інтелекту для виконання таких завдань може розглядатися як порушення принципів академічної доброчесності. Розгляньмо гіпотетичну ситуацію з юридичної практики. Припустімо, перед нами стоїть завдання скласти позовну заяву до суду. Для цього ми залучаємо ChatGPT, якому надаємо всі необхідні дані щодо нашого конкретного випадку, і який на підставі цієї інформації допомагає впорядкувати структуру позову, дібрати належні формулювання, усунути технічні огріхи й підготувати остаточний документ із дотриманням усіх юридичних вимог. Чи буде це означати, що ми вчинили «недоброчесно»? Абсурдність такої логіки стає очевидною, якщо уявити, що суд, довідавшись про використання мовної моделі, відмовляє в розгляді справи, ніби документ утратив юридичну силу лише через те, що його початковий варіант сформовано не вручну. У такому випадку будь-яке застосування текстових редакторів чи шаблонів також можна було б кваліфікувати як порушення. Очевидно, що сама собою технологія не може бути підставою для сумніву в легітимності чи доброчесності документа, якщо його зміст відповідає вимогам закону. При цьому відповідальність за поданий документ — його юридичну правильність, повноту й достовірність — у будь-якому разі цілком лежить на нас.
Розгляньмо інший, більш «фізичний», приклад — використання екскаватора для риття траншеї. Уявімо, що ми всерйоз вимагаємо вважати застосування будівельної техніки «недоброчесним» і наполягаємо, що справжня доброчесність досягається лише тоді, коли людина риє траншею лопатою. Такий підхід, знову ж таки, виглядає абсурдним, адже використання екскаватора — це не примха й не полегшення заради зручності, а необхідна умова технічного прогресу. Саме завдяки сучасній техніці ми здатні виконувати роботу набагато швидше, досягати вищої точності й забезпечувати якість, якої неможливо гарантувати при ручному виконанні. Іншими словами, інструмент не применшує значення результату, а робить його можливим на якісно новому (вищому) рівні. Будівельна техніка — це саме інструмент, який людина використовує для більш ефективного досягнення мети, у цьому випадку — будівництва. Точно так само комп’ютерна програма чи мовна модель є лише технічним засобом, що допомагає людині впоратися з роботою, значно підвищити її продуктивність і результативність, але аж ніяк не знімає з самої людини відповідальності за кінцевий результат.
Водночас штучний інтелект, незважаючи на приголомшливі можливості у сфері обробки текстів, не здатен виконувати власне творчих наукових завдань. Якщо звернутися до нього з «абстрактним» проханням написати повноцінну наукову статтю для публікації у провідному фаховому журналі (і навіть надати можливу тему такої статті), він, безперечно, створить структурований і формально правильний текст. У ньому будуть наявні всі необхідні зовнішні атрибути наукової публікації: вступ, огляд літератури, методологічна частина, результати та висновки. Проте при уважнішому прочитанні стане очевидним, що такий матеріал позбавлений наукової новизни й оригінальних ідей. Штучний інтелект оперує вже наявними знаннями, узагальнюючи, комбінуючи й перефразовуючи їх. Він не створює нових концепцій, не формує гіпотез і не проводить емпіричних досліджень.
Для прикладу, якщо поставити завдання підготувати статтю про вплив цифровізації на систему освіти, мовна модель цілком вправно відтворить загальні міркування, які вже не один раз звучали в науковій та публіцистичній літературі: зручність онлайн-інструментів, можливості дистанційного навчання, потреба в нових навичках для вчителів. Проте, якщо спробувати отримати від неї принципово новий підхід чи оригінальну теоретичну концепцію, результат буде, по суті, повторенням того, що вже й так відомо. Компʼютерна програма не здатна поставити нове дослідницьке питання, побачити несподівані зв’язки чи сформулювати інноваційну гіпотезу. Це добре видно й на прикладі природничих наук. Мовна модель може створити досить грамотний текст про властивості певного хімічного сполучення або навіть описати можливий експеримент. Але жодного реального експерименту вона не здійснює, нових даних не отримує й не аналізує. Її «дослідження» є симуляцією, що ґрунтується на вже опублікованих знаннях. Саме тому наукова творчість і справжній прорив у знаннях залишаються прерогативою дослідника — людини, здатної до критичного мислення, інтуїтивних здогадів та пошуку принципово нових рішень. Отже, штучний інтелект варто розглядати не як заміну науковцю, а як допоміжний інструмент, що може підтримувати дослідницьку роботу, але ніколи не зможе підмінити її сутність. Для справжньої наукової діяльності поява великих мовних моделей не лише не становить жодної загрози, а й, навпаки, відкриває нові можливості та всіляко сприяє її розвиткові.
При цьому, для отримання бажаного й справді корисного результату дуже важливо застосовувати мовні моделі відповідно до їхнього призначення та реальних можливостей. Адже не варто дивуватися, коли спроба використати екскаватор для прокладання асфальтованої дороги чи створення невеликої клумби у дворі дасть результат, далекий від очікуваного. Те саме й зі штучним інтелектом: якщо йому доручити завдання, для яких він не призначений, система спродукує відповіді, що неминуче будуть виглядати недоречними або помилковими. Але проблема полягає не в інструменті, а в неправильному визначенні меж його застосування.
Подібну невідповідність між завданням та інструментом добре ілюструє випадок, який нещодавно було описано в соцмережах. Одна редакторка попросила мовну модель знайти у її тексті росіянізми, навмисне надавши для аналізу уривок, у якому їх не було. У відповідь система «виявила» русизми там, де жодних відхилень від норми не спостерігалося: до переліку потрапили цілком літературні українські слова на кшталт «селище», «призьба», «вивіска», «чужинець», а також поширені вирази на зразок «спало на думку» чи «кидати погляди». У результаті з’явився довгий список «помилок», які насправді помилками не є. Дописувачка використала цей результат, аби звинуватити ChatGPT у «невігластві» й піддати сумніву можливість його застосування для редагування текстів, водночас, звісно, підкреслюючи власну незамінність у цій ролі. Проте цей приклад засвідчив не стільки недоліки самої системи, скільки некоректність сформульованого завдання. Адже цей випадок чудово показує: штучний інтелект виконує саме те завдання, яке йому ставлять. Якщо система отримує запит «знайти русизми», вона їх і «знаходить», навіть якщо доводиться вигадувати їх на рівному місці. Проблема тут полягає не у «злому намірі» чи «некомпетентності» моделі, а в некоректності поставленого завдання. Мовна модель не має власної мовної інтуїції чи критичного мислення — вона лише комбінує дані в межах заданих умов. Якщо ж запит сформульовано надто загально або з упередженим припущенням, то й результат виявиться абсурдним. Натомість, коректна постановка завдання мала б звучати інакше, наприклад: «Проаналізуй, чи є в цьому тексті русизми, і якщо так — ретельно обґрунтуй кожен випадок із посиланням на норми сучасної української літературної мови». Така форма запиту зменшує ризик випадкових вигаданих «знахідок» і водночас надає користувачеві змогу критично оцінити якість пояснень. Наведений приклад переконливо демонструє: результативність роботи мовної моделі прямо залежить від точності й коректності формулювання завдання. І відповідальність за цей результат — як і завжди — лежить на людині.
У сфері освіти та науки дискусії довкола штучного інтелекту часто набувають форми занепокоєння щодо можливого порушення норм академічної доброчесності, що також не є чимось новим. Чи не кожна інноваційна технологія, яка входить в освітній простір, сприймається як потенційна загроза, здатна стимулювати недоброчесну поведінку або знизити рівень індивідуальних зусиль. Проте доречність таких побоювань щодо мовних моделей є доволі сумнівною. Вони радше свідчать про нерозуміння сутності інструмента, ніж про реальну загрозу академічним принципам — особливо тоді, коли у публічних обговореннях з’являються ініціативи заборонити студентам користуватися ChatGPT або запровадити в освітню та наукову практику системи визначення «AI-текстів» за допомогою так званих «детекторів». Проте практична й концептуальна цінність подібних ініціатив видається доволі проблематичною. Жоден алгоритм не здатен надійно відрізнити машинно згенерований текст від людського, а заборона користування інструментами, які вже інтегровані в повсякденні практики, лише створює штучну ізоляцію освітнього процесу від сучасного світу й ставить перед тими, кого ми навчаємо, неприйнятні моральні дилеми.
Штучний інтелект — це насамперед технологія підвищення продуктивності, яка може зняти частину рутинного навантаження з дослідника чи студента. Його використання не усуває потреби в критичному мисленні, формулюванні гіпотез чи оцінюванні результатів. Навпаки, саме ці компетентності виходять на перший план, оскільки робота з мовною моделлю вимагає вміння чітко формулювати завдання, аналізувати отриману відповідь і відповідати за кінцевий результат. Тому сама постановка питання про академічну доброчесність у зв’язку з використанням систем штучного інтелекту є нерелевантною. Використання інструмента саме по собі не є порушенням: усе визначається тим, як саме він застосовується. Порушення доброчесності полягає не в наявності технології, а в недобросовісному ставленні до навчальних і наукових завдань — явищі, що існувало задовго до появи мовних моделей.
Правильна стратегія полягає не у відмові від нового інструмента, а в органічній інтеграції його в освітню і наукову практику. Використання великих мовних моделей має стати невід’ємною компетентністю сучасної людини. Йдеться не лише про технічне вміння відкрити програму й отримати готову відповідь, а насамперед про здатність поставити коректне завдання, критично оцінити результат і поєднати алгоритмічну допомогу з власною інтелектуальною та творчою працею. Адже будь-який інструмент корисний настільки, наскільки користувач уміє його застосовувати. Якщо студент формулює завдання поверхово, він отримає поверхову відповідь. Якщо ж завдання чітке й продумане, результат може суттєво допомогти зекономити час і зосередитися на головному: аналізі, аргументації, формуванні нових ідей. У цьому сенсі робота з мовною моделлю вимагає від користувача більшої відповідальності, ніж традиційні пошукові системи чи довідники. Звісно, завжди можна просто «натиснути кнопку» й механічно (бездумно) використати згенерований текст. Проте результат у такому випадку виявиться поверховим і беззмістовним, і ця недостатність стане очевидною для будь-кого, хто прагне ознайомитися з текстом на рівні його реального змісту, а не лише побіжно переглядає його. Саме тому для автора, який працює з технологіями штучного інтелекту, особливо важливим є (герменевтичне) вміння інтерпретувати й оцінювати текст, що продукується, — аби перетворити його з формального каркасу на осмислений і цінний результат.
Історія науки і освіти добре знає подібні приклади. Колись студентів учили працювати з бібліотечними каталогами, адже без цього було неможливо зорієнтуватися в потоці літератури. Згодом ключовою стала навичка користуватися електронними базами даних та комп’ютерними програмами для обробки інформації. Сьогодні ж до цього переліку додається ще одна компетентність: уміння працювати з інструментами штучного інтелекту. І нехтувати нею — значить залишитися осторонь від того, як функціонує сучасна наука й освіта.
Коротко зупинимося на вимозі обов’язково позначати, що певний текст створено із застосуванням технологій штучного інтелекту, яку останнім часом можна зустріти навіть у настановах офіційних академічних (освітніх та наукових) інституцій, редакційних колегій тощо. На наш погляд, така вимога виглядає щонайменше недоцільною. Ми ж не супроводжуємо наукові статті застереженням, на якому комп’ютері їх написано чи яку операційну систему було використано. Подібні уточнення давно втратили сенс, оскільки стали повсякденною технічною нормою. Те саме невдовзі відбудеться й зі штучним інтелектом: використання мовних моделей у процесі підготовки текстів стане настільки стандартним, що спеціальна вказівка на це виглядатиме анахронізмом. Наголошувати на факті застосування інструмента, який поступово стає універсальним — значить не стільки захищати академічні принципи, скільки демонструвати нерозуміння елементарних прийомів наукової та освітньої діяльності.
Отже, завдання університетів і наукових спільнот полягає не в тому, щоб обмежувати доступ до нових технологій, а навпаки — у тому, щоб навчити майбутніх фахівців грамотно й відповідально ними користуватися. Штучний інтелект не замінює людину-дослідника, але дає їй змогу працювати швидше, точніше й амбітніше. І саме в цьому полягає його справжня цінність. Підсумовуючи, ще раз наголосимо: великі мовні моделі не становлять загрози для освіти й науки, а навпаки — мають стати і вже стають дієвим інструментом їхнього подальшого розвитку. Завдання викладача на сучасному етапі полягає насамперед у тому, щоб самому якнайшвидше опанувати ці технології й бути здатним навчити студентів їх відповідального та ефективного використання. Як майже кожне нове й справді революційне знаряддя, штучний інтелект на початку, природно, викликає зрозумілий, часом напівсвідомий спротив, але згодом він обовʼязково доведе, що не лише не руйнує фундаментальних засад освіти й науки, а, навпаки, відкриває нові й захопливі перспективи.
(І так, задля повної «прозорості»: цей текст було створено з використанням п’ятої моделі ChatGPT, набрано в текстовому редакторі LibreOffice на комп’ютері MacBook Air 2. Можна було б додати ще номер серійного процесора чи колір клавіатури — проте навряд чи це мало б більше сенсу, ніж обов’язкові позначки про застосування штучного інтелекту.)
- Перегляди: 381











Залишити коментар
Щоб відправити коментар, вам необхідно авторизуватись.