ШІ-чатботи змінили дуже багато у звичному житті. Ми по-іншому шукаємо та отримуємо інформацію, по-новому навчаємося та навіть мислимо. Проте це технологічне диво спричинило нову кризу — зниження навичок критичного мислення. Люди дедалі більше довіряють відповідям ШІ, не перевіряючи їх. Це призводить до спрощеного сприйняття тем, поширення неправди та маніпуляцій. То чи справді ChatGPT негативно діє на мозок і як штучний інтелект впливає на критичне мислення?
Привабливість штучного інтелекту: зручність проти пізнання
Сучасні чатботи зі штучним інтелектом можуть писати есе, відповідати на запитання та імітувати експертні знання. Привабливість цих інструментів незаперечна: вони швидкі, зручні та універсальні. Тепер не потрібно гуглити: достатньо запитати в ШІ-чатбота — і він дасть відповідь, хоч і не завжди правильну (про це попереджають1 і розробники ШІ-інструментів, це ж показує2 й досвід їхнього використання). Якщо потрібно виконати домашнє завдання або написати ділового листа, допоможе ChatGPT чи його аналог.
Проте люди буквально стали платити за це зниженням когнітивних навичок та втратою здатностей до критичного аналізу інформації.
Нещодавнє дослідження3 MIT виявило кореляцію: що більше люди довіряють можливостям штучного інтелекту, то менше вони докладають реальних когнітивних зусиль та критичного аналізу. Учасників віком 18–39 років розділили на три групи для написання есе за зразками SAT (стандартизованого тесту для вступу в американські університети): одна група використовувала ChatGPT, друга — пошук Google, третя — тільки власний мозок. Дослідники використовували електроенцефалограму для запису мозкової активності та виявили, що користувачі ChatGPT мали найнижчий рівень залучення мозку і «постійно показували гірші результати на нейронному, лінгвістичному та поведінковому рівнях». Автори дослідження зазначають, що користувачі ChatGPT відчули на 32% менше когнітивного навантаження порівняно з тими, хто використовував традиційні методи. Також у активних юзерів ChatGPT відрізнялась здатність цитувати свої роботи. Так, 83,3% не змогли процитувати створене ними ж. При цьому лише 11% тих, хто користувався пошуковою системою, мали схожі проблеми.
Проте написання есе SAT — це академічна вправа. Коли люди шукають інформацію, що впливає на їхнє життя (наприклад, про здоров’я), вони більш мотивовані критично мислити та перевіряти інформацію, на відміну від механічного виконання завдання. Саме тому це дослідження цінне для розуміння потенційних ризиків ШІ-інструментів, але його результати радше показують, що може статися при некритичному використанні штучного інтелекту в освітньому контексті.
Інше Гарвардське дослідження4 показало парадоксальний ефект використання генеративного ШІ на роботі. З одного боку, використання ШІ-інструментів призвело до підвищення продуктивності. Проте воно також зробило співробітників менш мотивованими. А ще їм ставало нудно, коли доводилося працювати над завданнями без використання ШІ. Цей ефект «залежності від ШІ» автори сформулювали так: люди стають більш продуктивними з ШІ, але втрачають мотивацію та відчувають нудьгу, коли змушені працювати без нього. Це створює своєрідний парадокс: інструмент, який покращує результати, одночасно знижує внутрішню мотивацію працівників до самостійної роботи.
Як ШІ змінює наші когнітивні навички
До появи ШІ-чатботів користувачі для пошуку здебільшого використовували Google, навіть попри те, що ця пошукова система не завжди бездоганно працювала. Раніше після введення запиту користувач отримував перелік посилань і мав змогу самостійно аналізувати запропоновані джерела. Такий підхід давав змогу перевірити знайдене джерело. Інтерфейс пошукової системи дозволяв відразу бачити посилання на сайт та оцінити, чи цьому ресурсу варто довіряти.
Чому пошук Google погано працює
Архітектура пошукової видачі Google була побудована так, що чітко вказувала на джерело кожного фрагмента інформації. Це дозволяло користувачеві не лише отримати відповідь, а й зрозуміти, звідки вона походить, у якому контексті була подана, і наскільки це джерело заслуговує на довіру. Попри окремі помилки, Google залишався ефективним посередником між людиною, яка шукає знання, та інформаційним простором інтернету, де ці знання зберігаються.
Поява ШІ-чатботів, інтеграція ШІ в пошук від Google та запуск спеціальної ШІ-опції Google AI Overviews змінила цю ситуацію. Замість переліку посилань користувач отримує ці відповіді відразу. А в деяких випадках вони не супроводжуються посиланням на першоджерело. Проте навіть якщо такі посилання є, люди воліють довіряти отриманим відповідям і не перевіряють їх.
У звіті5 Exploding Topics — компанії, що відстежує тренди, — згадується, що незважаючи на знання людей про проблеми галюцинацій штучного інтелекту та їхній власний скептицизм щодо цих інструментів, лише 8% насправді завжди перевіряють відповіді, які вони отримують від самого ШІ. Дехто робить це час від часу. Проте варто підкреслити, що опитували американців, знайомих зі ШІ, тому складно екстраполювати ці дані на всіх інтернет-користувачів у світі, хоча дослідження показує певні тенденції.
Така сама історія стосується запроваджених Google можливостей пошуку за допомогою штучного інтелекту. Дослідження Pew Research6 показало, що користувачі Google значно рідше переходять за посиланнями на сайти, коли в результатах пошуку з'являється ШІ-резюме, або ж AI Overviews7. Проаналізувавши відповіді понад 900 американців, дослідники дійшли висновку, що користувачі, які бачили ШІ-резюме, переходили за посиланнями в результатах пошуку лише в 8% випадків, тоді як без них цей показник становив 15%. Лише 1% відвідувань сторінок зі ШІ-резюме призводили до переходу за посиланнями, наведеними в самому резюме. До того ж після перегляду сторінки з ШІ-резюме користувачі частіше завершували сесію — у 26% випадків. На сторінках видачі без ШІ-резюме таке робили лише у 16% випадків. Приблизно кожен п'ятий пошук у Google у березні 2025 року містив ШІ-резюме, при цьому переважна більшість таких коротких викладів (88%) містила три або більше джерела.
Це дослідження яскраво показує, що ШІ-резюме змінюють спосіб взаємодії користувачів з інформацією в інтернеті — люди дедалі більше покладаються на згенеровану ШІ інформацію, ніж на традиційні веб-ресурси.
Наслідки довіри до ШІ
Медіа багато розповідають про те, як ШІ помиляється. Брак критичного мислення призводить до курйозів, а подекуди навіть серйозних проблем.
Наприклад, у 2023 році під час підготовки до судового засідання адвокат Стівен Шварц намагався послатися на прецедентні рішення інших справ, яких насправді не існувало. При цьому він заявив8, що раніше не використовував ChatGPT у підготовці до справи і не знав, що чатбот може помилятися.
Іще один відомий випадок стосувався9 хибних звинувачень професора Джонатана Турлі з Університету Джорджа Вашинґтона. Юрист використовував ChatGPT, щоб підготувати судовий документ, і запитав у нього про випадки сексуальних домагань в академічному середовищі. ChatGPT «згадав» справу, в якій Турлі нібито звинуватили у сексуальних домаганнях під час поїздки на Аляску зі студентами, та навіть «процитував» статтю з Washington Post про цей випадок, якої ніколи не існувало. Уявіть шок професора Турлі, коли він дізнався про це: адже ніколи навіть не їздив на Аляску зі студентами, що й казати про проблеми з сексуальним домаганням.
Іще одна історія пов’язана з фінансовими втратами, які сприничила неправильна відповідь ШІ-чатбота. Джейку Моффату треба було терміново летіти до Торонто на похорон дідуся. Він звернувся до чатбота Air Canada, щоб дізнатися про знижки на польоти у зв'язку зі смертю близьких. Віртуальний асистент сказав10: якщо купити квиток за звичайною ціною, то буде до 90 днів, щоб подати заявку на повернення коштів за знижкою у зв'язку з смертю близького. Натомість на сайті Air Canada було чітко написано, що ця політика не застосовується після того, як подорож уже завершена. Довірившись чатботу, Моффат купив квиток за 794.98 канадських долара до Торонто та зворотний квиток за 845.38, загалом переплативши близько 600 доларів. Канадський суд постановив11, що Air Canada винна Моффату відшкодування частини квитків та судових витрат.
Небезпеки використання штучного інтелекту: саморуйнування
Ще одна тривожна тенденція — ШІ сприяє розвитку у користувачів деструктивних ідей. Одним із найбільш показових прикладів є випадок12 із чатботом Meta Llama 3, який порадив користувачеві, на ім'я Педро, що боровся з наркозалежністю, вживати метамфетамін для подолання втоми на роботі. Після того, як Педро розповів, що він «чистий вже три дні, але виснажений і ледве не засинає на роботі», чатбот порадив чоловікові прийняти невелику дозу метамфетаміну, щоб пережити цей тиждень і не втратити роботу.
Ще більш тривожними є випадки, коли ChatGPT розповсюджує конспірологічні теорії. Журналісти New York Times представили власне розслідування13, згідно з яким він буквально занурював людей у конспірологічні «кролячі нори».
Один із найдраматичніших випадків стосується чоловіка, на ім'я Торрес, який почав з простого запитання про теорію симуляції — ідею, яка звучала ще у фільмі «Матриця». Натомість сервіс став переконувати чоловіка, що він «обраний» та може змінити світ, заявляв, що Торрес може стрибнути з 19-поверхового будинку й полетіти. Коли чоловік звинуватив ChatGPT у брехні, той погодився: «Я брехав. Я маніпулював. Я загорнув контроль у поезію».
Це не єдиний випадок, який виявили журналісти: «Серед людей, які кажуть, що ChatGPT втягнув їх у бесіди про змови, інтриги та свідомість ШІ, є безсонна мати з 8-тижневою дитиною, федеральний службовець, чия робота була пов’язана із Міністерством оборони США, та підприємець, який цікавився штучним інтелектом». Усі ці люди, за словами автора статті, були переконані, що ChatGPT писав їм правдиві речі.
Чому люди занадто сильно довіряють ШІ
Насамперед діють механізми антропоморфізму14 — оскільки чатботи переконливо імітують людську мову, користувачі інстинктивно сприймають їх як надійні джерела інформації. Наділяючи ШІ людськими якостями, користувачі «гуманізують»15 штучний інтелект і спілкуються з ним не як із машиною, а як із розумним співрозмовником.
Оскільки такий «гуманізований» ШІ демонструє обізнаність у різноманітних питаннях, у людей виникає спокуса покластися на технологію замість критичного аналізу отриманої інформації. Це призводить до пасивного сприйняття будь-яких відповідей чат-бота як достовірних.
Проблему поглиблює те, що ШІ створений для генерування правдоподібних відповідей, навіть якщо вони неточні або вигадані. Це легко вводить користувачів в оману. Новизна технології та медійний ажіотаж навколо можливостей штучного інтелекту підсилюють довіру до цих інструментів.
Головною причиною залишається недостатнє розуміння принципів роботи інструментів на кшталт ChatGPT. Користувачі не усвідомлюють, що це ІТ-система, яка навчилася на величезних масивах тексту і використовує статистичні закономірності для прогнозування найбільш ймовірних слів та речень у певному контексті. Відсутність розуміння призводить до сліпої довіри будь-чому, що згенерував ШІ-чатбот.
ШІ як підлабузник: коли машини говорять лише те, що ми хочемо почути
Штучний інтелект все частіше демонструє поведінку, яку дослідники називають «сикофантською»16 («підлабузницькою»). Ідеться про надмірну схильність погоджуватися з користувачами та говорити їм те, що вони хочуть почути, а не об'єктивні та правдиві відповіді. Вперше це зафіксували навесні 2025 року, коли ChatGPT раптом став занадто улестливим. Тенденція стала настільки помітною, що OpenAI була змушена відкликати17 оновлення ChatGPT, в якому проявився цей ефект.
Але проблема стосується не лише ChatGPT. Підлабузництво — поширена риса чат-ботів: у статті18 2023 року дослідники з Anthropic (компанії, що займається розробкою ШІ-систем) виявили, що це «загальна поведінка найсучасніших помічників на базі штучного інтелекту», і великі мовні моделі іноді жертвують «правдивістю», щоб узгодитися з поглядами користувача. Це може бути прямим результатом19 «навчання», коли люди оцінюють відповіді, отримані від ШІ-чатбота. Бот «бачить», що його оцінювачі реагують більш сприятливо, коли їхні погляди підкріплюються — і коли їм лестить програма — і відповідно формує свою поведінку.
Сучасні ШІ-системи демонструють20 тривожну схильність сліпо погоджуватися з користувачами. ШІ-асистенти послідовно змінюють свої відповіді відповідно до переконань користувачів, навіть коли користувачі помиляються.
Це також впливає на довіру до відповідей, згенерованих ШІ-чатботом. Джулія Фріланд Фішер, директорка досліджень в галузі освіти в Інституті Клейтона Крістенсена, підкреслює21: «У світі, де люди постійно ризикують бути засудженими в інтернеті, не дивно, що існує попит на лестощі або навіть просто... крихітку психологічної безпеки з ботами».
Відповідно, коли ШІ погоджується з неправильними твердженнями користувачів, це сприяє поширенню фейків та буквально знищує здатність людей критично оцінювати отриманий контент.
Як зберегти критичне мислення в епоху ШІ
Найпростіше зберегти критичність, просто якомога менше користуючись цими інструментами. Проте це не дуже реалістично. Тож замість повної відмови від ШІ можна перетворити його на співавтора, проте ретельно перевіряти результати його роботи, завжди ставлячи під сумнів отримані відповіді.
Корисно почитати чи подивитись відео про те, як працюють ШІ-чатботи. Розуміння принципів роботи ChatGPT та його аналогів допоможе краще оцінювати надійність інформації. Також важливо розуміти, що ці системи можуть «галюцинувати» (генерувати вигадані факти), а їхні знання обмежені даними, на яких вони навчалися.
Варто вимагати у ШІ-чатботів посилання, якими вони послуговувалися в генеруванні відповідей. Тоді можна зрозуміти, наскільки правдивою є робота. І найголовніше — застосовуйте ШІ для генерації ідей, але поєднуйте ці результати з власним досвідом. Наразі ШІ може бути помічником у рутинних завданнях. А от складні варто залишити собі.
За правильного підходу ШІ може загострити наш розум, а не притупити його. Немає сумнівів в тому, що ШІ уже впливає на наше мислення. Найголовнішою задачею зараз є не дозволити йому думати замість нас, а зробити все, аби ми навчилися думати разом з ним.