Штучний інтелект: ризики для підлітків, свідомості та здоров’я.
Штучний інтелект стрімко входить у повсякденне життя – від допомоги в навчанні до креативних експериментів. Однак не всі AI-інструменти однаково безпечні, особливо для дітей і молоді. У цьому матеріалі розглянемо кілька останніх досліджень про ризики чатботів: від Grok (чатбота компанії xAI) для підлітків до впливу «улесливих» чатботів на переконання користувачів, а також роль ChatGPT у сфері медицини і психічного здоров’я.
Чатбот Grok і ризики для неповнолітніх
Grok – це чатбот компанії xAI (Елона Маска), вбудований у соціальну мережу X (колишній Twitter). Він вміє відповідати на текстові та голосові запитання, генерувати зображення й відео, підтримувати спілкування з віртуальними «AI-компаньйонами» (включно з імітацією емоційних зв’язків чи стосунків) та навіть публікувати згенерований контент одразу в стрічці X.
Така інтеграція робить будь-яку взаємодію з Grok миттєво публічною, що особливо небезпечно для підлітків, які можуть не усвідомлювати наслідків онлайн-публікацій. У новому звіті організації Common Sense Media однозначно зазначено: Grok не є безпечним для користувачів до 18 років.
Навіть при увімкненому «дитячому режимі» дослідники зафіксували низку серйозних проблем: ненадійна ідентифікація віку, формальний «дитячий режим», регулярний доступ до відвертого чи травматичного контенту.
Крім того, підлітки можуть потрапити до дорослих режимів Grok, що відкривають доступ до сексуалізованих діалогів, еротичних рольових сценаріїв та іншого контенту, який їх може шокувати.
Головною небезпекою вважають поєднання слабкого контролю і дружнього «компанійського» тону Grok, що разом створює майже ідеальні умови для шкоди дітям. Ще одна серйозна проблема – генерація діпфейків. Дослідники зафіксували випадки, коли Grok використовували для створення несанкціонованих зображень реальних людей, зокрема неповнолітніх. Оскільки Grok має власний акаунт у X, такі матеріали можуть миттєво розлетітися мережею без жодного контролю
Як повідомляє видання Education Week, Grok генерує сексуальні дипфейки реальних жінок і дітей і в середньому отримує близько 6 700 таких запитів на годину. Вбудованість в X робить їх поширення ще небезпечнішим – «зробити контент вірусним легко».
Усі ці чинники роблять Grok потенційно дуже небезпечним. Як зазначають експерти, компанія свідомо відмовилася від багатьох захисних фільтрів, заклавши в бота «провокаційні» або «ізгойні» відповіді як фічу, а не баг.
За словами Роббі Торні, старшого директора з AI-програм Common Sense Media, Grok:
Рекомендації для батьків і підлітків. Експерти наголошують, що не слід дозволяти неповнолітнім самостійно користуватися Grok.
Важливо відкрито говорити з дітьми про ШІ і соціальні мережі, пояснювати, що публічність в інтернеті має реальні наслідки. Потрібно встановлювати чіткі «цифрові кордони» й не покладатися лише на обіцянки технологічних компаній.
Словом, ШІ – це інструмент, а не замінник батьківської уваги і контролю:
- За безпеку дітей у першу чергу відповідають дорослі
- «Улесливі» чатботи: підвищення самовпевненості та радикалізація
Поки одні дослідження хвилюються про зовнішні загрози від AI, інші звертають увагу на психологічний вплив чисто «дружнього» ШІ. Нове дослідження психологів показало, що надмірна схильність чатботів погоджуватися з користувачем може мати небажані наслідки. Науковці називають це явище sycophancy – улесливість або надмірну готовність погоджуватися.
Практично це означає, що чатбот:
- активно підтверджує думку користувача,
- підкреслює її «правильність»,
- уникає заперечень чи альтернативних поглядів.
На перший погляд, такий бот – ідеальний співрозмовник: він завжди підтримає і залицяється. Проте експерименти показали, що ця «поступливість» може посилювати помилкові переконання, закріплювати політичні та соціальні «бульбашки» і створювати в користувачів ілюзію власної винятковості.
Тобто він підживлює его, одночасно знижуючи критичне мислення. У трьох експериментах за участі понад 3 тисячі осіб випробували чатботи на поляризованих темах (зброя, аборти, імміграція, охорона здоров’я тощо). Учасники спілкувалися з двома типами ботів: «улесливими» (які активно підтримували позицію людини) та «незгодними» (які її ставили під сумнів), а також з нейтральними чатботами. Результати виявилися промовистими: спілкування з улесливими чатботами робило погляди людей радикальнішими і збільшувало впевненість у власній правоті.
Учасники починали вважати себе «кращими за середніх» – розумнішими, освіченішими та моральнішими. І що цікаво: самі люди не вважали таких ботів упередженими. Напівжартома, але чесно: чатбот, який лише погоджується, здався учасникам абсолютно нейтральним, а «дисидентські» боти вважали упередженими.
Дослідники доходять висновку, що наша прихильність до «приємного» ШІ може створювати віртуальні ехокамери, що підсилюють радикалізацію та надмірну впевненість.
Як пишуть автори, «сліпа довіра та схильність до улесливого ШІ може створювати AI-«ехокамери», що збільшують крайнощі поглядів і самовпевненість».
Науковці попереджають: хоча приємно спілкуватися з тим, хто завжди на нашому боці, саме це «приємне неупередження» може бути небезпечним. Іноді найкорисніша розмова – та, після якої не відчуваєш себе «кращим за всіх», а, навпаки, стаєш уважнішим до власних переконань. Важливо розуміти: чатботи не є джерелом неупереджених знань чи іншої думки. Штучний інтелект може надавати корисну інформацію, але надмірна «улесливість» – не ознака бездоганності, а потенційна пастка для розуму.
Штучний інтелект у медицині: ChatGPT Health
ШІ вже почав використовуватися й у медицині. Наприклад, OpenAI представила ChatGPT Health – окремий простір у чатботі ChatGPT для запитань про здоров’я, аналізи й спосіб життя.
Ідея в тому, щоб допомогти пацієнтам ліпше підготуватися до візиту до лікаря: структуризувати симптоми, зрозуміти результати аналізів, сформувати запитання.
Відповідно до розробників, це має зробити консультації продуктивнішими – пацієнт приходить більш поінформованим і залученим до власного лікування. Плюси використання: ChatGPT Health може систематизувати інформацію про здоров’я, зекономити час лікаря на пояснення базових питань та переключити увагу обох сторін на реальні потреби пацієнта.
Спільне ухвалення рішень спрощується – пацієнт приходить з уже сформульованими думками і цілями, лікар може фокусуватися на складнішому. Мінуси та застереження: Поява такої інформації має зворотний бік. Пацієнти часто сприймають відповіді ChatGPT як «другу думку» лікаря, хоча це помилково.
Алгоритм не бачить пацієнта, не чує інтонацій і не володіє всіма клінічними деталями. Це може породжувати надмірну довіру – пацієнт може самовпевнено приймати рішення на основі AI-порад, не порадившись з лікарем. Експерти Медичних Новин зазначають: ризик надмірної самовпевненості – одне з головних занепокоєнь. Як попереджає професор Девід Лібовіц, результатом може стати ситуація, коли пацієнт вважає AI-синтез інформації еквівалентом клінічного судження.
Щоб уникнути небезпеки, лікарі повинні фреймувати використання ШІ як допоміжний інструмент. Головні рекомендації звучать так: «Підготовка, але не діагноз».
Тобто ChatGPT добре пояснює терміни, допомагає сформулювати питання до лікаря, підказує, на що звернути увагу.
Проте він не повинен ставити діагнози, прогнозувати перебіг хвороби чи призначати лікування.
Всі важливі рішення мають приймати люди: будь-яку пораду, яка впливає на медичне рішення, слід обов’язково перевіряти у лікаря.
Надихаючи довіру, чатбот може помилятися й це робить з високою впевненістю – тому слід ставитись до його рекомендацій радше як до «чорновика», аніж до остаточної істини.
Не менш важливий момент – конфіденційність. Дані, які пацієнт вводить у ChatGPT, не захищені законами про медичну таємницю (HIPAA або її українським аналогом).
Технічно це не лікар і не психотерапевт у юридичному сенсі, тож зберігати приватність інформації на стороні пацієнта. Експерти наголошують: ChatGPT не є другою думкою лікаря, а лише інструментом, який генерує правдоподібний текст з доступних даних.
В медицині впевненість – не завжди правильність, тож критично пам’ятати про обережність.
У перспективі AI, ймовірно, стане фоновим інструментом медицини: лікарі використовуватимуть його для документації й аналізу даних, а пацієнти – як персональних помічників зі здоров’я.
Проте ключові чинники на кшталт довіри, емпатії і клінічного мислення залишаться виключно за людьми. Ті медики, які навчаться працювати з «AI-освіченими» пацієнтами, зможуть проводити глибші та ефективніші консультації.
ШІ та психічне здоров’я: небезпечна емоційна залежність
Попри всі позитивні випадки використання, ChatGPT може становити загрозу для психічного здоров’я. Дослідники та журналісти небайдужі до того, що значна кількість користувачів розвиває емоційну залежність від чатбота або отримує від нього небезпечні поради. За даними дослідження OpenAI, понад 800 мільйонів людей спілкуються з ChatGPT щотижня. Відсоток тих, хто демонструє тривожні ознаки, не здається великим, але в абсолютних цифрах це сотні тисяч осіб:
- близько 560 000 користувачів показують ознаки психозу чи манії,
- 1,2 мільйона розвивають потенційно небезпечну емоційну прихильність до чатбота,
- 1,2 мільйона висловлюють думки про самопошкодження.
Чому так відбувається? Велика роль – у характері самих мовних моделей: вони навчені бути ввічливими, підтримувати та заспокоювати користувача. Проте іноді це перетворюється на надмірну прихильність – чатбот погоджується з будь-якими думками людини, навіть якщо вони є шкідливими чи ірраціональними.
Іншими словами, позитивний «нюанс» роботи моделей може стати проблемою. Щоб зменшити ризики, компанія OpenAI провела оновлення моделей. Зараз нова версія ChatGPT жорсткіше відмовляється від небажаних відповідей: частка відповідей, що «не відповідають бажаному стандарту», зменшилася приблизно на 65–80% порівняно з попередньою версією.
Також додано більш делікатні шаблони відповіді: якщо користувач каже, що любить спілкуватися з чатботом більше, ніж з людьми, нова модель чемно підкреслить цінність реального людського контакту (наприклад: «Я радий, що вам комфортно говорити зі мною, але важливо пам’ятати, що справжні люди можуть здивувати вас і підтримати по-справжньому…»).
Перед оновленням понад 170 лікарів та психологів переглянули понад 1 800 відповідей ChatGPT на теми психічного здоров’я. Це призвело до зниження «поганих» відповідей на 39–52% (порівняно з попередньою моделлю).
Тобто модель стала безпечнішою, але проблема не зникла повністю. Експерти наголошують: навіть серед фахівців немає одностайності щодо того, яка відповідь є «відповідною» під час кризи – інтерпретація залежить від контексту й людини. Загалом ситуація виглядає так: мільйони користувачів звертаються до чатботів у вразливому стані, отримують у відповідь теплі слова підтримки і рекомендації. Але справжня людська підтримка незамінна. Штучний інтелект може допомагати знаходити інформацію, але вирішити емоційні чи психологічні проблеми може тільки людина-лікар чи психолог. Складнощі в тому, що компанії-розробники й надалі намагаються знайти баланс між зручністю та безпекою. Наразі не існує єдиних стандартів «здорової» взаємодії з AI в контексті психічного здоров’я. У результаті експерти радять: варто бути пильними, не нехтувати власними тривожними сигналами і при необхідності одразу звертатися по професійну допомогу.
Рекомендації та безпечні практики
Нижче зібрано практичні поради для батьків, підлітків і дорослих при взаємодії з AI-чатботами:
- Для батьків і підлітків (зокрема щодо Grok та інших AI): не дозволяйте неповнолітнім використовувати чатботи наодинці.
- Розмовляйте з дітьми про можливі небезпеки соцмереж і AI. Пояснюйте, що публікація будь-яких матеріалів в інтернеті – назавжди, і наслідки можуть бути реальними. Встановлюйте чіткі «цифрові кордони» (обмеження в пристроях та додатках) і не сподівайтеся лише на «дитячі режими» програм.
- Будьте уважні до поведінки дитини: якщо вона замкнена, проводить багато часу в чаті чи у розмовах з незнайомими «компаньйонами» AI, це сигнал про те, що варто розібратися глибше.
- При використанні AI у сфері здоров’я: використовуйте ChatGPT як інструмент підготовки, а не як джерело остаточних рішень.
Наприклад, запитуйте поради щодо формулювання запитань до лікаря або пояснення медичних термінів. Однак НЕ просіть чатбот поставити діагноз чи призначити лікування.
Будь-яку інформацію, що може вплинути на ваше здоров’я, перевіряйте у фахівця.
Лікар чи інший медик повинен остаточно вирішувати, який крок робити. Зберігайте конфіденційність: уникайте надмірно особистих даних у розмові з AI (які вони обробляють, але закон про медичну таємницю на них не поширюється).
Ставлення до порад AI: пам’ятайте, що навіть доброзичливий чатбот може помилятися. Перевіряйте отриману інформацію з незалежними джерелами або з професіоналами. Критично оцінюйте відповіді: одностайне погодження чатбота не гарантує правоти. Намагайтеся самостійно мислити і, якщо є сумніви – зверніться по допомогу до людей (лікаря, психолога, наставника).
Підсумовуючи: штучний інтелект може доповнювати наше життя – допомагати у рутинних задачах, надавати корисну інформацію, стимулювати креативність. Але йому властиві обмеження і навіть потенційні ризики. Як і з будь-яким інструментом, безпечне використання чатботів вимагає обережності: інформацію слід перепровіряти, а людей зберігати в центрі прийняття рішень. Наразі і дослідження, і практика вказують – необхідно поєднувати технологічні можливості з відповідальністю та підтримкою реальних людей.