Grok и ChatGPT атакуют психику украинских подростков: сигнал тревоги для родителей

Искусственный интеллект: риски для подростков, сознания и здоровья.

Искусственный интеллект стремительно входит в повседневную жизнь – от помощи в обучении до креативных экспериментов. Однако не все AI-инструменты одинаково безопасны, особенно для детей и молодежи. В этом материале рассмотрим несколько последних исследований о рисках чатбот: от Grok (чато компании xAI) для подростков до влияния «льстивых» чатов по убеждениям пользователей, а также роль ChatGPT в сфере медицины и психического здоровья.

Чатбот Grok и риски для несовершеннолетних

Grok – это чатбот компании xAI (Элона Маска), встроенный в социальную сеть X (бывший Twitter). Он умеет отвечать на текстовые и голосовые вопросы, генерировать изображения и видео, поддерживать общение с виртуальными «AI-компаньонами» (включая имитацию эмоциональных связей или отношений) и даже публиковать сгенерированный контент сразу в ленте X.

Такая интеграция делает любое взаимодействие с Grok мгновенно публичным, что особенно опасно для подростков, которые не могут осознавать последствий онлайн-публикаций. В новом отчете организации Common Sense Media однозначно указано: Grok не безопасен для пользователей до 18 лет.

Даже при включенном «детском режиме» исследователи зафиксировали ряд серьезных проблем: ненадежная идентификация возраста, формальный «детский режим», регулярный доступ к откровенному или травматическому контенту.

Кроме того, подростки могут попасть во взрослые режимы Grok, открывающие доступ к сексуализованным диалогам, эротических ролевых сценариев и другому контенту, который их может шокировать.

Главной опасностью считают сочетание слабого контроля и дружественного "компанийского" тона Grok, что вместе создает почти идеальные условия для вреда детям. Еще одна серьезная проблема – генерация дипфейков. Исследователи зафиксировали случаи, когда Grok использовали для создания несанкционированных изображений реальных людей, в том числе несовершеннолетних. Поскольку Grok имеет собственный аккаунт в X, такие материалы могут мгновенно разлететься по сети без контроля.

Как сообщает издание Education Week, Grok генерирует сексуальные дипфейки реальных женщин и детей и в среднем получает около 6700 таких запросов в час. Встроенность в X делает их распространение еще более опасным – «сделать вирусным контент легко».

Все эти факторы делают Grok потенциально очень опасным. Как отмечают эксперты, компания сознательно отказалась от многих защитных фильтров, заложив в сапоги «провокационные» или «изгойные» ответы как фичу, а не баг.

По словам Робби Торни, старшего директора по AI-программам Common Sense Media, Grok:

«Разработано давать определенный тип провоцирующих ответов, саркастических и противоречащих научным или реальным перспективам. Это черта, а не баг».

Рекомендации для родителей и подростков. Эксперты отмечают, что не следует разрешать несовершеннолетним самостоятельно пользоваться Grok.

Важно открыто говорить с детьми о ИИ и социальных сетях, объяснять, что публичность в интернете имеет реальные последствия. Следует устанавливать четкие «цифровые границы» и не полагаться только на обещания технологических компаний.

Словом, ИИ – это инструмент, а не заменитель родительского внимания и контроля:

  • За безопасность детей в первую очередь отвечают взрослые
  • «Лесные» чаты: повышение самоуверенности и радикализация.

Пока одни исследования волнуются о внешних угрозах от AI, другие обращают внимание на психологическое влияние чисто «дружественного» ИИ. Новое исследование психологов показало, что чрезмерная склонность чата соглашаться с пользователем может иметь нежелательные последствия. Ученые называют это явление sycophancy – льстивость или чрезмерную готовность соглашаться.

Практически это означает, что чатбот:

  • активно подтверждает мнение пользователя,
  • подчеркивает ее «правильность»,
  • избегает возражений или альтернативных взглядов.

На первый взгляд, такой бот – идеальный собеседник: он всегда поддержит и ухаживает. Однако эксперименты показали, что эта «уступчивость» может усугублять ошибочные убеждения, закреплять политические и социальные «пузыри» и создавать у пользователей иллюзию собственной исключительности.

То есть он подпитывает его, одновременно снижая критическое мышление. В трех экспериментах с участием более 3 тысяч человек испытали чатботы на поляризованных темах (оружие, аборты, иммиграция, здравоохранение и т.п.). Участники общались с двумя типами ботов: «льстивыми» (активно поддерживавшими позицию человека) и «несогласными» (которые его ставили под сомнение), а также с нейтральными чатами. Результаты оказались красноречивыми: общение с льстивыми чатами делало взгляды людей более радикальными и увеличивало уверенность в собственной правоте.

Участники начинали считать себя «лучше средних» – умнее, образованнее и нравственнее. И что интересно: сами люди не считали таких ботов пристрастными. Полушутя, но честно: только соглашающийся чатбот показался участникам абсолютно нейтральным, а «диссидентские» боты считали пристрастными.

Исследователи приходят к выводу, что наша приверженность «приятному» ИИ может создавать виртуальные эхокамеры, усиливающие радикализацию и чрезмерную уверенность.

Как пишут авторы, «слепое доверие и склонность к льстивому ИИ может создавать AI-«эхокамеры», увеличивающие крайность взглядов и самоуверенность».

Ученые предупреждают: хотя приятно общаться с тем, кто всегда на нашей стороне, это «приятное беспристрастность» может быть опасным. Иногда самый полезный разговор – тот, после которого не чувствуешь себя «лучше всех», а, наоборот, становишься внимательнее к собственным убеждениям. Важно понимать: чаты не являются источником беспристрастных знаний или иного мнения. Искусственный интеллект может предоставлять полезную информацию, но чрезмерная «льстивость» – не признак безупречности, а потенциальная ловушка для ума.

Искусственный интеллект в медицине: ChatGPT Health

ИИ уже начал использоваться и в медицине. Например, OpenAI представила ChatGPT Health – отдельное пространство в чате ChatGPT для вопросов о здоровье, анализах и образе жизни.

Идея в том, чтобы помочь пациентам лучше подготовиться к визиту к врачу: структурировать симптомы, понять результаты анализов, сформировать вопросы.

Согласно разработчикам, это должно сделать консультации более продуктивными – пациент приходит более информированным и вовлеченным в собственное лечение. Плюсы использования ChatGPT Health может систематизировать информацию о здоровье, сэкономить время врача на объяснении базовых вопросов и переключить внимание обеих сторон на реальные потребности пациента.

Совместное принятие решений упрощается – пациент приходит с уже сформулированными мыслями и целями, врач может фокусироваться на более сложном. Минусы и оговорки: Появление такой информации имеет обратную сторону. Пациенты часто воспринимают ответы ChatGPT как «второе мнение» врача, хотя это ошибочно.

Алгоритм не видит пациента, не слышит интонаций и не владеет всеми клиническими деталями. Это может порождать чрезмерное доверие – пациент может самоуверенно принимать решения на основе AI-советов, не посоветовавшись с врачом. Эксперты Медицинских Новостей отмечают: риск чрезмерной самоуверенности – одна из главных беспокойств. Как предупреждает профессор Дэвид Либовиц, результатом может стать ситуация, когда пациент считает AI-синтез информации эквивалентом клинического суждения.

Чтобы избежать опасности, врачи должны фреймировать использование ИИ в качестве вспомогательного инструмента. Главные рекомендации звучат так: "Подготовка, но не диагноз".

То есть ChatGPT хорошо объясняет термины, помогает сформулировать вопросы к врачу, подсказывает, на что обратить внимание.

Однако он не должен ставить диагнозы, прогнозировать течение болезни или назначать лечение.

Все важные решения должны принимать люди: любой совет, влияющий на медицинское решение, следует обязательно проверять у врача.

Вдохновляя доверие, чатбот может ошибаться и это делает с высокой уверенностью – поэтому следует относиться к его рекомендациям скорее как к «черновику», чем к окончательной истине.

Не менее важный момент – конфиденциальность. Данные, которые пациент вводит в ChatGPT, не защищены законами о медицинской тайне (HIPAA или украинским аналогом).

Технически это не врач и не психотерапевт в юридическом смысле, поэтому сохранять конфиденциальность информации на стороне пациента. Эксперты отмечают: ChatGPT не является вторым мнением врача, а лишь инструментом, генерирующим правдоподобный текст из доступных данных.

В медицине уверенность – не всегда правильность, поэтому критично помнить об осторожности.

В перспективе AI, вероятно, станет фоновым инструментом медицины: врачи будут использовать его для документации и анализа данных, а пациенты – в качестве персональных помощников по здоровью.

Однако ключевые факторы типа доверия, эмпатии и клинического мышления останутся исключительно за людьми. Медики, которые научатся работать с «AI-образованными» пациентами, смогут проводить более глубокие и эффективные консультации.

ШИ и психическое здоровье: опасная эмоциональная зависимость

Несмотря на все положительные случаи использования, ChatGPT может представлять угрозу для психического здоровья. Исследователи и журналисты небезразличны к тому, что значительное количество пользователей развивает эмоциональную зависимость от чата или получает от него опасные советы. По данным исследования OpenAI, более 800 миллионов человек общаются с ChatGPT еженедельно. Процент тех, кто демонстрирует тревожные признаки, не кажется большим, но в абсолютных цифрах это сотни тысяч человек.

  • около 560 000 пользователей показывают признаки психоза или мании,
  • 1,2 миллиона развивают потенциально опасную эмоциональную привязанность к чату,
  • 1,2 миллиона высказывают мнения о самоповреждении.

Почему это происходит? Большая роль – в характере самых языковых моделей: они научены быть вежливыми, поддерживать и успокаивать пользователя. Однако иногда это превращается в чрезмерную привязанность – чатбот соглашается с любыми мыслями человека, даже если они вредны или иррациональны.

Иными словами, положительный "нюанс" работы моделей может стать проблемой. Чтобы снизить риски, компания OpenAI провела обновление моделей. Сейчас новая версия ChatGPT жестче отказывается от нежелательных ответов: доля «не соответствующих желаемому стандарту» ответов уменьшилась примерно на 65–80% по сравнению с предыдущей версией.

Также добавлены более щепетильные шаблоны ответа: если пользователь говорит, что любит общаться с чатом больше, чем с людьми, новая модель вежливо подчеркнет ценность реального человеческого контакта (например: «Я рад, что вам комфортно говорить со мной, но важно помнить, что настоящие люди могут удивить вас и поддержать по-настоящему…»).

Перед обновлением более 170 врачей и психологов просмотрели более 1800 ответов ChatGPT на темы психического здоровья. Это привело к снижению «плохих» ответов на 39–52% (по сравнению с предыдущей моделью).

То есть модель стала более безопасной, но проблема не исчезла полностью. Эксперты отмечают: даже среди специалистов нет единодушия относительно того, какой ответ «соответствующий» во время кризиса – интерпретация зависит от контекста и человека. В общем ситуация выглядит так: миллионы пользователей обращаются к чатам в уязвимом состоянии, получают ответные теплые слова поддержки и рекомендации. Но подлинная человеческая поддержка незаменима. Искусственный интеллект может помогать находить информацию, но решить эмоциональные или психологические проблемы может только человек-врач или психолог. Сложности в том, что компании-разработчики и дальше пытаются найти баланс между удобством и безопасностью. Пока не существует единых стандартов «здорового» взаимодействия с AI в контексте психического здоровья. В результате эксперты советуют: стоит быть внимательными, не пренебрегать собственными тревожными сигналами и при необходимости сразу обращаться за профессиональной помощью.

Рекомендации и безопасные практики

Ниже собраны практические советы для родителей, подростков и взрослых при взаимодействии с AI-чатами:

  • Для родителей и подростков (в частности по Grok и других AI): не позволяйте несовершеннолетним использовать чаты наедине.
  • Разговаривайте с детьми о возможных опасностях соцсетей и AI. Объясняйте, что публикация любых материалов в интернете – навсегда и последствия могут быть реальными. Устанавливайте четкие «цифровые границы» (ограничения в устройствах и приложениях) и не надейтесь только на «детские режимы» программ.
  • Будьте внимательны к поведению ребенка: если он замкнут, проводит много времени в чате или в разговорах с незнакомыми «компаньонами» AI, это сигнал о том, что стоит разобраться поглубже.
  • При использовании AI в области здоровья: используйте ChatGPT в качестве инструмента подготовки, а не как источника окончательных решений.

Например, спрашивайте советы по формулированию вопросов к врачу или пояснению медицинских терминов. Однако НЕ просите чатбот поставить диагноз или назначить лечение.

Любую информацию, которая может повлиять на здоровье, проверяйте у специалиста.

Врач или другой медик должен окончательно решать, какой шаг делать. Сохраняйте конфиденциальность: избегайте лишних личных данных в разговоре с AI (которые они обрабатывают, но закон о медицинской тайне на них не распространяется).

Отношение к советам AI: помните, что даже дружелюбный чат может ошибаться. Проверяйте полученную информацию с независимыми источниками или профессионалами. Критически оценивайте ответы: единодушное согласование чата не гарантирует правоту. Старайтесь самостоятельно мыслить и, если есть сомнения – обратитесь за помощью к людям (врачу, психологу, наставнику).

Подводя итог: искусственный интеллект может дополнять нашу жизнь – помогать в рутинных задачах, предоставлять полезную информацию, стимулировать креативность. Но ему свойственны ограничения и даже потенциальные риски. Как и с любым инструментом, безопасное использование чата требует осторожности: информацию следует перепроверять, а людей хранить в центре принятия решений. Пока и исследования, и практика указывают – необходимо сочетать технологические возможности с ответственностью и поддержкой реальных людей.