Диагнозы ставит TikTok: как медицинские советы из соцсетей и ChatGPT заменяют врачей

Довериться фейку
Согласно исследованию, опубликованному в марте 2025 года в научном журнале Plos One, большинство популярных видеороликов в TikTok с хештегом #ADHD не соответствуют диагностическим критериям и медицинским рекомендациям. Исследователи проанализировали 100 самых популярных видео, собравших почти 500 млн просмотров, и выяснили, что менее половины утверждений о симптомах СДВГ совпадают с официальной классификацией заболеваний.Авторы подобного контента часто выдают личные ощущения (например, невнимательность, сложность с концентрацией или незаинтересованность в беседе) или и вовсе недиагностированные состояния за признаки заболевания, при этом не уточняя, что диагноз может поставить только врач. Более того, многие ролики сопровождаются ссылками на магазины, курсы по коучингу или товары для «повышения концентрации», что напрямую может указывать на коммерческую мотивацию авторов.
Проблема такого «медицинского» контента не только в искажении симптомов настоящих заболеваний, но и в обилии «народных» рецептов, которые не только неэффективны, но и потенциально вредны. Согласно исследованию компании Tebra, почти половина контента о здоровье на TikTok может быть ложной или вводящей в заблуждение. Особенно часто встречаются советы, не имеющие доказательной базы: например, класть чеснок в нос для «чистки пазух», использовать лук в носках от простуды или натирать кожу маслом ради «детокса». Несмотря на абсурдность с точки зрения науки, подобные рекомендации быстро становятся вирусными и собирают большое количество просмотров — короткий формат и эмоциональная подача заставляют аудиторию верить в то, что говорят инфлюенсеры, зачастую даже не задумываясь о том, насколько их подсказки могут быть корректными и эффективными.
На доверие влияет и образ «эксперта», который создается благодаря активному и порой даже чрезмерному использованию «умных терминов» — названий полезных веществ, научных определений и не только, из-за чего создается впечатление, что автор контента и в самом деле обладает, если не «сакральным знанием», то, по крайней мере, опытом в медицинской теме. В реальности же это не совсем так: некоторые посты в TikTok и Instagram (принадлежит Meta, которая признана в России экстремистской и запрещена) продвигают медицинские процедуры и анализы, не раскрывая, что за этим стоят коммерческие интересы, например бренды или частные клиники. Это особенно опасно, когда речь идет о тестах с высоким риском гипердиагностики — ненужного лечения или тревоги у людей, у которых нет патологии.
В некоторых случаях обман может пойти еще дальше и авторы контента могут даже использовать дипфейки вместо реальных людей. Так, некоторые аккаунты продвигают сгенерированных через нейросети инфлюенсеров, чтобы продавать «оздоравливающие» масла, добавки и процедуры. Эти «люди» выглядят настолько реалистично, что даже не каждый опытный пользователь сможет отличить их от настоящего блогера: они имитируют популярные форматы, такие как «личные истории», и вызывают почти безусловное доверие — особенно если видео оформлено убедительно, с ссылками на поддельные отзывы и медицинские исследования.
Исследователи уверены: TikTok и другие платформы стали не только источником вдохновения, но и серьезной зоной риска. Люди часто обращаются к короткому видеоформату, когда ищут быстрые ответы, особенно в темах, касающихся здоровья, самоидентификации или ментального состояния. Но именно на этом поле процветает дезинформация. Псевдоэксперты, манипуляции эмоциями, финансовые интересы и алгоритмы, подталкивающие к вирусному контенту, создают среду, в которой отличить правду от вымысла все сложнее — и это стало возможным не только благодаря развитию цифровых технологий, но и глобальному кризису доверия к большим институциям.
Откуда берется доверие к инфлюенсерам
В 2017 году директор Центра по изучению гражданских медиа при Массачусетском технологическом институте Итан Цукерман стал одним из первых в научной среде, кто заговорил о кризисе доверия общества к институтам. Позднее, в 2020 году, и уже сменив должность, свои взгляды Цукерман изложил более подробно в книге Mistrust: Why Losing Faith in Institutions Provides the Tools to Transform Them («Недоверие: Почему потеря веры в институты дает инструменты для их преобразования»). По мнению Цукермана, общественное недовольство и, как следствие, недоверие больше не ограничиваются сферой политики, а распространяются на все виды институтов, включая крупные корпорации и традиционные СМИ. Эта утрата веры в старые системы, на которую указывают такие события, как избрание Дональда Трампа на президентский срок, Brexit, движение #BlackLivesMatter и не только, по мнению автора, может быть не только признаком разложения привычного медийного уклада, но и толчком к поиску и развитию новых форм отношений между человеком и институтами.О высоком уровне недоверия в обществе говорит и медиаисследователь Владислав Декалов — по его словам, с этим феноменом сталкиваются и медицинские институты. «Институты перестают играть надежную поддерживающую роль, в разной степени дискредитируют себя, становятся непрозрачными, а иногда и вовсе отменяют сами себя, заявляя о своем бессилии. Так на их место приходят неинституализированные игроки с альтернативной повесткой, — рассказывает медиаисследователь. — Это и есть инфлюенсеры. Причем все это происходит онлайн, где повестка сформирована по законам экономики внимания, а контент в первую очередь хорош не тем, что он полезен, а тем, как эффективно он достигает нужных показателей — просмотров, репостов, охватов и так далее. Парадоксальным образом в случае недоверия к институтам неинституциализированные игроки — грубо говоря, блогеры — получают больше внимания и доверия».
На их популярность, по мнению Декалова, влияют три фактора. Первый, наиболее очевидный, — механизмы привлечения и удержания внимания в социальных сетях, «весьма эффективные, отточенные до совершенства самими платформами и теми, кто использует их для заработка». Большую роль в этом играет и искусственный интеллект, который все чаще задействован приложениями для создания алгоритмической ленты или и вовсе используется крупными сервисами при выдаче результатов поискового запроса.
Второй фактор — это изобилие, пришедшее на смену дефициту. «Большое количество информации и ее доступность создают ощущение реальной альтернативы и иллюзию того, что эти альтернативные голоса «замалчивались» крупными медиа, аффилированными с капиталом и властью, даже если эти медиа и соблюдают высокие стандарты журналистики и партийный нейтралитет, — поясняет Владислав Декалов. — Не только теории заговора, в которые верят условные противники вакцинации, но и просто альтернативные повестки из-за одной своей альтернативности уже находят неплохую поддержку. Это дополняется ошибочным, но от этого не менее привлекательным ощущением того, что результат получить можно быстрее, найти, так сказать, обходной путь». То же самое происходит и в контексте самолечения, потребления медицинской продукции и в целом любых практик, направленных на улучшение физического и ментального состояния. «Искусственный интеллект делает уже существующее положение вещей только более наглядным, — добавляет медиаисследователь. — К тому же и в этом тоже есть некоторый парадокс, сервисы на базе ИИ еще не успели себя дискредитировать настолько, чтобы недоверие аудитории распространилось и на них».
«Наконец, третий фактор — это наша общая погруженность в цифровую среду, где опосредованная гаджетами коммуникация более приоритетна коммуникации непосредственной. Да, мы все еще живем в реальном мире, но этот мир колонизирован «цифрой» и многое, хотя и не все, важное происходит на экране», — продолжает Декалов. По его словам, в том числе из-за этого людям проще сделать привычное действие в привычном формате, чем что-то, требующее выхода из зоны комфорта или чего-то рутинного. При этом даже если результат — ответ на наш запрос — остается непредсказуемым в обоих случаях, использование цифровой среды дает человеку возможность почувствовать контроль над ситуацией и сохранить свою агентность, пусть и иллюзорную. «Сохраняя якобы «независимость» от одних специалистов — врачей или, например, психологов — мы в таком случае просто делегируем себя другим специалистам — инфлюенсерам. И те и другие — профессионалы, только вот вторые все-таки в первую очередь профессионалы в торговле вниманием, а не в медицине, психологии или других чувствительных областях человеческого бытия».
«Грок, что со мной?»
Вместе с соцсетями люди часто используют и другие диджитал-технологии для консультирования по медицинским вопросам — например, чат-боты на основе искусственного интеллекта. Среди ярких примеров — ChatGPT, а также Grok в X (ранее Twitter, заблокирована в России): в последнем даже встречаются вирусные посты, в которых пользователи рассказывают, как Grok помог им справиться со стрессовой ситуацией или даже предположить конкретное заболевание. «Не знаю, зачем тратить деньги на терапию, если можно прийти в Grok, честно вывалить ему все, с диалогами и мыслями, рассказать о своих эмоциях, что злит и что расстраивает, о проблеме, которая прямо сейчас требует решения — и вот он разобрал тебя по полочкам, утешил так, что слезы на глазах, и посоветовал, как стабилизировать свое состояние», — делится своим опытом пользовательница под ником @leni_kotik.Похожие сервисы на основе ИИ, по словам руководителя группы «Мультимодальные архитектуры ИИ» лаборатории «Сильный ИИ в медицине» Института AIRI Ярослава Беспалова, уже используются в медицинском сообществе — но, в отличие общедоступных ботов вроде Grok, они предназначены только для специалистов.
«Не так важно, идет ли речь о медицинском чат-боте или системе, связанной с другой узкой областью, — логика построения моделей остается одинаковой. Языковую модель обучают под определенный домен — медицину, финансы или другую тематику. Принципы, по которым работает медицинская модель, вполне применимы и к другим схемам», — объясняет общие черты между разными ИИ-сервисами Беспалов.
По словам Беспалова, языковые модели вроде ChatGPT не являются строго специализированными, хотя в их обучающей выборке и присутствует медицинский контент и иногда они могут «неплохо справляться» с запросами пользователя. «При обращении к ним с вопросами, выходящими за рамки их основной «базы знаний», они могут галлюцинировать и выдавать недостоверные, неточные или вовсе не относящиеся к теме ответы. Важно понимать, что такие модели являются статистическими: они ищут закономерности в текстах, на которых были обучены, и на их основе формируют ответы, — говорит специалист. — Если модель обучалась, условно говоря, только на текстах из Библии, а потом ее просят рассказать о квантовой механике, она все равно попытается сгенерировать ответ, но он будет лишен смысла и не отразит реальных знаний, так как информации по новому предмету у нее попросту нет. Отсюда и возникает эффект «галлюцинаций».
Как доверять и что проверять
В условиях бесконечного потока информации, подстроенной под вкусы пользователя, и общего упадка доверия к чему бы то ни было, ключевым в потреблении контента становится критический подход. Для этого нужно проверять источники, сверяться с официальными медицинскими исследованиями, быть настороженным к слишком простым решениям сложных проблем и помнить, что за маской заботы и «жизненного опыта» часто скрывается банальная реклама или мошенничество, а иногда — и вовсе сгенерированный нейросетями бот.Правил, которые помогут не попасться на уловку лже-научного контента — медицинского и не только — может быть несколько:
При этом совсем отменять соцсети не стоит — они, несмотря на высокую распространенность непроверенной информации, все равно вносят важный вклад в развитие общества и массовое просвещение. ««TikTok может быть невероятным инструментом для повышения осведомленности и снижения стигмы, но у него есть и обратная сторона, — предупреждает ведущий автор исследования Василея Карасавва. — Юмор и личный опыт — мощный инструмент, но когда они лишены контекста, это может привести к неправильному пониманию не только СДВГ, но и психического здоровья в целом».
Читайте также

Открытки с Днем пограничника: 15 красивых картинок с душевными поздравлениями
Из жизни
День пограничника в России — праздник военнослужащих Пограничной службы ФСБ, он каждый год отмечается 28 мая. В этот день в 1918 году была создана пограничная охрана РСФСР. Традиционно праздник включает торжественные построения, возложение цветов к памятникам, концерты и салюты. Пограничники в зеленых беретах и тельняшках принимают поздравления за свою службу по защите рубежей страны. Поздравить родного или близкого человека с Днем пограничника можно с помощью электронной открытки — ее

Том Круз планирует снять фильм о персонаже Лесе Гроссмане из ленты «Солдаты неудачи»
Из жизни
Том Круз «очень серьезно» намерен снять спин-офф комедии «Солдаты неудачи». Об этом на подкасте Happy Sad Confused Podcast блогера Джоша Хоровица рассказал режиссер франшизы «Миссия невыполнима» Кристофер МакКуорри. Фильм «Солдаты неудачи» вышел в 2008 году, его режиссером выступил Бен Стиллер. Лента, ставшая пародией на многие голливудские боевики о войне во Вьетнаме, рассказывает о съемочной группе, которая снимает в реальных джунглях военный суперблокбастер. Том Круз сыграл в фильме

Язык обезьян, трансмутация элементов и ремонт генома: новости науки
Из жизни
Персональное редактирование ДНК 10-месячный мальчик получил три инъекции разработанного специально для него лекарства, редактирующего геном его клеток прямо внутри организма. Впервые ребенка с генетическим заболеванием лечат методом персонализированной терапии CRISPR, хотя в Китае подрастают первые генетически модифицированные CRISPR дети — Нана и Лулу, родившиеся в 2018 году. Редактирование генов эмбрионам, которым даже не угрожала смертельная опасность, ученые осудили за неоправданный риск,
Комментарии (0)