Набирает популярность тренд на использование нейросетей вроде ChatGPT или Grok для медицинских вопросов. Чат-боты могут поставить диагноз, который упустили врачи, посоветовать лекарства, выступить личным психологом и диетологом.
Однако эксперты советуют не торопиться слепо доверять всем советам искусственного интеллекта: иногда это может быть реально опасно для психики и здоровья.
Проблема: смещение авторитетов Для начала надо признать: ИИ действительно в последнее время демонстрирует недюжинные успехи на медицинском поприще. Его вполне официально внедряют в медицину для решения широкого спектра задач, включая диагностику, лечение, разработку лекарств и персонализированную терапию.
Он помогает анализировать рентгеновские снимки и фото пациентов, выявлять ранние признаки заболеваний, разрабатывать новые лекарства.
А ещё снимает с врачей часть бумажной работы и вообще проявляет себя как крайне полезный инструмент. И зачастую его доступ к большому спектру данных и способность моментально их анализировать даёт много очков вперёд по сравнению с традиционными живыми врачами, которые могут что-то забыть, недоучить в институте или упустить в силу усталости.
Однако в излишнем доверии нейросетевому мнению кроется большая опасность.
Общение с «всезнающими» чат-ботами без критичного фильтра может способствовать смещению авторитетов, подрыву доверия к реальным экспертам.
Например: - при советах юристу нейросети часто не учитывают локальные региональные законы; - ИИ-психолог работает только на основе данных, которые выдаст ему пользователь, не учитывая склонность людей осознанно преуменьшать свои проблему и приукрашивать себя, в то время как наблюдательный человек при живом общении какие-то подсознательные реакции и паттерны; - медицинские советы при неправильной постановке диагноза или основанные на придуманных фактов могут серьёзно навредить здоровью; - давая политические советы, чат-бот может умолчать, что примеры решений взял, например, у политиков прошлого типа Муссолини.
Проблема: опасность для людей с ментальными проблемами Так же, как и с любым другим контентом, общение с нейросетью может повлиять на человека негативно, если к тому есть предпосылки, указал психиатр Дмитрий Поцелуев.
Для этого должно совпасть как минимум два фактора: недостаточная защита пользователя от потенциально опасной информации внутри ИИ (отсюда рекомендации отменить человеку лекарства от имеющегося у него заболевания или случай , когда бот убедил пациента с зависимостью принять метамфетамин.
); личная уязвимость пользователя (например, наличие тяжело протекающих ментальных расстройств).
Эксперты указывают, что большие языковые модели, хоть и кажутся всезнающими, всё-таки не задумывались как замена конкретно врачам или психологам.
Да, они этому учатся, но всё же им недостаёт многих важных вещей, которые должны быть у этих специалистов.
Поцелуев также отметил, что при этом правильно обученная нейросеть просто не сможет выдать тот ответ, который травмирует человека, в отличие от живого собеседника, который может быть в плохом настроении, усталым или откровенно желающим причинить какой-либо вред.
Главное, не забывать, что именно человек задает правила игры и формирует то, каким будет ваш диалог с невидимым собеседником.
И если внутри у человека всё уже не очень хорошо, чат-бот может усугубить ситуацию в разы.
Так стоит ли идти за советом к ИИ-врачам? Со всеми оговорками, эксперты сходятся во мнении, что ИИ может здорово помочь в решении медицинских вопросов.
Но только если будет действовать в связке с реальным врачом, который может подтвердить или перепроверить его мнение.
Есть специальные ИИ-ассистенты, обученные именно на медицинских помощников.
Они в среднем показывают себя более компетентными, но и их используют с понятными ограничениями.
Что же касается больших языковых моделей, они с равной вероятностью могут посоветовать действительно дельные вещи — и дать абсолютно вредный совет, который может угробить пациента или усугубить его состояние.
И без понимания хотя бы базовых основ медицины средний пользователь не поймёт, что ему пишут чушь.
А без понимания, как работают нейросети, не сможет даже составить толковый запрос, который снизит вероятность ошибки и даст толковый результат. Что же до психологии, то тут всё ещё сложнее и тоньше.
С одной стороны, человеком в нестабильном эмоциональном состоянии очень легко манипулировать, а он сам не очень критично воспринимает то, что ему говорят. Поэтому какой-то неосторожный совет от ИИ может упасть на богатую почву личных страхов, комплексов, психозов, и в итоге привести к настоящей трагедии: - наркоману посоветуют принять наркотик, если он так хочет; - проблемному подростку – сбежать из дома; - переживающему из-за денег – взять микрозайм; - человеку в депрессии – свести счёты с жизнью и т.
п. С другой стороны, такие ответы выявляются и фиксятся политиками компаний-разработчиков, которые пытаются выработать какую-то этику у своих детищ.
А у самого использования нейросетей как психологических консультантов есть большой и жирный плюс: они практически бесплатны и всегда доступны, в отличие от живых специалистов.
Что иногда бывает критично.
И уж точно нейросеть лучше тех психологов и психотерапевтов, которые не соблюдают этический кодекс и могут своими действиями нанести ещё больше травм человеку, обратившемуся к ним за помощью, подчеркнул Поцелуев.
Чек-лист, как защитить психику при общении с нейросетями Эксперт в ИИ Ксения Баранова дала чек-лист, как защититься от намеренного или ненамеренного негативного влияния ИИ на ваше мышление, суждения и эмоции: Не принимайте ответы ИИ за истину, проверяйте данные.
Особенно в экспертных, спорных темах, там, где нужен фактчекинг.
Разделяйте стиль и смысл. Убедительная подача, которой в совершенстве владеет ИИ, не гарантирует достоверности.
Развивайте критическую грамотность. Учитесь распознавать логические ошибки, манипуляции, ложную аргументацию. Эмоционально дистанцируйтесь.
Не нужно приписывать ИИ личность, чувства или намерение. Это лишь симуляция. Искусная, но симуляция. Не обсуждайте с ИИ личные психологические проблемы, для этого есть специалисты.
Ограничивайте время работы с ИИ. Делайте паузы — устраивайте своего рода цифровую детоксикацию. Выходите в офлайн, общайтесь с друзьями, гуляйте на природе и так далее. Укрепляйте собственное мышление — без этого невозможно развиваться.
Продолжайте читать, писать, размышлять самостоятельно. Не нужно позволять ИИ думать за вас. Поддерживайте реальные социальные связи.
Нельзя заменять живое общение на общение с ИИ. Особенно если ИИ проявляет так называемую заботу или эмпатию. Обсуждайте важные решения с людьми, а не с алгоритмом. Отключите автогенерацию эмоциональных ответов, если модель нейросети это предусматривает.
Используйте ИИ как инструмент, а не как собеседника. Особенно в профессиональной сфере. Психиатр Дмитрий Поцелуев также порекомендовал людям, которые сомневаются в своей психической стабильности, при плотной работе с нейросетями всегда держать в голове несколько «якорей»: Ты понимаешь, что общаешься с алгоритмом.
Ты осознаёшь, что твоё нестабильное психическое состояние влияет на анализ получаемой информации.
Ты периодически переключаешься на текст, созданный человеком, а не нейросетью (даже если это твои собственные дневниковые записи).
Ты обращаешься к живому психологу в сложных случаях. Кравцев также указал, что знание об устройстве и принципах работы ИИ сорвёт с него флёр таинственности и мистицизма.
Понимание, что это всего лишь инструмент, алгоритм, только реагирующий на ваши действия и слова, покажет, что без вас, без человека, инициирующего разговор, его попросту не существует.
Как минимум, как разумного существа, и уж тем более — как того, кто может влиять на ваш разум.
Рубрика: Энергетика и Бизнес. Читать весь текст на secretmag.ru.