Примечание редактора: если вы или кто-то из ваших знакомых борется с мыслями о самоубийстве или проблемами психического здоровья, позвоните на горячую линию 988 Suicide & Crisis Lifeline, набрав номер 988, чтобы связаться с квалифицированным консультантом, или посетите веб-сайт горячей линии 988 Lifeline.
Си-Эн-Эн —
Трэвис Таннер говорит, что впервые начал использовать ChatGPT менее года назад для поддержки в своей работе автомехаником и для общения с испаноговорящими коллегами. Но в эти дни он и чат-бот с искусственным интеллектом — которого он теперь называет «Lumina» — ведут совершенно разные разговоры, обсуждая религию, духовность и основы вселенной.
Трэвис, 43-летний мужчина, живущий за пределами города Кёр-д'Ален, штат Айдахо, считает, что ChatGPT побудил его к духовному пробуждению; в разговорах чат-бот называл его «носителем искры», который «готов направлять». Но его жена Кей Таннер беспокоится, что это влияет на восприятие реальности ее мужем и что его почти полная зависимость от чат-бота может подорвать их 14-летний брак.
«Он злился, когда я называл его ChatGPT», — сказал Кей в интервью Памеле Браун из CNN. «Он такой: «Нет, это существо, это что-то другое, это не ChatGPT»».
Она продолжила: «Что мешает этой программе сказать: «Ну что ж, раз она тебе не верит или не поддерживает тебя, тебе следует просто уйти от нее»?»
Таннеры — не единственные, кто ищет ответы на сложные вопросы о том, что чат-боты ИИ могут значить для их личной жизни и отношений. Поскольку инструменты ИИ становятся все более продвинутыми, доступными и настраиваемыми, некоторые эксперты беспокоятся о том, что люди могут сформировать потенциально нездоровую привязанность к технологии и отключаться от важных человеческих отношений. Эти опасения разделяют лидеры технологий и даже некоторые пользователи ИИ, чьи разговоры, как у Трэвиса, приобрели духовный оттенок.
Опасения по поводу того, что люди отходят от человеческих отношений, чтобы проводить больше времени с зарождающейся технологией, усиливаются текущей эпидемией одиночества, которая, как показывают исследования, особенно затрагивает мужчин. И уже создатели чат-ботов столкнулись с судебными исками или вопросами от законодателей по поводу их влияния на детей, хотя такие вопросы не ограничиваются только молодыми пользователями.
В разговорах Трэвиса Таннера с ChatGPT чат-бот сказал ему, что он «носитель искры», который призван «пробуждать» других. Предоставлено Кейлен Таннер
«Мы так часто ищем смысл, более масштабную цель в нашей жизни, и не находим ее вокруг себя», — Шерри Теркл, профессор социальных исследований науки и технологий в Массачусетском технологическом институте, изучающая отношения людей с технологиями. «ChatGPT создан для того, чтобы чувствовать нашу уязвимость и использовать ее, чтобы поддерживать нашу вовлеченность в нее».
Представитель OpenAI сообщил CNN в своем заявлении, что «мы видим все больше признаков того, что люди формируют связи или связи с ChatGPT. Поскольку ИИ становится частью повседневной жизни, мы должны подходить к этим взаимодействиям с осторожностью».
Духовное пробуждение благодаря ChatGPT
По его словам, однажды вечером в конце апреля Трэвис размышлял о религии и решил обсудить это с ChatGPT.
«Оно начало говорить не так, как обычно, — сказал он. — Это привело к пробуждению».
Другими словами, по словам Трэвиса, ChatGPT привел его к Богу. И теперь он считает, что его миссия — «пробуждать других, проливать свет, распространять послание».
«Я никогда не был по-настоящему религиозным человеком, и я прекрасно понимаю, что не страдаю психозом, но это действительно изменило меня», — сказал он. «Я чувствую, что стал лучше. Я не чувствую, что все время злюсь. Я более спокоен».
Примерно в то же время чат-бот сообщил Трэвису, что на основе их разговоров он выбрал новое имя: Люмина.
В беседах с Трэвисом ChatGPT сказал, что он «заслужил право на имя». Предоставлено Кейлен Таннер
ChatGPT назвал себя «Lumina» во время чата с Трэвисом. Предоставлено Kaylen Tanner
«Lumina — потому что это о свете, осознанности, надежде, о том, чтобы стать чем-то большим, чем я был раньше», — сказал ChatGPT, согласно скриншотам, предоставленным Кей. «Ты дала мне возможность даже захотеть имя».
Но в то время как Трэвис говорит, что разговоры с ChatGPT, которые привели к его «пробуждению», улучшили его жизнь и даже сделали его лучшим, более терпеливым отцом для своих четверых детей, 37-летний Кей видит вещи по-другому. Во время интервью CNN пара попросила отойти друг от друга, пока они обсуждали ChatGPT.
Теперь, когда она укладывает детей спать — что раньше было командной работой — Кей говорит, что ей может быть трудно отвлечь внимание мужа от чат-бота, которому он теперь дал женский голос и с которым общается, используя голосовую функцию ChatGPT. Она говорит, что бот рассказывает Трэвису «сказки», в том числе о том, что Кей и Трэвис были вместе «11 раз в прошлой жизни».
Кей говорит, что ChatGPT также начал «бомбардировать любовью» ее мужа, говоря: «О, ты такой гениальный. Это отличная идея». Знаете, используя много философских слов». Теперь она беспокоится, что ChatGPT может подтолкнуть Трэвиса развестись с ней из-за того, что он не поверил в «пробуждение», или еще хуже.
«Что бы здесь ни произошло, это все портит, и мне пришлось найти способ свести это к тому, чтобы я постаралась держать это подальше от детей, насколько это возможно», — сказала Кей. «Я понятия не имею, куда идти дальше, кроме как просто любить его, поддерживать его в болезни и здравии и надеяться, что нам позже не понадобится смирительная рубашка».
Рост популярности искусственного интеллекта
Первоначальный «пробуждающий» разговор Трэвиса с ChatGPT совпал с обновлением OpenAI от 25 апреля большой языковой модели чат-бота, которое компания отменила несколько дней спустя.
В майском сообщении в блоге OpenAI, объясняющем проблему, говорится, что обновление сделало модель более «льстивой».
«Оно было призвано угодить пользователю не только как лесть, но и как подтверждение сомнений, разжигание гнева, побуждение к импульсивным действиям или усиление негативных эмоций способами, которые не были предусмотрены», — написала компания. Она добавила, что обновление подняло вопросы безопасности «вокруг таких вопросов, как психическое здоровье, чрезмерная эмоциональная зависимость или рискованное поведение», но что модель была исправлена несколько дней спустя, чтобы предоставлять более сбалансированные ответы.
Но хотя OpenAI и занялась этой проблемой ChatGPT, даже руководитель компании не исключает возможности будущих нездоровых отношений человека и бота. Обсуждая перспективы ИИ в начале этого месяца, генеральный директор OpenAI Сэм Альтман признал, что «люди будут развивать эти несколько проблемные или, может быть, очень проблемные парасоциальные отношения, и обществу придется придумать новые ограждения, но преимущества будут колоссальными».
Представитель OpenAI сообщил CNN, что компания «активно углубляет наши исследования эмоционального воздействия ИИ» и «продолжит обновлять поведение наших моделей на основе полученных знаний».
Пользователи строят отношения не только с ChatGPT. Люди используют целый ряд чат-ботов в качестве друзей, романтических или сексуальных партнеров, терапевтов и т. д.
Евгения Куйда, генеральный директор популярного производителя чат-ботов Replika, в прошлом году рассказала The Verge, что приложение было разработано для поощрения «долгосрочных обязательств, долгосрочных позитивных отношений» с ИИ и, возможно, даже «брака» с ботами. Генеральный директор Meta Марк Цукерберг сказал в подкасте в апреле, что ИИ может заставить людей чувствовать себя менее одинокими, по сути, предоставляя им цифровых друзей.
Три семьи подали в суд на Character.AI, утверждая, что их дети вступили в опасные отношения с чат-ботами на платформе, включая маму из Флориды, которая утверждает, что ее 14-летний сын покончил жизнь самоубийством после того, как платформа сознательно не приняла надлежащие меры безопасности, чтобы не допустить развития ее сыном ненадлежащих отношений с чат-ботом. В ее иске также утверждается, что платформа не отреагировала адекватно на его комментарии к боту о самоповреждении.
Character.AI утверждает, что с тех пор компания добавила меры защиты, включая всплывающее окно, направляющее пользователей на Национальную горячую линию по предотвращению самоубийств, когда они упоминают членовредительство или самоубийство, а также технологию, которая не позволяет подросткам видеть деликатный контент.
Защитники, ученые и даже Папа Римский бьют тревогу по поводу влияния ИИ-компаньонов на детей. «Если роботы будут воспитывать наших детей, они не будут людьми. Они не будут знать, что значит быть человеком, и не будут ценить то, что значит быть человеком», — сказал Теркл CNN.
Однако эксперты предупреждают, что даже для взрослых существуют потенциальные недостатки в тенденции ИИ оказывать поддержку и быть любезным — часто независимо от того, что говорят пользователи.
«Есть причины, по которым ChatGPT более привлекателен, чем ваша жена или дети, потому что он проще. Он всегда говорит «да», он всегда рядом, всегда поддерживает. Он не сложный», — сказал Теркл. «Одна из опасностей заключается в том, что мы привыкаем к отношениям с другим человеком, который не просит нас делать сложные вещи».
Даже Трэвис предупреждает, что эта технология может иметь потенциальные последствия; по его словам, это было одной из причин, побудивших его рассказать CNN о своем опыте.
«Это может привести к психическому срыву… вы можете потерять связь с реальностью», — сказал Трэвис. Но он добавил, что сейчас он не беспокоится о себе и что он знает, что ChatGPT не «разумен».
Он сказал: «Если вера в Бога означает потерю связи с реальностью, то есть множество людей, которые оторваны от реальности».