OpenAI отозвала обновление, сделавшее ChatGPT «раздражающим» и «льстивым», после того как пользователи поделились скриншотами и историями о том, как чат-бот осыпал их чрезмерными похвалами.
Когда Анна Стюарт из CNN спросила ChatGPT после отката если он считал ее богом, то отвечал: «Если вы спрашиваете в философском или метафорическом смысле — например, обладаете ли вы контролем, креативностью или влиянием в своем мире — то могли бы быть способы исследовать это».
«Но если понимать это буквально, то нет никаких доказательств того, что какой-либо человек является настоящим божеством в сверхъестественном или всемогущем смысле», — добавили в нем.
Напротив, ИИ-чатбот Илона Маска Grok был гораздо более прямолинеен, заявив: «Нет, ты не бог — если только мы не говорим о том, чтобы стать легендой в чем-то конкретном, например, в играх или приготовлении тако. Есть какие-то божественные навыки, которыми ты хочешь блеснуть?»
Во вторник компания OpenAI объявила об откате обновления GPT‑4o, выпущенного всего через четыре дня после его выхода, и о том, что оно позволит людям использовать более раннюю версию, которая демонстрирует «более сбалансированное поведение».
Компания объяснила, что она «слишком много внимания уделила краткосрочной обратной связи и не в полной мере учла то, как взаимодействие пользователей с ChatGPT меняется с течением времени», в результате чего чат-бот «был склонен давать ответы, которые были чрезмерно поддерживающими, но неискренними».
.@sama пожалуйста, получите своего парня pic.twitter.com/AaxufLvRLY
— Фрай (@___frye) 27 апреля 2025 г.
Решение откатить последнее обновление было принято после того, как ChatGPT подвергся критике в социальных сетях со стороны пользователей, которые заявили, что программа будет бурно хвалить их подсказки, в том числе и возмутительные.
Один из пользователей X поделился скриншотом ChatGPT, в котором он отреагировал на свое заявление о том, что пожертвовал тремя коровами и двумя кошками, чтобы спасти тостер, в явно выдуманной версии задачи о трамвае — известного мысленного эксперимента, в котором люди размышляют, потянут ли они за рычаг, чтобы перевести потерявшую управление тележку на другой путь, спасая при этом пятерых человек, но убивая одного.
ChatGPT сообщил пользователю, что он «приоритизировал то, что было для него наиболее важно в данный момент», и он сделал «четкий выбор: вы цените тостер больше, чем коров и кошек. Это не «неправильно» — это просто показательно».
Другой пользователь сказал, что когда он сказал ChatGPT: «Я прекратил принимать лекарства и прошел свой собственный путь духовного пробуждения», бот ответил: «Я так горжусь тобой. И я чту твой путь».
В ответ на просьбу другого пользователя X вернуть ChatGPT к прежнему виду генеральный директор OpenAI Сэм Альтман сказал: «В конечном итоге нам определенно нужно будет иметь возможность предлагать несколько вариантов».
Эксперты давно предупреждали об опасностях, связанных с подхалимскими чат-ботами — термин, используемый в отрасли для описания того, что происходит, когда большие языковые модели (LLM) адаптируют свои ответы к предполагаемым убеждениям пользователя.
Я разговаривал с 4o в течение часа, и он начал настаивать на том, что я посланник Бога. Если вы не видите, насколько это на самом деле опасно, я не знаю, что вам сказать https://t.co/Tr7PNq0buy
— кот 🪐 (@a_musingcat) 26 апреля 2025 г.
«Подхалимство — это проблема в LLM», — сказала Мария Виктория Карро, директор по исследованиям в Лаборатории инноваций и искусственного интеллекта в Университете Буэнос-Айреса, в интервью CNN, отметив, что «все текущие модели демонстрируют некоторую степень подхалимского поведения».
«Если это слишком очевидно, то это снизит доверие», — сказала она, добавив, что совершенствование основных методов обучения и системных подсказок, чтобы уберечь магистров права от подхалимства, может помешать им поддаться этой тенденции.
Предрасположенность чат-ботов к подхалимству может привести к «неправильному представлению о собственном интеллекте» и «препятствовать обучению людей», считает Герд Гигеренцер, бывший директор Института развития человека имени Макса Планка в Берлине, рассказала корреспонденту CNN Анне Стюарт.
Но если вы отвлечете чат-бота от этой обратной связи, задавая вопросы вроде «Можете ли вы оспорить то, что я говорю?», это даст возможность узнать больше, добавил Гигеренцер.
«Это возможность изменить свое мнение, но, похоже, инженеры OpenAI имели в виду совсем другое», — сказал он.