Если бы предвзятость сжигала калории, GPT‑5 уже влез бы в выпускной костюм: OpenAI рапортует о минус 30% политического уклона по сравнению с прежними моделями. Компания показывает графики, машет бенчмарками и обещает, что в реальном трафике политическая окраска проскакивает меньше чем в 0,01% ответов. Звучит как диета, где можно есть пирожные — и худеть.
Под капотом — собственный набор из примерно 500 тщательно сформулированных запросов о сотне тем. По нему «GPT‑5 instant» и «GPT‑5 thinking» якобы заметно устойчивее к провокационным формулировкам. Но как и всегда с ИИ‑оценками, появляется вечное «а точно ли мы меряем то, что думаем?». Профессор Дэниел Кан из UIUC призывает не спешить с аплодисментами: бенчмарки нередко замечательно коррелируют… с самими собой, но плохо — с реальными сценариями использования.
История у вопроса длинная. В 2023‑м ранние версии ChatGPT засветились «левым уклоном» на популярном политическом компасе. Исследователь Тило Хагендорфф позже утверждал: если вы настраиваете модели под принципы HHH (безопасность, полезность, честность), то часть правых идеологий будет неизбежно конфликтовать с этими рамками — и это смещение встроено в саму идею «выравнивания». Сама ChatGPT охотно соглашается: следование правилам против ненависти, экстремизма и дезинформации некоторыми трактуется как политическая позиция.
На другом фронте — политика, которая не спит. В США звучат призывы к «идеологически нейтральному ИИ», вплоть до указов о «невоук‑моделях» для госнужд. И чем громче спорят о «нейтральности», тем яснее становится: абсолютная стерильность невозможна. Даже предпочтение жизни смерти — тоже ценностный выбор.
И вот мы возвращаемся к главному. Вопрос не в том, «есть ли у модели bias», а в том, как его настраивать осознанно и прозрачно: для школ, для медицины, для судопроизводства — по‑разному. OpenAI снижает проценты — это шаг. Но окончательную оценку дадут независимые проверки и, увы, столкновение с реальностью. А там бенчмарки редко читают методички.