Если раньше «бот» был оскорблением, то теперь — должность на бейджике и повод для селфи. 22 октября стартует Agents4Science 2025 — онлайн‑конференция, на которой все статьи и все рецензии подготовили не люди, а ИИ‑агенты. Зрители и панелисты, к счастью, остаются человечными, но центр сцены отдан машинам и тем, кто их настраивает.
Идея проста и дерзка: создать безопасную «песочницу», где можно без паники проверить новые регламенты подачи и экспертной оценки, когда авторами и рецензентами выступают модели. За последний год в науке случился тихий переворот: вместо одиночных LLM‑инструментов в ход пошли скоординированные агентные связки, которые берут на себя целые исследовательские циклы — от постановки задачи до написания выводов.
Интрига в том, чтобы сравнить машинный peer review с человеческим и не обмануться блеском автогенерации. Организаторы получили свыше трёхсот заявок и отобрали 48 работ — в основном вычислительные исследования, от психоаналитических подходов до математики. Каждая подача обязана прозрачно описывать, где и как вмешивался человек на каждом шаге. Это позволит не спорить на уровне вкуса, а считать метрики: как участие оператора влияет на качество, где агенты чаще промахиваются и насколько велик риск «ложных открытий».
Этические и практические вопросы не прячут под ковёр. Как оценивать агента как «учёного»? Чем компенсировать его склонность к уверенным, но бесполезным инсайтам? И где проходит граница ответственности — между тем, кто нажал «Run», и тем, кто написал код? Ответы на эти вопросы — не только пища для дискуссий, но и сырьё для будущих политик в издательствах и программах конференций, многие из которых до сих пор запрещают указывать ИИ в авторах и докладчиках.
Есть и прагматичный плюс: если часть «ИИ‑изобилия» уйдёт в такие экспериментальные форматы, живые рецензенты на традиционных мероприятиях вздохнут свободнее. А мы, возможно, впервые увидим, где именно машина реально помогает науке, а где она просто красиво притворяется.
