В науке наступили времена, когда фраза «это написал не я, это ИИ» звучит не как оправдание за школьное сочинение, а как почти рабочая инструкция. Искусственный интеллект перестал быть тихим помощником «посчитай мне статистику» и уверенно примеряет костюм со-учёного: предлагает гипотезы, помогает проектировать эксперименты и подсказывает формулировки для статей.
Ещё недавно типичная история выглядела просто: есть чёткая задача — например, предсказать структуру белка по последовательности аминокислот — и под неё создают или берут инструмент вроде AlphaFold. Но за последний год фокус сместился: исследователи всё чаще используют не одиночные модели, а AI-агентов — автономные системы на базе больших языковых моделей, которые умеют не только «говорить», но и действовать: подключать инструменты, ходить в внешние базы данных, искать по литературе и связывать кусочки знаний в цепочку.
На этом фоне появляются обнадёживающие примеры: AI-со-учёные уже помогали в дизайне нанотел и в генерации гипотез, которые потом выдерживали проверку экспериментом. Звучит как трейлер к фильму про лабораторию будущего — только без лазеров и с гораздо большим количеством таблиц.
Но чем ближе ИИ к центру научного процесса, тем громче вопросы, на которые пока нет аккуратных ответов. Насколько креативны такие агентные системы? Является ли их «творчество» новым взглядом или просто ловкой компиляцией прочитанного? Как людям правильно с ними сотрудничать? Где проходит граница между «полезно помог» и «подменил исследователя»? И, пожалуй, самое щекотливое: насколько LLM способны рецензировать научные работы — замечать ошибки, оценивать новизну и не путать уверенный тон с истинностью?
Парадокс в том, что изучать это сложно именно там, где принято ставить печать качества — в журналах и на конференциях. Многие площадки до сих пор запрещают ИИ как соавторов и LLM как рецензентов. В результате возникает полутень: учёные используют ИИ, но не всегда раскрывают масштаб участия, а значит, сообществу труднее выработать честные правила игры.
Именно поэтому инициативы вроде Agents4Science выглядят важным «испытательным стендом». Если мы всё равно движемся к эпохе, где AI-агенты участвуют во всех стадиях исследования, логичнее не делать вид, что этого нет, а измерять, обсуждать и договариваться: что считать вкладом, как обеспечивать ответственность, как проверять выводы и как сохранять доверие к научному процессу.
Похоже, ближайшее будущее науки будет написано в соавторстве. Вопрос лишь в том, станет ли это соавторство прозрачным — или останется в примечаниях мелким шрифтом.
