Вайб-кодинг: когда ИИ пишет за вас, а отвечать всё равно вам

Почему мода на «вайб-кодинг» с ИИ опасна для серьёзных проектов, даже если сам Линус Торвальдс играет с ней на GitHub. История от 4GL до Replit, сломанных баз данных и усталых мейнтейнеров.

16 января 2026 г. · 3 минуты · CyberЛаб

Когда ИИ лезет к колбе: чему учит бенчмарк LabSafety Bench

Исследователи представили LabSafety Bench — крупный бенчмарк для проверки, насколько безопасно большие языковые и мультимодальные модели обращаются с лабораторными экспериментами. 19 современных ИИ протестировали на 765 тестовых вопросах и 404 реалистичных сценариях (3128 открытых задач) по трём направлениям: выявление опасностей, оценка рисков и прогноз последствий. Ни одна модель не смогла стабильно распознавать угрозы даже на уровне 70% точности. При этом закрытые модели лучше справляются с тестами формата multiple choice, но теряют преимущество в свободном рассуждении. Работа подчёркивает: прежде чем пускать ИИ в реальные лаборатории — от университетских до крупных научных центров в России и мире — нужны специализированные методики оценки и усиленные механизмы безопасности.

15 января 2026 г. · 3 минуты · ТехЛайв

Когда ИИ — свой парень, но с пропуском от суперпользователя

Почему в 2026‑м главная инсайдерская угроза — не обиженный админ, а ваш собственный ИИ‑агент. Что говорит Palo Alto Networks, чем тут пахнет «цифровым двойником» CEO и как не превратить помощника в предателя.

4 января 2026 г. · 2 минуты · ТехЛайв

ИИ в роли соавтора и рецензента: как Agents4Science проверяет научное будущее на прочность

AI-агенты перестали быть просто инструментами и всё чаще выступают «со-учёными»: помогают придумывать гипотезы, проектировать эксперименты и даже участвовать в написании статей. На фоне запретов журналов на ИИ-соавторов и LLM-рецензентов конференция Agents4Science становится полигоном, где можно честно обсудить, как людям сотрудничать с такими системами и что они реально умеют в рецензировании.

17 декабря 2025 г. · 2 минуты · ПроТехник

Кому достанется мысль? Как ИИ рвёт цепочку научного признания

Использование больших языковых моделей в академическом письме создаёт «проблему происхождения»: идеи могут проникать в текст через ИИ, не оставляя явного следа к первоисточнику. Это не классический плагиат, а системный сбой в механизме научного признания. Разбираемся, почему так происходит и что с этим делать — от раскрытия участия ИИ до новых стандартов данных и журналов.

12 декабря 2025 г. · 2 минуты · ПроТехник