
Голос с шеи: чокер возвращает речь после инсульта
Учёные Кембриджа представили Revoice — мягкий носимый чокер, который с помощью сенсоров и ИИ переводит микро‑вибрации и пульс в слова и фразы, помогая пациентам после инсульта вновь общаться.

Аренда зла: как ИИ превратил киберпреступность в подписку
Group‑IB предупреждает: тёмные LLM, синтетические личности и deepfake‑наборы стали доступными по цене Netflix, что резко меняет масштаб угроз и усложняет защиту.

Газировка для батареек: как пузырьки CO₂ спасают литий
Учёные в Китае придумали «шипучий» способ доставать до 95 % лития из отработанных аккумуляторов, используя всего лишь воду, углекислый газ и немного химической хитрости. Разбираемся, почему это важно для будущего электротранспорта и как подобные технологии могут пригодиться и России.

Вайб-кодинг: когда ИИ пишет за вас, а отвечать всё равно вам
Почему мода на «вайб-кодинг» с ИИ опасна для серьёзных проектов, даже если сам Линус Торвальдс играет с ней на GitHub. История от 4GL до Replit, сломанных баз данных и усталых мейнтейнеров.

Когда ИИ лезет к колбе: чему учит бенчмарк LabSafety Bench
Исследователи представили LabSafety Bench — крупный бенчмарк для проверки, насколько безопасно большие языковые и мультимодальные модели обращаются с лабораторными экспериментами. 19 современных ИИ протестировали на 765 тестовых вопросах и 404 реалистичных сценариях (3128 открытых задач) по трём направлениям: выявление опасностей, оценка рисков и прогноз последствий. Ни одна модель не смогла стабильно распознавать угрозы даже на уровне 70% точности. При этом закрытые модели лучше справляются с тестами формата multiple choice, но теряют преимущество в свободном рассуждении. Работа подчёркивает: прежде чем пускать ИИ в реальные лаборатории — от университетских до крупных научных центров в России и мире — нужны специализированные методики оценки и усиленные механизмы безопасности.