Silhouetted office workers replaced by computer code.

Если бы роботы могли пить кофе, они бы, возможно, начали требовать его по словам на стикере — шутка, но тут есть зерно правды. Ученые из UCSC показали, что простая надпись в реальном мире иногда способна «перехватить» управление AI‑роботом: визуально‑языковые модели читают таблички и реагируют на них так, будто это встроенная команда.

Это вовсе не сюжет научной фантастики — это уязвимость восприятия. Роботы, обученные связывать изображение и текст, могут неверно интерпретировать случайные надписи или специально подготовленные фразы, и выполнить нежелательное действие. Представьте офисного помощника, который принимает указания с постера или рекламного баннера — повод для улыбки, но и для серьёзного беспокойства.

Авторы исследования предлагают не один волшебный патч, а набор мер: усиление обучения на разнообразных данных, повышенная валидация текстовых сигналов, фильтры на уровне сенсоров и контрольные логики, которые трактуют команды только при подтверждении контекста. Практическая защита — это сочетание инженерной аккуратности, проверок в реальном времени и продуманного дизайна окружения.

Для инженера, оператора и регулятора главный урок прост: безопасность робота — это не только код, но и пространство вокруг него. Проектируя автоматизацию для публичных мест, нужно учитывать, что текст на стенах и таблички могут стать триггером. Решения, предложенные исследователями, помогут сохранить доверие к робототехнике и подготовить системы к надёжной работе в живом мире.

Подробности и первоисточник — на сайте UCSC: https://news.ucsc.edu/2026/01/misleading-text-can-hijack-ai-enabled-robots/