Если бы иммунитет говорил, он бормотал бы на аминокислотном тарабарском — хорошо, что у нас появился приличный переводчик. Исследователи из UNC взяли на вооружение приёмы «машинного перевода» и научили трансформер TCRT5 переводить эпитопы с HLA в конкретные CDR3β‑последовательности TCR. По сути — вместо мучительного перебора в мокрых экспериментах модель сужает поле поиска до разумного шорт‑листа.

Команда перебрала 12 вариантов архитектур BART/T5 и обучающих режимов из арсенала low‑resource MT: однонаправленное, двунаправленное и мультитасковое обучение. В теории многоцелевые схемы повышали метрики точности, но расплачивались разнообразием: модель чаще тяготела к «полиспецифичным» рецепторам, которые умеют цеплять много разных пептидов. Поэтому флагманом выбрали TCRT5 — лучший баланс между точностью и разнообразием, с меньшим упором на «универсалов».

На независимых эпитопах TCRT5 обошёл ER‑TRANSFORMER и GRATCR: чаще попадал в кластеры, близкие к известным связывателям, и поднимал полезные кандидаты выше в ранге. Любопытный нюанс: beam search систематически вытягивал более вероятные по V(D)J‑генерации мотивы — это помогает метрикам, но подрезает редкие варианты.

Кульминация — мокрая проверка. Из сгенерированных CDR3β одну последовательность graft‑нули в известный каркас TCR против WT1 (лейкоз‑ассоциированный антиген) и получили специфическую активацию в NFAT‑люциферазном репортёре. Да, отклик скромнее, чем у эталона, и заметна перекрёстная реактивность с иммунным «суперпулом» — живой намёк на ограниченность данных и тонкую настройку специфичности.

Ограничения честно озвучены: дефицит размеченных пар TCR‑пептид, смещение к «простым» последовательностям при детерминированном декодировании, фокус лишь на β‑цепи и упрощённая клеточная система. Но даже так — это важный рубеж: TCRT5 показывает, как ИИ уменьшает хаос в дизайне TCR под редкие мишени и ускоряет персонализированную иммунотерапию. Чем богаче станут данные, тем увереннее будет «перевод» с иммунного.