19 FebglossaryMixture of Experts (MoE)Mixture of Experts (MoE) — архитектура нейросети, при которой модель активирует не все параметры …→