Mixtral 8x7B MoE模型笔记

随着 Mixtral 8x7B 的推出,一种称为混合专家模型 (Mixed Expert Models,简称 MoEs) 的 Transformer 模型在开源人工智能社区引起了广泛关注。

January 5, 2024