Mixtral 8x22B
llmOpen SourceОткрытая MoE-модель от Mistral AI
(0)
Mistral AIОписание
Mixtral 8x22B — это Mixture of Experts модель от Mistral AI с 176 миллиардами параметров (39B активных). Полностью открыта под лицензией Apache 2.0. Обеспечивает отличную производительность для коммерческого использования.
Характеристики
| Провайдер | Mistral AI |
| Тип модели | llm |
| Параметры | 176B (39B active) |
| Контекст | 66K токенов |
| Цена (input) | $0/1M токенов |
| Цена (output) | $0/1M токенов |
| Дата релиза | 2024-04-17 |
| Лицензия | Apache 2.0 |
Бенчмарки
math60.5%
mmlu77.8%
humaneval75%