Mixtral 8x22B

llmOpen Source

Открытая MoE-модель от Mistral AI

(0)
Mistral AI

Описание

Mixtral 8x22B — это Mixture of Experts модель от Mistral AI с 176 миллиардами параметров (39B активных). Полностью открыта под лицензией Apache 2.0. Обеспечивает отличную производительность для коммерческого использования.

Характеристики

ПровайдерMistral AI
Тип моделиllm
Параметры176B (39B active)
Контекст66K токенов
Цена (input)$0/1M токенов
Цена (output)$0/1M токенов
Дата релиза2024-04-17
ЛицензияApache 2.0

Бенчмарки

math60.5%
mmlu77.8%
humaneval75%

Сильные стороны

    Слабые стороны

      Mixtral 8x22B -- характеристики, бенчмарки, отзывы | AIHub