Fireworks AI

Быстрый inference для LLM и генеративных моделей

4.4(120 отзывов)
190 15

Обзор

Fireworks AI обеспечивает быстрый и дешевый inference для open-source моделей. Оптимизированный стек с поддержкой JSON mode, function calling и batch processing. Разрабатывают собственные модели Firefunction для function calling.

Особенности

Fast inferenceStreamingJSON modeBatch APIFunction callingFine-tuningEmbeddings

Поддерживаемые модели

МодельПровайдерТипКонтекстInput / 1MOutput / 1M
Llama 4 MaverickMetaLLM1M$0.20$0.60
Mixtral 8x22BMistralLLM64K$0.50$0.50
Firefunction v2FireworksLLM8K$0.90$0.90
Qwen 2.5 72BAlibabaLLM128K$0.28$0.28
Phi-4 14BMicrosoftLLM16K$0.10$0.10

* Цены указаны за 1 миллион токенов (если не указано иное). Актуальные цены на сайте провайдера.

Отзывы

Отзывы пока загружаются. Будьте первым, кто оставит отзыв!

Статистика

Моделей100+
ОплатаPay-per-use
APIOpenAI-совместимый
Uptime99.7%
Latency~150ms
Основан2022

Возможности

Fast inferenceStreamingJSON modeBatch APIFunction callingFine-tuningEmbeddings

Попробовать Fireworks AI

Зарегистрируйтесь и получите доступ к 100+ моделям через единое API