Groq

Самый быстрый inference на LPU (Language Processing Unit)

4.6(150 отзывов)
310 8

Обзор

Groq разработал собственный чип LPU (Language Processing Unit) для ультрабыстрого inference LLM. Предоставляет бесплатный tier и коммерческий API. OpenAI-совместимый API с самой низкой latency на рынке.

Особенности

LPUUltra-fastStreamingFree tierJSON modeFunction callingTool use

Поддерживаемые модели

МодельПровайдерТипКонтекстInput / 1MOutput / 1M
Llama 4 MaverickMetaLLM128K$0.10$0.10
Mixtral 8x7BMistralLLM32K$0.24$0.24
Gemma 2 9BGoogleLLM8K$0.05$0.05
Whisper Large v3OpenAIAudio-$0.001/min-

* Цены указаны за 1 миллион токенов (если не указано иное). Актуальные цены на сайте провайдера.

Отзывы

Отзывы пока загружаются. Будьте первым, кто оставит отзыв!

Статистика

Моделей20+
ОплатаPay-per-use
APIOpenAI-совместимый
Uptime99.6%
Latency~50ms
Основан2016

Возможности

LPUUltra-fastStreamingFree tierJSON modeFunction callingTool use

Попробовать Groq

Зарегистрируйтесь и получите доступ к 20+ моделям через единое API