Доступные AI модели

При использовании AI функций на Q-Parser вы можете выбрать модель для обработки запросов. Если вы не понимаете что делаете, не меняйте выбор по умолчанию.

Модели отличаются доступным контекстом, "продвинутостью" понимания человеческой речи и качеством в целом. Как правило, чем лучше модель, тем дольше будет происходить обработка товаров и тем более "человечные" тексты будут получены.

Выбор самой лучшей модели не означает самое лучшее качество текста. Эффективнее для начала протестировать самую быструю модель: вы можете и не заметить разницы в качестве написанного текста.

Список доступных моделей

Модель Контекст Товаров/час*
q-parser/auto 8192 315
openchat/openchat-8b 8192 315
meta/llama-3-8b 8192 315
gryphe/mythomax-l2-13b 4096 119
openai/gpt-4o-mini 128000 54
google/gemini-flash-1.5 1000000 40
anthropic/claude-3-haiku 200000 27
mistralai/mixtral-8x22b 65536 31
anthropic/claude-instant 100000 13
openai/gpt-3.5-turbo 128000 12
google/gemini-pro-1.5 1000000 4.03
anthropic/claude-3.5-sonnet 200000 2.24
openai/gpt-4o 128000 2.02

Приблизительное значение при генерации ~300 токенов на один товар (небольшое описание) на тарифах Pro. Может отличаться от фактических значений.

q-parser/auto — модель выбирается автоматически для оптимального быстродействия.

Навигация по базе знаний
Выгрузка в файлы