ybalbert001 68c7e68a8a Fix Issue: switch LLM of SageMaker endpoint doesn't take effect (#8737) 1 anno fa
..
__base 4669eb24be add embedding input type parameter (#8724) 1 anno fa
anthropic a1104ab97e chore: refurish python code by applying Pylint linter rules (#8322) 1 anno fa
azure_ai_studio 40fb4d16ef chore: refurbish Python code by applying refurb linter rules (#8296) 1 anno fa
azure_openai 4669eb24be add embedding input type parameter (#8724) 1 anno fa
baichuan 4669eb24be add embedding input type parameter (#8724) 1 anno fa
bedrock 4669eb24be add embedding input type parameter (#8724) 1 anno fa
chatglm 40fb4d16ef chore: refurbish Python code by applying refurb linter rules (#8296) 1 anno fa
cohere 4669eb24be add embedding input type parameter (#8724) 1 anno fa
deepseek 153807f243 fix: response_format label (#8326) 1 anno fa
fireworks 91f70d0bd9 Add embedding models in fireworks provider (#8728) 1 anno fa
fishaudio 2cf1187b32 chore(api/core): apply ruff reformatting (#7624) 1 anno fa
google 97895ec41a chore: add Gemini newest experimental models (close #7121) (#8621) 1 anno fa
groq 2cf1187b32 chore(api/core): apply ruff reformatting (#7624) 1 anno fa
huggingface_hub 4669eb24be add embedding input type parameter (#8724) 1 anno fa
huggingface_tei 4669eb24be add embedding input type parameter (#8724) 1 anno fa
hunyuan 4669eb24be add embedding input type parameter (#8724) 1 anno fa
jina 4669eb24be add embedding input type parameter (#8724) 1 anno fa
leptonai 2cf1187b32 chore(api/core): apply ruff reformatting (#7624) 1 anno fa
localai 4669eb24be add embedding input type parameter (#8724) 1 anno fa
minimax 4669eb24be add embedding input type parameter (#8724) 1 anno fa
mistralai 5ddb601e43 add MixtralAI Model (#8517) 1 anno fa
mixedbread 4669eb24be add embedding input type parameter (#8724) 1 anno fa
moonshot 153807f243 fix: response_format label (#8326) 1 anno fa
nomic 4669eb24be add embedding input type parameter (#8724) 1 anno fa
novita 2cf1187b32 chore(api/core): apply ruff reformatting (#7624) 1 anno fa
nvidia 4669eb24be add embedding input type parameter (#8724) 1 anno fa
nvidia_nim 2cf1187b32 chore(api/core): apply ruff reformatting (#7624) 1 anno fa
oci 4669eb24be add embedding input type parameter (#8724) 1 anno fa
ollama 4669eb24be add embedding input type parameter (#8724) 1 anno fa
openai 4669eb24be add embedding input type parameter (#8724) 1 anno fa
openai_api_compatible 4669eb24be add embedding input type parameter (#8724) 1 anno fa
openllm 4669eb24be add embedding input type parameter (#8724) 1 anno fa
openrouter 6d56d5c1f6 feat: support o1 series models for openrouter (#8358) 1 anno fa
perfxcloud 4669eb24be add embedding input type parameter (#8724) 1 anno fa
replicate 4669eb24be add embedding input type parameter (#8724) 1 anno fa
sagemaker 68c7e68a8a Fix Issue: switch LLM of SageMaker endpoint doesn't take effect (#8737) 1 anno fa
siliconflow 4669eb24be add embedding input type parameter (#8724) 1 anno fa
spark a126d535cf add Spark Max-32K (#8676) 1 anno fa
stepfun 2cf1187b32 chore(api/core): apply ruff reformatting (#7624) 1 anno fa
tencent 40fb4d16ef chore: refurbish Python code by applying refurb linter rules (#8296) 1 anno fa
togetherai 2cf1187b32 chore(api/core): apply ruff reformatting (#7624) 1 anno fa
tongyi 4669eb24be add embedding input type parameter (#8724) 1 anno fa
triton_inference_server 2cf1187b32 chore(api/core): apply ruff reformatting (#7624) 1 anno fa
upstage 4669eb24be add embedding input type parameter (#8724) 1 anno fa
vertex_ai 4669eb24be add embedding input type parameter (#8724) 1 anno fa
volcengine_maas 4669eb24be add embedding input type parameter (#8724) 1 anno fa
wenxin 4669eb24be add embedding input type parameter (#8724) 1 anno fa
xinference 4669eb24be add embedding input type parameter (#8724) 1 anno fa
yi 2cf1187b32 chore(api/core): apply ruff reformatting (#7624) 1 anno fa
zhinao 2cf1187b32 chore(api/core): apply ruff reformatting (#7624) 1 anno fa
zhipuai 4669eb24be add embedding input type parameter (#8724) 1 anno fa
__init__.py d069c668f8 Model Runtime (#1858) 2 anni fa
_position.yaml 64baedb484 fix: update nomic model provider token calculation (#8705) 1 anno fa
model_provider_factory.py 4e7b6aec3a feat: support pinning, including, and excluding for model providers and tools (#7419) 1 anno fa