index
int64 0
1.86M
| modelId
stringlengths 7
107
| config_model_type
stringclasses 425
values | config_architectures
stringclasses 597
values | config_vocab_size
stringclasses 678
values | config_torch_dtype
stringclasses 3
values | config_transformers_version
stringclasses 208
values | config_hidden_size
float64 1
16.4k
⌀ | config_intermediate_size
float64 0
59.1k
⌀ | config_num_hidden_layers
stringclasses 100
values | config_num_attention_heads
stringclasses 56
values | config_num_key_value_heads
float64 0
262k
⌀ | config_hidden_act
stringclasses 51
values | config_attention_dropout
float64 -1
262k
⌀ | config_use_cache
stringclasses 84
values | config_max_position_embeddings
stringclasses 73
values | config_rope_theta
stringclasses 46
values | config_rope_scaling_type
stringclasses 13
values | config_rms_norm_eps
stringclasses 12
values | config_initializer_range
stringclasses 52
values | config_bos_token_id
stringclasses 58
values | config_eos_token_id
stringclasses 108
values | config_tie_word_embeddings
stringclasses 15
values | config_head_dimension
stringclasses 99
values | config_gqa_ratio
stringclasses 90
values | config_context_per_layer
stringclasses 159
values | config_approx_params_billions
stringclasses 190
values | is_llama_family
stringclasses 8
values | is_bert_family
stringclasses 86
values | is_gpt_family
stringclasses 3
values | is_t5_family
stringclasses 14
values | is_whisper_family
stringclasses 24
values | is_deepseek_family
stringclasses 13
values | is_mistral_family
stringclasses 38
values | uses_moe
stringclasses 11
values | uses_gqa
stringclasses 64
values | uses_rope
stringclasses 26
values | uses_quantization
stringclasses 19
values | uses_lora
stringclasses 16
values | size_category
stringclasses 8
values | context_category
stringclasses 33
values | config_attention_bias
stringclasses 11
values | config_auto_map_autoconfig
stringclasses 240
values | config_auto_map_automodel
stringclasses 112
values | config_auto_map_automodelforcausallm
stringclasses 128
values | config_ep_size
stringclasses 43
values | config_first_k_dense_replace
stringclasses 60
values | config_kv_lora_rank
stringclasses 48
values | config_layer_norm_eps
stringclasses 38
values | config_moe_enabled
stringclasses 11
values | config_moe_expert_utilization
stringclasses 7
values | config_moe_intermediate_size
float64 0
8.96k
⌀ | config_moe_layer_freq
stringclasses 3
values | config_n_group
float64 0.03
8
⌀ | config_n_routed_experts
float64 1
18.9k
⌀ | config_n_shared_experts
float64 1
16
⌀ | config_norm_topk_prob
stringclasses 6
values | config_num_experts_per_tok
float64 0.03
256
⌀ | config_num_nextn_predict_layers
float64 0
2
⌀ | config_pad_token_id
stringclasses 131
values | config_q_lora_rank
float64 2
1.54k
⌀ | config_qk_nope_head_dim
float64 1
1.54k
⌀ | config_qk_rope_head_dim
float64 1
128
⌀ | config_quantization_activation_scheme
stringclasses 4
values | config_quantization_fmt
stringclasses 3
values | config_quantization_method
stringclasses 12
values | config_quantization_weight_block_size
stringclasses 4
values | config_rope_scaling_beta_fast
float64 0.71
32
⌀ | config_rope_scaling_beta_slow
stringclasses 8
values | config_rope_scaling_factor
float64 1
40
⌀ | config_rope_scaling_mscale
stringclasses 6
values | config_rope_scaling_mscale_all_dim
stringclasses 6
values | config_rope_scaling_original_max_pos
stringclasses 13
values | config_routed_scaling_factor
stringclasses 7
values | config_scoring_func
stringclasses 5
values | config_topk_group
stringclasses 6
values | config_topk_method
stringclasses 4
values | config_v_head_dim
stringclasses 2
values |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
10
|
ChatDOC/OCRFlux-3B
|
qwen2_5_vl
|
["Qwen2_5_VLForConditionalGeneration"]
|
151680.0
|
bfloat16
|
4.49.0
| 2,048
| 11,008
|
36.0
|
16
| 2
|
silu
| 0
|
False
|
128000.0
|
1000000.0
|
default
|
1e-06
|
0.02
|
151643.0
|
151645
|
True
|
128.0
|
8.0
|
3555.5555555555557
|
1.811939328
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
7
|
LiquidAI/LFM2-1.2B
|
lfm2
|
["Lfm2ForCausalLM"]
|
65536.0
|
bfloat16
|
4.54.0.dev0
| 2,048
| null |
16.0
|
32
| 8
| null | null |
True
|
128000.0
|
1000000.0
| null | null |
0.02
|
1.0
|
7
| null |
64.0
|
4.0
|
8000.0
|
0.805306368
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
small
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
0.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
2
|
HuggingFaceTB/SmolLM3-3B
|
smollm3
|
["SmolLM3ForCausalLM"]
|
128256.0
|
bfloat16
|
4.54.0.dev0
| 2,048
| 11,008
|
36.0
|
16
| 4
|
silu
| 0
|
False
|
65536.0
|
5000000.0
| null |
1e-06
|
0.02
|
128000.0
|
128012
|
True
|
128.0
|
4.0
|
1820.4444444444443
|
1.811939328
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
|
False
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
128004.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
9
|
kyutai/tts-1.6b-en_fr
|
tts
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
| null |
short
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
4
|
mistralai/Devstral-Small-2507
|
mistral
|
["MistralForCausalLM"]
|
131072.0
|
bfloat16
|
4.53.1
| 5,120
| 32,768
|
40.0
|
32
| 8
|
silu
| 0
|
True
|
131072.0
|
1000000000.0
| null |
1e-05
|
0.02
|
1.0
|
2
|
False
|
160.0
|
4.0
|
3276.8
|
12.582912
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
False
|
True
|
True
|
False
|
False
|
large
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
11.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
0
|
moonshotai/Kimi-K2-Instruct
|
kimi_k2
|
["DeepseekV3ForCausalLM"]
|
163840.0
|
bfloat16
|
4.48.3
| 7,168
| 18,432
|
61.0
|
64
| 64
|
silu
| 0
|
True
|
131072.0
|
50000.0
|
yarn
|
1e-06
|
0.02
|
163584.0
|
163585
|
False
|
112.0
|
1.0
|
2148.72131147541
|
218.13987901440004
|
False
|
False
|
False
|
False
|
False
|
True
|
False
|
True
|
False
|
True
|
True
|
True
|
large
|
very_long
|
False
|
configuration_deepseek.DeepseekV3Config
|
modeling_deepseek.DeepseekV3Model
|
modeling_deepseek.DeepseekV3ForCausalLM
| null |
1.0
|
512.0
| null |
True
|
0.0208333333333333
| 2,048
|
1.0
| 1
| 384
| 1
|
True
| 8
| 0
| null | 1,536
| 128
| 64
|
dynamic
|
e4m3
|
fp8
|
[128, 128]
| 1
|
1.0
| 32
|
1.0
|
1.0
|
4096.0
|
2.827
|
sigmoid
|
1.0
|
noaux_tc
|
128.0
|
18
|
deepseek-ai/DeepSeek-R1-0528
|
deepseek_v3
|
["DeepseekV3ForCausalLM"]
|
129280.0
|
bfloat16
|
4.46.3
| 7,168
| 18,432
|
61.0
|
128
| 128
|
silu
| 0
|
True
|
163840.0
|
10000.0
|
yarn
|
1e-06
|
0.02
|
0.0
|
1
|
False
|
56.0
|
1.0
|
2685.901639344262
|
157.9633606656
|
False
|
False
|
False
|
False
|
False
|
True
|
False
|
True
|
False
|
True
|
True
|
True
|
large
|
very_long
|
False
|
configuration_deepseek.DeepseekV3Config
|
modeling_deepseek.DeepseekV3Model
|
modeling_deepseek.DeepseekV3ForCausalLM
|
1.0
|
3.0
|
512.0
| null |
True
|
0.03125
| 2,048
|
1.0
| 8
| 256
| 1
|
True
| 8
| 1
| null | 1,536
| 128
| 64
|
dynamic
|
e4m3
|
fp8
|
[128, 128]
| 32
|
1.0
| 40
|
1.0
|
1.0
|
4096.0
|
2.5
|
sigmoid
|
4.0
|
noaux_tc
|
128.0
|
6
|
moonshotai/Kimi-K2-Base
|
kimi_k2
|
["DeepseekV3ForCausalLM"]
|
163840.0
|
bfloat16
|
4.48.3
| 7,168
| 18,432
|
61.0
|
64
| 64
|
silu
| 0
|
True
|
131072.0
|
50000.0
|
yarn
|
1e-06
|
0.02
|
163584.0
|
163585
|
False
|
112.0
|
1.0
|
2148.72131147541
|
218.13987901440004
|
False
|
False
|
False
|
False
|
False
|
True
|
False
|
True
|
False
|
True
|
True
|
True
|
large
|
very_long
|
False
|
configuration_deepseek.DeepseekV3Config
|
modeling_deepseek.DeepseekV3Model
|
modeling_deepseek.DeepseekV3ForCausalLM
| null |
1.0
|
512.0
| null |
True
|
0.0208333333333333
| 2,048
|
1.0
| 1
| 384
| 1
|
True
| 8
| 0
| null | 1,536
| 128
| 64
|
dynamic
|
e4m3
|
fp8
|
[128, 128]
| 1
|
1.0
| 32
|
1.0
|
1.0
|
4096.0
|
2.827
|
sigmoid
|
1.0
|
noaux_tc
|
128.0
|
23
|
jinaai/jina-embeddings-v4
| null |
["JinaEmbeddingsV4Model"]
| null |
bfloat16
|
4.52.0
| 2,048
| 11,008
|
36.0
|
16
| 2
|
silu
| 0
|
True
|
128000.0
|
1000000.0
|
default
|
1e-06
|
0.02
|
151643.0
|
151645
|
True
|
128.0
|
8.0
|
3555.5555555555557
|
1.811939328
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
| null |
configuration_jina_embeddings_v4.JinaEmbeddingsV4Config
|
modeling_jina_embeddings_v4.JinaEmbeddingsV4Model
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
11
|
HuggingFaceTB/SmolLM3-3B-Base
|
smollm3
|
["SmolLM3ForCausalLM"]
|
128256.0
|
bfloat16
|
4.53.0.dev0
| 2,048
| 11,008
|
36.0
|
16
| 4
|
silu
| 0
|
True
|
65536.0
|
5000000.0
| null |
1e-06
|
0.02
| null |
128001
|
True
|
128.0
|
4.0
|
1820.4444444444443
|
1.811939328
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
|
False
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
128004.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
21
|
LiquidAI/LFM2-350M
|
lfm2
|
["Lfm2ForCausalLM"]
|
65536.0
|
bfloat16
|
4.54.0.dev0
| 1,024
| null |
16.0
|
16
| 8
| null | null |
True
|
128000.0
|
1000000.0
| null | null |
0.02
|
1.0
|
7
| null |
64.0
|
2.0
|
8000.0
|
0.201326592
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
small
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
0.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
26
|
tencent/Hunyuan-A13B-Instruct
|
hunyuan_v1_moe
|
["HunYuanMoEV1ForCausalLM"]
|
128167.0
|
bfloat16
|
4.41.2
| 4,096
| 3,072
|
32.0
|
32
| 8
|
silu
| 0.1
|
True
|
32768.0
|
10000.0
|
dynamic
|
1e-05
|
0.02
|
1.0
|
127960
|
True
|
128.0
|
4.0
|
1024.0
|
6.442450944
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
True
|
medium
|
very_long
|
False
|
configuration_hunyuan.HunYuanConfig
|
hunyuan.HunYuanModel
|
hunyuan.HunYuanMoEV1ForCausalLM
| null | null | null | null | null | null | null | null | null | null | null | null | null | null |
127961.0
| null | null | null | null | null | null | null | 32
|
1.0
| 1
|
1.0
|
1.0
| null | null | null | null | null | null |
5
|
apple/DiffuCoder-7B-cpGRPO
|
Dream
|
["DreamModel"]
|
152064.0
|
bfloat16
|
4.52.0.dev0
| 3,584
| 18,944
|
28.0
|
28
| 4
|
silu
| 0
|
True
|
131072.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151643
|
False
|
128.0
|
7.0
|
4681.142857142857
|
4.315938816
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
| null |
configuration_dream.DreamConfig
|
modeling_dream.DreamModel
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
151643.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
25
|
Skywork/Skywork-R1V3-38B
|
skywork_chat
|
["SkyworkR1VChatModel"]
| null |
bfloat16
| null | 5,120
| null | null | null | null | null | null | null | null | null | null | null | null | null | null |
False
| null | null | null | null |
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
| null |
short
| null |
configuration_skywork_chat.SkyworkChatConfig
|
modeling_skywork_chat.SkyworkChatModel
|
modeling_skywork_chat.SkyworkChatModel
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
20
|
RekaAI/reka-flash-3.1
|
llama
|
["LlamaForCausalLM"]
|
100352.0
|
bfloat16
|
4.50.3
| 6,144
| 19,648
|
44.0
|
64
| 8
|
silu
| 0
|
True
|
98304.0
|
8000000.0
| null |
1e-05
|
0.006
|
100257.0
|
100257
|
False
|
96.0
|
8.0
|
2234.181818181818
|
19.931332608
|
True
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
large
|
very_long
|
False
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
45
|
sentence-transformers/all-MiniLM-L6-v2
|
bert
|
["BertModel"]
|
30522.0
| null |
4.8.2
| 384
| 1,536
|
6.0
|
12
| null |
gelu
| null |
True
|
512.0
| null | null | null |
0.02
| null | null | null |
32.0
| null |
85.33333333333333
|
0.010616832
|
False
|
True
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
small
|
short
| null | null | null | null | null | null | null |
1e-12
| null | null | null | null | null | null | null | null | null | null |
0.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
31
|
K-intelligence/Midm-2.0-Base-Instruct
|
llama
|
["LlamaForCausalLM"]
|
131384.0
|
bfloat16
|
4.51.3
| 4,096
| 14,336
|
48.0
|
32
| 8
|
silu
| 0
|
True
|
32768.0
|
8000000.0
| null |
1e-05
|
0.02
|
0.0
|
2
|
False
|
128.0
|
4.0
|
682.6666666666666
|
9.663676416
|
True
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
large
|
very_long
|
False
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
39
|
openai/whisper-large-v3
|
whisper
|
["WhisperForConditionalGeneration"]
|
51866.0
|
float16
|
4.36.0.dev0
| null | null |
32.0
| null | null | null | 0
|
True
| null | null | null | null | null |
50257.0
|
50257
| null | null | null | null | null |
False
|
False
|
False
|
False
|
True
|
False
|
False
|
False
|
False
|
False
|
False
|
False
| null |
short
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
50256.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
28
|
deepseek-ai/DeepSeek-R1
|
deepseek_v3
|
["DeepseekV3ForCausalLM"]
|
129280.0
|
bfloat16
|
4.46.3
| 7,168
| 18,432
|
61.0
|
128
| 128
|
silu
| 0
|
True
|
163840.0
|
10000.0
|
yarn
|
1e-06
|
0.02
|
0.0
|
1
|
False
|
56.0
|
1.0
|
2685.901639344262
|
157.9633606656
|
False
|
False
|
False
|
False
|
False
|
True
|
False
|
True
|
False
|
True
|
True
|
True
|
large
|
very_long
|
False
|
configuration_deepseek.DeepseekV3Config
|
modeling_deepseek.DeepseekV3Model
|
modeling_deepseek.DeepseekV3ForCausalLM
|
1.0
|
3.0
|
512.0
| null |
True
|
0.03125
| 2,048
|
1.0
| 8
| 256
| 1
|
True
| 8
| 1
| null | 1,536
| 128
| 64
|
dynamic
|
e4m3
|
fp8
|
[128, 128]
| 32
|
1.0
| 40
|
1.0
|
1.0
|
4096.0
|
2.5
|
sigmoid
|
4.0
|
noaux_tc
|
128.0
|
36
|
Qwen/Qwen3-Embedding-0.6B
|
qwen3
|
["Qwen3ForCausalLM"]
|
151669.0
|
bfloat16
|
4.51.3
| 1,024
| 3,072
|
28.0
|
16
| 8
|
silu
| 0
|
True
|
32768.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151643
|
True
|
64.0
|
2.0
|
1170.2857142857142
|
0.352321536
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
small
|
very_long
|
False
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
1
|
THUDM/GLM-4.1V-9B-Thinking
|
glm4v
|
["Glm4vForConditionalGeneration"]
| null | null |
4.57.1
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
False
| null | null | null | null |
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
| null |
short
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
29
|
LiquidAI/LFM2-700M
|
lfm2
|
["Lfm2ForCausalLM"]
|
65536.0
|
bfloat16
|
4.54.0.dev0
| 1,536
| null |
16.0
|
24
| 8
| null | null |
True
|
128000.0
|
1000000.0
| null | null |
0.02
|
1.0
|
7
| null |
64.0
|
3.0
|
8000.0
|
0.452984832
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
small
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
0.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
33
|
hexgrad/Kokoro-82M
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
| null |
short
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
46
|
deepseek-ai/DeepSeek-R1-0528-Qwen3-8B
|
qwen3
|
["Qwen3ForCausalLM"]
|
151936.0
|
bfloat16
|
4.51.0
| 4,096
| 12,288
|
36.0
|
32
| 8
|
silu
| 0
|
True
|
131072.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151645
|
False
|
128.0
|
4.0
|
3640.8888888888887
|
7.247757312
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
large
|
very_long
|
False
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | 4
| null | null |
32768.0
| null | null | null | null | null |
51
|
unsloth/Devstral-Small-2507-GGUF
|
mistral3
|
["Mistral3ForConditionalGeneration"]
| null |
bfloat16
|
4.52.0.dev0
| null | null | null | null | null | null | null | null | null | null | null | null | null |
1.0
|
2
| null | null | null | null | null |
False
|
False
|
False
|
False
|
False
|
False
|
True
|
False
|
False
|
False
|
False
|
False
| null |
short
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
11.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
52
|
Qwen/Qwen2.5-VL-7B-Instruct
|
qwen2_5_vl
|
["Qwen2_5_VLForConditionalGeneration"]
|
152064.0
|
bfloat16
|
4.41.2
| 3,584
| 18,944
|
28.0
|
28
| 4
|
silu
| 0
|
True
|
128000.0
|
1000000.0
|
mrope
|
1e-06
|
0.02
|
151643.0
|
151645
|
False
|
128.0
|
7.0
|
4571.428571428572
|
4.315938816
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
27
|
agentica-org/DeepSWE-Preview
|
qwen3
|
["Qwen3ForCausalLM"]
|
151936.0
|
float32
|
4.51.3
| 5,120
| 25,600
|
64.0
|
64
| 8
|
silu
| 0
|
True
|
40960.0
|
1000000.0
| null |
1e-06
|
0.02
| null |
151645
|
False
|
80.0
|
8.0
|
640.0
|
20.1326592
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
large
|
very_long
|
False
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
151643.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
17
|
KurmaAI/AQUA-7B
|
mistral
|
["MistralForCausalLM"]
|
32768.0
|
bfloat16
|
4.52.4
| 4,096
| 14,336
|
32.0
|
32
| 8
|
silu
| 0
|
True
|
32768.0
|
1000000.0
| null |
1e-05
|
0.02
|
1.0
|
2
|
False
|
128.0
|
4.0
|
1024.0
|
6.442450944
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
50
|
Intelligent-Internet/II-Medical-32B-Preview
|
qwen3
|
["Qwen3ForCausalLM"]
|
151936.0
|
bfloat16
|
4.52.1
| 5,120
| 25,600
|
64.0
|
64
| 8
|
silu
| 0
|
True
|
40960.0
|
1000000.0
| null |
1e-06
|
0.02
| null |
151645
|
False
|
80.0
|
8.0
|
640.0
|
20.1326592
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
large
|
very_long
|
False
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
151643.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
66
|
Qwen/Qwen3-0.6B
|
qwen3
|
["Qwen3ForCausalLM"]
|
151936.0
|
bfloat16
|
4.51.0
| 1,024
| 3,072
|
28.0
|
16
| 8
|
silu
| 0
|
True
|
40960.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151645
|
True
|
64.0
|
2.0
|
1462.857142857143
|
0.352321536
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
small
|
very_long
|
False
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
60
|
marcelbinz/Llama-3.1-Centaur-70B
|
llama
|
["LlamaForCausalLM"]
|
128256.0
|
bfloat16
|
4.43.3
| 8,192
| 28,672
|
80.0
|
64
| 8
|
silu
| 0
|
True
|
131072.0
|
500000.0
| null |
1e-05
|
0.02
|
128000.0
|
128001
|
False
|
128.0
|
8.0
|
1638.4
|
64.42450944
|
True
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
large
|
very_long
|
False
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
128004.0
| null | null | null | null | null | null | null | null | null | 8
| null | null |
8192.0
| null | null | null | null | null |
67
|
unsloth/DeepSeek-R1-0528-Qwen3-8B-GGUF
|
qwen3
|
["Qwen3ForCausalLM"]
|
151936.0
|
bfloat16
|
4.52.4
| 4,096
| 12,288
|
36.0
|
32
| 8
|
silu
| 0
|
True
|
131072.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151645
|
False
|
128.0
|
4.0
|
3640.8888888888887
|
7.247757312
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
large
|
very_long
|
False
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
151654.0
| null | null | null | null | null | null | null | null | null | 4
| null | null |
32768.0
| null | null | null | null | null |
54
|
mistralai/Mistral-Small-3.2-24B-Instruct-2506
|
mistral3
|
["Mistral3ForConditionalGeneration"]
| null |
bfloat16
|
4.52.4
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
False
|
False
|
False
|
False
|
False
|
False
|
True
|
False
|
False
|
False
|
False
|
False
| null |
short
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
75
|
mistralai/Magistral-Small-2506
|
mistral
|
["MistralForCausalLM"]
|
131072.0
|
bfloat16
|
4.52.4
| 5,120
| 32,768
|
40.0
|
32
| 8
|
silu
| 0
|
True
|
40960.0
|
1000000000.0
| null |
1e-05
|
0.02
|
1.0
|
2
|
False
|
160.0
|
4.0
|
1024.0
|
12.582912
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
False
|
True
|
True
|
False
|
False
|
large
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
92
|
baidu/ERNIE-4.5-21B-A3B-PT
|
ernie4_5_moe
|
["Ernie4_5_MoeForCausalLM"]
|
103424.0
|
bfloat16
|
4.54.0.dev0
| 2,560
| 12,288
|
28.0
|
20
| 4
|
silu
| null |
True
|
131072.0
|
500000.0
| null |
1e-05
|
0.02
|
1.0
|
2
|
True
|
128.0
|
5.0
|
4681.142857142857
|
2.2020096
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | 1
|
0.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
84
|
mistralai/Devstral-Small-2505
|
mistral
|
["MistralForCausalLM"]
|
131072.0
|
bfloat16
|
4.51.3
| 5,120
| 32,768
|
40.0
|
32
| 8
|
silu
| 0
|
True
|
131072.0
|
1000000000.0
| null |
1e-05
|
0.02
|
1.0
|
2
|
False
|
160.0
|
4.0
|
3276.8
|
12.582912
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
False
|
True
|
True
|
False
|
False
|
large
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
81
|
skt/A.X-3.1-Light
|
llama
|
["LlamaForCausalLM"]
|
102400.0
|
bfloat16
|
4.51.3
| 4,096
| 10,880
|
32.0
|
32
| 32
|
silu
| 0.1
|
False
|
32768.0
|
500000.0
| null |
1e-05
|
0.02
|
0.0
|
0
|
False
|
128.0
|
1.0
|
1024.0
|
6.442450944
|
True
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
False
|
False
|
medium
|
very_long
|
False
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
71
|
ByteDance-Seed/Tar-7B
|
qwen2
|
["LlavaQwenForCausalLM"]
|
217207.0
|
bfloat16
|
4.50.0
| 3,584
| 18,944
|
28.0
|
28
| 4
|
silu
| 0
|
True
|
32768.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151645
|
False
|
128.0
|
7.0
|
1170.2857142857142
|
4.315938816
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
68
|
Menlo/Jan-nano
|
qwen3
|
["Qwen3ForCausalLM"]
|
151936.0
|
bfloat16
|
4.52.4
| 2,560
| 9,728
|
36.0
|
32
| 8
|
silu
| 0
|
True
|
40960.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151645
|
True
|
80.0
|
4.0
|
1137.7777777777778
|
2.8311552
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
|
False
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
80
|
KurmaAI/AQUA-1B
|
gemma3_text
|
["Gemma3ForCausalLM"]
|
262144.0
|
bfloat16
|
4.52.4
| 1,152
| 6,912
|
26.0
|
4
| 1
| null | 0
|
True
|
32768.0
|
1000000.0
| null |
1e-06
|
0.02
|
2.0
|
[1, 106]
| null |
288.0
|
4.0
|
1260.3076923076924
|
0.414056448
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
small
|
very_long
|
False
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
0.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
98
|
naver/provence-reranker-debertav3-v1
|
Provence
|
["Provence"]
|
128100.0
|
float32
|
4.45.1
| 1,024
| 4,096
|
24.0
|
16
| null |
gelu
| null | null |
512.0
| null | null | null |
0.02
| null | null | null |
64.0
| null |
21.333333333333332
|
0.301989888
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
small
|
short
| null |
modeling_provence.ProvenceConfig
|
modeling_provence.Provence
| null | null | null | null |
1e-07
| null | null | null | null | null | null | null | null | null | null |
0.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
73
|
microsoft/NextCoder-7B
|
qwen2
|
["Qwen2ForCausalLM"]
|
152064.0
|
float32
|
4.46.3
| 3,584
| 18,944
|
28.0
|
28
| 4
|
silu
| 0
|
True
|
32768.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151645
|
False
|
128.0
|
7.0
|
1170.2857142857142
|
4.315938816
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
82
|
BAAI/bge-m3
|
xlm-roberta
|
["XLMRobertaModel"]
|
250002.0
|
float32
|
4.33.0
| 1,024
| 4,096
|
24.0
|
16
| null |
gelu
| null |
True
|
8194.0
| null | null | null |
0.02
|
0.0
|
2
| null |
64.0
| null |
341.4166666666667
|
0.301989888
|
False
|
True
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
small
|
long
| null | null | null | null | null | null | null |
1e-05
| null | null | null | null | null | null | null | null | null | null |
1.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
103
|
K-intelligence/Midm-2.0-Mini-Instruct
|
llama
|
["LlamaForCausalLM"]
|
131392.0
|
bfloat16
|
4.48.2
| 1,792
| 4,608
|
48.0
|
32
| 8
|
silu
| 0
|
True
|
32768.0
|
8000000.0
| null |
1e-05
|
0.02
|
0.0
|
2
|
True
|
56.0
|
4.0
|
682.6666666666666
|
1.849688064
|
True
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
|
False
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
93
|
skt/A.X-4.0-Light
|
qwen2
|
["Qwen2ForCausalLM"]
|
102400.0
|
bfloat16
|
4.51.3
| 3,584
| 18,944
|
28.0
|
28
| 4
|
silu
| 0
|
False
|
16384.0
|
1000000.0
| null |
1e-05
|
0.02
|
0.0
|
0
|
False
|
128.0
|
7.0
|
585.1428571428571
|
4.315938816
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
97
|
openai/whisper-large-v3-turbo
|
whisper
|
["WhisperForConditionalGeneration"]
|
51866.0
|
float16
|
4.46.0.dev0
| null | null |
32.0
| null | null | null | 0
|
True
| null | null | null | null | null |
50257.0
|
50257
| null | null | null | null | null |
False
|
False
|
False
|
False
|
True
|
False
|
False
|
False
|
False
|
False
|
False
|
False
| null |
short
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
50257.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
100
|
allenai/FlexOlmo-7x7B-1T
|
flex_olmo
|
["FlexOlmoForCausalLM"]
|
100352.0
|
float32
|
4.50.0.dev0
| 4,096
| 11,008
|
32.0
|
32
| 32
|
silu
| 0
|
True
|
4096.0
|
500000.0
| null |
1e-06
|
0.02
| null |
100257
|
False
|
128.0
|
1.0
|
128.0
|
6.442450944
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
False
|
True
|
False
|
False
|
medium
|
medium
|
False
| null | null | null | null | null | null | null |
True
| null | null | null | null | null | null |
False
| 5
| null |
100277.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
44
|
nvidia/OpenCodeReasoning-Nemotron-1.1-32B
|
qwen2
|
["Qwen2ForCausalLM"]
|
152064.0
|
bfloat16
|
4.47.1
| 5,120
| 27,648
|
64.0
|
40
| 8
|
silu
| 0
|
True
|
65536.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151645
|
False
|
128.0
|
5.0
|
1024.0
|
20.1326592
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
large
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
56
|
mistralai/Mistral-7B-Instruct-v0.3
|
mistral
|
["MistralForCausalLM"]
|
32768.0
|
bfloat16
|
4.42.0.dev0
| 4,096
| 14,336
|
32.0
|
32
| 8
|
silu
| 0
|
True
|
32768.0
|
1000000.0
| null |
1e-05
|
0.02
|
1.0
|
2
|
False
|
128.0
|
4.0
|
1024.0
|
6.442450944
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
111
|
Qwen/Qwen3-4B
|
qwen3
|
["Qwen3ForCausalLM"]
|
151936.0
|
bfloat16
|
4.51.0
| 2,560
| 9,728
|
36.0
|
32
| 8
|
silu
| 0
|
True
|
40960.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151645
|
True
|
80.0
|
4.0
|
1137.7777777777778
|
2.8311552
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
|
False
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
94
|
internlm/POLAR-7B
|
internlm2
|
["InternLM2ForRewardModel"]
|
92544.0
|
float16
|
4.49.0
| 4,096
| 14,336
|
32.0
|
32
| 8
|
silu
| null |
True
|
262144.0
|
50000000.0
|
dynamic
|
1e-05
|
0.02
|
1.0
|
2
|
False
|
128.0
|
4.0
|
8192.0
|
6.442450944
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
| null |
configuration_internlm2.InternLM2Config
|
modeling_internlm2.InternLM2ForRewardModel
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
2.0
| null | null | null | null | null | null | null | null | null | 2
| null | null | null | null | null | null | null | null |
53
|
MiniMaxAI/MiniMax-M1-80k
|
minimax_m1
|
["MiniMaxM1ForCausalLM"]
|
200064.0
| null |
4.45.2
| 6,144
| 9,216
|
80.0
|
64
| 8
|
silu
| 0
|
True
|
10240000.0
|
10000000.0
| null |
1e-05
|
0.02
| null | null |
False
|
96.0
|
8.0
|
128000.0
|
36.23878656
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
True
|
False
|
False
|
large
|
very_long
| null |
configuration_minimax_m1.MiniMaxM1Config
| null |
modeling_minimax_m1.MiniMaxM1ForCausalLM
| null | null | null | null |
True
| null | null | null | null | null | null | null | 2
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
125
|
Qwen/Qwen3-8B
|
qwen3
|
["Qwen3ForCausalLM"]
|
151936.0
|
bfloat16
|
4.51.0
| 4,096
| 12,288
|
36.0
|
32
| 8
|
silu
| 0
|
True
|
40960.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151645
|
False
|
128.0
|
4.0
|
1137.7777777777778
|
7.247757312
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
large
|
very_long
|
False
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
116
|
nari-labs/Dia-1.6B-0626
|
dia
|
["DiaForConditionalGeneration"]
| null |
float32
|
4.53.0.dev0
| null | null | null | null | null | null | null | null | null | null | null | null |
0.02
|
1026.0
|
1024
| null | null | null | null | null |
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
| null |
short
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
1025.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
105
|
Alibaba-NLP/WebSailor-3B
|
qwen2
|
["Qwen2ForCausalLM"]
|
152064.0
|
bfloat16
|
4.46.0
| 2,048
| 11,008
|
36.0
|
16
| 2
|
silu
| 0
|
True
|
32768.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151643
|
True
|
128.0
|
8.0
|
910.2222222222222
|
1.811939328
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
112
|
Qwen/Qwen3-32B
|
qwen3
|
["Qwen3ForCausalLM"]
|
151936.0
|
bfloat16
|
4.51.0
| 5,120
| 25,600
|
64.0
|
64
| 8
|
silu
| 0
|
True
|
40960.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151645
|
False
|
80.0
|
8.0
|
640.0
|
20.1326592
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
large
|
very_long
|
False
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
120
|
mistralai/Mixtral-8x7B-Instruct-v0.1
|
mixtral
|
["MixtralForCausalLM"]
|
32000.0
|
bfloat16
|
4.36.0.dev0
| 4,096
| 14,336
|
32.0
|
32
| 8
|
silu
| 0
|
True
|
32768.0
|
1000000.0
| null |
1e-05
|
0.02
|
1.0
|
2
|
False
|
128.0
|
4.0
|
1024.0
|
6.442450944
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
True
|
False
|
False
|
medium
|
very_long
| null | null | null | null | null | null | null | null |
True
| null | null | null | null | null | null | null | 2
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
102
|
zeroentropy/zerank-1
|
qwen3
|
["Qwen3ForCausalLM"]
|
151936.0
|
bfloat16
|
4.51.3
| 2,560
| 9,728
|
36.0
|
32
| 8
|
silu
| 0
|
True
|
40960.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151645
|
True
|
80.0
|
4.0
|
1137.7777777777778
|
2.8311552
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
|
False
|
modeling_zeranker.ZEConfig
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
123
|
deepseek-ai/DeepSeek-V3
|
deepseek_v3
|
["DeepseekV3ForCausalLM"]
|
129280.0
|
bfloat16
|
4.33.1
| 7,168
| 18,432
|
61.0
|
128
| 128
|
silu
| 0
|
True
|
163840.0
|
10000.0
|
yarn
|
1e-06
|
0.02
|
0.0
|
1
|
False
|
56.0
|
1.0
|
2685.901639344262
|
157.9633606656
|
False
|
False
|
False
|
False
|
False
|
True
|
False
|
True
|
False
|
True
|
True
|
True
|
large
|
very_long
|
False
|
configuration_deepseek.DeepseekV3Config
|
modeling_deepseek.DeepseekV3Model
|
modeling_deepseek.DeepseekV3ForCausalLM
|
1.0
|
3.0
|
512.0
| null |
True
|
0.03125
| 2,048
|
1.0
| 8
| 256
| 1
|
True
| 8
| 1
| null | 1,536
| 128
| 64
|
dynamic
|
e4m3
|
fp8
|
[128, 128]
| 32
|
1.0
| 40
|
1.0
|
1.0
|
4096.0
|
2.5
|
sigmoid
|
4.0
|
noaux_tc
|
128.0
|
70
|
zeroentropy/zerank-1-small
|
qwen3
|
["Qwen3ForCausalLM"]
|
151936.0
|
bfloat16
|
4.51.3
| 2,048
| 6,144
|
28.0
|
16
| 8
|
silu
| 0
|
True
|
40960.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151645
|
True
|
128.0
|
2.0
|
1462.857142857143
|
1.409286144
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
|
False
|
modeling_zeranker.ZEConfig
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
118
|
fnlp/MOSS-TTSD-v0.5
|
moss_ttsd
|
["MossTTSDForCausalLM"]
|
152697.0
|
bfloat16
|
4.53.2
| 2,048
| 6,144
|
28.0
|
16
| 8
|
silu
| 0
|
True
|
32768.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151643
|
True
|
128.0
|
2.0
|
1170.2857142857142
|
1.409286144
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
|
False
|
configuration_moss_ttsd.MossTTSDConfig
|
modeling_moss_ttsd.MossTTSDForCausalLM
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
127
|
apple/DiffuCoder-7B-Instruct
|
Dream
|
["DreamModel"]
|
152064.0
|
bfloat16
|
4.51.3
| 3,584
| 18,944
|
28.0
|
28
| 4
|
silu
| 0
|
False
|
131072.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151643
|
False
|
128.0
|
7.0
|
4681.142857142857
|
4.315938816
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
| null |
configuration_dream.DreamConfig
|
modeling_dream.DreamModel
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
151643.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
134
|
tabularisai/multilingual-sentiment-analysis
|
distilbert
|
["DistilBertForSequenceClassification"]
|
119547.0
|
float32
|
4.55.0
| null | null | null | null | null | null | 0.1
| null |
512.0
| null | null | null |
0.02
| null | null | null | null | null | null | null |
False
|
True
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
| null |
short
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
0.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
96
|
cognitivecomputations/Devstral-Vision-Small-2507
|
mistral3
|
["Mistral3ForConditionalGeneration"]
| null |
bfloat16
|
4.52.4
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
False
|
False
|
False
|
False
|
False
|
False
|
True
|
False
|
False
|
False
|
False
|
False
| null |
short
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
131
|
vikhyatk/moondream2
|
moondream1
|
["HfMoondream"]
| null |
bfloat16
|
4.52.4
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
| null |
short
| null |
hf_moondream.HfConfig
| null |
hf_moondream.HfMoondream
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
114
|
Qwen/Qwen3-Embedding-8B
|
qwen3
|
["Qwen3ForCausalLM"]
|
151665.0
|
bfloat16
|
4.51.2
| 4,096
| 12,288
|
36.0
|
32
| 8
|
silu
| 0
|
True
|
40960.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151645
|
False
|
128.0
|
4.0
|
1137.7777777777778
|
7.247757312
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
large
|
very_long
|
False
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
128
|
ByteDance-Seed/Tar-1.5B
|
qwen2
|
["LlavaQwenForCausalLM"]
|
217207.0
|
bfloat16
|
4.50.0
| 1,536
| 8,960
|
28.0
|
12
| 2
|
silu
| 0
|
True
|
32768.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151645
|
True
|
128.0
|
6.0
|
1170.2857142857142
|
0.792723456
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
small
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
32
|
microsoft/NextCoder-32B
|
qwen2
|
["Qwen2ForCausalLM"]
|
152064.0
|
float32
|
4.46.0
| 5,120
| 27,648
|
64.0
|
40
| 8
|
silu
| 0
|
True
|
32768.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151645
|
False
|
128.0
|
5.0
|
512.0
|
20.1326592
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
large
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
141
|
cognitivecomputations/Dolphin-Mistral-24B-Venice-Edition
|
mistral
|
["MistralForCausalLM"]
|
131072.0
|
bfloat16
|
4.51.3
| 5,120
| 32,768
|
40.0
|
32
| 8
|
silu
| 0
|
True
|
32768.0
|
100000000.0
| null |
1e-05
|
0.02
|
1.0
|
2
|
False
|
160.0
|
4.0
|
819.2
|
12.582912
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
False
|
True
|
True
|
False
|
False
|
large
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
142
|
BytedTsinghua-SIA/RL-MemoryAgent-14B
|
qwen2
|
["Qwen2ForCausalLM"]
|
152064.0
|
bfloat16
|
4.50.3
| 5,120
| 13,824
|
48.0
|
40
| 8
|
silu
| 0
|
True
|
32768.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151645
|
False
|
128.0
|
5.0
|
682.6666666666666
|
15.0994944
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
large
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
16
|
nanonets/Nanonets-OCR-s
|
qwen2_5_vl
|
["Qwen2_5_VLForConditionalGeneration"]
|
151936.0
|
bfloat16
|
4.52.4
| 2,048
| 11,008
|
36.0
|
16
| 2
|
silu
| 0
|
True
|
128000.0
|
1000000.0
|
default
|
1e-06
|
0.02
|
151643.0
|
151645
| null |
128.0
|
8.0
|
3555.5555555555557
|
1.811939328
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
13
|
tngtech/DeepSeek-TNG-R1T2-Chimera
|
deepseek_v3
|
["DeepseekV3ForCausalLM"]
|
129280.0
|
bfloat16
|
4.46.3
| 7,168
| 18,432
|
61.0
|
128
| 128
|
silu
| 0
|
True
|
163840.0
|
10000.0
|
yarn
|
1e-06
|
0.02
|
0.0
|
1
|
False
|
56.0
|
1.0
|
2685.901639344262
|
157.9633606656
|
False
|
False
|
False
|
False
|
False
|
True
|
False
|
True
|
False
|
True
|
True
|
True
|
large
|
very_long
|
False
|
configuration_deepseek.DeepseekV3Config
|
modeling_deepseek.DeepseekV3Model
|
modeling_deepseek.DeepseekV3ForCausalLM
|
1.0
|
3.0
|
512.0
| null |
True
|
0.03125
| 2,048
|
1.0
| 8
| 256
| 1
|
True
| 8
| 1
| null | 1,536
| 128
| 64
|
dynamic
|
e4m3
|
fp8
|
[128, 128]
| 32
|
1.0
| 40
|
1.0
|
1.0
|
4096.0
|
2.5
|
sigmoid
|
4.0
|
noaux_tc
|
128.0
|
139
|
microsoft/bitnet-b1.58-2B-4T
|
bitnet
|
["BitNetForCausalLM"]
|
128256.0
|
bfloat16
| null | 2,560
| 6,912
|
30.0
|
20
| 5
|
relu2
| null |
True
|
4096.0
|
500000.0
| null |
1e-05
|
0.02
|
128000.0
|
128001
|
True
|
128.0
|
4.0
|
136.53333333333333
|
2.359296
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
True
|
False
|
medium
|
medium
| null |
configuration_bitnet.BitNetConfig
| null |
modeling_bitnet.BitNetForCausalLM
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
bitnet
| null | null | null | null | null | null | null | null | null | null | null | null |
138
|
ibm-granite/granite-speech-3.3-8b
|
granite_speech
|
["GraniteSpeechForConditionalGeneration"]
| null |
bfloat16
|
4.52.4
| null | null | null | null | null | null | null | null | null | null | null | null |
0.02
| null | null | null | null | null | null | null |
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
| null |
short
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
78
|
SicariusSicariiStuff/Impish_LLAMA_4B
|
llama
|
["LlamaForCausalLM"]
|
128256.0
|
bfloat16
|
4.51.3
| 3,072
| 9,216
|
32.0
|
32
| 8
|
silu
| 0
|
False
|
131072.0
|
500000.0
| null |
1e-05
|
0.02
|
128000.0
|
128019
|
False
|
96.0
|
4.0
|
4096.0
|
3.623878656
|
True
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
medium
|
very_long
|
False
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | 8
| null | null |
8192.0
| null | null | null | null | null |
119
|
AI-MO/Kimina-Prover-72B
|
qwen2
|
["Qwen2ForCausalLM"]
|
152064.0
|
bfloat16
|
4.43.1
| 8,192
| 29,568
|
80.0
|
64
| 8
|
silu
| 0
|
True
|
131072.0
|
1000000.0
| null |
1e-06
|
0.02
|
151643.0
|
151645
|
False
|
128.0
|
8.0
|
1638.4
|
64.42450944
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
True
|
False
|
False
|
large
|
very_long
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
8
|
microsoft/Phi-4-mini-flash-reasoning
|
phi4flash
|
["Phi4FlashForCausalLM"]
|
200064.0
|
bfloat16
|
4.46.1
| 2,560
| 10,240
|
32.0
|
40
| 20
|
silu
| 0
|
True
|
262144.0
| null | null | null |
0.02
|
199999.0
|
199999
|
True
|
64.0
|
2.0
|
8192.0
|
2.5165824
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
False
|
True
|
False
|
False
|
False
|
medium
|
very_long
| null |
configuration_phi4flash.Phi4FlashConfig
| null |
modeling_phi4flash.Phi4FlashForCausalLM
| null | null | null |
1e-05
| null | null | null | null | null | null | null | null | null | null |
199999.0
| null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null | null |
End of preview. Expand
in Data Studio
README.md exists but content is empty.
- Downloads last month
- 9