Dataset Viewer
Auto-converted to Parquet Duplicate
index
int64
0
1.86M
modelId
stringlengths
7
107
config_model_type
stringclasses
425 values
config_architectures
stringclasses
597 values
config_vocab_size
stringclasses
678 values
config_torch_dtype
stringclasses
3 values
config_transformers_version
stringclasses
208 values
config_hidden_size
float64
1
16.4k
config_intermediate_size
float64
0
59.1k
config_num_hidden_layers
stringclasses
100 values
config_num_attention_heads
stringclasses
56 values
config_num_key_value_heads
float64
0
262k
config_hidden_act
stringclasses
51 values
config_attention_dropout
float64
-1
262k
config_use_cache
stringclasses
84 values
config_max_position_embeddings
stringclasses
73 values
config_rope_theta
stringclasses
46 values
config_rope_scaling_type
stringclasses
13 values
config_rms_norm_eps
stringclasses
12 values
config_initializer_range
stringclasses
52 values
config_bos_token_id
stringclasses
58 values
config_eos_token_id
stringclasses
108 values
config_tie_word_embeddings
stringclasses
15 values
config_head_dimension
stringclasses
99 values
config_gqa_ratio
stringclasses
90 values
config_context_per_layer
stringclasses
159 values
config_approx_params_billions
stringclasses
190 values
is_llama_family
stringclasses
8 values
is_bert_family
stringclasses
86 values
is_gpt_family
stringclasses
3 values
is_t5_family
stringclasses
14 values
is_whisper_family
stringclasses
24 values
is_deepseek_family
stringclasses
13 values
is_mistral_family
stringclasses
38 values
uses_moe
stringclasses
11 values
uses_gqa
stringclasses
64 values
uses_rope
stringclasses
26 values
uses_quantization
stringclasses
19 values
uses_lora
stringclasses
16 values
size_category
stringclasses
8 values
context_category
stringclasses
33 values
config_attention_bias
stringclasses
11 values
config_auto_map_autoconfig
stringclasses
240 values
config_auto_map_automodel
stringclasses
112 values
config_auto_map_automodelforcausallm
stringclasses
128 values
config_ep_size
stringclasses
43 values
config_first_k_dense_replace
stringclasses
60 values
config_kv_lora_rank
stringclasses
48 values
config_layer_norm_eps
stringclasses
38 values
config_moe_enabled
stringclasses
11 values
config_moe_expert_utilization
stringclasses
7 values
config_moe_intermediate_size
float64
0
8.96k
config_moe_layer_freq
stringclasses
3 values
config_n_group
float64
0.03
8
config_n_routed_experts
float64
1
18.9k
config_n_shared_experts
float64
1
16
config_norm_topk_prob
stringclasses
6 values
config_num_experts_per_tok
float64
0.03
256
config_num_nextn_predict_layers
float64
0
2
config_pad_token_id
stringclasses
131 values
config_q_lora_rank
float64
2
1.54k
config_qk_nope_head_dim
float64
1
1.54k
config_qk_rope_head_dim
float64
1
128
config_quantization_activation_scheme
stringclasses
4 values
config_quantization_fmt
stringclasses
3 values
config_quantization_method
stringclasses
12 values
config_quantization_weight_block_size
stringclasses
4 values
config_rope_scaling_beta_fast
float64
0.71
32
config_rope_scaling_beta_slow
stringclasses
8 values
config_rope_scaling_factor
float64
1
40
config_rope_scaling_mscale
stringclasses
6 values
config_rope_scaling_mscale_all_dim
stringclasses
6 values
config_rope_scaling_original_max_pos
stringclasses
13 values
config_routed_scaling_factor
stringclasses
7 values
config_scoring_func
stringclasses
5 values
config_topk_group
stringclasses
6 values
config_topk_method
stringclasses
4 values
config_v_head_dim
stringclasses
2 values
10
ChatDOC/OCRFlux-3B
qwen2_5_vl
["Qwen2_5_VLForConditionalGeneration"]
151680.0
bfloat16
4.49.0
2,048
11,008
36.0
16
2
silu
0
False
128000.0
1000000.0
default
1e-06
0.02
151643.0
151645
True
128.0
8.0
3555.5555555555557
1.811939328
False
False
False
False
False
False
False
False
True
True
False
False
medium
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
7
LiquidAI/LFM2-1.2B
lfm2
["Lfm2ForCausalLM"]
65536.0
bfloat16
4.54.0.dev0
2,048
null
16.0
32
8
null
null
True
128000.0
1000000.0
null
null
0.02
1.0
7
null
64.0
4.0
8000.0
0.805306368
False
False
False
False
False
False
False
False
True
True
False
False
small
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
0.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
2
HuggingFaceTB/SmolLM3-3B
smollm3
["SmolLM3ForCausalLM"]
128256.0
bfloat16
4.54.0.dev0
2,048
11,008
36.0
16
4
silu
0
False
65536.0
5000000.0
null
1e-06
0.02
128000.0
128012
True
128.0
4.0
1820.4444444444443
1.811939328
False
False
False
False
False
False
False
False
True
True
False
False
medium
very_long
False
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
128004.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
9
kyutai/tts-1.6b-en_fr
tts
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
False
False
False
False
False
False
False
False
False
False
False
False
null
short
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
4
mistralai/Devstral-Small-2507
mistral
["MistralForCausalLM"]
131072.0
bfloat16
4.53.1
5,120
32,768
40.0
32
8
silu
0
True
131072.0
1000000000.0
null
1e-05
0.02
1.0
2
False
160.0
4.0
3276.8
12.582912
False
False
False
False
False
False
True
False
True
True
False
False
large
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
11.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
0
moonshotai/Kimi-K2-Instruct
kimi_k2
["DeepseekV3ForCausalLM"]
163840.0
bfloat16
4.48.3
7,168
18,432
61.0
64
64
silu
0
True
131072.0
50000.0
yarn
1e-06
0.02
163584.0
163585
False
112.0
1.0
2148.72131147541
218.13987901440004
False
False
False
False
False
True
False
True
False
True
True
True
large
very_long
False
configuration_deepseek.DeepseekV3Config
modeling_deepseek.DeepseekV3Model
modeling_deepseek.DeepseekV3ForCausalLM
null
1.0
512.0
null
True
0.0208333333333333
2,048
1.0
1
384
1
True
8
0
null
1,536
128
64
dynamic
e4m3
fp8
[128, 128]
1
1.0
32
1.0
1.0
4096.0
2.827
sigmoid
1.0
noaux_tc
128.0
18
deepseek-ai/DeepSeek-R1-0528
deepseek_v3
["DeepseekV3ForCausalLM"]
129280.0
bfloat16
4.46.3
7,168
18,432
61.0
128
128
silu
0
True
163840.0
10000.0
yarn
1e-06
0.02
0.0
1
False
56.0
1.0
2685.901639344262
157.9633606656
False
False
False
False
False
True
False
True
False
True
True
True
large
very_long
False
configuration_deepseek.DeepseekV3Config
modeling_deepseek.DeepseekV3Model
modeling_deepseek.DeepseekV3ForCausalLM
1.0
3.0
512.0
null
True
0.03125
2,048
1.0
8
256
1
True
8
1
null
1,536
128
64
dynamic
e4m3
fp8
[128, 128]
32
1.0
40
1.0
1.0
4096.0
2.5
sigmoid
4.0
noaux_tc
128.0
6
moonshotai/Kimi-K2-Base
kimi_k2
["DeepseekV3ForCausalLM"]
163840.0
bfloat16
4.48.3
7,168
18,432
61.0
64
64
silu
0
True
131072.0
50000.0
yarn
1e-06
0.02
163584.0
163585
False
112.0
1.0
2148.72131147541
218.13987901440004
False
False
False
False
False
True
False
True
False
True
True
True
large
very_long
False
configuration_deepseek.DeepseekV3Config
modeling_deepseek.DeepseekV3Model
modeling_deepseek.DeepseekV3ForCausalLM
null
1.0
512.0
null
True
0.0208333333333333
2,048
1.0
1
384
1
True
8
0
null
1,536
128
64
dynamic
e4m3
fp8
[128, 128]
1
1.0
32
1.0
1.0
4096.0
2.827
sigmoid
1.0
noaux_tc
128.0
23
jinaai/jina-embeddings-v4
null
["JinaEmbeddingsV4Model"]
null
bfloat16
4.52.0
2,048
11,008
36.0
16
2
silu
0
True
128000.0
1000000.0
default
1e-06
0.02
151643.0
151645
True
128.0
8.0
3555.5555555555557
1.811939328
False
False
False
False
False
False
False
False
True
True
False
False
medium
very_long
null
configuration_jina_embeddings_v4.JinaEmbeddingsV4Config
modeling_jina_embeddings_v4.JinaEmbeddingsV4Model
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
11
HuggingFaceTB/SmolLM3-3B-Base
smollm3
["SmolLM3ForCausalLM"]
128256.0
bfloat16
4.53.0.dev0
2,048
11,008
36.0
16
4
silu
0
True
65536.0
5000000.0
null
1e-06
0.02
null
128001
True
128.0
4.0
1820.4444444444443
1.811939328
False
False
False
False
False
False
False
False
True
True
False
False
medium
very_long
False
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
128004.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
21
LiquidAI/LFM2-350M
lfm2
["Lfm2ForCausalLM"]
65536.0
bfloat16
4.54.0.dev0
1,024
null
16.0
16
8
null
null
True
128000.0
1000000.0
null
null
0.02
1.0
7
null
64.0
2.0
8000.0
0.201326592
False
False
False
False
False
False
False
False
True
True
False
False
small
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
0.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
26
tencent/Hunyuan-A13B-Instruct
hunyuan_v1_moe
["HunYuanMoEV1ForCausalLM"]
128167.0
bfloat16
4.41.2
4,096
3,072
32.0
32
8
silu
0.1
True
32768.0
10000.0
dynamic
1e-05
0.02
1.0
127960
True
128.0
4.0
1024.0
6.442450944
False
False
False
False
False
False
False
False
True
True
False
True
medium
very_long
False
configuration_hunyuan.HunYuanConfig
hunyuan.HunYuanModel
hunyuan.HunYuanMoEV1ForCausalLM
null
null
null
null
null
null
null
null
null
null
null
null
null
null
127961.0
null
null
null
null
null
null
null
32
1.0
1
1.0
1.0
null
null
null
null
null
null
5
apple/DiffuCoder-7B-cpGRPO
Dream
["DreamModel"]
152064.0
bfloat16
4.52.0.dev0
3,584
18,944
28.0
28
4
silu
0
True
131072.0
1000000.0
null
1e-06
0.02
151643.0
151643
False
128.0
7.0
4681.142857142857
4.315938816
False
False
False
False
False
False
False
False
True
True
False
False
medium
very_long
null
configuration_dream.DreamConfig
modeling_dream.DreamModel
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
151643.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
25
Skywork/Skywork-R1V3-38B
skywork_chat
["SkyworkR1VChatModel"]
null
bfloat16
null
5,120
null
null
null
null
null
null
null
null
null
null
null
null
null
null
False
null
null
null
null
False
False
False
False
False
False
False
False
False
False
False
False
null
short
null
configuration_skywork_chat.SkyworkChatConfig
modeling_skywork_chat.SkyworkChatModel
modeling_skywork_chat.SkyworkChatModel
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
20
RekaAI/reka-flash-3.1
llama
["LlamaForCausalLM"]
100352.0
bfloat16
4.50.3
6,144
19,648
44.0
64
8
silu
0
True
98304.0
8000000.0
null
1e-05
0.006
100257.0
100257
False
96.0
8.0
2234.181818181818
19.931332608
True
False
False
False
False
False
False
False
True
True
False
False
large
very_long
False
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
45
sentence-transformers/all-MiniLM-L6-v2
bert
["BertModel"]
30522.0
null
4.8.2
384
1,536
6.0
12
null
gelu
null
True
512.0
null
null
null
0.02
null
null
null
32.0
null
85.33333333333333
0.010616832
False
True
False
False
False
False
False
False
False
False
False
False
small
short
null
null
null
null
null
null
null
1e-12
null
null
null
null
null
null
null
null
null
null
0.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
31
K-intelligence/Midm-2.0-Base-Instruct
llama
["LlamaForCausalLM"]
131384.0
bfloat16
4.51.3
4,096
14,336
48.0
32
8
silu
0
True
32768.0
8000000.0
null
1e-05
0.02
0.0
2
False
128.0
4.0
682.6666666666666
9.663676416
True
False
False
False
False
False
False
False
True
True
False
False
large
very_long
False
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
39
openai/whisper-large-v3
whisper
["WhisperForConditionalGeneration"]
51866.0
float16
4.36.0.dev0
null
null
32.0
null
null
null
0
True
null
null
null
null
null
50257.0
50257
null
null
null
null
null
False
False
False
False
True
False
False
False
False
False
False
False
null
short
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
50256.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
28
deepseek-ai/DeepSeek-R1
deepseek_v3
["DeepseekV3ForCausalLM"]
129280.0
bfloat16
4.46.3
7,168
18,432
61.0
128
128
silu
0
True
163840.0
10000.0
yarn
1e-06
0.02
0.0
1
False
56.0
1.0
2685.901639344262
157.9633606656
False
False
False
False
False
True
False
True
False
True
True
True
large
very_long
False
configuration_deepseek.DeepseekV3Config
modeling_deepseek.DeepseekV3Model
modeling_deepseek.DeepseekV3ForCausalLM
1.0
3.0
512.0
null
True
0.03125
2,048
1.0
8
256
1
True
8
1
null
1,536
128
64
dynamic
e4m3
fp8
[128, 128]
32
1.0
40
1.0
1.0
4096.0
2.5
sigmoid
4.0
noaux_tc
128.0
36
Qwen/Qwen3-Embedding-0.6B
qwen3
["Qwen3ForCausalLM"]
151669.0
bfloat16
4.51.3
1,024
3,072
28.0
16
8
silu
0
True
32768.0
1000000.0
null
1e-06
0.02
151643.0
151643
True
64.0
2.0
1170.2857142857142
0.352321536
False
False
False
False
False
False
False
False
True
True
False
False
small
very_long
False
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
1
THUDM/GLM-4.1V-9B-Thinking
glm4v
["Glm4vForConditionalGeneration"]
null
null
4.57.1
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
False
null
null
null
null
False
False
False
False
False
False
False
False
False
False
False
False
null
short
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
29
LiquidAI/LFM2-700M
lfm2
["Lfm2ForCausalLM"]
65536.0
bfloat16
4.54.0.dev0
1,536
null
16.0
24
8
null
null
True
128000.0
1000000.0
null
null
0.02
1.0
7
null
64.0
3.0
8000.0
0.452984832
False
False
False
False
False
False
False
False
True
True
False
False
small
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
0.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
33
hexgrad/Kokoro-82M
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
False
False
False
False
False
False
False
False
False
False
False
False
null
short
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
46
deepseek-ai/DeepSeek-R1-0528-Qwen3-8B
qwen3
["Qwen3ForCausalLM"]
151936.0
bfloat16
4.51.0
4,096
12,288
36.0
32
8
silu
0
True
131072.0
1000000.0
null
1e-06
0.02
151643.0
151645
False
128.0
4.0
3640.8888888888887
7.247757312
False
False
False
False
False
False
False
False
True
True
False
False
large
very_long
False
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
4
null
null
32768.0
null
null
null
null
null
51
unsloth/Devstral-Small-2507-GGUF
mistral3
["Mistral3ForConditionalGeneration"]
null
bfloat16
4.52.0.dev0
null
null
null
null
null
null
null
null
null
null
null
null
null
1.0
2
null
null
null
null
null
False
False
False
False
False
False
True
False
False
False
False
False
null
short
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
11.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
52
Qwen/Qwen2.5-VL-7B-Instruct
qwen2_5_vl
["Qwen2_5_VLForConditionalGeneration"]
152064.0
bfloat16
4.41.2
3,584
18,944
28.0
28
4
silu
0
True
128000.0
1000000.0
mrope
1e-06
0.02
151643.0
151645
False
128.0
7.0
4571.428571428572
4.315938816
False
False
False
False
False
False
False
False
True
True
False
False
medium
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
27
agentica-org/DeepSWE-Preview
qwen3
["Qwen3ForCausalLM"]
151936.0
float32
4.51.3
5,120
25,600
64.0
64
8
silu
0
True
40960.0
1000000.0
null
1e-06
0.02
null
151645
False
80.0
8.0
640.0
20.1326592
False
False
False
False
False
False
False
False
True
True
False
False
large
very_long
False
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
151643.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
17
KurmaAI/AQUA-7B
mistral
["MistralForCausalLM"]
32768.0
bfloat16
4.52.4
4,096
14,336
32.0
32
8
silu
0
True
32768.0
1000000.0
null
1e-05
0.02
1.0
2
False
128.0
4.0
1024.0
6.442450944
False
False
False
False
False
False
True
False
True
True
False
False
medium
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
50
Intelligent-Internet/II-Medical-32B-Preview
qwen3
["Qwen3ForCausalLM"]
151936.0
bfloat16
4.52.1
5,120
25,600
64.0
64
8
silu
0
True
40960.0
1000000.0
null
1e-06
0.02
null
151645
False
80.0
8.0
640.0
20.1326592
False
False
False
False
False
False
False
False
True
True
False
False
large
very_long
False
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
151643.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
66
Qwen/Qwen3-0.6B
qwen3
["Qwen3ForCausalLM"]
151936.0
bfloat16
4.51.0
1,024
3,072
28.0
16
8
silu
0
True
40960.0
1000000.0
null
1e-06
0.02
151643.0
151645
True
64.0
2.0
1462.857142857143
0.352321536
False
False
False
False
False
False
False
False
True
True
False
False
small
very_long
False
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
60
marcelbinz/Llama-3.1-Centaur-70B
llama
["LlamaForCausalLM"]
128256.0
bfloat16
4.43.3
8,192
28,672
80.0
64
8
silu
0
True
131072.0
500000.0
null
1e-05
0.02
128000.0
128001
False
128.0
8.0
1638.4
64.42450944
True
False
False
False
False
False
False
False
True
True
False
False
large
very_long
False
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
128004.0
null
null
null
null
null
null
null
null
null
8
null
null
8192.0
null
null
null
null
null
67
unsloth/DeepSeek-R1-0528-Qwen3-8B-GGUF
qwen3
["Qwen3ForCausalLM"]
151936.0
bfloat16
4.52.4
4,096
12,288
36.0
32
8
silu
0
True
131072.0
1000000.0
null
1e-06
0.02
151643.0
151645
False
128.0
4.0
3640.8888888888887
7.247757312
False
False
False
False
False
False
False
False
True
True
False
False
large
very_long
False
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
151654.0
null
null
null
null
null
null
null
null
null
4
null
null
32768.0
null
null
null
null
null
54
mistralai/Mistral-Small-3.2-24B-Instruct-2506
mistral3
["Mistral3ForConditionalGeneration"]
null
bfloat16
4.52.4
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
False
False
False
False
False
False
True
False
False
False
False
False
null
short
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
75
mistralai/Magistral-Small-2506
mistral
["MistralForCausalLM"]
131072.0
bfloat16
4.52.4
5,120
32,768
40.0
32
8
silu
0
True
40960.0
1000000000.0
null
1e-05
0.02
1.0
2
False
160.0
4.0
1024.0
12.582912
False
False
False
False
False
False
True
False
True
True
False
False
large
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
92
baidu/ERNIE-4.5-21B-A3B-PT
ernie4_5_moe
["Ernie4_5_MoeForCausalLM"]
103424.0
bfloat16
4.54.0.dev0
2,560
12,288
28.0
20
4
silu
null
True
131072.0
500000.0
null
1e-05
0.02
1.0
2
True
128.0
5.0
4681.142857142857
2.2020096
False
False
False
False
False
False
False
False
True
True
False
False
medium
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
1
0.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
84
mistralai/Devstral-Small-2505
mistral
["MistralForCausalLM"]
131072.0
bfloat16
4.51.3
5,120
32,768
40.0
32
8
silu
0
True
131072.0
1000000000.0
null
1e-05
0.02
1.0
2
False
160.0
4.0
3276.8
12.582912
False
False
False
False
False
False
True
False
True
True
False
False
large
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
81
skt/A.X-3.1-Light
llama
["LlamaForCausalLM"]
102400.0
bfloat16
4.51.3
4,096
10,880
32.0
32
32
silu
0.1
False
32768.0
500000.0
null
1e-05
0.02
0.0
0
False
128.0
1.0
1024.0
6.442450944
True
False
False
False
False
False
False
False
False
True
False
False
medium
very_long
False
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
71
ByteDance-Seed/Tar-7B
qwen2
["LlavaQwenForCausalLM"]
217207.0
bfloat16
4.50.0
3,584
18,944
28.0
28
4
silu
0
True
32768.0
1000000.0
null
1e-06
0.02
151643.0
151645
False
128.0
7.0
1170.2857142857142
4.315938816
False
False
False
False
False
False
False
False
True
True
False
False
medium
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
68
Menlo/Jan-nano
qwen3
["Qwen3ForCausalLM"]
151936.0
bfloat16
4.52.4
2,560
9,728
36.0
32
8
silu
0
True
40960.0
1000000.0
null
1e-06
0.02
151643.0
151645
True
80.0
4.0
1137.7777777777778
2.8311552
False
False
False
False
False
False
False
False
True
True
False
False
medium
very_long
False
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
80
KurmaAI/AQUA-1B
gemma3_text
["Gemma3ForCausalLM"]
262144.0
bfloat16
4.52.4
1,152
6,912
26.0
4
1
null
0
True
32768.0
1000000.0
null
1e-06
0.02
2.0
[1, 106]
null
288.0
4.0
1260.3076923076924
0.414056448
False
False
False
False
False
False
False
False
True
True
False
False
small
very_long
False
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
0.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
98
naver/provence-reranker-debertav3-v1
Provence
["Provence"]
128100.0
float32
4.45.1
1,024
4,096
24.0
16
null
gelu
null
null
512.0
null
null
null
0.02
null
null
null
64.0
null
21.333333333333332
0.301989888
False
False
False
False
False
False
False
False
False
False
False
False
small
short
null
modeling_provence.ProvenceConfig
modeling_provence.Provence
null
null
null
null
1e-07
null
null
null
null
null
null
null
null
null
null
0.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
73
microsoft/NextCoder-7B
qwen2
["Qwen2ForCausalLM"]
152064.0
float32
4.46.3
3,584
18,944
28.0
28
4
silu
0
True
32768.0
1000000.0
null
1e-06
0.02
151643.0
151645
False
128.0
7.0
1170.2857142857142
4.315938816
False
False
False
False
False
False
False
False
True
True
False
False
medium
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
82
BAAI/bge-m3
xlm-roberta
["XLMRobertaModel"]
250002.0
float32
4.33.0
1,024
4,096
24.0
16
null
gelu
null
True
8194.0
null
null
null
0.02
0.0
2
null
64.0
null
341.4166666666667
0.301989888
False
True
False
False
False
False
False
False
False
False
False
False
small
long
null
null
null
null
null
null
null
1e-05
null
null
null
null
null
null
null
null
null
null
1.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
103
K-intelligence/Midm-2.0-Mini-Instruct
llama
["LlamaForCausalLM"]
131392.0
bfloat16
4.48.2
1,792
4,608
48.0
32
8
silu
0
True
32768.0
8000000.0
null
1e-05
0.02
0.0
2
True
56.0
4.0
682.6666666666666
1.849688064
True
False
False
False
False
False
False
False
True
True
False
False
medium
very_long
False
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
93
skt/A.X-4.0-Light
qwen2
["Qwen2ForCausalLM"]
102400.0
bfloat16
4.51.3
3,584
18,944
28.0
28
4
silu
0
False
16384.0
1000000.0
null
1e-05
0.02
0.0
0
False
128.0
7.0
585.1428571428571
4.315938816
False
False
False
False
False
False
False
False
True
True
False
False
medium
long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
97
openai/whisper-large-v3-turbo
whisper
["WhisperForConditionalGeneration"]
51866.0
float16
4.46.0.dev0
null
null
32.0
null
null
null
0
True
null
null
null
null
null
50257.0
50257
null
null
null
null
null
False
False
False
False
True
False
False
False
False
False
False
False
null
short
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
50257.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
100
allenai/FlexOlmo-7x7B-1T
flex_olmo
["FlexOlmoForCausalLM"]
100352.0
float32
4.50.0.dev0
4,096
11,008
32.0
32
32
silu
0
True
4096.0
500000.0
null
1e-06
0.02
null
100257
False
128.0
1.0
128.0
6.442450944
False
False
False
False
False
False
False
True
False
True
False
False
medium
medium
False
null
null
null
null
null
null
null
True
null
null
null
null
null
null
False
5
null
100277.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
44
nvidia/OpenCodeReasoning-Nemotron-1.1-32B
qwen2
["Qwen2ForCausalLM"]
152064.0
bfloat16
4.47.1
5,120
27,648
64.0
40
8
silu
0
True
65536.0
1000000.0
null
1e-06
0.02
151643.0
151645
False
128.0
5.0
1024.0
20.1326592
False
False
False
False
False
False
False
False
True
True
False
False
large
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
56
mistralai/Mistral-7B-Instruct-v0.3
mistral
["MistralForCausalLM"]
32768.0
bfloat16
4.42.0.dev0
4,096
14,336
32.0
32
8
silu
0
True
32768.0
1000000.0
null
1e-05
0.02
1.0
2
False
128.0
4.0
1024.0
6.442450944
False
False
False
False
False
False
True
False
True
True
False
False
medium
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
111
Qwen/Qwen3-4B
qwen3
["Qwen3ForCausalLM"]
151936.0
bfloat16
4.51.0
2,560
9,728
36.0
32
8
silu
0
True
40960.0
1000000.0
null
1e-06
0.02
151643.0
151645
True
80.0
4.0
1137.7777777777778
2.8311552
False
False
False
False
False
False
False
False
True
True
False
False
medium
very_long
False
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
94
internlm/POLAR-7B
internlm2
["InternLM2ForRewardModel"]
92544.0
float16
4.49.0
4,096
14,336
32.0
32
8
silu
null
True
262144.0
50000000.0
dynamic
1e-05
0.02
1.0
2
False
128.0
4.0
8192.0
6.442450944
False
False
False
False
False
False
False
False
True
True
False
False
medium
very_long
null
configuration_internlm2.InternLM2Config
modeling_internlm2.InternLM2ForRewardModel
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
2.0
null
null
null
null
null
null
null
null
null
2
null
null
null
null
null
null
null
null
53
MiniMaxAI/MiniMax-M1-80k
minimax_m1
["MiniMaxM1ForCausalLM"]
200064.0
null
4.45.2
6,144
9,216
80.0
64
8
silu
0
True
10240000.0
10000000.0
null
1e-05
0.02
null
null
False
96.0
8.0
128000.0
36.23878656
False
False
False
False
False
False
False
True
True
True
False
False
large
very_long
null
configuration_minimax_m1.MiniMaxM1Config
null
modeling_minimax_m1.MiniMaxM1ForCausalLM
null
null
null
null
True
null
null
null
null
null
null
null
2
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
125
Qwen/Qwen3-8B
qwen3
["Qwen3ForCausalLM"]
151936.0
bfloat16
4.51.0
4,096
12,288
36.0
32
8
silu
0
True
40960.0
1000000.0
null
1e-06
0.02
151643.0
151645
False
128.0
4.0
1137.7777777777778
7.247757312
False
False
False
False
False
False
False
False
True
True
False
False
large
very_long
False
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
116
nari-labs/Dia-1.6B-0626
dia
["DiaForConditionalGeneration"]
null
float32
4.53.0.dev0
null
null
null
null
null
null
null
null
null
null
null
null
0.02
1026.0
1024
null
null
null
null
null
False
False
False
False
False
False
False
False
False
False
False
False
null
short
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
1025.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
105
Alibaba-NLP/WebSailor-3B
qwen2
["Qwen2ForCausalLM"]
152064.0
bfloat16
4.46.0
2,048
11,008
36.0
16
2
silu
0
True
32768.0
1000000.0
null
1e-06
0.02
151643.0
151643
True
128.0
8.0
910.2222222222222
1.811939328
False
False
False
False
False
False
False
False
True
True
False
False
medium
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
112
Qwen/Qwen3-32B
qwen3
["Qwen3ForCausalLM"]
151936.0
bfloat16
4.51.0
5,120
25,600
64.0
64
8
silu
0
True
40960.0
1000000.0
null
1e-06
0.02
151643.0
151645
False
80.0
8.0
640.0
20.1326592
False
False
False
False
False
False
False
False
True
True
False
False
large
very_long
False
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
120
mistralai/Mixtral-8x7B-Instruct-v0.1
mixtral
["MixtralForCausalLM"]
32000.0
bfloat16
4.36.0.dev0
4,096
14,336
32.0
32
8
silu
0
True
32768.0
1000000.0
null
1e-05
0.02
1.0
2
False
128.0
4.0
1024.0
6.442450944
False
False
False
False
False
False
False
True
True
True
False
False
medium
very_long
null
null
null
null
null
null
null
null
True
null
null
null
null
null
null
null
2
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
102
zeroentropy/zerank-1
qwen3
["Qwen3ForCausalLM"]
151936.0
bfloat16
4.51.3
2,560
9,728
36.0
32
8
silu
0
True
40960.0
1000000.0
null
1e-06
0.02
151643.0
151645
True
80.0
4.0
1137.7777777777778
2.8311552
False
False
False
False
False
False
False
False
True
True
False
False
medium
very_long
False
modeling_zeranker.ZEConfig
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
123
deepseek-ai/DeepSeek-V3
deepseek_v3
["DeepseekV3ForCausalLM"]
129280.0
bfloat16
4.33.1
7,168
18,432
61.0
128
128
silu
0
True
163840.0
10000.0
yarn
1e-06
0.02
0.0
1
False
56.0
1.0
2685.901639344262
157.9633606656
False
False
False
False
False
True
False
True
False
True
True
True
large
very_long
False
configuration_deepseek.DeepseekV3Config
modeling_deepseek.DeepseekV3Model
modeling_deepseek.DeepseekV3ForCausalLM
1.0
3.0
512.0
null
True
0.03125
2,048
1.0
8
256
1
True
8
1
null
1,536
128
64
dynamic
e4m3
fp8
[128, 128]
32
1.0
40
1.0
1.0
4096.0
2.5
sigmoid
4.0
noaux_tc
128.0
70
zeroentropy/zerank-1-small
qwen3
["Qwen3ForCausalLM"]
151936.0
bfloat16
4.51.3
2,048
6,144
28.0
16
8
silu
0
True
40960.0
1000000.0
null
1e-06
0.02
151643.0
151645
True
128.0
2.0
1462.857142857143
1.409286144
False
False
False
False
False
False
False
False
True
True
False
False
medium
very_long
False
modeling_zeranker.ZEConfig
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
118
fnlp/MOSS-TTSD-v0.5
moss_ttsd
["MossTTSDForCausalLM"]
152697.0
bfloat16
4.53.2
2,048
6,144
28.0
16
8
silu
0
True
32768.0
1000000.0
null
1e-06
0.02
151643.0
151643
True
128.0
2.0
1170.2857142857142
1.409286144
False
False
False
False
False
False
False
False
True
True
False
False
medium
very_long
False
configuration_moss_ttsd.MossTTSDConfig
modeling_moss_ttsd.MossTTSDForCausalLM
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
127
apple/DiffuCoder-7B-Instruct
Dream
["DreamModel"]
152064.0
bfloat16
4.51.3
3,584
18,944
28.0
28
4
silu
0
False
131072.0
1000000.0
null
1e-06
0.02
151643.0
151643
False
128.0
7.0
4681.142857142857
4.315938816
False
False
False
False
False
False
False
False
True
True
False
False
medium
very_long
null
configuration_dream.DreamConfig
modeling_dream.DreamModel
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
151643.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
134
tabularisai/multilingual-sentiment-analysis
distilbert
["DistilBertForSequenceClassification"]
119547.0
float32
4.55.0
null
null
null
null
null
null
0.1
null
512.0
null
null
null
0.02
null
null
null
null
null
null
null
False
True
False
False
False
False
False
False
False
False
False
False
null
short
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
0.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
96
cognitivecomputations/Devstral-Vision-Small-2507
mistral3
["Mistral3ForConditionalGeneration"]
null
bfloat16
4.52.4
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
False
False
False
False
False
False
True
False
False
False
False
False
null
short
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
131
vikhyatk/moondream2
moondream1
["HfMoondream"]
null
bfloat16
4.52.4
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
False
False
False
False
False
False
False
False
False
False
False
False
null
short
null
hf_moondream.HfConfig
null
hf_moondream.HfMoondream
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
114
Qwen/Qwen3-Embedding-8B
qwen3
["Qwen3ForCausalLM"]
151665.0
bfloat16
4.51.2
4,096
12,288
36.0
32
8
silu
0
True
40960.0
1000000.0
null
1e-06
0.02
151643.0
151645
False
128.0
4.0
1137.7777777777778
7.247757312
False
False
False
False
False
False
False
False
True
True
False
False
large
very_long
False
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
128
ByteDance-Seed/Tar-1.5B
qwen2
["LlavaQwenForCausalLM"]
217207.0
bfloat16
4.50.0
1,536
8,960
28.0
12
2
silu
0
True
32768.0
1000000.0
null
1e-06
0.02
151643.0
151645
True
128.0
6.0
1170.2857142857142
0.792723456
False
False
False
False
False
False
False
False
True
True
False
False
small
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
32
microsoft/NextCoder-32B
qwen2
["Qwen2ForCausalLM"]
152064.0
float32
4.46.0
5,120
27,648
64.0
40
8
silu
0
True
32768.0
1000000.0
null
1e-06
0.02
151643.0
151645
False
128.0
5.0
512.0
20.1326592
False
False
False
False
False
False
False
False
True
True
False
False
large
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
141
cognitivecomputations/Dolphin-Mistral-24B-Venice-Edition
mistral
["MistralForCausalLM"]
131072.0
bfloat16
4.51.3
5,120
32,768
40.0
32
8
silu
0
True
32768.0
100000000.0
null
1e-05
0.02
1.0
2
False
160.0
4.0
819.2
12.582912
False
False
False
False
False
False
True
False
True
True
False
False
large
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
142
BytedTsinghua-SIA/RL-MemoryAgent-14B
qwen2
["Qwen2ForCausalLM"]
152064.0
bfloat16
4.50.3
5,120
13,824
48.0
40
8
silu
0
True
32768.0
1000000.0
null
1e-06
0.02
151643.0
151645
False
128.0
5.0
682.6666666666666
15.0994944
False
False
False
False
False
False
False
False
True
True
False
False
large
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
16
nanonets/Nanonets-OCR-s
qwen2_5_vl
["Qwen2_5_VLForConditionalGeneration"]
151936.0
bfloat16
4.52.4
2,048
11,008
36.0
16
2
silu
0
True
128000.0
1000000.0
default
1e-06
0.02
151643.0
151645
null
128.0
8.0
3555.5555555555557
1.811939328
False
False
False
False
False
False
False
False
True
True
False
False
medium
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
13
tngtech/DeepSeek-TNG-R1T2-Chimera
deepseek_v3
["DeepseekV3ForCausalLM"]
129280.0
bfloat16
4.46.3
7,168
18,432
61.0
128
128
silu
0
True
163840.0
10000.0
yarn
1e-06
0.02
0.0
1
False
56.0
1.0
2685.901639344262
157.9633606656
False
False
False
False
False
True
False
True
False
True
True
True
large
very_long
False
configuration_deepseek.DeepseekV3Config
modeling_deepseek.DeepseekV3Model
modeling_deepseek.DeepseekV3ForCausalLM
1.0
3.0
512.0
null
True
0.03125
2,048
1.0
8
256
1
True
8
1
null
1,536
128
64
dynamic
e4m3
fp8
[128, 128]
32
1.0
40
1.0
1.0
4096.0
2.5
sigmoid
4.0
noaux_tc
128.0
139
microsoft/bitnet-b1.58-2B-4T
bitnet
["BitNetForCausalLM"]
128256.0
bfloat16
null
2,560
6,912
30.0
20
5
relu2
null
True
4096.0
500000.0
null
1e-05
0.02
128000.0
128001
True
128.0
4.0
136.53333333333333
2.359296
False
False
False
False
False
False
False
False
True
True
True
False
medium
medium
null
configuration_bitnet.BitNetConfig
null
modeling_bitnet.BitNetForCausalLM
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
bitnet
null
null
null
null
null
null
null
null
null
null
null
null
138
ibm-granite/granite-speech-3.3-8b
granite_speech
["GraniteSpeechForConditionalGeneration"]
null
bfloat16
4.52.4
null
null
null
null
null
null
null
null
null
null
null
null
0.02
null
null
null
null
null
null
null
False
False
False
False
False
False
False
False
False
False
False
False
null
short
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
78
SicariusSicariiStuff/Impish_LLAMA_4B
llama
["LlamaForCausalLM"]
128256.0
bfloat16
4.51.3
3,072
9,216
32.0
32
8
silu
0
False
131072.0
500000.0
null
1e-05
0.02
128000.0
128019
False
96.0
4.0
4096.0
3.623878656
True
False
False
False
False
False
False
False
True
True
False
False
medium
very_long
False
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
8
null
null
8192.0
null
null
null
null
null
119
AI-MO/Kimina-Prover-72B
qwen2
["Qwen2ForCausalLM"]
152064.0
bfloat16
4.43.1
8,192
29,568
80.0
64
8
silu
0
True
131072.0
1000000.0
null
1e-06
0.02
151643.0
151645
False
128.0
8.0
1638.4
64.42450944
False
False
False
False
False
False
False
False
True
True
False
False
large
very_long
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
8
microsoft/Phi-4-mini-flash-reasoning
phi4flash
["Phi4FlashForCausalLM"]
200064.0
bfloat16
4.46.1
2,560
10,240
32.0
40
20
silu
0
True
262144.0
null
null
null
0.02
199999.0
199999
True
64.0
2.0
8192.0
2.5165824
False
False
False
False
False
False
False
False
True
False
False
False
medium
very_long
null
configuration_phi4flash.Phi4FlashConfig
null
modeling_phi4flash.Phi4FlashForCausalLM
null
null
null
1e-05
null
null
null
null
null
null
null
null
null
null
199999.0
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
End of preview. Expand in Data Studio
README.md exists but content is empty.
Downloads last month
9