Update README.md
Browse files
README.md
CHANGED
@@ -15,6 +15,37 @@ new_version: CarrotAI/Llama-3.2-Rabbit-Ko-3B-Instruct-2412
|
|
15 |
|
16 |

|
17 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
18 |
## Score
|
19 |
|
20 |
|Tasks|Version| Filter |n-shot| Metric | |Value | |Stderr|
|
|
|
15 |
|
16 |

|
17 |
|
18 |
+
## Model Description
|
19 |
+
|
20 |
+
### Model Details
|
21 |
+
- **Name**: Carrot Llama-3.2 Rabbit Ko
|
22 |
+
- **Version**: 3B Instruct
|
23 |
+
- **Base Model**: CarrotAI/Llama-3.2-Rabbit-Ko-3B-Instruct
|
24 |
+
- **Languages**: Korean, English
|
25 |
+
- **Model Type**: Large Language Model (Instruction-tuned)
|
26 |
+
|
27 |
+
### Training Process
|
28 |
+
본 모델은 다음과 같은 주요 훈련 단계를 거쳤습니다:
|
29 |
+
|
30 |
+
1. **SFT (Supervised Fine-Tuning)**
|
31 |
+
- 고품질 한국어 및 영어 데이터셋을 사용하여 기본 모델을 세부 조정
|
32 |
+
|
33 |
+
### Limitations
|
34 |
+
- 3B 파라미터 규모로 인한 복잡한 작업에서의 제한적 성능
|
35 |
+
- 특정 도메인에 대한 깊이 있는 전문성 부족
|
36 |
+
- 편향성 및 환각 가능성
|
37 |
+
|
38 |
+
### Ethics Statement
|
39 |
+
모델 개발 과정에서 윤리적 고려사항을 최대한 반영하였으나, 사용자는 항상 결과를 비판적으로 검토해야 합니다.
|
40 |
+
|
41 |
+
### How to Use
|
42 |
+
```python
|
43 |
+
from transformers import AutoModelForCausalLM, AutoTokenizer
|
44 |
+
|
45 |
+
model = AutoModelForCausalLM.from_pretrained("CarrotAI/Llama-3.2-Rabbit-Ko-3B-Instruct")
|
46 |
+
tokenizer = AutoTokenizer.from_pretrained("CarrotAI/Llama-3.2-Rabbit-Ko-3B-Instruct")
|
47 |
+
```
|
48 |
+
|
49 |
## Score
|
50 |
|
51 |
|Tasks|Version| Filter |n-shot| Metric | |Value | |Stderr|
|