CarrotAI commited on
Commit
5be46c7
·
verified ·
1 Parent(s): 7232fbd

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +31 -0
README.md CHANGED
@@ -15,6 +15,37 @@ new_version: CarrotAI/Llama-3.2-Rabbit-Ko-3B-Instruct-2412
15
 
16
  ![image/webp](https://cdn-uploads.huggingface.co/production/uploads/64633ebb39359568c63b52ad/VMYmYpoc0pQVSgZI0kme0.webp)
17
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
18
  ## Score
19
 
20
  |Tasks|Version| Filter |n-shot| Metric | |Value | |Stderr|
 
15
 
16
  ![image/webp](https://cdn-uploads.huggingface.co/production/uploads/64633ebb39359568c63b52ad/VMYmYpoc0pQVSgZI0kme0.webp)
17
 
18
+ ## Model Description
19
+
20
+ ### Model Details
21
+ - **Name**: Carrot Llama-3.2 Rabbit Ko
22
+ - **Version**: 3B Instruct
23
+ - **Base Model**: CarrotAI/Llama-3.2-Rabbit-Ko-3B-Instruct
24
+ - **Languages**: Korean, English
25
+ - **Model Type**: Large Language Model (Instruction-tuned)
26
+
27
+ ### Training Process
28
+ 본 모델은 다음과 같은 주요 훈련 단계를 거쳤습니다:
29
+
30
+ 1. **SFT (Supervised Fine-Tuning)**
31
+ - 고품질 한국어 및 영어 데이터셋을 사용하여 기본 모델을 세부 조정
32
+
33
+ ### Limitations
34
+ - 3B 파라미터 규모로 인한 복잡한 작업에서의 제한적 성능
35
+ - 특정 도메인에 대한 깊이 있는 전문성 부족
36
+ - 편향성 및 환각 가능성
37
+
38
+ ### Ethics Statement
39
+ 모델 개발 과정에서 윤리적 고려사항을 최대한 반영하였으나, 사용자는 항상 결과를 비판적으로 검토해야 합니다.
40
+
41
+ ### How to Use
42
+ ```python
43
+ from transformers import AutoModelForCausalLM, AutoTokenizer
44
+
45
+ model = AutoModelForCausalLM.from_pretrained("CarrotAI/Llama-3.2-Rabbit-Ko-3B-Instruct")
46
+ tokenizer = AutoTokenizer.from_pretrained("CarrotAI/Llama-3.2-Rabbit-Ko-3B-Instruct")
47
+ ```
48
+
49
  ## Score
50
 
51
  |Tasks|Version| Filter |n-shot| Metric | |Value | |Stderr|