Update README.md
Browse files
README.md
CHANGED
@@ -27,10 +27,12 @@ This llama model was trained 2x faster with [Unsloth](https://github.com/unsloth
|
|
27 |
|
28 |
# Usage(Code for inference)
|
29 |
本モデルを用いてELYZA-tasks-100-TVの出力を得るためのコードです。
|
30 |
-
|
31 |
このコードで生成されたjsonlファイルは課題の成果として提出可能なフォーマットになっています。
|
32 |
|
33 |
## 環境構築
|
|
|
|
|
34 |
omnicampus環境下で事前にterminalで環境構築の必要があります。
|
35 |
```
|
36 |
# conda環境の構築
|
@@ -56,6 +58,17 @@ conda install -c conda-forge ipykernel -y
|
|
56 |
python -m ipykernel install --user --name=unsloth_env --display-name "Python (unsloth_env)"
|
57 |
```
|
58 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
59 |
## 推論用コードの実行
|
60 |
```python
|
61 |
# 必要なライブラリを読み込み
|
@@ -68,11 +81,15 @@ import re
|
|
68 |
|
69 |
# ベースとなるモデルと学習したLoRAのアダプタ。
|
70 |
# model_idの値はomnicampusの環境におけるモデルのパスを表しており、それ以外の環境で実行する場合は変更の必要があります。
|
71 |
-
model_id = "models/models--llm-jp--llm-jp-3-13b/snapshots/cd3823f4c1fcbb0ad2e2af46036ab1b0ca13192a"
|
|
|
72 |
adapter_id = "rlcgn589/llm-jp-3-13b-it-12_lora"
|
73 |
|
74 |
# Hugging Face Token を指定。
|
75 |
-
HF_TOKEN = "your Hugging Face Token"
|
|
|
|
|
|
|
76 |
|
77 |
# unslothのFastLanguageModelで元のモデルをロード。
|
78 |
dtype = None # Noneにしておけば自動で設定
|
@@ -90,6 +107,7 @@ model = PeftModel.from_pretrained(model, adapter_id, token = HF_TOKEN)
|
|
90 |
|
91 |
# データセットの読み込み。
|
92 |
# omnicampusの開発環境では、左にタスクのjsonlをドラッグアンドドロップしてから実行。
|
|
|
93 |
datasets = []
|
94 |
with open("./elyza-tasks-100-TV_0.jsonl", "r") as f:
|
95 |
item = ""
|
|
|
27 |
|
28 |
# Usage(Code for inference)
|
29 |
本モデルを用いてELYZA-tasks-100-TVの出力を得るためのコードです。
|
30 |
+
なお、[松尾研LLM講座2024](https://weblab.t.u-tokyo.ac.jp/lecture/course-list/large-language-model/)の最終コンペ課題の提出物を得ることを目的としたコードです。そのため、コンペの評価用途以外は使用禁止とします。
|
31 |
このコードで生成されたjsonlファイルは課題の成果として提出可能なフォーマットになっています。
|
32 |
|
33 |
## 環境構築
|
34 |
+
omnicampusとGoogle Colab下での環境構築方法は以下の通りです。
|
35 |
+
### omnicampus
|
36 |
omnicampus環境下で事前にterminalで環境構築の必要があります。
|
37 |
```
|
38 |
# conda環境の構築
|
|
|
58 |
python -m ipykernel install --user --name=unsloth_env --display-name "Python (unsloth_env)"
|
59 |
```
|
60 |
|
61 |
+
### Google Colab
|
62 |
+
Google Colab環境下で推論前に環境構築の必要があります。
|
63 |
+
以下に示す推論用コードはRuntime TypeとしてPython 3、Hardware acceleratorとしてT4 GPU以上を想定しています。
|
64 |
+
|
65 |
+
```
|
66 |
+
!pip install unsloth
|
67 |
+
!pip uninstall unsloth -y && pip install --upgrade --no-cache-dir "unsloth[colab-new] @ git+https://github.com/unslothai/unsloth.git"
|
68 |
+
!pip install -U torch
|
69 |
+
!pip install -U peft
|
70 |
+
```
|
71 |
+
|
72 |
## 推論用コードの実行
|
73 |
```python
|
74 |
# 必要なライブラリを読み込み
|
|
|
81 |
|
82 |
# ベースとなるモデルと学習したLoRAのアダプタ。
|
83 |
# model_idの値はomnicampusの環境におけるモデルのパスを表しており、それ以外の環境で実行する場合は変更の必要があります。
|
84 |
+
model_id = "models/models--llm-jp--llm-jp-3-13b/snapshots/cd3823f4c1fcbb0ad2e2af46036ab1b0ca13192a" # omnicampus環境の場合
|
85 |
+
model_id = "llm-jp/llm-jp-3-13b" # Google Colab環境の場合
|
86 |
adapter_id = "rlcgn589/llm-jp-3-13b-it-12_lora"
|
87 |
|
88 |
# Hugging Face Token を指定。
|
89 |
+
HF_TOKEN = "your Hugging Face Token" # omnicampus環境の場合
|
90 |
+
|
91 |
+
from google.colab import userdata
|
92 |
+
HF_TOKEN = userdata.get('HF_TOKEN') # Google Colab環境の場合
|
93 |
|
94 |
# unslothのFastLanguageModelで元のモデルをロード。
|
95 |
dtype = None # Noneにしておけば自動で設定
|
|
|
107 |
|
108 |
# データセットの読み込み。
|
109 |
# omnicampusの開発環境では、左にタスクのjsonlをドラッグアンドドロップしてから実行。
|
110 |
+
# Google Colab環境下では、左のファイルアイコンをクリックしタスクのjsonlをドラッグアンドドロップしてから実行。
|
111 |
datasets = []
|
112 |
with open("./elyza-tasks-100-TV_0.jsonl", "r") as f:
|
113 |
item = ""
|