Transformers
Safetensors
English
Japanese
text-generation-inference
unsloth
llama
trl
Inference Endpoints
rlcgn589 commited on
Commit
2feaf31
·
verified ·
1 Parent(s): ee2684c

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +21 -3
README.md CHANGED
@@ -27,10 +27,12 @@ This llama model was trained 2x faster with [Unsloth](https://github.com/unsloth
27
 
28
  # Usage(Code for inference)
29
  本モデルを用いてELYZA-tasks-100-TVの出力を得るためのコードです。
30
- なお、松尾研LLM講座2024の最終コンペ課題の提出物を得ることを目的としたコードです。そのため、コンペの評価用途以外は使用禁止とします。
31
  このコードで生成されたjsonlファイルは課題の成果として提出可能なフォーマットになっています。
32
 
33
  ## 環境構築
 
 
34
  omnicampus環境下で事前にterminalで環境構築の必要があります。
35
  ```
36
  # conda環境の構築
@@ -56,6 +58,17 @@ conda install -c conda-forge ipykernel -y
56
  python -m ipykernel install --user --name=unsloth_env --display-name "Python (unsloth_env)"
57
  ```
58
 
 
 
 
 
 
 
 
 
 
 
 
59
  ## 推論用コードの実行
60
  ```python
61
  # 必要なライブラリを読み込み
@@ -68,11 +81,15 @@ import re
68
 
69
  # ベースとなるモデルと学習したLoRAのアダプタ。
70
  # model_idの値はomnicampusの環境におけるモデルのパスを表しており、それ以外の環境で実行する場合は変更の必要があります。
71
- model_id = "models/models--llm-jp--llm-jp-3-13b/snapshots/cd3823f4c1fcbb0ad2e2af46036ab1b0ca13192a"
 
72
  adapter_id = "rlcgn589/llm-jp-3-13b-it-12_lora"
73
 
74
  # Hugging Face Token を指定。
75
- HF_TOKEN = "your Hugging Face Token"
 
 
 
76
 
77
  # unslothのFastLanguageModelで元のモデルをロード。
78
  dtype = None # Noneにしておけば自動で設定
@@ -90,6 +107,7 @@ model = PeftModel.from_pretrained(model, adapter_id, token = HF_TOKEN)
90
 
91
  # データセットの読み込み。
92
  # omnicampusの開発環境では、左にタスクのjsonlをドラッグアンドドロップしてから実行。
 
93
  datasets = []
94
  with open("./elyza-tasks-100-TV_0.jsonl", "r") as f:
95
  item = ""
 
27
 
28
  # Usage(Code for inference)
29
  本モデルを用いてELYZA-tasks-100-TVの出力を得るためのコードです。
30
+ なお、[松尾研LLM講座2024](https://weblab.t.u-tokyo.ac.jp/lecture/course-list/large-language-model/)の最終コンペ課題の提出物を得ることを目的としたコードです。そのため、コンペの評価用途以外は使用禁止とします。
31
  このコードで生成されたjsonlファイルは課題の成果として提出可能なフォーマットになっています。
32
 
33
  ## 環境構築
34
+ omnicampusとGoogle Colab下での環境構築方法は以下の通りです。
35
+ ### omnicampus
36
  omnicampus環境下で事前にterminalで環境構築の必要があります。
37
  ```
38
  # conda環境の構築
 
58
  python -m ipykernel install --user --name=unsloth_env --display-name "Python (unsloth_env)"
59
  ```
60
 
61
+ ### Google Colab
62
+ Google Colab環境下で推論前に環境構築の必要があります。
63
+ 以下に示す推論用コードはRuntime TypeとしてPython 3、Hardware acceleratorとしてT4 GPU以上を想定しています。
64
+
65
+ ```
66
+ !pip install unsloth
67
+ !pip uninstall unsloth -y && pip install --upgrade --no-cache-dir "unsloth[colab-new] @ git+https://github.com/unslothai/unsloth.git"
68
+ !pip install -U torch
69
+ !pip install -U peft
70
+ ```
71
+
72
  ## 推論用コードの実行
73
  ```python
74
  # 必要なライブラリを読み込み
 
81
 
82
  # ベースとなるモデルと学習したLoRAのアダプタ。
83
  # model_idの値はomnicampusの環境におけるモデルのパスを表しており、それ以外の環境で実行する場合は変更の必要があります。
84
+ model_id = "models/models--llm-jp--llm-jp-3-13b/snapshots/cd3823f4c1fcbb0ad2e2af46036ab1b0ca13192a" # omnicampus環境の場合
85
+ model_id = "llm-jp/llm-jp-3-13b" # Google Colab環境の場合
86
  adapter_id = "rlcgn589/llm-jp-3-13b-it-12_lora"
87
 
88
  # Hugging Face Token を指定。
89
+ HF_TOKEN = "your Hugging Face Token" # omnicampus環境の場合
90
+
91
+ from google.colab import userdata
92
+ HF_TOKEN = userdata.get('HF_TOKEN') # Google Colab環境の場合
93
 
94
  # unslothのFastLanguageModelで元のモデルをロード。
95
  dtype = None # Noneにしておけば自動で設定
 
107
 
108
  # データセットの読み込み。
109
  # omnicampusの開発環境では、左にタスクのjsonlをドラッグアンドドロップしてから実行。
110
+ # Google Colab環境下では、左のファイルアイコンをクリックしタスクのjsonlをドラッグアンドドロップしてから実行。
111
  datasets = []
112
  with open("./elyza-tasks-100-TV_0.jsonl", "r") as f:
113
  item = ""