Qwen2.5-3B-Turkish-Instruct-GRPO

Model Description

Qwen2.5-3B-Turkish-Instruct-GRPO is a 3B-parameter Turkish instruction-tuned language model, fine-tuned using GRPO (Group Relative Policy Optimization) techniques for better efficiency and response quality.

Model Details

  • Base Model: Qwen2.5-3B-Instructions
  • Fine-tuned with GRPO and LoRa (Low-Rank Adaptation)
  • Context Window: 2048 tokens
  • Fine-tuned on an L4 GPU for 10 hours

Usage

Install Dependencies

%%capture
# Skip restarting message in Colab
import sys; modules = list(sys.modules.keys())
for x in modules: sys.modules.pop(x) if "PIL" in x or "google" in x else None

!pip install unsloth vllm
!pip install --upgrade pillow
from unsloth import FastLanguageModel
from unsloth import is_bfloat16_supported
import torch

# Model parameters
max_seq_length = 2048  
lora_rank = 64  

# Load the model
model, tokenizer = FastLanguageModel.from_pretrained(
    model_name="erythropygia/Qwen2.5-3B-Instruct-Turkish-GRPO",
    max_seq_length=max_seq_length,
    load_in_4bit=True,
    fast_inference=True,
    max_lora_rank=lora_rank,
    #gpu_memory_utilization=0.35,  # Adjust based on your GPU's VRAM. If you don't have enough, keep this line in the description.
)

# Example input
SYSTEM_PROMPT = """
Respond in the following format:
<reasoning>
...
</reasoning>
<answer>
...
</answer>
"""

text = tokenizer.apply_chat_template([
    {"role": "system", "content": SYSTEM_PROMPT},
    {"role": "user", "content": "Bana golangda echo frameworkünde nasıl auth mekanizması kuracağımı anlatır mısın?"},
], tokenize=False, add_generation_prompt=True)

from vllm import SamplingParams
# Sampling parameters
sampling_params = SamplingParams(
    temperature=0.8,
    top_p=0.95,
    max_tokens=1024,
)

# Generate response
output = model.fast_generate(
    [text],
    sampling_params=sampling_params,
    lora_request=None,
)[0].outputs[0].text

print(output)


# Generate response
output = model.fast_generate(
    [text],
    sampling_params=sampling_params,
    lora_request=None,
)[0].outputs[0].text

print(output)

Response:

<reasoning>
Bu sorun, Go dilinde Echo frameworkinin yapıcı ve mekanizmalarla ile ilgili bir genel anlatım gerektiriyor. Echo, Go dilinde oldukça popüler bir web frameworkdir ve kullanıcı oturum yönetimi gibi özel işlevler için mevcut mekanizmalarla veya özel bir arayüzü kurarak desteklenir. Bu soruya cevap vermek için genel bir genel anlatım yapmak gerekir. Echo'nun bir auth mekanizması kurulumunu anlatacağım.
</reasoning>
<answer>
Echo'nun kullanıcı oturumunu yönetme (auth) mekanizmasını kurulumunu göstermek için aşağıdaki adımları takip edebilirsiniz:

1. **Install Echo:** İlk olarak, Echo'nun dependencies'ini yüklemeniz gerekecek. Terminalde aşağıdaki komutu çalıştırabilirsiniz:

   go get -u github.com/labstack/echo

2. **Kullanıcı Bilgilerini Alma:** Örneğimizde bir kullanıcı ismi, parola ve rollü gibi bilgileri kullanıcıdan almak gerekecek. Bu bilgileri bir değişkene atayarak alabilirsiniz.

3. **Kullanıcı Bilgilerini Kısıt:** Kullanıcı giriş bilgilerinin doğruluğunu kontrol ederek, belirli bir koşullara sahip olup olmadığını doğrulayabilirsiniz. Örneğimizde, bir kullanıcı ve parola gibi bilgileri karşılaştırmak gerekecek.

4. **Token Sıfırlama:** Eğer kullanıcı doğrulanmışsa, bir token (örneğin JWT) oluşturup, onu kullanıcıya aktarabilirsiniz. Bu token, sisteme giriş yapma ve bilgileri görüntülemeyi sağlar.

5. **Token Kontrolü:** Kullanıcı bir belirli bir adrese erişmeye çalışırsa, onu doğrulamanız gerekecek. Tokenin doğruluğunu ve kapsayacak alanları kontrol edebilirsiniz.

6. **İşlevselliğe Dönmek:** Kullanıcı giriş bilgileri doğrulanmışsa, bir ana işlev çağrısını yapan bir buton veya sayfaya yönlendirin.

Bu adımları izleyerek, Echo frameworkine auth mekanizması kurulabilir. Echo, bu adımları otomatik olarak gerçekleştirmeyi sağlayabilir, ancak hangi adımları uygulamak istiyorsanız, belirli bir mazerette veya özel arayüzde bu işlemler için bir mekanizma oluşturabilirsiniz. Bunun yanı sıra, Echo'nun OAuth2 gibi en son oturum yönetimi mekanizmasını kullanarak daha fazla kompakt bir çözüme sahip olabilirsiniz.
</answer>
Downloads last month
33
Safetensors
Model size
3.09B params
Tensor type
BF16
·
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API: The model has no library tag.

Model tree for erythropygia/Qwen2.5-3B-Instruct-Turkish-GRPO

Base model

Qwen/Qwen2.5-3B
Finetuned
(154)
this model
Quantizations
1 model