Gemma 4 26B
Yerelde çalışan güçlü açık kaynak LLM, KVKK uyumlu
Input 70 kredi/1M token
Output 150 kredi/1M token
Hakkında
Gemma 4 26B, Google tarafından geliştirilen orta boy açık kaynak bir yapay zeka modelidir. 26B toplam parametre ile MoE mimarisi kullanır (4B aktif). 256K token bağlam penceresi, görsel ve video girdi desteği, araç kullanımı ve dahili reasoning yeteneklerine sahiptir. Parel platformunda OpenAI uyumlu API ile multimodal chatbot, belge analizi ve içerik üretimi projelerinde kullanılabilir.
Kullanım Alanları
- › Chatbot ve müşteri destek otomasyonu
- › İçerik üretimi ve metin özeti
- › Görsel analiz ve belge okuma (OCR)
- › Video anlama ve görsel soru-cevap
- › RAG (Retrieval-Augmented Generation) sistemleri
- Provider
- Tür
- LLM
- Context
- 262K token
- Model ID
- gemma4-26b
- Input Fiyat
- 70 kredi/1M token
- Output Fiyat
- 150 kredi/1M token
Veri Güvencesi
Veri Lokasyonu
Türkiye
Tüm istekler TR altyapısında işlenir
Regülasyon
KVKK'ya Uygun
Veri yurt dışına çıkmaz, TR'de işlenir
Model Lisansı
Açık Kaynak
Veriye üçüncü taraf erişimi yok
Benzer Modeller
OpenAI SDK ile dakikalar içinde entegre edin.
Authentication #
API anahtarınızı ortam değişkeni olarak tanımlayın.
import os
os.environ["OPENAI_API_KEY"] = "pk-..."Kurulum #
OpenAI SDK'yi yükleyin.
pip install openaiChat Completions #
Temel sohbet tamamlama isteği.
from openai import OpenAI
client = OpenAI(
base_url="https://api.parel.cloud/v1",
api_key="pk-...",
)
response = client.chat.completions.create(
model="gemma4-26b",
messages=[
{"role": "user", "content": "Merhaba!"}
],
)
print(response.choices[0].message.content)Streaming #
Yanıtları token token akın halinde alın.
from openai import OpenAI
client = OpenAI(
base_url="https://api.parel.cloud/v1",
api_key="pk-...",
)
stream = client.chat.completions.create(
model="gemma4-26b",
messages=[
{"role": "user", "content": "Türkiye'nin başkenti neresidir?"}
],
stream=True,
)
for chunk in stream:
content = chunk.choices[0].delta.content
if content:
print(content, end="", flush=True)System Prompt #
Modelin davranisini system mesajiyla yonlendirin.
from openai import OpenAI
client = OpenAI(
base_url="https://api.parel.cloud/v1",
api_key="pk-...",
)
response = client.chat.completions.create(
model="gemma4-26b",
messages=[
{
"role": "system",
"content": "Sen yardimci bir Turkce asistansin. Kisa ve net cevaplar ver."
},
{
"role": "user",
"content": "KVKK nedir?"
}
],
)
print(response.choices[0].message.content)Parametreler #
Yanıt kalitesini ve çeşitliliğini ayarlayın.
from openai import OpenAI
client = OpenAI(
base_url="https://api.parel.cloud/v1",
api_key="pk-...",
)
response = client.chat.completions.create(
model="gemma4-26b",
messages=[
{"role": "user", "content": "Yaratici bir hikaye yaz."}
],
temperature=0.9, # 0-2: dusuk = deterministik, yuksek = yaratici
max_tokens=2048, # maksimum cikti token sayisi
top_p=0.95, # nucleus sampling esigi
)
print(response.choices[0].message.content)Kayıt olun, API anahtarınızı alın.