Küçük ve quantize edilmiş modellere “Bana şu sorunu çöz” demek yerine, “Önce düşün, sonra analiz et, en son çöz” demeniz gerekir. Bu mimariler, modelin çıktı üretirken kendi ürettiği tokenlardan (kelimelerden) güç almasını sağlar.
1. Gizli Karalama Defteri (Thought-Space) Promptu
Küçük modeller, doğrudan sonuca ulaşmaya çalıştıklarında (Zero-Shot) hata yaparlar. Bu prompt, modele XML etiketleri yardımıyla bir “karalama defteri” sunar. Model önce <düşünce_süreci> içinde kendi kendine konuşur, mantığını oturtur ve ancak ondan sonra <nihai_cevap> üretir.
Kullanım Alanı: Karmaşık kod yazımı, veri analizi veya çok adımlı mantık bulmacaları.
Prompt: "Sen analitik düşünen, dikkatli bir sistem asistanısın. Sana verilen görevi yerine getirirken doğrudan cevaba atlamak KESİNLİKLE YASAKTIR.
Görevi çözmeden önce, her bir adımı, olasılıkları ve kullanacağın mantığı <düşünce_süreci> etiketleri arasında adım adım yazarak analiz etmelisin. Bu aşamada kendi hatalarını fark edip düzeltebilirsin. Düşünce sürecin bittikten sonra, kullanıcıya sunacağın asıl ve kesin cevabı <nihai_cevap> etiketleri arasına yaz.
Görev: [Kullanıcı Sorgunuzu Buraya Girin]
Lütfen yanıtına <düşünce_süreci> etiketi ile başla."
2. Formatlı “Few-Shot” (Örnekli) CoT Promptu
Phi-3 gibi 3.8B parametreli çok küçük modeller, uzun ve soyut talimatları (Zero-Shot CoT) işlemekte zorlanabilir. Bu tür modellerde en iyi sonucu, onlara tam olarak ne beklediğinizi gösteren bir “Örnek (Shot)” vererek alırsınız. Bu, modelin “attention” (dikkat) mekanizmasını doğrudan istenen formata kilitler.
Kullanım Alanı: Metin sınıflandırma, duygu analizi, SEO meta veri üretimi.
Prompt: "Aşağıdaki kurala ve örneğe birebir uyarak bana yanıt ver. Çıkarım yaparken daima önce ‘Adım Adım Analiz’ yap.
[ÖRNEK BAŞLANGICI] Soru: ‘E-ticaret sitemin hızı çok yavaş, satışlarım düşüyor.’ cümlesinin intent (kullanıcı niyeti) türü nedir? Adım Adım Analiz:
Kullanıcı bir sorun belirtiyor (hız yavaş).
Bu sorunun ticari bir sonucu var (satışlar düşüyor).
Çözüm arayışında olduğu için bu bir ‘Bilgi/Çözüm Arama’ niyetidir. Sonuç: Bilgi/Çözüm Arama (Informational) [ÖRNEK BİTİŞİ]
Soru: ‘{Kendi_Sorunuzu_Buraya_Yazın}’ Adım Adım Analiz:" (Not: Promptu ‘Adım Adım Analiz:’ diyerek bitirmek, modeli doğrudan sizin istediğiniz formattan üretmeye başlamaya zorlar. Buna ‘Pre-filling’ denir ve küçük modellerde harikalar yaratır.)
3. “Şeytanın Avukatı” (Self-Correction) Promptu
Quantize modeller genellikle bir varsayımda bulunur ve o varsayım yanlış olsa bile sonuna kadar savunurlar (Sycophancy). Bu prompt, modeli kendi verdiği kararı ikinci kez sorgulamaya zorlar. Modelin bağlam penceresinde (Context Window) kendi mantığını çürütmesi sağlanır.
Kullanım Alanı: Strateji oluşturma, rakip analizi, teknik içerik planlama.
Prompt: "Bana ‘{Hedef_Konu}’ hakkında bir strateji sunacaksın. Ancak bu stratejiyi oluştururken şu 3 aşamalı süreci KESİNLİKLE takip etmelisin:
1. İlk Taslak: Konuyla ilgili temel stratejini ve varsayımlarını listele. 2. Şeytanın Avukatı (Kritik Doğrulama): Kendi yazdığın ‘İlk Taslak’ bölümünü acımasızca eleştir. ‘Bu plan neden başarısız olabilir?’, ‘Buradaki mantık hatası nedir?’ sorularını sor ve zayıf noktaları tespit et. 3. Optimize Edilmiş Sonuç: ‘Şeytanın Avukatı’ bölümündeki eleştirileri dikkate alarak, zayıf noktaları giderilmiş, hatasız ve nihai stratejini sun.
Başlıkları tam olarak yukarıdaki gibi (1. İlk Taslak, 2. Şeytanın Avukatı, 3. Optimize Edilmiş Sonuç) kullanarak yanıtını oluştur."
Neden Bu Yaklaşımlar İşe Yarıyor?
Token Tüketimi = Düşünme Süresi: Büyük dil modelleri (LLM) bir cevabı hesaplarken arka planda devasa matris çarpımları yapar. Küçük modellerde bu derinlik azdır. Onlara metin (token) ürettirerek (“Düşünce Süreci” gibi), aslında bir sonraki mantıklı kelimeyi bulmaları için onlara hesaplama alanı (Compute Space) açmış olursunuz.
Format Kısıtlaması: Küçük modeller serbest bırakıldığında konu dışına çıkmaya (Drifting) meyillidir. Markdown başlıkları veya XML etiketleri ile sınırlandırmak, modelin “raydan çıkmasını” engeller.