Türkçe düşünebilme ve zincirleme akıl yürütme (chain-of-thought reasoning) yeteneğiyle öne çıkan model, aynı testte yüzde 66,13 doğruluk elde eden 70 milyar parametreli Llama-3.1-70B ile yüzde 63,10 doğruluk oranına sahip Gemma-2-9B modelini performans açısından geçti. Böylece Cosmos T1, parametre sayısı açısından yaklaşık sekiz kat büyük modellerle rekabet edebilecek seviyeye ulaştı.
Çalışma, Yıldız Teknik Üniversitesi Bilgisayar Mühendisliği ile Yapay Zeka ve Veri Mühendisliği Bölümü Öğretim Üyesi Prof. Dr. Mehmet Fatih Amasyalı öncülüğünde akademisyenlerden oluşan Cosmos ekibi tarafından yürütüldü. Modelin, matematik problemlerini çözerken düşünce sürecini adım adım ortaya koyabildiği ve bu yaklaşımın performansı önemli ölçüde artırdığı belirtildi.
Cosmos T1'in, Google'ın Gemma 2 modeli temel alınarak geliştirildiğini ancak Türkçe yetkinliğinin kapsamlı biçimde iyileştirildiğini ifade eden Amasyalı, modelin klasik soru-cevap sistemlerinden farklı olarak önce 'düşünme', ardından 'yanıt üretme' aşamasıyla çalıştığını kaydetti.
Amasyalı, modelin açık ağırlıklı (open-weight) olarak yayımlandığını belirterek, kurum ve şirketlerin sistemi kendi bilgisayarlarına indirerek şirket içi (on-premise) çözümler geliştirebildiğini söyledi. Özellikle sağlık ve savunma sanayi gibi veri paylaşımının sınırlı olduğu sektörler için bu yaklaşımın kritik öneme sahip olduğu vurgulandı.
İki farklı erişim yöntemi bulunduğunu aktaran Amasyalı, kullanıcıların modele çevrim içi platform üzerinden ulaşabildiğini ya da açık kaynak ağırlıkları indirerek kendi altyapılarına entegre edebildiğini dile getirdi. Geliştirme sürecinin TÜBİTAK projeleri kapsamında desteklendiği, Türkçe iyileştirme maliyetlerinin de bu kapsamda karşılandığı bildirildi.
Yoğun bir eğitim süreciyle modelin 'düşünmeyen' yapıdan 'düşünen' yapıya dönüştürüldüğünü belirten Amasyalı, elde edilen başarının sosyal medyada da geniş yankı uyandırdığını ifade etti. (İLKHA)




