Anthropic’in Claude Opus 4.6 ve Claude Code modellerinde performans düşüşü yaşattığına dair kullanıcı iddiaları ve şirket yanıtları haberimizde.

Yazılım geliştiriciler ve yapay zeka uzmanları, son haftalarda Anthropic’in amiral gemisi modelleri Claude Opus 4.6 ve Claude Code’un performansının kasıtlı olarak düşürüldüğünü iddia ederek sosyal medyada büyük bir tartışma başlattı. GitHub, X ve Reddit üzerinden yayılan şikayetler, Claude’un karmaşık kodlama görevlerinde daha az yetenekli hale geldiği, görevleri yarıda bıraktığı ve token kullanımında verimsizleştiği noktalarına odaklanıyor. Bazı kullanıcılar bu durumu “AI shrinkflation” olarak adlandırırken, Anthropic yetkilileri kapasite yönetimi adına modellerin gizlice kısıtlandığı iddialarını kesin bir dille reddediyor.
- Kullanıcılar Claude modellerinin mantıksal derinliğinin azaldığını ve daha sık hata yaptığını savunuyor.
- Anthropic, performans şikayetlerinin temelinin model zayıflaması değil, arayüz ve varsayılan ayar değişiklikleri olduğunu belirtiyor.
- Araştırmacılar, viral hale gelen bazı kıyaslama testlerinin metodolojik hatalar içerdiğini ifade ediyor.
- Şirket, yüksek talep dönemlerinde kullanıcı deneyimini korumak için oturum limitlerinde düzenlemelere gidildiğini doğruluyor.
Performans Kayıpları Teknik Verilerle Savunuluyor
AMD bünyesinde çalışan bir üst düzey yöneticinin GitHub üzerinden paylaştığı detaylı analiz, Claude Code’un şubat ayından bu yana ciddi bir gerileme yaşadığını öne sürüyor. 6 binden fazla oturum dosyasını inceleyen uzman, modelin mantıksal derinliğinin düştüğünü ve görevleri erken sonlandırma eğiliminin arttığını iddia ediyor. Bu teknik kanıtlar, toplulukta sadece kişisel gözlemlerin ötesinde somut bir veri eksikliği hissini ortadan kaldırarak tartışmayı güçlendirdi.
Teknik veriler, kullanıcıların yaşadığı hayal kırıklığını somut bir kanıt arayışına dönüştürüyor.

Anthropic Değişikliklerin Gerekçelerini Açıklıyor
Anthropic cephesinden gelen açıklamalar, iddiaların merkezine oturuyor. Şirket yetkilileri, Claude Opus 4.6’da yapılan “düşünme” (thinking) güncellemelerinin sadece kullanıcı arayüzünü iyileştirmeye yönelik olduğunu ve modelin temel yeteneklerine dokunulmadığını vurguluyor.
Özellikle varsayılan “çaba düzeyi” (effort level) üzerinde yapılan değişikliklerin, token tüketimini dengelemek amacıyla hayata geçirildiği belirtiliyor. Ancak bu teknik açıklamalar, üründen alınan verimin düştüğünü hisseden kullanıcıları tatmin etmekte zorlanıyor.
Şeffaflık Eksikliği Güven Sorunu Doğuruyor
Şirketin kapasite yönetimi politikaları ve önbellekleme (caching) süreçlerinde yaptığı sessiz güncellemeler, kullanıcılar arasında Anthropic’in gizli kısıtlamalar uyguladığı şüphesini körüklüyor. Geliştiriciler, yaşadıkları performans kayıplarının bir yazılım arızası mı yoksa maliyet tasarrufu hamlesi mi olduğunu anlamakta güçlük çekiyor.
