Blog'a Dön
AI Çağı

AI Ajanlarının Hafıza Problemi: Neden Sıfırdan Bir Bilişsel Mimari Tasarladık

LLM ajanları hafızasız çalışıyor. Her konuşma sıfırdan başlıyor. Biz Kahneman, Ebbinghaus ve McClelland'ın bilişsel modellerini production'da çalışan bir hafıza mimarisine dönüştürdük.

Cem Karaca
Cem Karaca
Girişimci, VeriTeknik kurucusu
5 Nisan 2026
16 dk okuma
AI Ajanlarının Hafıza Problemi: Neden Sıfırdan Bir Bilişsel Mimari Tasarladık

CogMem-AI — 140 yıllık bilişsel bilimi, production'da çalışan bir hafıza mimarisine dönüştürdük


Morpheus, VeriTeknik'in AI asistanı. Kurumsal müşterilerimize hizmet veriyor. Sunucu yönetiminden faturalama sorusuna, DNS konfigürasyonundan toplantı planlamaya kadar her şeyi doğal dille hallediyor. 30'dan fazla aracı var, 14 dış entegrasyonu var, 6 farklı kanaldan ulaşılabiliyor.

Ama bir problemi vardı: hafızası yoktu.

Pazartesi günü müşteri diyor ki: "Sunucuyu gece restart etme, geçen sefer her şey alt üst oldu." Morpheus bunu duyuyor, belki o konuşmada kullanıyor. Çarşamba günü aynı şirketten başka biri yazıyor: "Gece bakım penceresi açalım, sunucuları yeniden başlatalım." Morpheus "tamam" diyor. Çünkü pazartesiyi hatırlamıyor. Çünkü o konuşma bitti, context window kapandı, bilgi uçtu.

Bu bir edge case değil. Bu, bugün piyasadaki tüm AI ajanlarının temel yapısal problemi.

LLM'lerin context window'u hafıza değil. Baddeley'in 2000 yılında tanımladığı "working memory" — çalışma belleği. Konuşma süresince tutulan, konuşma bitince silinen geçici bir alan. İnsan beyninde de bu alan sınırlıdır (Cowan'ın 4±1 chunk kuralı). Ama insan beyni sadece çalışma belleğinden ibaret değil. Uzun süreli hafıza var, alışkanlıklar var, travmalar var, içgüdüler var. Context window bunların hiçbirini karşılamıyor.

"Ama RAG var" diyeceksiniz. RAG bir arama motoru, hafıza değil. Hafıza yaşar: güçlenir, zayıflar, dönüşür, ölür. RAG'a "geçen hafta söylediğimi hatırlıyor musun?" diye soramazsınız — çünkü o hatırlamıyor, arıyor. Arama ile hatırlama arasındaki fark, Google ile insan beyni arasındaki fark kadardır.

Her konuşmanın sıfırdan başlamasının iş etkisi büyük. Müşteri kendini tekrar ediyor. Güven kaybediyor. "Bu kadar akıllı olacaktı, geçen söylediklerimi bile bilmiyor" diyor. Ve haklı.

Biz bu problemi Morpheus'ta yaşadık. Production ortamında, gerçek müşterilerle, her gün. Çözmeye karar verdik. Ama çözerken fark ettik ki, bu basit bir "veritabanına kaydet" problemi değil.


"SQL'e Kaydet" — İlk Düşünceniz, Bizim de Öyleydi

Hafıza problemiyle ilk karşılaştığınızda aklınıza gelen çözüm muhtemelen şu:


-- Naif hafıza: kaydet ve geri getir
INSERT INTO memories (user_id, content, created_at)
VALUES ('musteri-abc', 'Sunucuyu gece restart etme', NOW());

-- Her konuşmada:
SELECT * FROM memories WHERE user_id = 'musteri-abc'
ORDER BY created_at DESC LIMIT 50;

Basit. Çalışır. Biz de buradan başladık. Plugged.in platformunda üç katmanlı bir hafıza prototipi kurduk — Redis ile kısa dönem, PostgreSQL ile orta dönem, pgvector ile semantik arama. Bin'in üzerinde kullanıcıda çalıştırdık. İşe yaradı, bir yere kadar.

Sonra yaramadı. Çünkü bu yaklaşımın altı tane yapısal problemi var ve hiçbiri "daha iyi SQL yazmakla" çözülmüyor:

Hepsi eşit öncelikli. "Benim adım Cem" ile "Geçen ay cascade failure yaşadık, 4 saat kesinti oldu" aynı tabloda, aynı ağırlıkta duruyor. Ama insan beyninde böyle değil. Travmatik olaylar — şoklar — her zaman önde. Adınızı soran olmasa hatırlamaya bile gerek yok, ama o cascade failure'ı her sunucu konuşmasında hatırlamak zorundasınız.

Signal-to-noise ratio düşer. 500 hafıza biriktiğinde ne yapacaksınız? Hepsini LLM'in context window'una doldurmak token bütçesini patlatır. Son 50 tanesini mi çekeceksiniz? Ya kritik sinyal — 6 ay önce kaydedilmiş bir güvenlik kuralı — o 50'nin içinde değilse? Kronolojik sıralama, önem sıralaması değildir. Hafıza büyüdükçe noise artar, signal aynı kalır. SNR düştükçe ajanın cevap kalitesi düşer. Bu bilgi teorisinin temel problemi — ve "LIMIT 50" bir çözüm değil.

Unutmayı bilmiyor. İki yıl önce geçerli olan "staging sunucu IP'si: 192.168.1.50" hâlâ duruyor. Sunucu çoktan değişti ama kimse o kaydı silmedi. Morpheus müşteriye yanlış IP veriyor. İnsan beyni kullanılmayan bilgiyi zamanla zayıflatır ve unutur — bu bir bug değil, feature.

Pekiştirme yok. Her toplantıda hatırlanan ve doğru sonuç veren bir bilgi ile bir kez söylenip bir daha hiç kullanılmayan bir bilgi aynı statüde. İnsan böyle çalışmıyor. Tekrar edilen, işe yarayan bilgi güçlenir. Kullanılmayan bilgi solar.

Bağlam filtresi yok. Müşteri sunucu sorunu soruyor, ama prompt'a fatura bilgileri, domain notları, geçmiş toplantı kayıtları da dolduruluyor. Gürültü artıyor, doğruluk düşüyor, token israf ediliyor. Beyin sunucu konuşurken fatura hafızalarını aktive etmez — bir dikkat mekanizması var.

Denetim izi yok. PCI-DSS denetiminde "ajanınız neden bu kararı verdi? Hangi bilgiye dayanarak?" sorusuna cevap veremiyorsunuz. Düz bir SQL tablosu audit trail değil. Biz PCI-DSS konusunda bir girişim çıkarmış, Türkiye'nin ilk Level 1 service provider'ı olmuş bir firmayız — bu soru bizi doğrudan ilgilendiriyor.

Bu altı problem tek tek çözülebilir gibi görünüyor. Bir priority sütunu eklersiniz, bir TTL koyarsınız, bir tag sistemi kurarsınız. Ama yaptığınız her ekleme, diğer bir problemi karmaşıklaştırır. Sonunda elinizde bir hafıza sistemi değil, üst üste yığılmış yamalar oluyor.

Biz de o noktaya geldik. Sonra durduk ve soruyu değiştirdik: "Hafıza sistemi nasıl çalışmalı?" yerine "hafıza nasıl çalışıyor?" diye sorduk. Bilişsel bilime baktık.


Hafıza Nasıl Çalışır: Bilişsel Bilim Modeli

Soruyu değiştirince cevap da değişti. "Veritabanında hafızayı nasıl saklarız?" yerine "insan hafızası nasıl çalışır ve bunu yazılıma nasıl çeviririz?" diye sorduk. Üç teorik temel bulduk.

Kahneman - Sistem 1 ve Sistem 2 (2011). Daniel Kahneman "Thinking, Fast and Slow" kitabında insan düşüncesini iki kanala ayırır. Sistem 1 hızlıdır, otomatiktir, reflekstir: birisi "sunucu" dediğinde beyniniz anında sunucuyla ilgili bilgileri aktive eder. Sistem 2 yavaştır, analitiktir: "Bu müşterinin son 6 aydaki tüm sunucu sorunlarını analiz et" dediğinizde devreye girer. Mühendis diliyle söylersek: Sistem 1 bir index lookup, Sistem 2 bir full table scan. İkisi de lazım, ama farklı zamanlarda.

McClelland - Tamamlayıcı Öğrenme Sistemleri (1995). McClelland ve arkadaşları, beynin yeni bilgiyi neden hemen kalıcı hafızaya yazmadığını araştırdı. Cevap: yeni bilgi önce geçici bir tampona girer — hipokampüs. Tekrar tekrar hatırlanırsa ve işe yararsa, kalıcı hafızaya — neokortekse — taşınır. Hemen yazmama sebebi, yanlış veya geçici bilginin kalıcı hafızayı kirletmemesi. Git analojisiyle düşünün: yeni bilgi staging area'ya girer. Tekrar tekrar commit edilirse, review geçerse, main branch'e merge olur. Geçmezse — discard.

Ebbinghaus — Unutma Eğrisi (1885). Hermann Ebbinghaus 140 yıl önce şunu keşfetti: kullanılmayan bilgi zamanla üstel olarak zayıflar. Ama her hatırlama eğriyi sıfırlar — bilgi tekrar güçlenir. Bu, doğanın garbage collection mekanizması. Kullanılmayan bilgi yer kaplamaya devam etmesin diye zamanla silinir. Ama sık kullanılan bilgi silinmez, güçlenir.

Bu üç teori bir araya gelince fark ettik: bu tam olarak bir yazılım mimarisi problemi. Hızlı kanal / yavaş kanal ayrımı. Geçici tampon / kalıcı depo ayrımı. Pekiştirme ile güçlenme, kullanılmama ile zayıflama. Halkalar, eşikler, tetikleyiciler, yaşam döngüsü yönetimi.

Bir mühendislik firması olarak olaylara zaten analitik bakıyoruz. Bu modelleri okuyunca gördük ki, bilişsel bilimin tanımladığı hafıza yapısı aslında implementasyon bekleyen bir spesifikasyon.

İlk defa Eylül 2025'te bu vizyonu plugged.in için bir Medium yazısında anlattım. Bir kağıda oturup kendi hafızamın nasıl çalıştığını çizdim — Focus Agent merkezde, etrafında Fresh Memory, Memory Ring, Gut Agent. O yazıdaki konsantrik halkalar felsefi bir çerçeveydi. Şimdi anlatacağım CogMem-AI ise o çerçevenin somut implementasyonu: BIOS katmanı eklendi, pekiştirme motoru tasarlandı, Kahneman'ın Sistem 1/2'si gerçek bir Focus Agent'a dönüştü, Ebbinghaus'un unutma eğrisi bir nightly cron job oldu. Vizyon aynı, mühendislik yeni.

Ama asıl kırılma noktası, mimariyi düşünürken hayatımın içinden gelen analojilerdi.

Bir gün aklıma bir bebek geldi. Yeni doğan bir bebek annesini emmeyi biliyor. Kimse öğretmiyor. Bu refleks, genetik olarak kodlanmış bir davranış — firmware. Sonra fark ettim: bir AI ajanının da değişmez prensiplere ihtiyacı var. "Kart verisi asla loglanmaz" gibi bir kural öğrenilmemeli, yerleşik gelmeli. Tıpkı bir bebeğin emme refleksi gibi. Böylece BIOS katmanı doğdu — Medium yazısındaki "Policies" kavramının çok daha sert, çok daha net bir versiyonu.

Sonra kızlarıma bir şey anlatırken yakaladım kendimi. Onlara bir konu açıyorum, diyorlar ki "baba daha bunu görmedik okulda." Ben de diyorum ki: "Şimdi anlamanız önemli değil. Ama okulda duyduğunuzda beyninizde bir kıvılcım olacak. 'Aaa' anı yaşayacaksınız. O an pekiştireceksiniz ve senelerce unutmayacaksınız." Bu tam olarak recall-gated reinforcement. İlk karşılaşma fresh memory'ye girer, ikinci karşılaşmada hatırlama tetiklenir, başarılı eşleşme olursa bilgi pekişir. Kızlarıma anlattığım şey aslında Ebbinghaus'un ve Lindsey'in (2024) deneysel olarak kanıtladığı mekanizmaydı — ben sadece baba diliyle söylüyordum.

Attention Agent üzerine düşündüm. Bu ajanın iyi bir model kullanması gerekmiyordu — asıl işi filtrelemekti. Fresh memory ile uzun süreli hafızalar arasında akıllı bir tampon bölge. Sadece alakalı konulardaki bilgileri geçiren bir filtre. Tam olarak CPU'daki cache memory ile RAM arasındaki ilişki: cache küçük ama hızlı, RAM büyük ama yavaş, aradaki cache controller neyi getireceğine karar veriyor.

Sonra uyumanın bir anlamı olduğunu düşündüm. İnsan beyni gece boyunca gündüz yaşananları işler — önemli olanları pekiştirir, önemsizleri atar. Nörobilimdeki "sleep consolidation" tam olarak bu. Ve dedim ki: bizim de bir gece cron'umuz lazım. O günün recall istatistiklerini toplayan, başarılı hafızaları pekiştiren, kullanılmayanları zayıflatan bir nightly job. Uyku, doğanın garbage collection'ı. Biz de aynısını yaptık.

Ve son olarak ilkeler ve prosedürler. Senelerce eğitim gördük, çoğunun detayını unuttuk. Fourier dönüşümünü şu anda çözemem mesela. Ama aradan 25 yıl geçmesine rağmen onun "bir dalgadan sample almak" olduğunu hatırlıyorum. Detay gitti, öz kaldı. Ebbinghaus'un forgetting gradient'i tam olarak bunu yapıyor — detay zayıflar, ama temel kavram kalır. Daha da önemlisi: o bütün akademik hayatımın, benim ilke ve prosedürlerimi şekillendirdiğini ancak şimdi fark edebiliyorum. 14 aydır durmaksızın kod yazabilmek mesela — bu yeteneği tez yazarken edinmişim. O dönemin detaylarını hatırlamıyorum ama disiplin, yani prosedür hafızası, ihtiyaç olduğunda geri geldi.

İşte CogMem-AI bu gözlemlerden doğdu. Bir veritabanı tablosu değil, bir bilişsel mimari. Ve şimdi production'da çalışıyor.


CogMem-AI Mimarisi — 6 Halka + BIOS

Eylül 2025'teki Medium yazısında mimariyi konsantrik halkalar olarak çizmiştim. O vizyon hâlâ geçerli — ama 7 ayda çok şey değişti. Kavramlar somutlaştı, yeni katmanlar eklendi, eşikler belirlendi, production gerçekleriyle yüzleştik.

İşte CogMem-AI'nin bugünkü mimarisi, aşağıdan yukarıya:

Focus Agent — Benliğin Kendisi

Focus Agent bir yardımcı servis değil. O, ajanın o andaki bilinci. Şu anda bu yazıyı yazan benim beynimin Focus Agent'ı. Siz bu yazıyı okurken sizin Focus Agent'ınız aktif. Bir müşteri "nginx 502 veriyor" yazdığında, Morpheus'un Focus Agent'ı o sorunu çözmeye odaklanıyor — asıl işi yapan o.

Bu odaklanma sırasında Focus Agent doğal olarak bağlamını biliyor: hangi konuda çalıştığını, niyetin ne olduğunu, aciliyeti. Bu bağlam bilgisi bir yan ürün olarak topic etiketlerine dönüşüyor. Kahneman'ın Sistem 1'i budur — bilinçli analiz değil, refleks düzeyinde farkındalık.

Ama Focus Agent hafızayla ilgilenmiyor. Tıpkı sizin şu anda bu paragrafı okurken beyninizin arka planda hangi anıları çağıracağına bilinçli olarak karar vermemeniz gibi. O işi Attention Agent yapıyor.

Neden Focus Agent'a ihtiyaç var? Aynı güçteki bir ampul ve bir lazer düşünün. Ampul aynı enerjiyi her yöne dağıtır — odayı aydınlatır ama hiçbir şeyi kesemez. Lazer aynı enerjiyi tek bir noktaya yoğunlaştırır — çeliği bile keser. Focus Agent olmayan bir ajan ampuldür: tüm hafızaları, tüm bağlamı, tüm geçmişi prompt'a doldurur. Aynı token bütçesini her yöne saçar. Focus Agent olan bir ajan lazerdir: aynı bütçeyi tek bir konuya yoğunlaştırır. Güç aynı, etki farklı.

Attention Agent — Dikkat Filtresi

Attention Agent, Focus Agent'ın farkında bile olmadığı arka plan süreci. Focus Agent'ın ürettiği bağlam bilgisini alıp iki yönlü filtreleme yapıyor:

Outbound (hafızadan konuşmaya): "Focus Agent şu anda nginx konuşuyor. Hangi hafızalar ilgili? Shocks ve dos_and_donts her zaman gelsin. Long_term'den sadece nginx etiketli olanlar. Fatura bilgilerini getirme — gürültü olur."

Inbound (konuşmadan hafızaya): "Bu konuşmada müşteri önemli bir şey söyledi. Bu bilgi hangi halkaya gitmeli? Bir kural mı (dos_and_donts), bir alışkanlık mı (habits), yoksa henüz kanıtlanmamış taze bir bilgi mi (fresh)?"

CPU analojisiyle: Focus Agent çalışan process, Attention Agent cache controller. Process ne istediğini bilir, cache controller o isteğe uygun veriyi getirir. Process cache'in varlığından bile haberdar olmak zorunda değil — ama cache controller olmazsa her şey RAM'den gelir ve sistem yavaşlar. Bizim sistemde de Attention Agent olmazsa tüm hafızalar filtresiz gelir — SNR düşer, token bütçesi patlar, cevap kalitesi çöker.

Fresh Memory — Tampon Bölge

Yeni gelen her bilgi buraya düşer. Varsayılan giriş noktası. Kızlarıma anlattığım o ilk karşılaşma anı — "şimdi anlamanız önemli değil" — fresh memory bu. Bilgi henüz kanıtlanmamış, pekişmemiş, geçici.

Semantic search ile erişilir. Pekişmezse zamanla zayıflar ve silinir. Bu tamponun amacı, yanlış veya geçici bilginin kalıcı hafızayı kirletmemesi — McClelland'ın hipokampüs modelinin yazılım karşılığı.

Memory Ring — 6 Halka

Altı halka, her biri farklı kalıcılık ve enjeksiyon kuralına sahip:

long_term — Kanıtlanmış bilgiler. "Müşterinin Ankara'da 3 sunucusu var." Pekişmiş, başarı skoru yüksek. Sadece ilgili konuşmalarda enjekte edilir (topic filtreli). Pekiştirildiyse decay duruyor.

habits — Tekrarlayan kalıplar. "Her deploy öncesi backup ister." Bir kere söylenmekle habit olmuyor — tekrar tekrar başarılı şekilde hatırlanmışsa bu halkaya terfi ediyor. Medium yazısındaki "Practice Memory" buydu, şimdi ismi ve mekanizması netleşti.

procedures — Adım adım prosedürler. "DNS değişikliği: TTL düşür, bekle, değiştir, yükselt." Bunlar açık, dokümante edilmiş iş akışları. Topic filtreli inject.

dos_and_donts — "Sunucuyu gece restart etme." Açıkça belirtilmiş kurallar. Her konuşmada enjekte edilir, topic filtresi yok. Decay uygulanmaz — asla zayıflamaz. Çünkü bu bilginin unutulmasının maliyeti, hatırlanmasının maliyetinden çok daha yüksek.

shocks — Travmatik olaylar. "2024 cascade failure, 4 saat kesinti." Sıcak sobaya dokunmak gibi — bir kere yeter. Her konuşmada enjekte edilir, asla silinmez. Focus Agent ne derse desin, şoklar her zaman prompt'ta.

"Her zaman inject" ve "topic filtreli" ayrımı CogMem'in en kritik tasarım kararlarından biri. dos_and_donts ve shocks dikkat filtresini bypass eder çünkü güvenlik kritik. Diğer halkalar sadece ilgili konuşmada gelir çünkü SNR'ı korumak lazım. Bu ayrım basit görünüyor ama naif SQL yaklaşımında yok — orada ya hepsi gelir ya hiçbiri.

BIOS — Firmware Katmanı

Medium yazısında "Policies" vardı. CogMem'de bu katman çok daha sert bir kimliğe büründü: BIOS.

Bilgisayarın BIOS'u işletim sistemi yüklenmeden önce çalışır. Değiştirilemez. Kullanıcı müdahale edemez. CogMem'deki BIOS da aynı: değiştirilemez prensipler. PCI-DSS kuralları, güvenlik politikaları, şirket standartları. Bebeğin emme refleksi gibi — öğrenilmez, verilir.

Bugün 108 BIOS kuralı tanımlı, 14'ten fazla kategoride. Örnekler: "Restart öncesi mutlaka config test yap", "Auth code asla geri yansıtılmaz", "PCI-DSS: kart verisi asla loglanmaz." Bu kurallar konuşma konusuna göre ilgili kategoriden enjekte ediliyor. Sunucu konuşmasında sunucu BIOS kuralları, güvenlik konuşmasında güvenlik kuralları.

Hiçbir rakipte — MemGPT'de, Mem0'da, Zep'te — böyle bir katman yok. Bu, VeriTeknik'in PCI-DSS deneyiminden doğan özgün bir katkı. Çünkü denetim odasında "ajanınız neden bu kararı verdi?" sorusuna "veritabanından rastgele çektiği bilgiye göre" demek kabul edilebilir bir cevap değil. BIOS, ajanın kararlarının deterministik ve denetlenebilir bir zemini olmasını sağlıyor.

Gut Agent — Kolektif Bilgelik

En dış halka. Medium yazısında da vardı, CogMem'de de var — ama henüz tam kapasiteyle production'da değil.

Konsept aynı: tüm müşterilerden anonimleştirilmiş örüntü kümeleme. Bir müşterinin spesifik verisini değil, tüm müşterilerden süzülen genel kalıpları taşıyan bir katman. "Deneyimli bir mühendisin içgüdüsü" — tek bir projeden değil, yüzlerce projeden damıtılmış bilgelik.

CRUD altyapısı ve anonimleştirme mekanizması implement edildi. Ama cross-tenant kümeleme henüz pilot aşamasında. Bu, hem teknik hem de gizlilik açısından en zorlu katman — diferansiyel gizlilik bütçesi altında anlamlı örüntü çıkarmak açık bir araştırma problemi.

Token Bütçesi — Sınırlı Dikkat Kaynağı

İnsan dikkati sınırlıdır. Baddeley'in çalışma belleği modeli, aynı anda tutulabilecek bilgi miktarını 4±1 chunk olarak tanımlar. LLM'lerin context window'u da sınırlı — ama daha önemlisi, context window'a ne koyduğunuz cevap kalitesini doğrudan etkiliyor.

CogMem'de her mesaj döngüsü için 3.200 token hafıza bütçesi ayrılıyor. Bu bütçe 8 katman arasında şu öncelik sırasıyla dağıtılıyor:

BIOS (300) → shocks (300) → dos_and_donts (400) → gut (400) → long_term (500) → habits (200) → procedures (300) → fresh (300)

Bütçe dolduğunda düşük öncelikli katmanlar kesilir. Ama BIOS, shocks ve dos_and_donts asla kesilmez — güvenlik kritik bilgiler her zaman prompt'ta. Bu, signal-to-noise ratio'yu maximize eden bir dikkat ekonomisi.


Pekiştirme Motoru — Hatırlanan Güçlenir, Unutulan Solar

Hafıza halkaları statik bir depo değil. Yaşayan bir sistem. Bilgi girer, güçlenir, terfi eder, zayıflar, ölür. Bu yaşam döngüsünü yöneten mekanizmaya pekiştirme motoru diyoruz.

Temeli basit bir gözlem: sık hatırlanan ve işe yarayan bilgi önemlidir. Hiç hatırlanmayan bilgi muhtemelen önemsizdir. İnsan beyni bunu zaten yapıyor — Lindsey ve arkadaşları 2024'te eLife'ta yayınladıkları çalışmada "recall-gated plasticity" mekanizmasını deneysel olarak gösterdi: hatırlama eylemi bilgiyi güçlendiriyor, hatırlanmayan bilgi zayıflıyor. Biz bunu yazılıma çevirdik.

Nasıl Çalışıyor

Her hafıza kaydının iki sayacı var: kaç kez hatırlandı (recall count) ve hatırlandığında ne kadar işe yaradı (success score). Bir hafıza konuşmada kullanıldığında recall log'a düşüyor. Konuşma başarılı bittiyse başarı skoru yükseliyor.

Sonra gece oluyor.

İnsan beyni gece boyunca gündüz yaşananları işler. Nörobilimdeki "sleep consolidation" — uyku sırasında önemli anılar pekişir, önemsizler atılır. Biz de aynı mantıkla bir nightly cron job çalıştırıyoruz. Her gece, o günün hafıza istatistiklerini topluyor ve beş karardan birini veriyor:

Pekiştir. Bir hafıza 2 veya daha fazla kez hatırlanmış ve başarı skoru %80'in üzerindeyse — bu bilgi işe yarıyor demektir. Güven skoru maksimuma çıkar, decay durur. Bu hafıza artık korunuyor.

Terfi ettir. 3+ kez hatırlanmış, başarı skoru %90'ın üzerinde ve hâlâ fresh halkasındaysa — bu bilgi kendini kanıtlamış demektir. Bir üst halkaya terfi adayı olarak işaretlenir. Kızlarıma anlattığım o "aaa anı" — bilgi fresh'ten long_term'e geçiyor çünkü tekrar tekrar başarıyla hatırlandı.

Zayıflat. 2+ kez hatırlanmış ama başarı skoru %30'un altındaysa — bu bilgi hatırlanıyor ama işe yaramıyor. Belki eskimiş, belki yanlış. Güven skoru yarıya düşer. Bir sonraki gece daha da düşer. Sistem yanlış bilgiyi aktif olarak cezalandırıyor.

Unut. Hiç hatırlanmamış, 30 günden eski ve pekiştirilmemişse — Ebbinghaus'un unutma eğrisi devreye girer. Güven skoru her 30 günde %10 azalır. %20'nin altına düştüğünde hafıza sessizce silinir. 140 yıllık bilişsel bilim, bir cron job'da.

Koru. Block tipi shocks veya dos_and_donts ise — decay asla uygulanmaz. "Sunucuyu gece restart etme" kuralı 5 yıl hatırlanmasa bile orada duracak. "Cascade failure yaşandı" kaydı sonsuza kadar prompt'ta. Sıcak sobaya dokunma hafızası sönmez.

Neden Elle Silmek Yetmiyor

"Eskiyen bilgiyi admin siler" diyebilirsiniz. Ama 100 müşteri, müşteri başına yüzlerce hafıza kaydı düşünün. Kim hangi bilginin eskidiğini takip edecek? Pekiştirme motoru bunu otomatize ediyor: işe yarayan kalır, yaramayan solar, tehlikeli olan asla silinmez. Doğanın garbage collection mekanizması — manuel değil, organik.

Eşik Tablosu

Durum

Koşul

Sonuç

Pekiştir

recall ≥ 2, score ≥ 0.8

Güven maksimum, decay durur

Terfi ettir

recall ≥ 3, score ≥ 0.9

Üst halkaya aday

Zayıflat

recall ≥ 2, score < 0.3

Güven yarıya düşer

Unut

30 gün, pekişmemiş

Güven %10 azalır, < 0.2'de silinir

Koru

shocks / dos_and_donts

Decay asla uygulanmaz


Peki Başkaları Ne Yapıyor?

Bu problemi sadece biz görmüyoruz. AI ajan hafızası üzerine ciddi çalışmalar var — MemGPT (şimdi Letta), Mem0, Zep, A-MEM, LangMem. Hepsinin arkasında iyi mühendisler var ve hepsi gerçek bir problemi çözmeye çalışıyor. Ama yaklaşımları farklı.

Hu ve arkadaşlarının 2025'te yayınladığı kapsamlı survey (arXiv:2512.13564), LLM ajan hafıza sistemlerini taradıktan sonra pekiştirmeli öğrenme entegrasyonunu açıkça "open problem" olarak tanımlıyor. Wang ve arkadaşlarının 2024 survey'i de çift-süreç bilişsel entegrasyonun üretim ölçeğinde referans çalışması olmadığını tespit ediyor. Yani akademik literatür de bu boşluğu görüyor.

Mevcut sistemlerin ortak noktası şu: hepsi hafızayı düz bir yapıda tutuyor. Ekle, ara, sil. Bazıları bunu iyi yapıyor, bazıları çok iyi yapıyor. Ama hiçbiri şu soruları sormuyor: "Bu hafıza ne kadar güvenilir? Ne zaman güçlenecek? Ne zaman ölecek? Hangi konuşmada gerekli, hangisinde gürültü?"

Somut farklara bakalım:

Hafıza yapısı. MemGPT iki katmanlı düz bir yapı kullanıyor — core memory ve archival memory. Mem0 flat bir extract-update döngüsü. Zep kısmi kategorilere sahip. CogMem-AI'da 6 halka + BIOS var ve her halkanın farklı enjeksiyon kuralı, farklı decay politikası, farklı token bütçesi var.

Pekiştirme. Hiçbirinde yok. Bir hafıza ekleniyor, çağrılıyor veya siliniyor — hepsi bu. Hatırlanmanın o hafızayı güçlendirmesi, hatırlanmamanın zayıflatması kavramı mevcut sistemlerde yok.

Unutma. MemGPT FIFO kullanıyor — en eski kayıt silinir. Bu kronolojik, ama önem bazlı değil. 5 yıl önceki cascade failure kaydı en eski diye silinir, dünkü önemsiz not kalır. Mem0 ve A-MEM'de yapılandırılmış bir unutma mekanizması yok. CogMem'de Ebbinghaus gradyanı var — kullanılmayan bilgi zamanla solar ama kritik bilgi asla silinmez.

Dikkat filtresi. Hiçbirinde Sistem 1/Sistem 2 ayrımı yok. Hafıza çağrıldığında hepsi gelir veya keyword bazlı filtrelenir. CogMem'de Focus Agent konuyu sınıflandırır, Attention Agent sadece ilgili halkaları getirir. Sunucu konuşmasında fatura bilgileri gelmez.

Değişmez prensipler. Hiçbirinde BIOS katmanı yok. Öğrenilen bilgi ile öğrenilmemesi gereken, verilmesi gereken kurallar arasında bir ayrım yapılmıyor. CogMem'de 108 BIOS kuralı var — PCI-DSS, güvenlik politikaları, operasyon standartları. Bunlar öğrenilmez, değişmez, her zaman orada.

Denetim izi. PCI-DSS denetiminde "ajan bu kararı neden verdi?" sorusuna cevap verebilmek zorunluluk. Mevcut sistemlerin çoğunda yapılandırılmış bir audit trail yok. CogMem'de 5 seviyeli, değiştirilemez denetim izi var — çünkü biz bu denetimlerden geçen bir firmayız.

Özellik

MemGPT

Mem0

Zep

CogMem-AI

Hafıza yapısı

2 katman (flat)

Flat extract/update

Kısmi kategoriler

6 halka + BIOS

Pekiştirme

Yok

Yok

Yok

recall x success

Unutma

FIFO

Yok

Yok

Ebbinghaus gradyan

Dikkat filtresi

Yok

Yok

Yok

Focus + Attention Agent

Değişmez prensipler

Yok

Yok

Yok

BIOS (108 kural)

Çapraz kiracı bilgelik

Yok

Yok

Yok

Gut Agent (tasarlandı)

PCI-DSS native

Yok

Yok

Yok

Level 1 sertifikalı

Bu karşılaştırmayı "biz iyiyiz, onlar kötü" olarak okumayın. Bu sistemler kendi bağlamlarında iyi çalışıyor. Ama hepsi "hafıza ekle, hafıza ara, hafıza sil" paradigmasında kalıyor. Biz farklı bir soru soruyoruz: hafıza nasıl yaşar, nasıl güçlenir, nasıl ölür ve nasıl denetlenir? Bu soru, farklı bir mimariye götürüyor.


Neden Bir Ar-Ge Projesi Yazdık

CogMem-AI'nın temel mimarisi production'da çalışıyor. 6 halka, BIOS, Focus Agent, Attention Agent, pekiştirme motoru — hepsi gerçek müşterilerle, gerçek konuşmalarda, her gün. Peki neden bir de TÜBİTAK 1501 Ar-Ge projesi yazdık?

Çünkü çalışması ile doğru çalışması arasında bir uçurum var. Ve o uçurumu kapatmak mühendislik değil, araştırma gerektiriyor.

Pekiştirme eşiklerini düşünün. Şu anda bir hafıza 2 kez başarıyla hatırlanırsa pekişiyor. Neden 2? Neden 3 değil? Neden 1.5 değil? Bu eşiği sezgisel olarak belirledik ve makul çalışıyor — ama optimal olduğunu bilmiyoruz. Bunu bilmek için production ortamında, gerçek müşteri verileriyle A/B test yapmak gerekiyor. Bu bir konfigürasyon kararı değil, deneysel kalibrasyon problemi.

Veya "başarılı konuşma" tanımını düşünün. Pekiştirme motoru success_score kullanıyor — ama başarıyı kim belirliyor? Müşteri "teşekkürler" dediyse başarılı mı? Hiçbir şey demeden konuşmayı kapattıysa başarısız mı? Sessiz kabul ile aktif onay arasındaki farkı otomatik tespit etmek açık bir araştırma problemi.

Ya da Gut Agent'ın gizlilik mühendisliğini düşünün. Farklı müşterilerden anonimleştirilmiş örüntü çıkarmak istiyoruz — ama diferansiyel gizlilik bütçesi (ε=1.0) altında anlamlı bilgi kalıyor mu? Gizlilik ile fayda arasındaki denge noktasını bulmak, 10.000+ sentetik kayıtla deneysel olarak test edilmesi gereken bir problem.

Bunlar "daha iyi kod yaz" ile çözülen şeyler değil. Bunlar hipotez kur, deney tasarla, ölç, kalibre et, tekrarla döngüsü gerektiren araştırma soruları. Frascati Kılavuzu'nun tanımladığı anlamda Ar-Ge: teknolojik belirsizlik içeren, sonucu önceden bilinmeyen, sistematik çalışma.

Projenin bilişsel bilim ayağı da bunu gerektiriyor. Kahneman'ın Sistem 1/2'sini, McClelland'ın tamamlayıcı öğrenme sistemlerini, Ebbinghaus'un unutma eğrisini yazılıma çeviriyoruz — ama bu modellerin LLM ajan bağlamında geçerliliği henüz akademik olarak test edilmedi. Hu ve arkadaşlarının 2025 survey'i bunu açıkça söylüyor: pekiştirmeli öğrenme ile hafıza yönetimi entegrasyonu hâlâ açık problem.

Bu yüzden projeyi iki akademik danışmanla birlikte yürütüyoruz: University of Agder'den (Norveç) Prof. Dr. Turgay Çelik ve İzmir Ekonomi Üniversitesi'nden Dr. Kutluhan Erol. Hedeflerimiz arasında SCI endeksli akademik yayın ve patent başvurusu var. Bu sadece bir ürün geliştirme projesi değil — bilişsel bilim modellerinin LLM ajan bağlamında ilk kez üretim ölçeğinde test edilmesi.

Bir şeyi daha eklemek istiyorum. Biz altyapı ve güvenlik mühendisliği yapan bir firmayız. 20 yıldır sunucu yönetiyoruz, PCI-DSS denetimlerine giriyoruz, firewall kuralları yazıyoruz. Bu 20 yılın birikimi — hangi sunucu konfigürasyonunun sorun çıkaracağını, hangi DNS değişikliğinin riskli olduğunu, hangi güvenlik açığının kritik olduğunu bilmek — şu anda BIOS kurallarında ve Gut Agent'ın preset bilgisinde kodlanmış durumda. CogMem-AI, bu birikimi ölçeklenebilir bir yapıya dönüştürme projesi. Kural tabanının ham maddesi akademik değil, operasyonel. 20 yıllık saha deneyimi.


Vizyon — Hafızasız Ajan, Ajanı Değildir

AI ajanları bugün hafızasız çalışıyor. Her konuşma sıfırdan başlıyor. Her müşteri kendini tekrar ediyor. Her hata sanki ilk kez oluyormuş gibi ele alınıyor. Bu, ajanları araç yapıyor — akıllı araç, ama yine araç.

Hafıza onları ortak yapacak.

Deneyimden öğrenen, neyin önemli olduğunu bilen, neyi unutması gerektiğini anlayan, geçmiş travmalardan ders çıkaran, kolektif bilgelikten beslenen bir ajan — bu artık bir araç değil, bir çalışma arkadaşı. Juniorunuza bir şeyi iki kez anlatırsınız, üçüncüde bilir. Hafızalı ajan da aynısını yapmalı.

CogMem-AI şu anda Ops Hub'da morpheus-memory adıyla ayrı bir container olarak çalışıyor. Bilişsel hafıza mimarisi — 6 halka, BIOS, Focus Agent, Attention Agent, pekiştirme motoru — production'da, gerçek müşterilerle, her gün. Gut Agent'ın cross-tenant kümeleme katmanı tasarlandı ve altyapısı hazır, pilot aşamasına geçecek.

Yol haritamızda açık kaynak npm paketi var — cogmem-ai, Apache 2.0 lisansıyla. Sektör spesifik BIOS şablon kütüphanesi: PCI-DSS v4.0, ISO 27001:2022, KVKK preset'leri. Başka firmalar kendi ajanlarına bilişsel hafıza eklemek istediğinde, sıfırdan başlamak zorunda kalmasın.

Yapay zekanın hafıza problemi çözülmeden gerçek ajan ekonomisi kurulamaz. Ajanlar görev yapan araçlar olmaktan çıkıp bağlam anlayan, deneyimden öğrenen, unutmayı bilen ortaklara dönüşmeli. 140 yıllık bilişsel bilim bize nasıl hatırladığımızı ve neden unuttuğumuzu anlattı. Şimdi sıra bunu yazılıma çevirmekte.

Biz çevirmeye başladık.


Cem Karaca — VeriTeknik Bilişim CEO / Kurucu

GitHub · VeriTeknik · Önceki yazı: Building Digital Consciousness (Medium, Eylül 2025)

...