Tüm Notlar
AI Architecture2025-12-10

AI Agent Yanılgısı: Deterministik Dünyada Olasılıksal Kararlar

Şirketler 'Otonom AI Çalışanlar' hayali kurarken, biz production'da sonsuz döngüye giren botları temizliyorduk. İşte gerçek dünya tecrübesi.

Sadece Konuşan Değil, "İş Yapan" Yapay Zeka

2023-2024 "Chatbot" çağıydı. 2025 ise "Agent" çağı. Fark basit: Chatbot anlatır, Agent yapar. Ancak "yapmak", "anlatmaktan" çok daha risklidir.

"Halüsinasyon" Kod Çalıştırırsa Ne Olur?

Chatbot yalan yanlış bir bilgi verirse kullanıcı "saçmaladı" der geçer. Ancak veritabanına erişimi olan bir Agent (SQL Agent) yanlış bir UPDATE komutu yazar ve çalıştırırsa, bunun adı felakettir.

Bu yüzden Agent mimarilerinde "Function Calling" (Fonksiyon Çağırma) kullanırken şu prensipleri benimsedim:

  1. Read-Only Başla: Agent'lara ilk etapta sadece veri okuma (GET) yetkisi verin. Yazma yetkisi (POST/PUT/DELETE) için mutlaka "Human-in-the-loop" (İnsan onayı) mekanizması kurun.
  2. Yapılandırılmış Çıktı (Structured Output): LLM'den düz metin istemeyin. Mutlaka ve mutlaka Zod veya Pydantic şemasına uygun JSON isteyin.

Tool Use ve State Yönetimi

Agent'ların en büyük sorunu hafızadır. Bir noktada amacını unutabilir. "Kullanıcıya fatura kes" görevini alan bir agent, önce faturayı oluşturur, sonra e-posta atar, sonra... tekrar fatura oluşturabilir.

State Machine (Durum Makinesi) kullanmak burada zorunludur. LangChain veya LangGraph gibi kütüphaneler popüler olsa da, bazen basit bir switch-case ve veritabanında tutulan status kolonu, milyon dolarlık AI kütüphanesinden daha güvenilirdir.

Gelecek: Küçük ve Uzman Modeller

Tek bir devasa modelin (GPT-5 vb.) her işi yapmasını beklemek verimsiz. Şu anki mimarimizde "Router" (Yönlendirici) bir model var. Gelen isteği anlıyor ve işi ucuz, hızlı, o konuda uzmanlaşmış küçük modele (örn: Fine-tuned Llama veya Mistral) paslıyor.

Agent'lar sihirli değnek değil, iyi yönetilmesi gereken stajyerlerdir.