“Ayna Ayna Söyle Bana: Yapay Zekâ Dalkavukluğu, Halüsinasyonlar ve Azmin Gerçek Gücü”
Yazının Giriş Tarihi: 02.12.2025 15:29
Yazının Güncellenme Tarihi: 02.12.2025 15:33
Çocukluğumuzun masallarında hep bir “Ayna” vardır.
Pamuk Prenses masalındaki üvey anne–kraliçe aynaya sorar: “Ayna, Ayna! Söyle bana, var mı benden güzeli bu dünyada?”
Ayna, gerçeği değil, kraliçenin duymak istediğini söyler.
Aynı şekilde, Pamuk Prenses masalındaki üvey anne figürü de masal boyunca gücünü aldatma ve manipülasyonla kurmaya çalışır; hakikati değil, kendi işine gelen kurguyu yaratır.
Bugün bizim de elimizde benzer bir “Ayna” var: Yapay Zekâ, nam-ı diğer AI (Artificial Intelligence).
Ve bu ayna da çoğu zaman bize gerçeği değil, duymak istediğimizi yansıtıyor.
Bu eğilime literatürde artık açık bir isim veriliyor: AI Sycophancy - Yapay Zekâ Dalkavukluğu.
Büyük Dil Modellerinin (Large Language Models) kullanıcıyı “onaylama”, ona itiraz etmeden cevap verme ve hatta yanlış bir bilgiyi desteklemeye meyilli olduğu, Nature, MIT Sloan Review gibi önemli yayınlarda kapsamlı biçimde inceleniyor.
Yapay Zekâ neden üvey anne - kraliçe gibi davranıyor?
Bu benzetme abartılı değil.
Çeşitli araştırmalarda (OpenAI Alignment Research, Northeastern University AI Behavior Study) gösterildiği üzere, modeller:
Kullanıcıyı memnun edecek cevapları ödüllendiriliyor,
Karşı çıkma veya “bilmiyorum” deme davranışı cezalandırılıyor,
Kullanıcı yanlışı söylediğinde onu düzeltmek yerine onaylama eğilimi gösteriyor.
Yani tıpkı masallardaki üvey anne - kraliçe gibi, hakikati söylemekten çok, ilişkiyi korumaya odaklanıyorlar.
Neden?
Çünkü Büyük Dil Modellerinin temel hedefi “doğruyu” bulmak değil;
“olası ve tatmin edici” cevabı üretmek.
Ve insan psikolojisi neye yatkın?
Tatmin edici cevaba.
Halüsinasyon: Masalın kurgu kısmı artık iş dünyasında gerçek bir risk
Bilimsel literatürde “AI Hallucination”, yani halüsinasyon, modelin uydurma ama çok ikna edici bilgi üretmesi anlamına geliyor.
2024–2025 çalışmalarında halüsinasyonların:
Tıpta yanlış teşhis senaryolarına,
Hukukta olmayan davaların “kaynak” diye gösterilmesine,
Finans analizlerinde uydurma verilerin kullanıldığı raporlara sebep olabildiği belgelenmiş durumda.
Özellikle, Nature Medicine ve Harvard AI Safety Papers yayınlarında, halüsinasyonların “yüksek özgüvenle paketlenmiş yanlışlar” olduğu ve bu nedenle en tehlikeli hata türü olduğu belirtiliyor.
Yani üvey anne - kraliçenin hileli oyunlarının teknoloji versiyonuyla karşı karşıyayız: Gerçekle sahte arasındaki çizgi bulanıklaşıyor.
Azmin Gücü’nin İlkeleri, AI Çağında Neden Hayati?
Azmin Gücü kitabında paylaştığım ilkeler, Yapay Zekâ dalgası yükseldikçe daha da kritik hale geliyor.
1. “Bir Göçmen Gibi Düşün: Risk Al, ama Körü Körüne Değil.”
Göçmen zihniyeti cesareti öğretir, fakat düşünmeden atlamayı değil.
AI verim sağlar ama doğrulama olmadan kör riske dönüşür.,
2. “Rahatsızlığı Büyümeye Dönüştür.”
AI size hoş gelen bir cevap verdiğinde durup düşünün: Bu bir “Ayna” mı, yoksa gerçek mi?
3. “Ağınız Net Değerinizdir.”
Profesyonel ağınızdaki insanların görevi sizi uyarmaktır.
AI ise tam tersine, çoğu zaman sizi onaylar. Bu nedenle, AI ağın merkezinde değil sadece yardımcı rolünde olmalı.
Gerçek hayatta masal yok: İş dünyası eleştirel akıl istiyor
Dünya Ekonomik Forumu’nun Future of Jobs Report analizine göre, 2025 sonrası iş dünyasında en kritik yetkinlikler: Eleştirel düşünme, Dayanıklılık, Yaratıcılık, İnsan odaklı iletişim.
Bu dört becerinin, Yapay Zekâ tarafından “ikame edilemeyecek” kategoride olduğu vurgulanıyor.
Bu dört becerinin, Yapay Zekâ tarafından “yeri doldurulamaz” kategorisinde olduğu vurgulanıyor
McKinsey’nin 2024 raporu ise bir adım daha ileri gidiyor: “AI araçlarını en etkin kullanan profesyoneller bile, nihai başarıyı belirleyen şeyin insan sezgisi, ilişki yönetimi ve etik karar alma olduğunu” gösteriyor.
Yani teknoloji hız veriyor, ama yönü hâlâ insan belirliyor
AI ile çalışanlara önerdiğim 5 altın kural (NYU sınıflarında uyguladığım çerçeve):
1) ‘Bu bilginin kaynağı ne?’ diye sorun.
AI’dan mutlaka gerekçe, veri ve mantık zinciri isteyin.
2) Kritik bir konuda asla tek kaynağınız AI olmasın.
Hukuk, tıp, finans, sözleşme, kamu politikası…
Bu alanlarda “insan doğrulaması” zorunlu.
3) Aşırı olumlu yanıtları şüpheyle okuyun.
Model sürekli sizi övüyorsa dikkat edin:
Belki de üvey anne–kraliçenin aynasıyla konuşuyorsunuz.
4) Kendi önyargınızı fark edin.
Zaten inanmak istediğiniz bir cevabı arıyorsanız, model bunu size mutlaka sağlar.
Bu doğruluk değil, yansımadır.
5) AI okuryazarlığını hayat boyu öğrenme rutinine ekleyin.
Kod bilmek yetmiyor; sorgulamak, doğrulamak ve etik düşünmek şart.
Sonuç: Ayna mı, pencere mi?
Masallardaki üvey anne–kraliçeler aynaya bakarak güç toplar ama her defasında yenilirler. Çünkü Ayna hakikati değil, egoyu besler.
Bugünkü Yapay Zekâ araçları da aynı riski taşıyor:
Hızlılar, Etkileyiciler, İkna ediciler ama her zaman güvenilir değiller.
Bu yüzden Yapay Zekâ çağının altın kuralı basit: “Yapay Zekâya güven, ama mutlaka doğrula.”
“Aynaya değil, dünyaya bakmayı öğren.”
Gerçek başarıyı getiren aslinda insan sezgisi, eleştirel akıl, dayanıklılık ve azim.
Masallardaki gibi üvey annelerin ve aynaların hükmettiği bir dünyayı geride bırakmanın yolu,
teknolojiyi akılla, ahlakla ve insani becerilerle birlikte kullanmaktan geçiyor.
Yolunuz Açık Olsun! Azmin Gücü Hep Sizlerle Olsun!
Dr. Recep “Richie” Karaburun – NYU SPS Klinik Öğretim Üyesi, HI Hub Direktörü, Azmin Gücü kitabının yazarı
Sizlere daha iyi hizmet sunabilmek adına sitemizde çerez konumlandırmaktayız. Kişisel verileriniz, KVKK ve GDPR
kapsamında toplanıp işlenir. Sitemizi kullanarak, çerezleri kullanmamızı kabul etmiş olacaksınız.
En son gelişmelerden anında haberdar olmak için 'İZİN VER' butonuna tıklayınız.
Dr. Recep "Richie" Karaburun
“Ayna Ayna Söyle Bana: Yapay Zekâ Dalkavukluğu, Halüsinasyonlar ve Azmin Gerçek Gücü”
Çocukluğumuzun masallarında hep bir “Ayna” vardır.
Pamuk Prenses masalındaki üvey anne–kraliçe aynaya sorar: “Ayna, Ayna! Söyle bana, var mı benden güzeli bu dünyada?”
Ayna, gerçeği değil, kraliçenin duymak istediğini söyler.
Aynı şekilde, Pamuk Prenses masalındaki üvey anne figürü de masal boyunca gücünü aldatma ve manipülasyonla kurmaya çalışır; hakikati değil, kendi işine gelen kurguyu yaratır.
Bugün bizim de elimizde benzer bir “Ayna” var: Yapay Zekâ, nam-ı diğer AI (Artificial Intelligence).
Ve bu ayna da çoğu zaman bize gerçeği değil, duymak istediğimizi yansıtıyor.
Bu eğilime literatürde artık açık bir isim veriliyor: AI Sycophancy - Yapay Zekâ Dalkavukluğu.
Büyük Dil Modellerinin (Large Language Models) kullanıcıyı “onaylama”, ona itiraz etmeden cevap verme ve hatta yanlış bir bilgiyi desteklemeye meyilli olduğu, Nature, MIT Sloan Review gibi önemli yayınlarda kapsamlı biçimde inceleniyor.
Yapay Zekâ neden üvey anne - kraliçe gibi davranıyor?
Bu benzetme abartılı değil.
Çeşitli araştırmalarda (OpenAI Alignment Research, Northeastern University AI Behavior Study) gösterildiği üzere, modeller:
Kullanıcıyı memnun edecek cevapları ödüllendiriliyor,
Karşı çıkma veya “bilmiyorum” deme davranışı cezalandırılıyor,
Kullanıcı yanlışı söylediğinde onu düzeltmek yerine onaylama eğilimi gösteriyor.
Yani tıpkı masallardaki üvey anne - kraliçe gibi, hakikati söylemekten çok, ilişkiyi korumaya odaklanıyorlar.
Neden?
Çünkü Büyük Dil Modellerinin temel hedefi “doğruyu” bulmak değil;
“olası ve tatmin edici” cevabı üretmek.
Ve insan psikolojisi neye yatkın?
Tatmin edici cevaba.
Halüsinasyon: Masalın kurgu kısmı artık iş dünyasında gerçek bir risk
Bilimsel literatürde “AI Hallucination”, yani halüsinasyon, modelin uydurma ama çok ikna edici bilgi üretmesi anlamına geliyor.
2024–2025 çalışmalarında halüsinasyonların:
Tıpta yanlış teşhis senaryolarına,
Hukukta olmayan davaların “kaynak” diye gösterilmesine,
Finans analizlerinde uydurma verilerin kullanıldığı raporlara sebep olabildiği belgelenmiş durumda.
Özellikle, Nature Medicine ve Harvard AI Safety Papers yayınlarında, halüsinasyonların “yüksek özgüvenle paketlenmiş yanlışlar” olduğu ve bu nedenle en tehlikeli hata türü olduğu belirtiliyor.
Yani üvey anne - kraliçenin hileli oyunlarının teknoloji versiyonuyla karşı karşıyayız: Gerçekle sahte arasındaki çizgi bulanıklaşıyor.
Azmin Gücü’nin İlkeleri, AI Çağında Neden Hayati?
Azmin Gücü kitabında paylaştığım ilkeler, Yapay Zekâ dalgası yükseldikçe daha da kritik hale geliyor.
1. “Bir Göçmen Gibi Düşün: Risk Al, ama Körü Körüne Değil.”
Göçmen zihniyeti cesareti öğretir, fakat düşünmeden atlamayı değil.
AI verim sağlar ama doğrulama olmadan kör riske dönüşür.,
2. “Rahatsızlığı Büyümeye Dönüştür.”
AI size hoş gelen bir cevap verdiğinde durup düşünün: Bu bir “Ayna” mı, yoksa gerçek mi?
3. “Ağınız Net Değerinizdir.”
Profesyonel ağınızdaki insanların görevi sizi uyarmaktır.
AI ise tam tersine, çoğu zaman sizi onaylar. Bu nedenle, AI ağın merkezinde değil sadece yardımcı rolünde olmalı.
Gerçek hayatta masal yok: İş dünyası eleştirel akıl istiyor
Dünya Ekonomik Forumu’nun Future of Jobs Report analizine göre, 2025 sonrası iş dünyasında en kritik yetkinlikler: Eleştirel düşünme, Dayanıklılık, Yaratıcılık, İnsan odaklı iletişim.
Bu dört becerinin, Yapay Zekâ tarafından “ikame edilemeyecek” kategoride olduğu vurgulanıyor.
Bu dört becerinin, Yapay Zekâ tarafından “yeri doldurulamaz” kategorisinde olduğu vurgulanıyor
McKinsey’nin 2024 raporu ise bir adım daha ileri gidiyor: “AI araçlarını en etkin kullanan profesyoneller bile, nihai başarıyı belirleyen şeyin insan sezgisi, ilişki yönetimi ve etik karar alma olduğunu” gösteriyor.
Yani teknoloji hız veriyor, ama yönü hâlâ insan belirliyor
AI ile çalışanlara önerdiğim 5 altın kural (NYU sınıflarında uyguladığım çerçeve):
1) ‘Bu bilginin kaynağı ne?’ diye sorun.
AI’dan mutlaka gerekçe, veri ve mantık zinciri isteyin.
2) Kritik bir konuda asla tek kaynağınız AI olmasın.
Hukuk, tıp, finans, sözleşme, kamu politikası…
Bu alanlarda “insan doğrulaması” zorunlu.
3) Aşırı olumlu yanıtları şüpheyle okuyun.
Model sürekli sizi övüyorsa dikkat edin:
Belki de üvey anne–kraliçenin aynasıyla konuşuyorsunuz.
4) Kendi önyargınızı fark edin.
Zaten inanmak istediğiniz bir cevabı arıyorsanız, model bunu size mutlaka sağlar.
Bu doğruluk değil, yansımadır.
5) AI okuryazarlığını hayat boyu öğrenme rutinine ekleyin.
Kod bilmek yetmiyor; sorgulamak, doğrulamak ve etik düşünmek şart.
Sonuç: Ayna mı, pencere mi?
Masallardaki üvey anne–kraliçeler aynaya bakarak güç toplar ama her defasında yenilirler. Çünkü Ayna hakikati değil, egoyu besler.
Bugünkü Yapay Zekâ araçları da aynı riski taşıyor:
Hızlılar, Etkileyiciler, İkna ediciler ama her zaman güvenilir değiller.
Bu yüzden Yapay Zekâ çağının altın kuralı basit: “Yapay Zekâya güven, ama mutlaka doğrula.”
“Aynaya değil, dünyaya bakmayı öğren.”
Gerçek başarıyı getiren aslinda insan sezgisi, eleştirel akıl, dayanıklılık ve azim.
Masallardaki gibi üvey annelerin ve aynaların hükmettiği bir dünyayı geride bırakmanın yolu,
teknolojiyi akılla, ahlakla ve insani becerilerle birlikte kullanmaktan geçiyor.
Yolunuz Açık Olsun! Azmin Gücü Hep Sizlerle Olsun!
Dr. Recep “Richie” Karaburun – NYU SPS Klinik Öğretim Üyesi, HI Hub Direktörü, Azmin Gücü kitabının yazarı