17 Şubat 2026’da New York Güney Bölgesi Federal Mahkemesi, hukuk dünyasında deprem etkisi yaratan bir karara imza attı. United States v. Heppner davasında Yargıç Jed S. Rakoff, kritik bir soruyu yanıtladı: Bir müvekkil, yapay zeka ile yaptığı konuşmalarda avukat-müvekkil gizliliğine sığınabilir mi?
Yanıt net: Hayır.
Bu karar her ne kadar ABD merkezli olsa da, Türk avukatlar için bu içtihat mesleki etik açısından hayati dersler içermektedir.

Eski CEO Bradley Heppner, menkul kıymet dolandırıcılığı suçlamasıyla karşı karşıyayken savunma stratejisi için Anthropic’in Claude platformunu kullandı. Avukatlarından aldığı gizli bilgileri bu sisteme girdi ve taslaklar hazırladı. FBI, yaptığı aramada bu dijital kayıtlara ulaştı.
Mahkeme, savunmanın “gizlilik” itirazını şu dört temel gerekçeyle reddetti:
“Bu karar bizi neden ilgilendiriyor?” diyen hukukçular için risklerden bahsedelim.

Türk avukatların mesleki itibarını ve müvekkil gizliliğini koruması için bazı tavsiyeleri sizinle paylaşıyorum.
Ücretsiz/tüketici sınıfı (ChatGPT Free, Claude.ai) araçlar yerine; verileri model eğitimine dahil etmeyen ChatGPT Enterprise veya Microsoft Copilot Corporate gibi kurumsal lisansları kullanın.
Kullandığınız platformun data güvenliği ve AI uyumu açısından incelendiğini, SOC veya ISO sertifikalarına sahip olduğunu doğrulayın. Bu belgeler, verilerinizin bağımsız denetimden geçtiğinin kanıtıdır.
İş sözleşmelerinizde müvekkilinize, dava süreçlerini yapay zekâ araçlarıyla paylaşmasının doğurabileceği gizlilik risklerini yazılı olarak bildirin. Büronuzda yapay zekâ destekli programlar kullanıyorsanız, temsil faaliyetine başlamadan önce müvekkilin yazılı onayını ve imzasını alın.
İlk görüşmede müvekkile sorun: “Bu konuyu daha önce bir yapay zekaya anlattınız mı?” Eğer anlattıysa, o bilgilerin artık “gizli” olmayabileceğini stratejinize dahil edin.
Dilekçe taslağı hazırlarken veya analiz yaparken; isim, TC kimlik numarası, adres ve dava numarası gibi verileri temizleyerek giriş yapın.
Kullandığınız aracın, özgün hukuki argümanlarınızı öğrenebileceğini göz önünde bulundurun.
Yapay zekâ hatalı veya uydurma çıktılar (halüsinasyonlar) üretebilir. Bu nedenle, elde edilen sonuçları her zaman Resmî Gazete ile Yargıtay ve Danıştay içtihat sistemlerinden doğrulayın. Alternatif olarak, doğrulama özelliği bulunan güvenilir programları tercih edin.
Özellikle AB bağlantılı işlerde EU AI Act (Yapay Zeka Yasası) ve GDPR uyumluluğunu göz önünde bulundurun.
Unutmayın: Yapay zekanın hatası, imza sahibi avukatın sorumluluğundadır.
Heppner kararı, cebimizdeki yapay zekanın müvekkile karşı bir tanığa dönüşebileceğini kanıtladı. Teknoloji bir tehdit değil, doğru yönetilmesi gereken bir enstrümandır.
Bu makale genel bilgilendirme amaçlıdır. Yapay zeka kullanımı ve veri güvenliği süreçleriniz için profesyonel hukuki danışmanlık almanız önerilir.
Deneyimlerimizi paylaşarak birbirimizden öğrenebiliriz. Legbis LinkedIn hesabı üzerinden de bizlere ulaşabilirsiniz.
Hukuk dünyasında inovasyon ve verimlilik üzerine daha fazla bilgi için diğer yazılarımıza göz atın!