Adalet Bakanlığı Bilgi İşlem Genel Müdürü Servet Gül, TBMM Yapay Zeka Araştırma Komisyonu'nda yaptığı sunumda, yapay zekanın hiçbir zaman otomatikman karar verici olmadığını vurguladı. Gül, yapay zekanın hukukçuların yerini almak için değil, onlara destek olmak için kullanıldığını belirtti. Bu açıklama, yapay zekanın yargı süreçlerindeki rolü ve sınırları konusundaki tartışmalara yeni bir boyut getirdi.
Yapay Zeka Yargıda Nasıl Kullanılıyor?
Servet Gül, Adalet Bakanlığı'nın yapay zeka sistemlerini hız, verimlilik, tutarlılık, öngörülebilirlik, erişebilirlik ve veri kullanımını sağlamak için kullandığını ifade etti. Bakanlık bünyesinde kurulan "Büyük Veri ve Yapay Zeka Uygulamaları Şubesi"nin insan merkezli yaklaşım ve kolektif akıl anlayışıyla çalıştığını belirten Gül, şu bilgileri paylaştı:
- İnsan Merkezli Yaklaşım: Teknoloji, hukukçuların yerini almak yerine onlara destek oluyor.
- Kolektif Akıl Anlayışı: Yapay zekanın analitik gücü, insan muhakemesiyle birleştiriliyor.
- Öz Kaynaklarla Geliştirme: Tüm projeler, öz kaynaklarla ve sıkı etik ilkeler çerçevesinde geliştiriliyor.
Gül, yapay zeka sistemlerinin hakim ve savcılara benzer davalar, emsal kararlar ve hukuki analizler sunarak karar verme süreçlerini desteklediğini söyledi. Bu sayede, yargı süreçlerinin daha hızlı ve tutarlı bir şekilde yürütülmesi hedefleniyor.
Adalet Bakanlığı'nın Yapay Zeka Hedefleri
Adalet Bakanlığı'nın yapay zeka alanındaki temel hedefleri şu şekilde sıralanıyor:
- Akıllı Karar Destek Sistemleri Geliştirme: Hakim, savcı ve yargı personeline benzer davalar, emsal kararlar ve hukuki analizler sunarak karar verme süreçlerini desteklemek.
- İleri Veri Analizi ve Sınıflandırma: UYAP sisteminde biriken milyonlarca belge ve dava dosyasını yapay zeka algoritmalarıyla analiz ederek sınıflandırmak ve ilgili birimlere yönlendirmek.
- İş Optimizasyonu ve Hata Önleme: Adalet personelinin iş yükünü hafifletmek ve olası hataları minimuma indirmek.
Gül, aylık 3 milyon belgenin bu sistemler üzerinden işlendiğini ve sistemde çok sayıda akıllı uyarı bulunduğunu belirtti. Bu uyarılar, personelin işlem yaparken hatalı işlem yapmasını önlemeye yardımcı oluyor.
Yapay Zekanın Riskleri ve Hukuki Sorumluluk
Servet Gül, yapay zekanın kullanımının riskli yanlarının da bulunduğunu vurguladı. Özellikle yapay zeka tarafından verilen kararların hukuki statüsü ve sorumluluğu konularına dikkat çekti. Gül, "Nihai kararı her zaman insanın, yargıcın vermesi sağlanmalıdır. Bir makinanın karar vermesi düşünülemez. Amacımız, teknolojinin imkanlarından faydalanırken, adalet ruhunun veya insan unsurunun belirleyiciliğini korumaktır" dedi.
Gül, yapay zeka sistemlerinin ürettiği kararların hukuki sorumluluğunun net bir şekilde tanımlanması gerektiğini, aksi takdirde hukuki sorunların ortaya çıkabileceğini belirtti. Ayrıca, yapay zeka sistemlerinin bireylerin mahremiyetini mutlaka güvence altına alması ve fikri mülkiyet haklarını koruması gerektiğini vurguladı.
Sonuç olarak, Servet Gül'ün açıklamaları, yapay zekanın yargı süreçlerindeki potansiyelini ve risklerini bir arada değerlendirme gerekliliğini ortaya koyuyor. Yapay zeka, adalet sisteminin daha hızlı ve verimli çalışmasına katkı sağlayabilirken, hukuki ve etik sorunların da titizlikle ele alınması gerekiyor. Aksi takdirde, teknolojinin faydaları kadar zararları da gündeme gelebilir.