İnsanlar için hayati önem taşıyan meselelerde yapay zekanın söz sahibi olması artık sadece bilim kurgu filmlerinden bir kesit olmayabilir. Zira, hukuk gibi kritik bir alanda bile dünyada bazı bölgelerde pilot uygulamalarla yapay zeka kullanılmaya başlandı. İnsan davranışlarını taklit eden algoritmaların mahkeme kararlarında bile söz sahibi olmasının etik olup olmadığı tartışılıyor. Hukuk alanında, davalara hız kazandırması ve rutin işleri otomatik hale getirmesi gibi konularda avantaj sağladığına inanılan yapay zeka, dünyanın farklı bölgelerinde çeşitli pilot uygulamalarla insanoğlunun karşısına çıkıyor. Bunlardan birkaçını Çin, Estonya ve Malezyada görmek mümkün. Estonyada küçük davaları değerlendiren "robot hakimler", Kanadada robot arabulucular, Çinde yapay zeka hakimleri ve Malezyada yapay zeka yargılama sisteminin denenmeye başlamasıyla algoritmaları artık adalet sisteminde de hissetmek mümkün. Çinin başkenti Pekinde, 2019da, İnternet Mahkemesine bağlı çevrim içi dava hizmeti merkezinde, davaların açılması ve işleme konulması gibi rutin hukuk işlemlerinde kararlara yardımcı olmak için yapay zeka teknolojisini kullanan bir yazılım modülü kullanılmaya başlandı. Benzer bir durum yine aynı yıllarda Estonyada başladı. Estonyadaki mahkemelerde görev yapmaya başlayan yapay zeka destekli robot hakimler, 7 bin avrodan daha az tutarlı anlaşmazlıklarda yasal belgelerin incelenmesi ve analiz edilmesi konusunda mahkemelere destek veriyor. Malezyada 2022de ülkenin bazı eyaletlerindeki mahkemelerde yapay zeka yargılama sisteminin pilot uygulamaları başlandı. Yapay zekanın adalet sisteminde yer alması cezaları daha tutarlı hale getirmesi, yığılan davaların hızlı ve daha masrafsız bir şekilde ilerlemesi açısından yardımcı olduğu ifade edilse de bu durumun hukuk etiği açısından doğru olup olmadığı tartışılıyor. - Yapay zekada en önemli nokta, hukuktan önce "etik denetimi" İstanbul Medipol Üniversitesi Hukuk Fakültesi Öğretim Üyesi Prof. Dr. Ahmet Ulvi Türkbağ, yapay zekanın ahlak denetimi ile ilgili belirli ilkelerin olduğunu belirterek "Bunlardan en önemlisi yapay zekanın transparan olması. Mutlaka ve mutlaka denetlenebilir olması, bu şart. Çünkü bir kararı niye verdiğini bilmiyorsak bu ilginç bir mantık olur ve o kararın doğruluğu ile ilgili bir yargıda bulunamayız. Bu da oldukça tehlikeli sonuçlara yol açabilir." değerlendirmesinde bulundu. Yapay zekanın sürpriz karar verebilme gücüne sahip olduğunu ve bu yüzden algoritmaların verdiği kararların insanlar tarafından ulaşılabilir olması gerektiğini ifade eden Türkbağ, bunun "alt rutin" adı verilen küçük programlarla sağlanabileceğini söyledi. Türkbağ, algoritmalar tarafından verilen mühim mahkeme kararlarının insan zekası tarafından denetlenebilir olması gerektiğini belirtti. Algoritmaların iyi bir şekilde denetlenebileceğini ifade eden Türkbağ, bunun iki şekilde olabileceği varsayımında bulunarak "Birincisi, tıpkı antivirüs programlarında olduğu gibi, bir resmi ya da özel bir etik denetim programı sizin yapay zeka programınızı denetler ve buradan bir etik derecelendirme sertifikası alırsınız. Yani programınızın etik güvenilirliği derecelendirilmiş olur ve buna bağlı belirli alanlarda kullanılabilir. Örneğin ağır cezayı gerektiren suçlarda ya da dava konusunun yüksek değerde olduğu uyuşmazlıklarda en güvenilir yapay zeka programları, örneğin testten tam not alanlar, 5. derece etik güvenilirliğe sahip programlar kullanılır. Yani etik denetim programları genel ya da özel amaçlı yapay zeka programlarını denetlerler. Günümüzde intihal programları tam da bu mantıkla çalışmaktadır. Denetim programı onay verirse yapay zeka piyasaya sürülür." dedi. Türkbağ, itik denetimin hayati olduğunu vurgulayarak "Hukuk denetiminden daha önemlidir. Mutlaka bizim yapay zekayı etik denetime tabi tutmamız lazım." diye konuştu. Konuya ilişkin başka bir varsayımda bulunan Türkbağ, "Siz otomobilin dış ısıyı ölçmesini istiyorsanız bir yazılım eklersiniz, bir de derece koyarsınız, varsayım olarak söylüyorum 5 dakikada bir o veriler ekrana yansıtılır, bu bir alt rutindir." diyerek yapay zekanın hukuk alanında kullanımı sonrası verilen kararın alt rutin yardımıyla geriye dönük olarak karara varma adımlarını gösterebileceğini belirtti. - Yapay zekanın manipüle edilmesi ve mahremiyet endişeleri ABDde kar amacı gütmeyen Yapay Zeka ve Dijital Politika Merkezi (CAIDP), Federal Ticaret Komisyonuna (FTC) yaptığı başvuruda, yapay zeka geliştirme şirketi OpenAIın yapay zeka robotu ChatGPTnin yeni sürümü GPT-4ün kullanımının durdurulmasını istedi. CAIDP, FTCye şikayet başvurusunda OpenAI şirketini FTCnin haksız ve aldatıcı iş uygulamaları yasasıyla yapay zeka ürünlerine ilişkin yönergeleri ihlal etmekle suçladı. OpenAI şirketinin en yeni GPT modeli olan GPT-4ün "aldatıcı olduğunu, mahremiyet ve kamu güvenliği için risk oluşturduğunu" savunan CAIDP, şirketin yapay zeka ürünlerinin FTCnin kılavuzundaki "şeffaf, açık ve hesap verebilirlik" standartlarını karşılamadığını iddia etti. Bazı sektör uzmanları da bilgisayar teknolojisinin "insanlar tarafından manipüle edilmesinden" endişe duyuyor. Prof. Dr. Türkbağ, "Yapay zekanın manipüle edilmemesi lazım, bu çok önemli. Yapay zekadan bir insanı kurtarmasını istediniz ve bu kişinin bir de beslediği hayvanı var, adamı kurtarırken hayvanı da öldürmemesi lazım." ifadelerini kullandı. - Yapay zeka kararının üst mahkemeye taşınması Türkbağ, varsayım olarak, yapay zeka tarafından verilmiş bir karara itiraz edilip üst mahkemeye taşınması durumunda davanın insan zekası tarafından devralınması gerektiğini belirtti. "İlk derecede yapay zekayı kabul ediyorsak da itiraz edildiğinde bunun insana gitmesi lazım kesinlikle, hukukun mantığı bunu gerektirir." diyen Türkbağ, davaların önemine göre yapay zekanın geniş çaplı veri tabanı taraması yapması gerektiğini söyledi. Türkbağ, bunun üzerine yapay zekanın hiyerarşi geliştirebileceğini, algoritmalarla verilen karar insanlar tarafından itiraz edilmediğinde bunun artı bir puan olarak algılanacağını kaydederek "Daha sonra içtihat oluşacak çünkü artılara daha çok yer verecek. Nasıl artı puan aldıysa o örneklerin üzerinden gidecek. Eksi puan oluştuğunda da o kararın şüpheli olduğunu düşünecek ve onu daha az ihtimal olarak karar vermeye başlayacak. Yapay zeka insandan farklı olarak her örnekte bire bir öğreniyor ve asla unutmuyor." dedi. Yapay zekanın geliştirdiği kendi içtihadına da bakacağını belirten Türkbağ, yapay zeka tehlikeli durumlarda daha önce ne yaptıysa yine o yaptığını taklit edeceğini ve eğer tehlikeli durumlarda ne yapılacağına dair bir öncelik verilmediyse bunun çok büyük sorunlar ortaya çıkaracağını kaydetti. Türkbağ, örnek olarak, seyir halinde ilerleyen bir araba olduğunda yapay zekanın arabanın içindekileri mi, dışındakileri mi koruyup korumayacağının önemli sorun olduğunun altını çizdi. Bu konunun mühendislik işi olmadığını bunun tamamen etik bir problem olduğuna dikkati çeken Türkbağ, "Bizim için her ikisini de kurtarması lazım, ne olursa olsun." değerlendirmesini yaptı. Türkbağ, "Benim korktuğum, mesela VIP araçlardaki yapay zekaya farklı programlar verilebilir, "tamamen içerdekileri koru" komutu verilebilir, "dışardakine ne olursa olsun" mantığı beni hakikaten korkutuyor, insanların yine yapay zekayı manipüle etme ihtimali" dedi.
مشاركة :