Mahkemelerde yapay zeka tarafından üretilen sahte dava alıntılarıyla dolu bir 'salgın' yaşandığına dair bir yargıcın açıklamalarının ardından, avukatların yanıltıcı olduğu düşünülen dilekçeler için en ağır yaptırımlardan kaçınma çabalarında ortaya çıkan bazı yaygın mazeretler de gün yüzüne çıkıyor. Yapay zeka ve hukuk araştırmacısı Damien Charlotin'in derlediği bir veri tabanına göre, avukatların yapay zeka hataları nedeniyle yaptırım uygulanan 23 dava incelendi. Birçok vakada yargıçlar, yaptırımları azaltmanın en basit yolunun, yapay zekanın kullanıldığını tespit edildiği anda itiraf etmek, mütevazı davranmak, ilgili hukuk derneklerine hatayı kendi bildirmek ve yapay zeka ile hukuk üzerine gönüllü dersler almak olduğunu belirtti. Ancak tüm avukatlar bu kolay yolu seçmiyor; bazıları yargıçların inanmadığı mazeretler sunuyor. Hatta bazıları yapay zeka kullanımını yalanlıyor.
2023'ten bu yana sahte yapay zeka alıntılarının kamuoyuna duyurulmaya başlanmasından bu yana, en popüler mazeret avukatın dilekçeyi hazırlarken yapay zekanın kullanıldığından haberinin olmadığı yönünde. Bazen bu, yapay zeka kullandığını fark etmediğini savunmak anlamına geliyor. Çoğu zaman, bu mazereti kullanan avukatlar astlarını suçluyor, ancak müşteriler de suçlanmış durumda. Teksaslı bir avukat, mahkeme müşterisinin dilekçenin hazırlanmasında önemli bir rol oynadığını ortaya çıkarana kadar suçlamaları reddetmesi üzerine bu ay yaptırımla karşılaştı. Mahkeme avukata, 'Müşteriniz bir avukat mı?' diye sordu. Avukat ise, 'Hayır, hiç değil efendim, sadece davanın teorilerine yardımcı oluyordu' şeklinde yanıtladı.
Bir diğer popüler kaçış yolu ise sohbet robotlarının olguları çarpıtma eğiliminden habersizmiş gibi davranan avukatlardan geliyor. Son davalar, bu mazeretin çeşitlenerek değişebileceğini gösteriyor. Geçen ay yaptırımla karşı karşıya kalan Oklahoma'lı bir avukat, bot'tan sadece 'yazısını daha ikna edici hale getirmesini' istediğinde ChatGPT'nin yeni alıntılar eklemesini beklemediğini itiraf etti. Eylül ayında Kaliforniyalı bir avukat benzer bir durumda kaldı ve 10.000 dolar gibi dikkat çekici bir para cezasına çarptırıldı. Bu avukat, özetlerini 'geliştirmesini' istediği ChatGPT'yi daha sonra 'geliştirilmiş' özetleri hataları kontrol etmek için başka yapay zeka platformlarından geçirmişti. Ancak 'geliştirilmiş' özetleri hiç okumamıştı.
Bu eski ve yıpranmış mazeretlerin hiçbiri günümüzde pek itibar görmüyor, özellikle de yapay zeka hatalarını ele almak için rehberler hazırlayan mahkemelerde. Ancak mahkemelerin avukatlardan istediği gibi yanlışlarını hemen kabul etmek yerine, bazı avukatlar çaresiz kalmış görünüyor. Sahte davalar için yaygın teknoloji sorunlarını gerekçe gösteren birçok avukat bulundu.
Merak Ediyorsunuz, Korsanları mı Suçluyorsunuz?
New York Şehri'nde görülen aşırı bir vaka, bir avukatın Microsoft Copilot'u kullanarak hatalı bir dilekçe hazırladığını önce kabul ettiğini, ardından yapay zeka alıntılarının bilgisayarındaki kötü amaçlı yazılımdan kaynaklandığını iddia ettiğini gösteriyor. Chinweze, doğru alıntılarla bir taslak hazırladığını ancak ardından hacklendiğini ve kötü niyetli kişilerin dilekçesine hataları eklemesine 'yetkisiz uzaktan erişim' sağladığını söyledi. Yargıç, özellikle önceki taslağın varlığına dair hiçbir kanıt olmaması nedeniyle bu mazereti 'inanılmaz ve desteksiz bir beyan' olarak nitelendirdi. Bunun yerine Chinweze, hack'in gerçekleştiğini kanıtlamak için bir bilirkişi getirmeyi talep etti ve mahkemenin bilirkişi analizini tartmadan önce yaptırımlarla ilgili işlemleri durdurmasını istedi. Ancak yargıç Kimon C. Thermos, öğle yemeği arası sonrasında avukatın pozisyonunu tekrar 'dramatik' bir şekilde değiştirmesi üzerine bu argümanı değerlendirmek zorunda kalmadı. Thermos, kararda avukatın artık kötü amaçlı yazılım veya bilgisayarına yetkisiz erişim hakkında bir bilirkişinin tanıklık etmesi için erteleme istemediğini belirtti. Orijinal pozisyonuna geri dönerek Copilot'u araştırmaya yardımcı olmak için kullandığını ve sahte davalar üretebileceğini fark etmediğini söyledi. Thermos için belki de avukatın tuhaf kötü amaçlı yazılım argümanından daha da rahatsız edici olan, Chinweze'nin yaptırım duruşması gününde sunduğu bir belgedi. Bu belge, yargıcın belirttiğine göre, birçok özetin şu metinle başladığını içeriyordu: 'Özetle, bu belge şu şekilde özetlenebilir:' Thermos, Chinweze'yi dikkatsizce yapay zeka kullanmaya devam ettiği için azarladı. Sunduğu belgeyi, 'yapısı olmayan, çoğu davaların tam metnini içeren, seksen sekiz sayfalık tutarsız bir belge' olarak nitelendirdi ve 'tartışma/analiz bölümlerinin yapay zeka tarafından yazıldığına dair belirgin göstergeler içerdiğini' söyledi. Sonuç olarak, Thermos, Chinweze'yi 1.000 dolar ödemeye mahkum etti. Yargıç daha sonra Chinweze'yi bir şikayet komitesine sevk ederek ek bir ahlaki yaptırım uyguladı, 'çünkü onun görevi kötüye kullanması ciddiydi ve dürüstlüğünü, güvenilirliğini ve avukatlık mesleğine uygunluğunu ciddi şekilde etkiledi.'
Dizüstü Bilgisayarda Pencere Değiştirmek Zor
Alabama'da James A. Johnson adında bir avukat, ABD Bölge Yargıcı Terry F. Moorer'ın yaptırımlarla ilgili Ekim ayındaki bir kararında belirttiği gibi, 'rezil bir hata' yaptığını söyledi. Johnson, ailesinin ameliyat sonrası bakımı için bir hastanede bulunduğu sırada yapay zeka aracını yanlışlıkla kullandığını açıkladı. Müşterisinin konferansının aniden 'mahkemenin programında öne alındığı' bildirimini aldığı için dilekçeyi aceleyle hazırlamak zorunda kaldığını belirtti. 'Zaman baskısı ve zorlu kişisel koşullar altında' Johnson, dilekçe araştırması için Alabama Barosu tarafından sağlanan Fastcase'i kullanmak yerine, dizüstü bilgisayarında 'Microsoft Word'e Ghostwriter Legal adlı bir eklenti' kullanmayı tercih ettiğini açıkladı. Çünkü Fastcase, ayrı bir tarayıcı açmayı gerektirirken, Ghostwriter Legal 'Word'ün kenar çubuğunda otomatik olarak görünüyordu'. Johnson'a göre, 'dizüstü bilgisayarında programlar arasında touchpad ile gidip gelmek' zahmetliydi ve bu nedenle 'açık ve kullanılabilir durumda olan yeni bir programın cazibesine kapıldığını' söyledi. Moorer, Johnson'ın ChatGPT gibi araçların güvenilmez olduğunu anladığı ancak diğer yapay zeka hukuk araçlarından aynı şeyi beklemediği iddiası karşısında etkilenmedi, özellikle de 'Ghostwriter Legal'den gelen bilgiler, varsayılan yapay zeka programı olarak ChatGPT kullandığını açıkça ortaya koyuyordu.' Avukatın müşterisi de benzer şekilde dehşete kapılarak, 'davanın önemli ölçüde gecikmesi' riskine rağmen Johnson'ı hemen işten çıkardı. Moorer, Johnson'ın atanan avukatlar için kamu fonlarının sınırlı bir kaynak olduğunu ve sanki yapay zekanın ödevini yapmasına izin verirken kamu fonlarını kullandığını belirtti. Moorer, 'temel uyarıların ve küçük para cezalarının bu tür görevi kötüye kullanmayı caydırmak için yeterli olmadığı, çünkü yeterli olsaydı burada olmazdık' sonucuna vardı. Johnson'ın yapay zekaya güvenmesini 'kötü niyetle eşdeğer' olarak değerlendiren Moorer, 5.000 dolarlık bir para cezası uyguladı. Yargıç ayrıca 'potansiyel diskalifiye etmeyi düşüneceğini', ancak Johnson'ın müşterisi tarafından zaten görevden alındığı için bunun 'anlamsız hale geldiğini' belirtti. Yorum isteyen Johnson, 'mahkemenin bariz hatalı olgusal bulgular yaptığını ve yaptırımların temyizde olduğunu' söyledi.
Oturum Sorunlarından Bıkmış Durumda
Georgia'da bir avukatın anlattığına göre, bazen bir avukatın taslak yerine nihai versiyonu yanlışlıkla dosyalaması nedeniyle sahte yapay zeka alıntıları dosyalanabilir. Diğer avukatlar, Westlaw veya LexisNexis gibi hukuk araçlarına erişimde sorun yaşadıklarında ihtiyaç duyduklarında yapay zekaya başvurduklarını iddia ediyorlar. Örneğin, Iowa'da bir avukat, 'Westlaw aboneliğiyle ilgili oturum sorunları' yaşadıktan sonra 'ikincil yapay zeka güdümlü araştırma araçlarına' güvenmekten pişmanlık duyduğunu bir temyiz mahkemesine bildirdi. Mahkeme 'teknolojiyle ilgili sorunlara, oturum sorunları gibi, sempati duyduğunu' belirtse de, avukat yaptırımla karşılaştı. Bunun temel nedeni, mahkeme hatalarını açıklamasını emrettikten sonra yapay zeka kullandığını ancak kabul etmesiydi. Bu davada ise 150 dolarlık minimal bir para cezası ödemek veya 'yapay zeka ile ilgili iki saatlik hukuk etiği eğitimi' almak arasında seçim yapma hakkına sahip oldu. Daha az sempatik olan, yanlışlıklardan sorumlu tuttuğu yapay zeka aracı hakkında yalan söyleyen bir avukattı. Louisiana'da görülen bir dava, bir yargıcın bir avukatın yapay zeka hatalarının 'Westlaw'ın bağımsız hukuk veritabanı yerine yapay zeka destekli bir araştırma aracı olan Westlaw Precision'ı kullanmasından kaynaklandığını iddia etmesi üzerine araştırma geçmişini görmesini talep ettiğini öne sürdü. Avukatın araştırmayı dışarıdan yaptırdığı, 'şu anda askıya alınmış' bir avukatın yapay zeka alıntılarına güvendiği ve avukatın hatalarının Westlaw'ın yapay zeka aracından kaynaklandığını yalnızca 'varsaydığı' ortaya çıktı. Askıya alınmış avukat tarafından hangi aracın gerçekten kullanıldığı belirsiz, ancak dilekçeyi imzalayan avukatın 'Westlaw'ın uydurma alıntıları üretmediğini kabul ettiği' sonrasında yargıç, 1.000 dolarlık bir ceza emretti.
'Seri Halüsinasyoncular' Hakkında Uyarılan Yargıç
Illinois'den William T. Panichi adlı bir avukat, Ars'ın incelemesine göre en az üç kez yaptırımla karşılaştı. Temmuz ayında aldığı ilk cezalarına yanıt olarak, 'araştırma yazılımı arasında' iken yapay zeka kullanma cazibesine kapıldığını itiraf etti. Bu davada mahkeme, avukatın kendisiyle çeliştiğini tespit ederek daha ağır yaptırımlar emretti. Mahkeme kararına göre, Panichi 'aynı anda hem özetleri üretmek için yapay zeka kullandığını, kendi bağımsız araştırmasını yapmadığını ve hatta 'bu temyiz başvurusunda kendi başına çok az iş yaptığını' itiraf etti' ve aynı zamanda bu davanın 'zaman açısından olağandışı' olduğu ve ofisinin bilgi edinme konusunda 'olağanüstü bir iş' yaptığı gerekçesiyle daha yüksek bir ücret talep ettiğini savundu. Mahkeme bu yapay zeka kötüye kullanımını o kadar kötü buldu ki, Panichi'ye 1.000 dolarlık bir cezanın yanı sıra 'aldığı 6.925,62 dolarlık ödemeyi geri vermesi' emredildi. Temmuz ayında mahkemeye, 'Temyiz mahkemesinde çalışmaya devam edebilirsem bir daha yapmayacağım' diyen Panichi, Ağustos ayında iki tur daha yaptırımla karşılaştı. Panichi, yorum taleplerine hemen yanıt vermedi. Yapay zeka tarafından üretilen halüsinasyonlar bulunduğunda, genellikle mahkemeye, diğer taraf avukatlarına veya her ikisine birden, hangi tarafın zamanının ve kaynaklarının sahte davaları doğrulama konusunda boşa harcandığına bağlı olarak cezalar ödenir. Avukatlar, cezaları mümkün olduğunca düşük tutarak diğer taraf avukatlarına ödeme yapmaya daha yatkın görünüyorlar. Bir avukat hatta 'LexisNexis veya Westlaw'a alıntıları yazmak birkaç saniye sürer, saatler değil' diye savundu, ancak kendi alıntılarını kontrol etmek için o değerli saniyeleri ayırmadığını görmezden geldi. Davadaki yargıç Nancy Miller, 'bu tür ifadelerin, avukatın yükümlülükleri konusunda şaşırtıcı bir farkındalık eksikliği olduğunu gösterdiğini' açıkça belirtti ve 'hata düzeltme sorumluluğunun, hatayı ilk fark eden olsalar bile karşı taraf avukatına veya mahkemeye asla kaymadığını' kaydetti. Miller, 'bu tür hataların zararlarını azaltma görevinin imzalayana ait olduğunu' söyledi. 'Bu hataların uygun şekilde düzeltilmesi, ya dilekçelerin geri çekilmesi veya tadil edilip tamamlanması yoluyla ne kadar erken yapılırsa, herkesin zamanı o kadar az boşa harcanır ve daha az maliyet oluşur.' Texas ABD Bölge Yargıcı Marina Garcia Marmolejo da, aynı şekilde daha fazla zamanın, diğer yargıçların sahte yapay zeka tarafından üretilen alıntılara nasıl tepki verdiğini belirlemek için harcandığını açıkladı. 'Milletin en yoğun mahkeme gündemlerinden birinde, öncelikle hatalı yapay zeka alıntılarını tespit etmek için pek kaynak yok, hele bu konudaki gelişen davaları incelemek için hiç yok' dedi. En az bir Florida mahkemesi, bir avukatın yapay zekayı kötüye kullanmasından sonra diğer taraf avukatlarına borçlu olduklarını iddia ettikleri ücretleri ödemeyi reddettiğini görünce 'şok oldu'. Bu davadaki avukat James Martin Paul, Charlotin'in veri tabanının aksi takdirde 'yapay zeka tarafından üretilen dava hukuku için şimdiye kadarki en büyük yaptırımlar olabileceğini' savunarak borçlu olunan ücret ve masrafların dörtte birinden daha azını ödemeyi talep etti. Ancak Paul'un argümanlarına boyun eğmek 'sadece seri halüsinasyonculara fayda sağlardı' diyen Florida mahkemesi, sonuç olarak Paul'u mahkemenin 'veri tabanındaki diğer suçlulardan çok daha ağır' olarak nitelendirdiği ihlal nedeniyle 85.000 dolardan fazla para cezasına çarptırdı ve onu 'meşru hukuki uygulama olarak kabul edilemeyen ve caydırılması gereken tekrarlanan, kötüye kullanma, kötü niyetli davranışlarla' azarladı. Paul yorum taleplerine hemen yanıt vermedi. Illinois'den bir ABD iflas yargıcı Michael B. Slade, tüm avukatları mahkemeleri yük altına sokan yapay zeka kestirmelerini bırakmaya çağırarak mazeretleri değerlendirmeyi bıraktığını belirtti. Slade, 'Dürüst olmak gerekirse, bu noktada, yasal araştırma yapmak için üretken yapay zeka platformlarını kullanmanın ateşle oynamak olduğunu bilmeyen herhangi bir avukat bir bulutun içinde yaşıyor' diye yazdı.