Konya
29 Nisan, 2024, Pazartesi
  • DOLAR
    32.60
  • EURO
    35.04
  • ALTIN
    2442.5
  • BIST
    10082.77
  • BTC
    62604.05$

Yapay Zekalı Katliam

16 Nisan 2024, Salı 00:01
İsrail'in 7 Ekim 2023'ten bu yana yoğunlaşarak devam eden ve özellikle Gazze'de katliama varan saldırılarına dair gün geçtikçe yeni detaylar ortaya çıkıyor. Son günlerde tartışma konusu olan, İsrail ordusunun yapay zekâ ürünü “Lavender” adlı bir yapay zekayla sivilleri gözetmeden katliam yapması meselesi de gündemi sarsan en önemli olayların başında geliyor.
Esasında İsrail ordusunun bir süredir yapay zekâ kullandığını biliyoruz. Ancak böylesini muhtemelen kimse tahmin etmiyordu. Üstelik bu vahşet dolu eylemlerde İsrail'in insanlıktan ne kadar uzak olduğunu bir kez daha görüyoruz çünkü geliştirdikleri sistemle dünyanın en tehlikeli yapay zekâ destekli "katliam makinesi"ni inşa ettiler.
Gelinen noktada, tamamıyla insandan bağımsız karar veren, bu nedenle ciddi hatalar yapan, sivil gözetimi neredeyse olmayan ve belirlediği hedefleri kitlesel olarak damgalayıp soykırımın önünü açan bir teknolojiyle karşı karşıyayız.
Lavender’in diğer yapay zeka silahlarından farkı ise aileleri işaretlemesi ve onları ölüm listesine koyması.
Yapay Zeka'nın, yani zeki makinelerin, sağlık sektöründe, mühendislikte, arama-kurtarmada ve daha pek çok alanda hayatımızı kolaylaştırıyor olması elbette sevindiricidir.
Fakat böyle güçlü bir teknolojinin savunma sanayinde kullanımının gelecekte getirebileceği riskler, aralarında fizikçi Stephen Hawking, Tesla Motors Şirketi yöneticisi Elon Musk ve Apple Şirketi kurucu ortağı Steve Wozniak gibi yapay zeka araştırmacılarının, uzmanların ve düşünürlerin bulunduğu bir camiayı öylesine rahatsız etmiş olmalı ki bu grup "otonom silah sistemleri"nin, diğer bir deyişle, "Yapay Zekaya Sahip Silah Sistemleri"nin gelecekteki olası tehlikelerine dikkat çeken ve Birleşmiş Milletler’e hitaben yazılmış açık bir mektuba imza attı
"Otonom Silah" Ne Demek?
Dışarıdan bir kişinin müdahalesine gerek duymayan ve önceden belirlenmiş kıstaslara haiz kişileri ya da hedefleri kendi kendine belirleyip vurabilen, kısacası kendi kendini yönetebilen araçlara "otonom silahlar" deniyor.
Robotların olumsuz yanları üzerine kurgulanan filmlere de ulaşmak mümkün. Örneğin, “The Terminator”, “I, Robot” gibi filmler, çok sayıda kişinin izlediği meşhur yapımlardan. Elbette bu filmler dışında, başka onlarca sinema eseri daha, ele aldığımız bu konulara ilgi duyan kişilerin aklına gelecektir.
Yine çizgi dizilere örnek olarak da “The Jetsons” serisini örnek verebiliriz. Hatta robotlara ilişkin, örneğin “Detroit: Become Human” gibi bilgisayar/konsol oyunlarında dahi kullanıcılara, robotlar ve insanlık arasında seçim yapmaya dayalı bir senaryo sunulmakta. Bu ifadelerimiz, yani filmler, romanlar gibi kurgu eserlerden örnek vermemiz, ilk bakışta meselenin magazinsel boyutu gibi algılanabilir.
Ancak bu şekilde düşünmemek gerekir. Öyle ki, bu gibi eserler, hukukçular başta olmak üzere bilim insanlarına da bu sistemlerin muhtemel iyi ve kötü yanları üzerinde uyarılar veriyor.
Tel Aviv merkezli "+972" isimli internet sitesi; İsrail ordusunun, Gazze Şeridi'ne yönelik saldırılarında hedef belirlemek için kullandığı "Habsora" adlı yapay zeka uygulamasını sivil altyapının kasıtlı olarak vurulmasında kullanıldığını ve bu uygulamayla otomatik olarak üretilen hedeflere yönelik saldırılarda kaç sivilin yaşamını yitireceği her zaman bilindiğini yazdı.
Gazze'de evler de dahil olmak üzere potansiyel hedefler ve burada yaşayan sivillerin tahmini sayısı, istihbarat birimleri tarafından önceden incelenip hesaplanıyor. Böylece saldırmadan önce kabaca kaç sivilin öldürüleceği ordu tarafından biliniyor.
Tel Aviv'in şimdiye kadarki benzer saldırılarına kıyasla çok daha fazla sivilin öldürülmesinin bir diğer nedeni de İsrail ordusunun büyük ölçüde yapay zekâ teknolojisiyle geliştirilen ve daha önce "mümkün olanın çok ötesinde bir oranda" otomatik hedef üretebilen Habsora sistemini yaygın kullanması oldu.
İsrail'in yapay zekâ destekli bu korkunç sistemi, Filistin'de yaşanan dramı ve İsrail'in soykırıma varan insanlık suçunu bir kez daha göstermiş oluyor. Sivil ayrımı yapmadan geliştirilen bir makineyle on binlerce insanı katleden ve yerleşim yerlerini bombalayan İsrail'e bu anlamda dünyada ne yazık ki tam anlamıyla hesap sorulmuyor.
Meselenin uluslararası hukuk tarafı bir yana, İsrail'in yaptıkları, yapay zekanın nasıl bir ölüm makinesi haline gelebileceğini de bize gösteriyor. İnsandan bağımsız, kendi kendine kararlar verebilen ve bunları uygulayabilecek yetkinliğe sahip bir yapay zekâ sistemi, bütün dünya için tehlike anlamına geliyor.

Yorum Yazın

E-posta hesabınız sitede yayımlanmayacaktır. Gerekli alanlar ile işaretlenmişdir.