Konya
Açık
26°
Adana
Adıyaman
Afyonkarahisar
Ağrı
Amasya
Ankara
Antalya
Artvin
Aydın
Balıkesir
Bilecik
Bingöl
Bitlis
Bolu
Burdur
Bursa
Çanakkale
Çankırı
Çorum
Denizli
Diyarbakır
Edirne
Elazığ
Erzincan
Erzurum
Eskişehir
Gaziantep
Giresun
Gümüşhane
Hakkari
Hatay
Isparta
Mersin
İstanbul
İzmir
Kars
Kastamonu
Kayseri
Kırklareli
Kırşehir
Kocaeli
Konya
Kütahya
Malatya
Manisa
Kahramanmaraş
Mardin
Muğla
Muş
Nevşehir
Niğde
Ordu
Rize
Sakarya
Samsun
Siirt
Sinop
Sivas
Tekirdağ
Tokat
Trabzon
Tunceli
Şanlıurfa
Uşak
Van
Yozgat
Zonguldak
Aksaray
Bayburt
Karaman
Kırıkkale
Batman
Şırnak
Bartın
Ardahan
Iğdır
Yalova
Karabük
Kilis
Osmaniye
Düzce
40,9418 %0,51
47,7852 %0,57
4.403,48 % 0,46
Ara
reklam
Konya Postası Gazetesi Teknoloji Yapay zekayla oluşturulan sahte görseller ve sesler "yeni nesil silah" niteliği taşıyor

Yapay zekayla oluşturulan sahte görseller ve sesler "yeni nesil silah" niteliği taşıyor

Yapay zekayla üretilmiş fotoğraflar, taklit sesler ve deepfake videolar, savaş alanlarından seçim meydanlarına kadar dünyanın dört bir yanında "bilgi manipülasyonunun ve dolandırıcılığın en etkili ve tehlikeli" araçları haline geliyor.

KAYNAK: AA
Okunma Süresi: 4 dk

Yapay zeka tehdit tespit platformu Sensity AI şirketinin araştırmalarına göre, Rusya-Ukrayna Savaşı'nda Ukraynalı siyasetçiler ve askerler, deepfake videolarla "teslim olmaya çağıran" ya da "savaş suçu işlediğini itiraf eden" kişiler gibi gösteriliyor.

Tayvan'da seçim dönemlerinde, politikacıların sahte konuşmaları, uydurma skandalları ve gafa benzeyen sahneleri gibi Çin kaynaklı yapay zeka içerikleri sosyal medyada yayılarak karşıt görüşlü adaylar hedef alınıyor.

Japonya'da ise yapay zekayla üretilmiş sahte doğal afet görüntüleri, nükleer kaza veya sel felaketi gibi kurgular halkta panik yaratmak için kullanılıyor.

Bu tür olaylar, yapay zeka araçlarının bilinçsizce ve kontrolsüzce "yeni nesil silahlar" olarak kullanılması durumunda doğurabileceği tehlikeleri bir kez daha gündeme getiriyor.

"Yapay zeka ürünlerini tanımak imkansız hale geldi"

Sensity AI'nin kurucu ortağı Francesco Cavalli, yapay zekayla oluşturulan görseller, videolar ve seslerin etki ve tehlikelerine ilişkin AA muhabirine değerlendirmelerde bulundu.

Cavalli, yapay zeka araçları geliştikçe neyin gerçek neyin olmadığını anlamanın daha zorlaştığını söyledi.

Yapay zekayla üretilen içerikleri anlamak için yüzde tutarsız ışıklandırma, aşırı pürüzsüz cilt dokusu, videolarda yapay göz kırpma ya da ağız hareketlerine bakılması tavsiye ediliyor.

Cavalli, "Yapay zeka içerikleri, özellikle düşük çözünürlüklü veya sıkıştırılmış formatlarda insan gözüyle tespitten kaçabiliyor. Yapay zekayla oluşturulmuş sesler insan için artık tanınması imkansız hale geldi." dedi.

Yapay zekayla manipülasyon

Halihazırda yapay zekayla taklit edilen seslerin bu alandaki en yüksek riski oluşturduğu belirtiliyor.

Yapay zeka kullanarak Dışişleri Bakanı Marco Rubio'yu taklit eden bir dolandırıcı, ABD'li siyasiler tarafından sıkça kullanılan "Signal" isimli mesajlaşma uygulamasında Rubio adına sahte bir hesap oluşturarak üç farklı ülkenin dışişleri bakanları, bir Kongre üyesi ve bir vali ile temas kurdu.

Seslerin kullanımın kolay ve tespitinin de gecikmeli olduğunu dile getiren Cavalli, taklit seslerin telefonda konuşulan kişinin güvenilen biri olduğuna inandırmak için kullanıldığını ifade etti.

Midjourney ve Runway gibi araçlar geliştikçe gerçekle yapayı tutarlı şekilde ayırt etmekte zorlaşıyor.

Cavalli konuya ilişkin, "Üretici araçlar geliştikçe, eğitimli gözler bile kolayca kandırılabiliyor." diye konuştu.

"Seçim müdahalesinde kullanılan yapay zeka üretimi medya, dolandırıcılık platformlarını tanıtan sahte basın toplantıları yapan politikacılar ve kamuoyunu manipüle etmek için paylaşılan yapay zeka üretimi savaş görüntülerini belgeledik." diyen Cavalli, bu görsellerin genellikle sahte haber siteleri, sosyal medyadaki reklamlarla yayıldığını anlattı.

Cavalli, Çin, Japonya, Tayvan'da yapay zeka kullanımına ilişkin şirketinin incelediği vakalara atıfta bulunarak, "Tüm bu örneklerde, yapay zeka destekli propaganda sadece deneysel bir tehdit değil, algıyı manipüle etmek, toplumları istikrarsızlaştırmak ve yumuşak güç uygulamak için çeşitli çatışmalarda aktif olarak kullanılan küresel bir silahtır." değerlendirmesinde bulundu.

Proaktif denetim ve işbirliği şart

Teknoloji şirketleri ve platformlara yapay zeka tabanlı görsel dezenformasyonla mücadele konusunda harekete geçmeleri yönünde çağrılar yapılıyor.

Platformların ise bu konuya odaklandığı ancak çoğunun "yapay medyayı geniş ölçekte tespit edebilecek sağlam adli inceleme sistemlerine sahip olmadığı" ifade ediliyor.

Cavalli, "Bazıları dolandırıcılık kampanyalarından bilinçli şekilde kar ediyor. Ancak dış baskı olunca müdahale ediyor. Tespit teknolojisi sağlayıcılar, platformlar ve düzenleyiciler arasında daha güçlü işbirliği şart." dedi.

Yapay zekayla üretilen içeriklerin "etiketlenmesinin" doğru yol olmadığını düşündüğünü aktaran Cavalli, şunları söyledi:

"Yapay zekayla oluşturulmuş içerik kendiliğinden zararlı değil, kullanım şekli ve yeri önemli. Örneğin, sosyal medya platformlarının, deepfake dolandırıcılık reklamları için ağlarını denetimsiz kullandırmasına ağır yaptırımlar uygulanmalı. Kullanıcı şikayetlerine dayanmak yerine, proaktif önlemler almaları zorunlu olmalı."

"Görmek artık inanmak demek olmayacak"

Sensity'nin geliştirdiği sistemler yüz manipülasyonun belirlenmesi, tamamen yapay zekayla üretilmiş görsellerin tespiti, taklit ses analizi ve adli incelemeyi kapsayan dört aşamalı bir analiz sürecinden geçiyor.

Bu analizlerin raporları ise resmi soruşturmalarda ve mahkemelerde kullanılabiliyor.

Cavalli, görsel medyaya olan güvenin gittikçe azaldığına işaret ederek bu konuda farkındalığın artması gerektiğini vurguladı.

İnsanların yapay zekayla üretilen görsel ve seslerin risklerine karşı eğitilmesi, şirketlerin, gazetecilerin ve araştırmacıların adli araçlarla donatılması gerektiğinin altını çizen Cavalli, "Görmek artık inanmak demek olmayacak." ifadesini kullandı.

Yorumlar
* Bu içerik ile ilgili yorum yok, ilk yorumu siz yazın, tartışalım *