Güncel

Türkiye'deki çalışanların yalnızca yüzde 21'i bir deepfake'i gerçek görüntüden ayırabiliyor

Kaspersky Kıdemli Veri Bilimcisi Dmitry Anikin:
- "Dark web kaynaklarının sürekli izlenmesi, deepfake endüstrisi hakkında değerli bilgiler sağlayarak araştırmacıların bu alandaki tehdit aktörlerinin en son trendlerini ve faaliyetlerini takip etmesine olanak tanıyor" - "Kaspersky'nin Dijital Ayak İzi İstihbaratı hizmeti, müşterilerinin deepfake ile ilgili tehditler söz konusu olduğunda tedbirli olmalarına yardımcı olmak için bu tür bir izleme içeriyor"

İSTANBUL - Kaspersky anketi, Türkiye'deki çalışanların yalnızca yüzde 21'inin bir deepfake'i gerçek görüntüden ayırabildiğini ortaya çıkardı.

Şirketten yapılan açıklamaya göre, Kaspersky Business Digitization anketine göre Türkiye'deki çalışanların yüzde 43'ü bir deepfake'i gerçek görüntüden ayırt edebileceklerini söyledi. Ancak yapılan testte yalnızca yüzde 21'i gerçek bir görüntüyü yapay zeka tarafından oluşturulan bir görüntüden ayırt edebildi. Bu da kuruluşların bu tür dolandırıcılıklara karşı savunmasız olduğu ve siber suçluların yasa dışı faaliyetler için çeşitli şekillerde yapay zeka görüntülerini kullanabileceği anlamına geliyor.

Örneğin, siber suçlular bir üst yöneticinin (CEO) banka havalesi talep ettiği veya bir ödemeye onay verdiği sahte bir video oluşturabilir ve bu video şirket fonlarını çalmak için kullanılabilir. Bireylerden para ya da bilgi sızdırmak için kullanılabilecek videolar ya da görüntüler de oluşturulabilir. Siber suçlular ayrıca yanlış bilgi yaymak veya kamuoyunu manipüle etmek için deepfake'leri kullanabilir. Türkiye'deki çalışanların yüzde 39'u şirketlerinin deepfake yüzünden para kaybedebileceğine inanıyor.

Açıklamada görüşlerine yer verilen Kaspersky Kıdemli Veri Bilimcisi Dmitry Anikin, birçok çalışanın bir deepfake'i tespit edebileceğini iddia etse de araştırmalarını sadece yarısının bunu gerçekten yapabildiğini gösterdiğini belirtti.

Anikin, "Kullanıcıların dijital becerilerini abartması oldukça yaygın rastlanılan bir durum. Kuruluşlar için bu, insana dayalı güvenlikte açıklar ve potansiyel siber riskler anlamına geliyor. Dark web kaynaklarının sürekli izlenmesi, deepfake endüstrisi hakkında değerli bilgiler sağlayarak araştırmacıların bu alandaki tehdit aktörlerinin en son trendlerini ve faaliyetlerini takip etmesine olanak tanıyor. Bu izleme, gelişen tehdit ortamına ilişkin anlayışımızı geliştirmemize yardımcı olan deepfake araştırmasının kritik bir bileşenini oluşturuyor. Kaspersky'nin Dijital Ayak İzi İstihbaratı hizmeti, müşterilerinin deepfake ile ilgili tehditler söz konusu olduğunda tedbirli olmalarına yardımcı olmak için bu tür bir izleme içeriyor." ifadelerini kullandı.

Açıklamaya göre, Kaspersky, deepfake'lerle ilgili tehditlerden korunmak için şunları öneriyor:

"Kuruluşunuzdaki siber güvenlik uygulamalarını kontrol edin. Yalnızca yazılım biçimini değil, gelişmiş BT becerilerini de buna dahil edin. Mevcut tehdit ortamının önüne geçmek için Kaspersky Threat Intelligence kullanın. Kurumsal 'insan güvenlik duvarınızı' güçlendirin. Çalışanların deepfake'lerin ne olduğunu, nasıl çalıştıklarını ve oluşturabilecekleri zorlukları anladığından emin olun. Çalışanların bir deepfake'i nasıl tespit edeceklerini öğretmek için sürekli farkındalık ve eğitim çalışmaları düzenleyin. Kaspersky Automated Security Awareness Platform, çalışanların en son tehditler konusunda güncel kalmasına yardımcı olur ve dijital okuryazarlık seviyelerini artırır.

Güvenilir haber kaynaklarını referans alın. Bilgi okuryazarlığı, deepfake'lerin yaygınlaşmasını önleyecek en önemli unsurdur. 'Güven ama doğrula' gibi protokolleri benimseyin. Sesli mesajlara ve videolara şüpheyle yaklaşmak insanların asla kandırılmayacağını garanti etmez, ancak yaygın tuzakların çoğundan kaçınmaya yardımcı olabilir. Bu tür bir saldırının kurbanı olmamak için deepfake videoların dikkat edilmesi gereken temel özelliklerinin farkında olun. Sarsıntılı hareketler, bir kareden diğerine geçerken ışık kaymaları, cilt tonunda değişimler, garip bir şekilde göz kırpma veya hiç göz kırpmama, dudakların konuşmayla senkronize olmayışı, görüntüdeki dijital kirlilikler, videonun kasıtlı olarak düşük kalitede kodlanmış ve zayıf aydınlatmaya sahip oluşu deepfake belirtisi olabilir."

Kaynak: ANADOLU AJANSI

Bir Cevap Yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir