enflasyonemeklilikötvdövizakpchpmhp
DOLAR
41,9771
EURO
48,8668
ALTIN
5.581,04
BIST
10.608,26
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Hafif Yağmurlu
22°C
İstanbul
22°C
Hafif Yağmurlu
Cuma Az Bulutlu
24°C
Cumartesi Hafif Yağmurlu
19°C
Pazar Az Bulutlu
21°C
Pazartesi Az Bulutlu
24°C

Siber Suçların Tehlikeli Yeni Yüzü: Deepfake Kimlik Avı Saldırısı

Kimlik avı hücumları, uzun yıllardır var olan bir siber hücum usulü olsa da hala kuruluşlara saldırmanın ve sızmanın en tesirli yollarından biri olarak görülüyor. Son yıllarda kimlik avı taarruzları, yapay zeka teknolojilerinin siber cürüm usulü olarak kullanılmasıyla biçim değiştirdi.

Siber Suçların Tehlikeli Yeni Yüzü: Deepfake Kimlik Avı Saldırısı
05.03.2024 17:00
10
A+
A-

Kimlik avı taarruzları, uzun yıllardır var olan bir siber taarruz metodu olsa da hala kuruluşlara saldırmanın ve sızmanın en tesirli yollarından biri olarak görülüyor. Son yıllarda kimlik avı taarruzları, yapay zeka teknolojilerinin siber kabahat usulü olarak kullanılmasıyla hal değiştirdi. Deepfake kimlik avı atak teşebbüslerinin 2023 yılında %3.000 oranında arttığını lisana getiren Bitdefender Antivirüs Türkiye distribütörü Laykon Bilişim’in Operasyon Yöneticisi Alev Akkoyunlu, deepfake kimlik avı hücumlarına nerelerde maruz kalınabileceğine ve karşı karşıya gelindiğinde neler yapılması gerektiğini paylaştı. 

Deepfake derin öğrenme usulüyle uydurma imajların, görüntülerin ve seslerin oluşturulması manasına geliyor. Kimlik avı akınları, siber hatalıların mağdurları alt etmek için kullandıklarını en tesirli yollardan biri olarak görülüyor. Deepfake kimlik avı akınları, toplumsal mühendislik teknikleri ve deepfake teknolojisinin birleşimiyle yeni bir siber hücum formülü olarak hayata girdi. Deepfake kimlik avı ataklarındaki artış, derin öğrenme modellerinin daha erişilebilir hale gelmesinden kaynaklanıyor. Günümüzde artık yapay zeka algoritmaları düşük maliyetli yahut fiyatsız bir halde olduğu için ulaşabilir bir durumda. Deepfake kimlik avı hücum teşebbüslerinin 2023 yılında %3.000 oranında arttığı gözlemlendi. En çok finans ve muhasebe alanındaki şahısların hedeflendiğini ve CFO’ların taklit edidiğine dikkat çeken Bitdefender Antivirüs Türkiye distribütörü Laykon Bilişim’in Operasyon Yöneticisi Alev Akkoyunlu, siber hatalıların deepfake kimlik avı ataklarını kullandıkları alanları ve kuruluşların dikkat etmesi gereken noktaları anlattı. 

1. E-postalar yahut iletiler. Kuruluşlar her yıl iş e-postası atakları nedeniyle milyarlarca dolar kaybediyor. Deepfake’ler e-posta ataklarını daha da tehlikeli hale getiriyor zira tehdit aktörleri bu yaklaşımı bildirileri şahsileştirmek ve kimliklerini daha inandırıcı göstermek için kullanabiliyor. Örneğin, saldırganlar CEO’ların uydurma LinkedIn profillerini oluşturabilir ve bunları çalışanları cezbetmek için kullanabilir.

2. İmajlı aramalar. Bir siber hatalı, mağdurlarla etkileşime geçmek ve mağdurları saklı bilgileri (kimlik bilgileri gibi) paylaşmaya ikna etmek yahut onları yetkisiz finansal süreçler gerçekleştirmeye yönlendirmek için bir Zoom görüşmesi üzerinden görüntü deepfake kullanabilir. Örneğin, Çin’deki bir dolandırıcı, birinin kimliğine bürünmek için yüz değiştirme teknolojisini kullandı ve mağduru 622.000 doları transfer etmeye ikna etti.

3. Sesli iletiler. Bugünlerde rastgele birinin sesini kopyalamak son derece kolay. Tek gereken üç saniyelik bir klip. Bu deepfake’ler, sesli bildiri bırakmak yahut insanları canlı sohbetlere dahil etmek için kullanılabilir; böylelikle gerçeklik ile aldatma ortasındaki çizgi daha da bulanıklaşır. 2022 yılında kuruluşların %37’sinin deepfake ses sahtekarlığı yaşadığına inanılıyor.

Kuruluşlar Deepfake Kimlik Avı Hücumları Konusunda Neden Endişelenmeli?

1. Süratle büyüyen bir tehdit. Deepfake teknolojisi, üretken yapay zeka araçları sayesinde giderek daha erişilebilir hale geliyor. Deepfake kimlik avı ve dolandırıcılık hadiseleri 2023 yılında %3.000 üzere şaşırtan bir oranda arttı.

2. Gayeye yönelik. Saldırganlar son derece şahsileştirilmiş ataklar oluşturmak için deepfake’leri kullanabilir. İnsanları belli ilgi alanlarına, hobilerine ve arkadaş ağlarına nazaran hedefleyebilir. Belli kişi ve kuruluşlara has güvenlik açıklarından yararlanabilir.

3. Tespit edilmesi güç. Yapay zeka birinin yazı tarzını taklit edebilir, sesleri harikaya yakın bir doğrulukla klonlayabilir ve insan yüzlerinden ayırt edilemeyen yapay zeka tarafından oluşturulmuş yüzler yaratabilir. Bu da deepfake kimlik avı ataklarının tespit edilmesini son derece zorlaştırır.

Kuruluşlar Deepfake Kimlik Avı Hücumlarını Nasıl Önleyebilir?

1. Öncelikli olarak finans departmanlarında misyon alan çalışanları eğitin.  Kuruluşların finans departmanlarında misyon alan çalışanlar, bilhassa para transferi üzere süreçleri yaparken dikkatli olmaları konusunda eğitilmeli. Bilhassa işverenleri yahut yöneticileri tarafından acil ve süratli bir formda yapılması istenen para transferlerinde sabırsız davranmak yerine, daha dikkatli bir davranış biçimi sergilemeleri gerekiyor. Genelde bu tıp siber dolandırıcılık metotlarında siber hatalılar, ruhsal baskıyla para transfer işini aceleye getirmeye çalışıyor. Para transferi yapılacak hesabın sahiden cari bir alacaklı olup olmadığını denetim etmek gerekiyor. Hesap bilgisinin yanlışsız kişi olduğundan emin olmak için para transferi yapılacak hesap numarası denetim edilmeli. Yönetici, para transferi yapılacak kişi tarafından aranarak hakikaten bu türlü bir para transfer buyruğu verip vermediği denetim etmeli. 

2. Çalışanların geçersiz içerik konusundaki farkındalığını artırın.  Çalışanlar, düzmece içeriğin giderek yaygınlaşması konusunda bilinçlendirilmeli. Çalışanlara, yalnızca çevrimiçi profillerinde kimi görüntüler, fotoğraflar yahut ses klipleri olduğu için çevrimiçi bir kişiliğe, bireye yahut kimliğe güvenmemeleri gerektiği öğretilmeli.

3. Çalışanları deepfake’i tanımaları ve raporlamaları için eğitin.  Kimlik avını tedbire ve tespit etme kelam konusu olduğunda hiçbir şey insan sezgisinden daha güçlü olamaz. Çalışanları, uydurma çevrimiçi kimlikleri, dudak senkronizasyonu tutarsızlıkları üzere görsel anormallikleri, sarsıntılı baş ve gövde hareketlerini, olağandışı ses işaretlerini ve sistemsiz yahut kuşkulu istekleri tanıma ve raporlama konusunda eğitmek çok değerli. Bu eğitim uzmanlığına sahip olmayan kuruluşlar, gerçek, kullanıma hazır örnek toplumsal mühendislik senaryolarını kullanan kimlik avı simülasyon programlarını da kıymetlendirebilir.

4. Kimlik sahtekarlığı riskini azaltmak için güçlü kimlik doğrulama prosedürleri kullanın.  Kimlik avına dirençli çok faktörlü kimlik doğrulama ve sıfır itimat üzere araçların kullanılması, kimlik hırsızlığı ve yanal hareket riskini muhakkak bir dereceye kadar azaltabilir. Bununla birlikte, güvenlik başkanları saldırganların makul deepfake tabanlı toplumsal mühendislik teknikleri kullanarak kimlik doğrulama sistemlerini hacklemeye yahut baypas etmeye çalıştıklarını görmeyi bekleyebilirler.

Deepfake kimlik avı hücumlarının başarısı ve aktifliği, özünde insanların itimadını ve saflığını kullanma marifetinde yatıyor. Kuruluşlar çalışanlarına internette gördükleri ya da duydukları her şeyi sorgulamayı öğretmeli ve sistemli toplumsal mühendislik farkındalık idmanlarıyla altıncı bir savunma hissiyle birlikte bir şey fark ettikleri anda devreye giren bir kas hafızası oluşturmalı. Kuruluşların giderek yaygınlaşan bu tehditle tesirli bir halde gayret edebilmelerinin en uygun yolu insan sezgisi.

Kaynak: (BYZHA) Beyaz Haber Ajansı