Dünya

Suçlular 'Deepfake'le nasıl dolandırıyor?

San Francisco merkezli bir siber analiz şirketi olan CyberCube geçen hafta, deepfake video ve ses teknolojilerinin kullanımının önümüzdeki iki yıl içinde işletmeler için büyük bir siber tehdit haline gelebileceği konusunda uyardı.

San Francisco merkezli bir siber analiz şirketi, CyberCube geçen hafta, deepfake video ve ses teknolojilerinin kullanımının önümüzdeki iki yıl içinde işletmeler için büyük bir siber tehdit haline gelebileceği konusunda uyardı.

Deepfake teknolojisi, yanlış bilgileri yaymak için kolayca kullanılabilecek ikna edici kurgusal video veya ses içeriği oluşturur. Bu tür videolar çoğunlukla dijital olarak oluşturulmuş sahte tanınmış kişilerin gerçekte hiç söylemedikleri veya yapmadıkları şeyleri söylediklerini veya yaptıklarını gösterir.

Siber riskleri analiz eden CyberCube son raporu 'Sosyal Mühendislik: Gerçekliği ve sahteyi bulanıklaştırmak'da, "AI (yapay zeka) ve makine öğrenimi kullanarak gerçekçi ses ve video sahtekarlıkları oluşturma yeteneğinin istikrarlı bir şekilde arttığını" vurguladı.

Raporda, son teknolojik gelişmelerin ve işletmelerin video tabanlı iletişime artan bağımlılığının gelişmeleri hızlandırdığına ve suçluları bu eğilimi kullanmak için teknolojiye yatırım yapmaya yönlendirdiğine dikkat çekildi.

Raporun yazarı, CyberCube'un siber güvenlik stratejisi başkanı Darren Thomson  "Deepfake video ve ses gibi yeni ve gelişmekte olan sosyal mühendislik teknikleri, siber tehdit ortamını temelden değiştirecek ve her boyuttaki suç örgütü için hem teknik olarak uygulanabilir hem de ekonomik olarak uygun hale gelecektir" diye yazdı. 

Bu tür teknik gelişmeler ve COVID-19 salgınının teşvik ettiği artan teknoloji kullanımı nedeniyle, artık çevrimiçi olarak erişilebilen iş insanlarının video ve ses örnekleri arttı. CyberCube'e göre siber suçlular "bireylerin foto-gerçekçi simülasyonlarını oluşturmak için geniş bir veri kaynağına sahip ve bu daha sonra insanları etkilemek ve manipüle etmek için kullanılabilir".

Veri ve analiz platformu CyberCube, Washington Üniversitesi tarafından yaratılan ve "konuşma sırasında insan ağzının hareketini son derece doğru bir şekilde taklit etmek" için kullanılabilecek bir teknolojiye de dikkat çekti.

Thomson, "Elon Musk'ın içeriden bilgi alışverişi ipuçları veren bir videosunun viral hale geldiği bir senaryo hayal edin ancak bu gerçek Elon Musk değil. Ya da bir politikacı bir video klipte yeni bir politika duyurur, ancak bir kez daha bu gerçek değil" diye yazdı ve "Suçluların aynı tekniği işletmelere ve varlıklı özel kişilere uygulaması sadece bir an meselesi" uyarısında bulundu.

Thomson'a göre, "Kıdemli bir yöneticiden personele hileli bir ödeme yapması veya bir bilgisayar korsanı tarafından oluşturulan bir hesaba para aktarması talimatını veren sahte bir sesli mesaj kadar basit" şekilde siber suç işlenebilir.

CyberCube, deepfake video ve ses teknolojisinin yanı sıra, "geleneksel sosyal mühendislik tekniklerinin artan kullanımının, kişisel bilgilere ve koruma sistemlerine erişim elde etmek için insan güvenlik açıklarından yararlanma" konusunu da incelediğini söyledi.

Raporda, "Bunun bir yönü, çevrimiçi olarak veya reddedilen veya çalınan tıbbi kayıtlar gibi fiziksel kaynaklardan elde edilen bilgilere dayanarak hedef bir kişi için sahte bir kimlik oluşturmak için gerekli bilgileri bir araya getiren sosyal profillemedir" denildi ve "Pandeminin yarattığı yerel ve kurumsal BT sistemlerinin bulanıklaşmasının, çevrimiçi platformların artan kullanımıyla birleştiğinde sosyal mühendisliği suçlular için kolaylaştırdığını"na vurgu yapıldı.

CyberCube bu nedenle sigortacıları deepfake teknolojilerin gelişimiyle mücadele etmek için yapabilecekleri çok az şey olduğu konusunda uyardı, ancak risk seçiminin siber sigortacılar için giderek daha önemli hale geleceğini bildirdi.

Şirketlerin çalışanları sahte saldırılara hazırlıklı olmaları için eğitmeleri, en azından başlangıç ​​için bir çare olabilir.

CyberCube, derin sahte teknolojinin siyasi sistemleri veya finansal piyasaları istikrarsızlaştırmak için kullanılabileceği için büyük kayıplar yaratma potansiyeline sahip olduğunu vurguladı.

CyberCube'a göre böyle bir vaka 2019 yılında, "siber suçluların 243.000 ABD doları tutarında hileli transfer talebinde bulunmak için bir icra yöneticisinin sesini taklit etmek için yapay zeka tabanlı yazılım kullanması" ile gerçekleşti.

Türkiye'de deepfake teknolojisinin bir örneği, son olarak bir banka reklamında ünlü oyuncu Kemal Sunal'ın canlandıırlmasında kullanıldı.

Bkz. https://insights.cybcube.com/social-engineering-cybercube-report

 

:
share
Siteyi Telegram'da Paylaşın
Siteyi WhatsApp'ta Paylaşın
Siteyi Twitter'da Paylaşın
Siteyi Facebook'ta Paylaşın