Yapay zeka ile yapılan sahte videolar için uyarı yaparlar

uTKu

New member
. üretken yapay zeka Son yıllarda en yıkıcı teknolojilerden biri oldu. Otomatik yazımdan görüntülerin oluşturulmasına kadar kullanımı internetin neredeyse her köşesine genişledi. Ancak genellikle olduğu gibi, aynı zamanda yararlı bir araç haline geldi Sibercinkers.


Çeşitli güvenlik şirketleri bu sorunlar hakkında uyarı veriyor. Siber güvenlik konusunda uzmanlaşmış şirket olan ESET Latin Amerika'nın laboratuvarlarından, Tiktok ve Instagram gibi sosyal ağlarda dolaşan bir dezenformasyon kampanyası konusunda uyardı: Bunlar, yapay zeka ile üretilen avatarların oluşturduğu videolardır. Doktor olmayı simüle ederler ve tedaviler önerirler veya bilimsel garantisi olmayan takviyeler.


Küresel olarak siber güvenliğe atıfta bulunan şirketlerden bir diğeri olan Kaspersky'den de, giderek daha yaygın bir araç olarak derin dişlerin ilerlemesi konusunda uyarıyorlar Kötü niyetli aktörler arasında.


Son zamanlarda yapılan bir raporda şirket, bu teknolojinin sosyal mühendislik kampanyalarında kullanımı konusunda uyardı, burada dolandırıcıların kimlikleri eklemek ve kurbanları duygusal olarak manipüle etmek için yanlış videolar kullandı. “Deepfores artık sadece bir eğlence veya hiciv kaynağı değil: Artık finansal sahtekarlık, şantaj ve büyük ölçekli manipülasyon kampanyaları için kullanılmaktadır. Gerçekçiliği, internetteki bilgilerin doğrulanması için yeni zorluklar doğuruyor ”dedi.


Bu videoların arkasındaki amaç açıktır: Kullanıcıları, bazıları potansiyel olarak tehlikeli olan ürün satın almaya teşvik eder, sanki bir parçası gibi sunulur meşru bir tıbbi tedavinin.


Yanlış Tıbbi Avatarlar: Kampanya Nasıl Çalışır


Videolar benzer bir mantığı takip ediyor: ekranın içindeki bir kutuda, yılların deneyime sahip bir sağlık uzmanı olarak sunulan insan görünümüne sahip bir avatar görünür. Estetik temiz, Ses ikna edici geliyor ve içerik bir sağlık önerisi olarak sunuluyor. Ama her şey yanlış.


“Mesajın bir tarafından verildiğine inanmak için sözde uzmanların yanlış bir doğrulamasını oluşturmaya çalıştıkları haksız bir pazarlama stratejisi kullanıyorlar. konu hakkında bilgi sahibi olan kişi“ESET Latin Amerika Araştırma Laboratuvarı başkanı Camilo Gutiérrez Amaya açıklıyor.


ESET'e göre, teknik özel avatarlarla video oluşturmanıza izin veren platformların kullanımına dayanmaktadır. Yaradan sadece birkaç dakikalık temel malzeme kaydetmelidir (konuşma veya poz) ve daha sonra sistem, Avatar'ın dudak senkronizasyonu dahil herhangi bir mesajı tekrarladığı klipslerin üretilmesine izin verir.


Dwentiñy Promosyonları ve Dudy Ürünleri


Ozempic, Tiktok'un sıcak konularından biri. Fotoğraf Reuters

ESET tarafından tespit edilen en çarpıcı vakalardan biri, video, videoda daha etkili olacağını söylüyor. Ozempikilaç başlangıçta tip 2 diyabet için, etkilerinin kilo vermesi için popüler hale geldiği belirtilmiştir.


Video bağlantısı kullanıcıyı bir Amazon sayfasına yönlendirir, ancak orada satılan ürün söz konusu ilaçla ilgili değildir: sadece düzgün bir şekilde desteklenmeyen özelliklerle “gevşeme damlaları” dır.


Bu strateji, teknolojik aldatmayı duygusal baskı ve agresif pazarlama ile karıştırır. Ve format tıbbi bir öneri gibi görünecek şekilde tasarlandığından, Tuzağa düşme riski artar.


Sosyal ağlar ve algoritmalar: yanlış bilgi için verimli arazi


Gündeme yanlış bilgi. Fotoğraf Reuters
Gündeme yanlış bilgi. Fotoğraf Reuters

Bu içeriğin çoğu Tiktok ve Instagram gibi kısa video ağlarında dolaşıyor. ESET'e göre, bu formatı kullanan 20'den fazla hesap tanımlandı, hepsi benzer bir desenle: profesyonel avatarlar, ikna edici bir hikaye ve Arkasında “mucizevi” bir ürün.


Bu avatarların çoğu, kimseye “aktör IA” olmasını sağlayan programlar tarafından üretilir. Kişi bazı klipler kaydeder, platforma yükler ve karşılığında resimleriyle oluşturulan videolar için para alabilir.


Birçok durumda bu tür içeriğin kullanımı platformların hüküm ve koşullarını ihlal etse de, sorun hız nedeniyle büyümeye devam ediyor bu malzemenin üretilip yayılması.


ESET'ten “Bu tür videolar sadece sağlık hatalarını teşvik etmekle kalmaz, aynı zamanda büyük yanlış bilgi bağlamlarında daha yüksek bir riski de temsil eder.”


Aynı çizgiler boyunca, Palo Alto Networks, DeepFakes kullanımında, yönlendirilmiş saldırıların bir parçası olarak, hatta sürekli büyüme tespit etti. kurumsal ve siyasi bağlamlar.


Tehditler, Ünite 42'de uzmanlaşmış biriminiz tarafından yapılan bir rapora göre, klonlanmış seslerin veya yöneticilerin yanlış videolarının zaten banka transferlerine izin vermek veya kuruluşlar içindeki stratejik kararları etkilemek için kullanıldığı durumlar kaydedilmektedir.


“Deepfores, kamudan özel alana göç ediyor ve tespit edilmesi gereken giderek daha zor teknikler. Bu evrim Belirli protokolleri yok Ses veya videoların gerçekliğini doğrulamak için ”diyor şirketin raporu.


Tıbbi damgalar tespit etmek ve dijital dolandırıcılığa düşmemek için ipuçları


Sosyal ağları dikkatle almalısınız. AFP fotoğrafı
Sosyal ağları dikkatle almalısınız. AFP fotoğrafı

Viral yanlış bilgilendirme zamanlarında, tahrif edilmiş içerikle karşılaştığımızda tanımlamak temeldir. ESET, bu aldatmacaların maskesini kaldırmaya yardımcı olabilecek bir dizi sinyale dikkat etmenizi önerir.

  • Durma Dudaklar ve ses: Ses tam olarak ağzın hareketiyle eşleşmediğinde.
  • Katı yüz ifadeleri veya doğal olmayan: jestler sıvı görülmez veya zorlanmış gibi görünür.
  • Görsel eserler: Bulanık kenarlar, kötü düzenlenmiş kesikler veya mantık olmadan değişen aydınlatma.
  • Yapay Ses: Monoton ton, robotik veya duygusal bükülme.
  • Son hesaplar ve tarihsiz: Birkaç takipçisi olan veya önceki yayınları olmayan yeni profiller.
  • Sansasyonel dil: “Mucizevi Tedavi”, “Doktorların Bilmenizi İstediği şey” veya “% 100 garantili” gibi ifadeler.
  • Bilimsel kanıt eksikliği: Desteksiz veya güvenilmez çalışmalara atıfta bulunmayan ifadeler.
  • Satın alma aciliyeti: “Sınırlı Zaman Teklifi” veya “Son Birimler” olarak basan mesajlar.
“Bu tür bir içeriği bulursak, videoların onaylanmasının kaynağını veya amacını doğrulamadan önce paylaşmamak veya inanmamak hayati önem taşır. Ayrıca, aldatıcı bir içerik belirleme durumunda, kullandığımız sosyal ağdan önce yayını kınamalıyız.”


Yapay zeka döneminde, yanlış bilgilendirme artık beceriksiz botlar veya kötü silahlı sahte hesaplar gerektirmez. Şimdi bir insan yüzü, profesyonel ton ve güvenilir bir görünüm ile gelebilir. Her zaman olduğu gibi meydan okuma Kandırılmamalı.