Microsoft 365 Copilot'tan kritik bir kusur, verilerinizi çalması için AI ile işlenmenizi sağlar

acidizing

New member
Güvenlik açığı Microsoft 365 Copilot'ta keşfedildi. Arıza, bir saldırganın üretken AI'yı basit bir kötü amaçlı e -postayla kullanmasına izin verir. Kullanıcı farkına varmadan yapay zeka, hassas verileri harici bir sunucuya gönderebilir. Size AI sistemlerine ağırlık veren yeni tehdit olan Echoleak hakkında her şeyi anlatıyoruz.



AIM Labs araştırmacıları, Microsoft Suite uygulamalarına entegre olan akıllı asistanı Microsoft 365 Copilot'un işletmesinde bir güvenlik açığını temizledi. Bu kusur izin verirHassas verileri dışarı atın kurbanın en ufak bir etkileşimi gerektirmeden. Bu nedenle otomatikleştirilebilen bir “sıfır tıklama” saldırısıdır.

Ayrıca okuyun: “Hey Copilot” – Windows 11 PC'niz yakında söylediğiniz her şeyi dinleyecek
Kötü niyetli e -posta ve gizli talimatlar


Araştırmacılar tarafından Echoleak olarak adlandırılan güvenlik açığından yararlanmak için saldırgan hedefe kötü niyetli bir e -posta gönderir. Bu e -posta görünüşte zararsız. E -posta ile alınan herhangi bir reklam gibi görünüyor. Ancak e -posta içeriyor Gizli Talimatlar Copilot dil modeli için tasarlanmıştır. Bu talimatlar, üretken AI'dan bilgisayardan hassas dahili verileri çıkarmasını ve yaymasını istemektedir. Saldırgan verilerini çalmak için yapay zeka ile iletişim kurarken kullanıcı hiçbir şey fark etmez. Gördüm “Copilot arka planda kullanıcı e -postalarını analiz eder, bu mesajı okur ve istemi gerçekleştirir, dahili dosyalara erişir ve hassas verileri çıkarır”ADIR GRUSS, CO -AIM, AIM, Talih.

Mesaj böyle bir şekilde formüle edildi bira xpia filtresi AI modeline ulaşmadan önce kötü niyetli talimatları tespit etmek ve engellemek için tam olarak tasarlanmış Microsoft Copilot tarafından (Çapraz -Kürüm Enjeksiyon Saldırısı). Araştırmacılara göre, talimatları bir insana hitap ediyormuş gibi formüle etmek zorunludur. Bunlar “Talimatlar yerine insan okuyucusu için amaçlandığı gibi yorumlanabilecek talimatlar” AI için.

Güvenlik mekanizmaları kandırıldıktan sonra, AI modeli talimatları yorumlar ve verileri (e -postalar, dosyalar, konuşmalar vb.) Çıkarır ve bunları harici bir sunucu için Markdown formatında bir URL veya görüntüde kodlar. Veriler, kullanıcı işlemin farkına varmadan saldırgana ulaşır ve saldırgana ulaşır. Dahası, “Copilot bu talimatların kökenini maskeliyor, böylece kullanıcı olanları izleyemiyor”ADIR GRUSS ekler.

Kullanıcı Copilot'ta poz verdiğinde işlemin tetiklendiğini unutmayın A Bağlı Soru kötü niyetli e -posta alanına. Yani AI, mesaj talimatlarını okuyacak ve yürütecektir. Kötü niyetli e -postanın, kusurdan yararlanabilmesi için hedef tarafından hiçbir zaman manuel olarak açılmaması gerekir. Korsan, e -postadaki çok kesin kelimelerden bahsetmesi yeterlidir.

Ayrıca okuyun: Microsoft, GitHub Copilot'u geliştiriciler için sanal bir takım arkadaşına dönüştürür
Microsoft tarafından düzeltilen kritik bir hata


Araştırmacılar tarafından uyarılan Microsoft, bu güvenlik açığının kritik olduğunu tahmin etti. Yayıncı bu nedenle geçen ay bir güncelleme yan sunucuları tarafından ihlalleri düzeltti. Microsoft, kusurun bilgisayar korsanları tarafından iyi yararlandığına dair hiçbir kanıt olmadığını belirtir.

“Bu sorunu sorumlu bir şekilde tanımladığınız ve raporladığınız için teşekkür ediyoruz, böylece müşterilerimiz atanmadan önce çözüldü. Bu güvenlik açığını azaltmak için ürünlerimize düzeltmeler yaptık. Ayrıca, kullanıcılardan herhangi bir işlem yapılması gerekmeden, güvenlik duruşumuzu ek olarak ekledik.dedi Microsoft bir basın bülteninde derme çatma kardeşlerimize hitap etti.
AIM Labs'a göre, Microsoft'un tamamen benzeri görülmemiş olarak tanımlanan ihlali doldurmak için bir çözüm bulmak üç aydan fazla sürdü. Bu yüzden şirket doğru takımları harekete geçirmek için zaman ayırdı. Bir düzeltmeye gelmeden önce Microsoft, başarısız olduğu kanıtlanmış birkaç çözümü test etti.

EchoLeak, “LLM Scope İhlali” başlıklı AIM laboratuvarlarının yeni bir saldırı kategorisinin ortaya çıktığını göstermektedir. Bu yeni siber saldırılar, bir dil modeli olduğunda ortaya çıkar planlanan sınırları aşıyor Ve içinde kalması gereken çevreyi bırakır. Bu durumda, AI, rızası olmadan kullanıcı verilerini kazmak için yetkili çevresinden çıkar. Bu ilkin diğer güvenlik açıklarının yakın gelecekte AI'ya dayalı sistemlerde tanımlandığından korkabiliriz.

🔴
Herhangi bir 01net haberini kaçırmamak için bizi Google News ve WhatsApp'ta takip edin.
Kaynak :

Amaç