Güvenlik açığı Microsoft 365 Copilot'ta keşfedildi. Arıza, bir saldırganın üretken AI'yı basit bir kötü amaçlı e -postayla kullanmasına izin verir. Kullanıcı farkına varmadan yapay zeka, hassas verileri harici bir sunucuya gönderebilir. Size AI sistemlerine ağırlık veren yeni tehdit olan Echoleak hakkında her şeyi anlatıyoruz.
AIM Labs araştırmacıları, Microsoft Suite uygulamalarına entegre olan akıllı asistanı Microsoft 365 Copilot'un işletmesinde bir güvenlik açığını temizledi. Bu kusur izin verirHassas verileri dışarı atın kurbanın en ufak bir etkileşimi gerektirmeden. Bu nedenle otomatikleştirilebilen bir “sıfır tıklama” saldırısıdır.
Araştırmacılar tarafından Echoleak olarak adlandırılan güvenlik açığından yararlanmak için saldırgan hedefe kötü niyetli bir e -posta gönderir. Bu e -posta görünüşte zararsız. E -posta ile alınan herhangi bir reklam gibi görünüyor. Ancak e -posta içeriyor Gizli Talimatlar Copilot dil modeli için tasarlanmıştır. Bu talimatlar, üretken AI'dan bilgisayardan hassas dahili verileri çıkarmasını ve yaymasını istemektedir. Saldırgan verilerini çalmak için yapay zeka ile iletişim kurarken kullanıcı hiçbir şey fark etmez. Gördüm “Copilot arka planda kullanıcı e -postalarını analiz eder, bu mesajı okur ve istemi gerçekleştirir, dahili dosyalara erişir ve hassas verileri çıkarır”ADIR GRUSS, CO -AIM, AIM, Talih.
Mesaj böyle bir şekilde formüle edildi bira xpia filtresi AI modeline ulaşmadan önce kötü niyetli talimatları tespit etmek ve engellemek için tam olarak tasarlanmış Microsoft Copilot tarafından (Çapraz -Kürüm Enjeksiyon Saldırısı). Araştırmacılara göre, talimatları bir insana hitap ediyormuş gibi formüle etmek zorunludur. Bunlar “Talimatlar yerine insan okuyucusu için amaçlandığı gibi yorumlanabilecek talimatlar” AI için.
Güvenlik mekanizmaları kandırıldıktan sonra, AI modeli talimatları yorumlar ve verileri (e -postalar, dosyalar, konuşmalar vb.) Çıkarır ve bunları harici bir sunucu için Markdown formatında bir URL veya görüntüde kodlar. Veriler, kullanıcı işlemin farkına varmadan saldırgana ulaşır ve saldırgana ulaşır. Dahası, “Copilot bu talimatların kökenini maskeliyor, böylece kullanıcı olanları izleyemiyor”ADIR GRUSS ekler.
Kullanıcı Copilot'ta poz verdiğinde işlemin tetiklendiğini unutmayın A Bağlı Soru kötü niyetli e -posta alanına. Yani AI, mesaj talimatlarını okuyacak ve yürütecektir. Kötü niyetli e -postanın, kusurdan yararlanabilmesi için hedef tarafından hiçbir zaman manuel olarak açılmaması gerekir. Korsan, e -postadaki çok kesin kelimelerden bahsetmesi yeterlidir.
Araştırmacılar tarafından uyarılan Microsoft, bu güvenlik açığının kritik olduğunu tahmin etti. Yayıncı bu nedenle geçen ay bir güncelleme yan sunucuları tarafından ihlalleri düzeltti. Microsoft, kusurun bilgisayar korsanları tarafından iyi yararlandığına dair hiçbir kanıt olmadığını belirtir.
EchoLeak, “LLM Scope İhlali” başlıklı AIM laboratuvarlarının yeni bir saldırı kategorisinin ortaya çıktığını göstermektedir. Bu yeni siber saldırılar, bir dil modeli olduğunda ortaya çıkar planlanan sınırları aşıyor Ve içinde kalması gereken çevreyi bırakır. Bu durumda, AI, rızası olmadan kullanıcı verilerini kazmak için yetkili çevresinden çıkar. Bu ilkin diğer güvenlik açıklarının yakın gelecekte AI'ya dayalı sistemlerde tanımlandığından korkabiliriz.
Amaç
AIM Labs araştırmacıları, Microsoft Suite uygulamalarına entegre olan akıllı asistanı Microsoft 365 Copilot'un işletmesinde bir güvenlik açığını temizledi. Bu kusur izin verirHassas verileri dışarı atın kurbanın en ufak bir etkileşimi gerektirmeden. Bu nedenle otomatikleştirilebilen bir “sıfır tıklama” saldırısıdır.
Kötü niyetli e -posta ve gizli talimatlarAyrıca okuyun: “Hey Copilot” – Windows 11 PC'niz yakında söylediğiniz her şeyi dinleyecek
Araştırmacılar tarafından Echoleak olarak adlandırılan güvenlik açığından yararlanmak için saldırgan hedefe kötü niyetli bir e -posta gönderir. Bu e -posta görünüşte zararsız. E -posta ile alınan herhangi bir reklam gibi görünüyor. Ancak e -posta içeriyor Gizli Talimatlar Copilot dil modeli için tasarlanmıştır. Bu talimatlar, üretken AI'dan bilgisayardan hassas dahili verileri çıkarmasını ve yaymasını istemektedir. Saldırgan verilerini çalmak için yapay zeka ile iletişim kurarken kullanıcı hiçbir şey fark etmez. Gördüm “Copilot arka planda kullanıcı e -postalarını analiz eder, bu mesajı okur ve istemi gerçekleştirir, dahili dosyalara erişir ve hassas verileri çıkarır”ADIR GRUSS, CO -AIM, AIM, Talih.
Mesaj böyle bir şekilde formüle edildi bira xpia filtresi AI modeline ulaşmadan önce kötü niyetli talimatları tespit etmek ve engellemek için tam olarak tasarlanmış Microsoft Copilot tarafından (Çapraz -Kürüm Enjeksiyon Saldırısı). Araştırmacılara göre, talimatları bir insana hitap ediyormuş gibi formüle etmek zorunludur. Bunlar “Talimatlar yerine insan okuyucusu için amaçlandığı gibi yorumlanabilecek talimatlar” AI için.
Güvenlik mekanizmaları kandırıldıktan sonra, AI modeli talimatları yorumlar ve verileri (e -postalar, dosyalar, konuşmalar vb.) Çıkarır ve bunları harici bir sunucu için Markdown formatında bir URL veya görüntüde kodlar. Veriler, kullanıcı işlemin farkına varmadan saldırgana ulaşır ve saldırgana ulaşır. Dahası, “Copilot bu talimatların kökenini maskeliyor, böylece kullanıcı olanları izleyemiyor”ADIR GRUSS ekler.
Kullanıcı Copilot'ta poz verdiğinde işlemin tetiklendiğini unutmayın A Bağlı Soru kötü niyetli e -posta alanına. Yani AI, mesaj talimatlarını okuyacak ve yürütecektir. Kötü niyetli e -postanın, kusurdan yararlanabilmesi için hedef tarafından hiçbir zaman manuel olarak açılmaması gerekir. Korsan, e -postadaki çok kesin kelimelerden bahsetmesi yeterlidir.
Microsoft tarafından düzeltilen kritik bir hataAyrıca okuyun: Microsoft, GitHub Copilot'u geliştiriciler için sanal bir takım arkadaşına dönüştürür
Araştırmacılar tarafından uyarılan Microsoft, bu güvenlik açığının kritik olduğunu tahmin etti. Yayıncı bu nedenle geçen ay bir güncelleme yan sunucuları tarafından ihlalleri düzeltti. Microsoft, kusurun bilgisayar korsanları tarafından iyi yararlandığına dair hiçbir kanıt olmadığını belirtir.
AIM Labs'a göre, Microsoft'un tamamen benzeri görülmemiş olarak tanımlanan ihlali doldurmak için bir çözüm bulmak üç aydan fazla sürdü. Bu yüzden şirket doğru takımları harekete geçirmek için zaman ayırdı. Bir düzeltmeye gelmeden önce Microsoft, başarısız olduğu kanıtlanmış birkaç çözümü test etti.“Bu sorunu sorumlu bir şekilde tanımladığınız ve raporladığınız için teşekkür ediyoruz, böylece müşterilerimiz atanmadan önce çözüldü. Bu güvenlik açığını azaltmak için ürünlerimize düzeltmeler yaptık. Ayrıca, kullanıcılardan herhangi bir işlem yapılması gerekmeden, güvenlik duruşumuzu ek olarak ekledik.dedi Microsoft bir basın bülteninde derme çatma kardeşlerimize hitap etti.
EchoLeak, “LLM Scope İhlali” başlıklı AIM laboratuvarlarının yeni bir saldırı kategorisinin ortaya çıktığını göstermektedir. Bu yeni siber saldırılar, bir dil modeli olduğunda ortaya çıkar planlanan sınırları aşıyor Ve içinde kalması gereken çevreyi bırakır. Bu durumda, AI, rızası olmadan kullanıcı verilerini kazmak için yetkili çevresinden çıkar. Bu ilkin diğer güvenlik açıklarının yakın gelecekte AI'ya dayalı sistemlerde tanımlandığından korkabiliriz.
Kaynak :Herhangi bir 01net haberini kaçırmamak için bizi Google News ve WhatsApp'ta takip edin.![]()
Amaç