Microsoft ve OpenAI’nın son araştırması siber suç gruplarının, uluslararası çapta bilinen devlet destekli hacker gruplarının ve diğer kötü niyetli aktörlerin yapay zeka destekli saldırılarını geliştirmek için büyük dil modellerini kullandığını ortaya koydu. Rapora göre, Rus, Kuzey Koreli, İranlı ve Çin destekli gruplar, ChatGPT gibi büyük dil modellerini kullanarak mevcut saldırılarını daha da sofistike hale getiriyorlar.
Microsoft’un blog gönderisine göre, Strontium adlı Rus askeri istihbarat grubu, LLM’leri uydu iletişim protokolleri ve radar görüntüleme teknolojileri gibi teknik konuları anlamak için kullanıyor. Aynı zamanda saldırganlar, Rusya-Ukrayna savaşı sırasında ve 2016’daki ABD başkanlık seçimlerinde temel görevleri otomatikleştirmek veya optimize etmek için LLM’leri kullandı.
Kuzey Koreli bir hacker grubu olan Thallium, dolandırıcılık kampanyaları için LLM’leri kullanıyor. Benzer şekilde, İranlı bir grup olan Curium, LLM’leri dolandırıcılık e-postaları oluşturmak ve antivirüs uygulamalarından kaçınmak için kullanıyor. Çin destekli hackerlar da LLM’leri araştırma, betik yazma, çeviri ve mevcut araçlarını geliştirme amacıyla kullanıyorlar.
Uzmanlar, yapay zeka destekli saldırıların gelecekte daha da yaygınlaşabileceğine dikkat çekiyor. Bu nedenle, Microsoft gibi şirketler, yapay zeka destekli saldırıları önlemek ve tespit etmek için AI tabanlı güvenlik çözümleri geliştirmeye odaklanıyorlar. Ancak, güvenlik uzmanları, siber tehditlere karşı korunmak için herkesin bilinçli olması ve güvenlik önlemlerini alması gerektiğini vurguluyorlar.
Bir Yorum