Yapay zekâ destekli araçlar, kullanıcıları sahte web sitelerine yönlendirerek ciddi güvenlik tehditlerine zemin hazırlıyor. ChatGPT ve Perplexity gibi sistemlerin sunduğu bağlantılar her zaman güvenli olmayabiliyor; son araştırmalar, bu araçların kullanıcıları fark etmeden kimlik avı sitelerine ya da sahte kaynaklara yönlendirme riski taşıdığını ortaya koyuyor. Özellikle büyük dil modellerinin eğitildiği veri setlerinin genişliği, her zaman güvenli sonuçlar sunmaya yetmiyor.

Netcraft tarafından yapılan çalışma, GPT-4.1 modelinin 50 farklı marka için giriş sayfalarıyla ilgili verdiği yanıtları analiz etti. Elde edilen bulgular, bu sistemlerin %29 oranında kullanıcıları ya ilgisiz ya da potansiyel olarak zararlı alan adlarına yönlendirebildiğini gösterdi. Üstelik sadece kişisel kullanıcılar değil, geliştiriciler de risk altında. Yapay zekâ destekli kodlama asistanları aracılığıyla, sahte API’ler ve kod depoları üzerinden sunulan zararlı içerikler sistemlere sızabiliyor.

Sahte Sitelerin Yükselişi

Yapay zekânın sunduğu yanıtların güvenilirliği her zaman sorgulanmalı. Araştırmada Perplexity örneğinde olduğu gibi, kullanıcılar güvenilir bir marka olan Wells Fargo’nun giriş sayfası yerine, Google Sites üzerinden hazırlanmış sahte bir bağlantıya yönlendirildi. Gerçek site ise arama sonuçlarında alt sıralarda kaldı. Bu durum, yapay zekâ sistemlerinin SEO mantığıyla çalışmamasının yarattığı yeni bir soruna işaret ediyor.

Geleneksel arama motorları, bağlantı sıralamasında güvenilirlik sinyalleri ve geçmiş kullanıcı davranışlarını dikkate alırken; yapay zekâ modelleri bu sinyalleri atlayarak yalnızca tahmin üzerinden öneri sunabiliyor. Bu durum, kullanıcıların tuzaklara daha kolay yakalanmasına yol açıyor.

Yapay Zekâ

Geliştiriciler İçin Risk Büyüyor

Tehlike yalnızca son kullanıcılarla sınırlı değil. Geliştiriciler, yapay zekâ destekli kodlama araçlarının sunduğu önerileri projelerine entegre ederken farkında olmadan zararlı içeriklere kapı aralayabiliyor. Özellikle yeni geliştiriciler, önerilen kodun sahte kaynaklara ait API bağlantıları içerip içermediğini fark etmeyebiliyor.

Buna ek olarak, bölgesel bankalar gibi büyük markalar kadar iyi bilinen olmayan kuruluşların sistem tarafından “uydurulmuş” giriş sayfalarıyla temsil edilmesi de tehdit düzeyini artırıyor. Bu tür adresler kötü niyetli kişilerin kontrolüne geçerek sahte oturum açma sayfaları ya da dolandırıcılık aracı olarak kullanılabiliyor.

Çözüm Ne Olmalı?

Uzmanlara göre sürdürülebilir çözüm, yapay zekânın güvenilirliği kadar çevresel denetim sistemlerinin de güçlendirilmesinden geçiyor. Otomatik denetleme algoritmaları, sahte içeriklerin filtrelenmesi, kullanıcıların eğitimi ve halüsinasyonları azaltan yeni nesil modeller bu sorunun üstesinden gelmek için kritik öneme sahip.

Ayrıca, yapay zekâ sistemlerini geliştiren firmaların şeffaflık ve güvenlik ilkelerini sıkı şekilde uygulamaları gerekiyor. Aksi hâlde bu tür sistemler, dijital dünyanın sunduğu kolaylıkları tehdit hâline getiren unsurlar olarak anılmaya devam edecek.

Cevap Yaz

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir