ULUSLARARASI MULTİDİSİPLİNER BİLİMSEL ARAŞTIRMA KONGRESİ, Sivas, Türkiye, 4 - 06 Temmuz 2025, ss.1-10, (Tam Metin Bildiri)
ÖZET
Tıbbi
görüntü analizinde derin öğrenme tabanlı sınıflandırma modelleri, yüksek
doğruluk seviyelerine ulaşmış olsalar da, özellikle klinik uygulamalarda
güvenlik açısından büyük risk oluşturmaktadır. Bu durum modellerin çekişmeli
saldırılara karşı halen savunmasız olduğunu göstermektedir. Bu çalışma, ilk
defa meme histolojisi (ICIAR 2018) veri seti üzerinde hem MedViTV2 ve Vision
Transformer (ViT) modellerinin BIM
(Basic Iterative Method) saldırısı altındaki performanslarını hem de BIM
tabanlı çekişmeli eğitim sonrası dayanıklılıklarındaki değişimi sistematik ve
karşılaştırmalı şekilde incelemektedir.
Deneylerde
temiz veri üzerinde ViT modeli %91.67, MedViTV2 ise %80.00 doğruluk elde
etmiştir. Ancak BIM saldırısı uygulandığında her iki modelin de doğruluğu ciddi
şekilde azalmıştır. Özellikle MedViTV2 modelinde doğruluk oranı %6.67’ye ViT
modelinde ise %0’a kadar gerilemiş ve model neredeyse işlevsiz hale gelmiştir.
Bu durum, klasik eğitilmiş derin öğrenme modellerinin iteratif çekişmeli
saldırılar karşısında ne kadar kırılgan olduğunu açıkça ortaya koymaktadır. BIM
ile gerçekleştirilen çekişmeli eğitim sonrası ise, savunmalı modeller BIM
saldırısına maruz bırakılmış ve bu kez her iki modelde de dayanıklılık belirgin
şekilde artmıştır. Doğruluk oranı hem MedViTV2 hem de ViT modelleri için
belirgin şekilde yükselmiş; epsilon değerleri arttıkça düşüş devam etse de,
savunmasız modellerde olduğu gibi bir çöküş yaşanmamıştır. Özellikle ViT
modeli, çekişmeli eğitim sonrası BIM saldırısı altında, %86 ile MedViTV2
modeline göre daha yüksek doğruluk ve performans sergilemiştir. Elde edilen
sonuçlar, çekişmeli eğitimin ViT tabanlı modellerin güvenliğini artırmada ve
klinik uygulamalarda daha dayanıklı hâle getirilmesinde etkili bir yöntem
olduğunu ortaya koymaktadır.
Anahtar
Kelimeler: Çekişmeli
Makine Öğrenmesi, Çekişmeli Eğitim, ViT, MedViTV2, BIM
ABSTRACT
Although deep learning-based classification models in
medical image analysis have achieved high levels of accuracy, they pose a significant
security risk, especially in clinical applications. This situation demonstrates
that the models are still vulnerable to adversarial attacks. This study
systematically and comparatively examines the performance of both MedViTV2 and
Vision Transformer (ViT) models under BIM (Basic Iterative Method) attacks and
the change in their robustness after BIM-based adversarial training on the
breast histology (ICIAR 2018) dataset for the first time.
As a result of the experiment, the ViT model achieved
91.67% accuracy on clean data, while MedViTV2 achieved 80.00% accuracy.
However, when the BIM attack was applied, the accuracy of both models decreased
significantly. In particular, the accuracy rate of the MedViTV2 model dropped
to 6.67% and that of the ViT model to 0%, rendering the model nearly useless.
This situation clearly demonstrates how fragile classically trained deep
learning models are against iterative adversarial attacks. After adversarial training
with BIM, the defended models were exposed to BIM attacks, and this time, the
resilience of both models increased significantly. The accuracy rate increased
significantly for both MedViTV2 and ViT models; although the decline continued
as the epsilon values increased, there was no collapse as in the unprotected
models. In particular, the ViT model demonstrated higher accuracy and
performance than the MedViTV2 model under BIM attack after adversarial
training. The results obtained demonstrate that adversarial training is an
effective method for enhancing the security of ViT-based models and making them
more resilient in clinical applications.
Keywords: Adversarial
Machine Learning, Adversarial Training, ViT, MedViTV2, BIM