Süni intellekt texnologiyalarının inkişafı ilə bağlı olaraq dərin saxtakarlıqların (deepfake) sayı sürətlə artır və bu, vətəndaşlar üçün ciddi risklər yaradır. Mütəxəssislər bildirirlər ki, saxtakarlıqlar real insanların səs və görüntülərini yüksək dəqiqliklə təqlid etməyə imkan verir və bu üsul getdikcə daha çox maliyyə fırıldaqlarında istifadə olunur.
Belə hallarda cinayətkarlar tanınmış şəxslərin, şirkət rəhbərlərinin və ya yaxın adamların səsini və görüntüsünü imitasiya edərək pul köçürülməsi və ya məxfi məlumatların əldə olunmasına çalışırlar. Xüsusilə onlayn ünsiyyət və sosial şəbəkələr bu cür saxtakarlıqlar üçün əsas vasitələrdən birinə çevrilib.
Ekspertlər belə saxtakarlıqları tanımaq üçün bəzi əlamətlərə diqqət yetirməyi tövsiyə edirlər. Bunlara qeyri-təbii mimika, səsdə uyğunsuzluq, görüntüdə bulanıqlıq və davranışdakı qeyri-adi detallar daxildir.
Fırıldaqçılıqdan qorunmaq üçün vətəndaşlara şübhəli zəng və mesajlar zamanı məlumatı başqa kanalla yoxlamaq, şəxsi foto və səs yazılarını açıq platformalarda paylaşmamaq, güclü parollardan və iki mərhələli təsdiqdən istifadə etmək tövsiyə olunur.
Mütəxəssislər vurğulayırlar ki, süni intellektdən sui-istifadə hallarının artdığı bir dövrdə diqqətli olmaq və məlumatlı davranmaq maliyyə və şəxsi təhlükəsizliyin qorunmasında əsas rol oynayır.
Monetar.az