BAKU Azərbaycan
26.03°C
  • USD
    1.7
  • EUR
    1.9406
  • RUB
    2.1689
  • TRY
    0.0434
  • GBP
    2.2922
69920

Artıq yalnızca bir şəxsin görüntüsü və səsi deyil, onun nəbzinin atışı və dəri tonundakı dəyişikliklər də süni intellekt tərəfindən yaradılır. Bu inkişaf, saxta (deepfake) videoların müəyyən edilməsini daha da çətinləşdirir.

Valyuta.az xəbər verir ki, son illərdə süni intellekt vasitəsilə hazırlanan "deepfake" videolar yalnız əyləncə deyil, eyni zamanda ciddi bir təhlükəsizlik problemi halına gəlib. Vizual realizm səviyyəsi o qədər inkişaf edib ki, artıq mövzu üzrə mütəxəssislər belə saxta görüntülərlə gerçəyini ayırd etməkdə çətinlik çəkirlər. Texnologiyadakı bu sürətli irəliləyiş, "deepfake" videolarının potensial təhdid kimi daha çox müzakirə olunmasına səbəb olur.

"Deepfake" texnologiyasının çatdığı nöqtə artıq yalnız sosial mediada əyləncə məqsədli filtrlərlə məhdudlaşmır. Dərin öyrənmə alqoritmləri vasitəsilə real şəxslərin mimikaları, üz ifadələri və səs tonları dəqiqliklə təqlid edilə bilir. Bu vəziyyət texnologiyanı niyyətləri pis olan şəxslər üçün son dərəcə təhlükəli bir alətə çevirir.

Siyasi fiqurlar, iş adamları, jurnalistlər və ya ictimaiyyət arasında tanınan şəxslər "deepfake" videolar vasitəsilə asanlıqla nüfuz hücumuna məruz qala bilər, demədikləri sözləri demiş kimi göstərilə və ya etmədikləri cinayətlərə dair saxta sübutlarla qarşı-qarşıya qala bilərlər. Kiber cinayətkar dəstələr və dövlət dəstəkli haker qruplarının bu texnologiyadan təbliğat, manipulyasiya və ya şantaj məqsədilə istifadə etdiyinə dair nümunələr gündən-günə artır.

İstifadəçilər üzlərini yaşlandıran, heyvana çevirən və ya rəqəmsal effektlərlə dəyişdirən sosial media tətbiqlərini əyləncə vasitəsi kimi qəbul etsələr də, bu tətbiqlərin əsasını təşkil edən süni intellekt sistemləri üz cizgilərinizi, mimikalarınızı və danışıq tərzinizi analiz edərək sizi modelləşdirməyi öyrənir. Bu analizlər daha sonra real görünən "deepfake" məzmunlar hazırlamaq üçün istifadə edilə bilər.

Fərdi istifadəçilərdən toplanan bu məlumatlar müxtəlif proqramlarla birləşdirilərək son dərəcə inandırıcı videolara çevrilə bilir. Bu məzmunlar növbəti mərhələdə şantaj, fırıldaqçılıq və ya siyasi manipulyasiya kimi məqsədlərlə istifadə oluna bilər.

"Deepfake" texnologiyasına qarşı hazırlanmış müdafiə üsullarından biri, saxta videolarda nəbz atışının olmaması əsasında qurulmuşdu. Lakin bu üsul da artıq təsirini itirməkdədir. Berlin Humboldt Universitetindən Prof. Dr. Peter Ayzert son açıqlamasında bildirib: "Yeni nəsil "deepfake" videolarında gerçəyə uyğun ürək döyüntüsü ritmi və üz rəngində təbii dəyişikliklər müşahidə edirik. Bu da onların aşkarlanmasını çox daha çətin edir".

Bu inkişaf saxta məzmunların artıq yalnız görüntü və səslə məhdudlaşmayaraq bioloji siqnalları da təqlid edə biləcək səviyyəyə çatdığını göstərir. "Deepfake" hazırlayanlar alqoritmlərini daha da mürəkkəbləşdirərək aşkarlama mexanizmlərini aşmağa çalışırlar.

Gəlinən nöqtədə, internetdə qarşılaşdığımız hər bir videoya şərtsiz şəkildə güvənmək mümkün deyil. "Deepfake" texnologiyasının bu qədər inkişaf etməsi vizual məzmunların doğruluğunu yoxlamağın zəruriliyini ortaya qoyur. Xüsusilə siyasi və ya ictimai baxımdan həssas məzmunlar ehtiva edən videoların mənbəyi və bütövlüyü yoxlanılmadan paylaşılması ciddi nəticələrə səbəb ola bilər.

Nəticə etibarilə, vizual məzmun dövründə yaşayırıq, lakin artıq hər görüntü göründüyü qədər real olmaya bilər. Yeni dövrdə rəqəmsal savadlılıq qədər, görüntü savadlılığı da həyati əhəmiyyət daşıyır.

Paşa Məmmədli

© Materiallardan istifadə edərkən hiperlinklə istinad olunmalıdır.
Mətndə səhv varsa, onu qeyd edib ctrl + enter düyməsini basaraq bizə göndərin.

Son xəbərlər

"Tesla" keçmiş işçisini gizli məlumatları oğurlamaqda ittiham edir

İlham Əliyevdən generallarla bağlı sərəncam

10,5 milyon manatlıq dünyanın ən bahalı vizası - Nə vəd edir?

Gecə növbəsində işləməyin 5 mənfi tərəfi

Sığorta şirkətləri üçün yeni “məcburi qayda” gəlir – İyulun 1-dən qüvvəyə minir

Sığorta şirkətləri üçün yeni “məcburi qayda” gəlir – İyulun 1-dən qüvvəyə minir

Azərbaycanda illik inflyasiya məlum olub - RƏQƏMLƏR

Bu üç qardaş ideyaları “klonlayaraq” milyardlar qazandı

Bu tibb işçiləri 9 000 manatadək cərimələnəcək

Son zəng günü hava necə olacaq?

"Maliyyə Nazirliyində geniş islahatlara başlanılıb"

AFB Bank bütün Mikro və Aqro müştərilərinin yanındadır!®

Azərbaycanda orta aylıq əməkhaqqı 1 100 manatdır

Nurlana Qasımova direktor təyin olundu

“Veteran pulu” ilə bağlı Nazirlikdən RƏSMİ cavab

“Veteran pulu” ilə bağlı Nazirlikdən RƏSMİ cavab

Bir kiloqramı 2 milyon manata yaxın “Dahong Pao” çayı - Onu qiymətli edən nədir?

Keçmiş bankir özünə yeni şirkət yaratdı

Neçə nəfərin təqaüd və müavinəti artırılacaq? - Nazir müavini AÇIQLADI

"İnstagram" yeni funksiyalar üzərində çalışır - Nə vaxt təqdim ediləcək?

Bələdiyyə sədrinə elektron qolbaq taxıldı

Universitetdə işləmək istəyənlərin nəzərinə! - Onlarla vakansiya var

Aylıq 10 000 manat icarə gəliri olan butik hotel satışa çıxarılıb - QİYMƏT

Aylıq 10 000 manat icarə gəliri olan butik hotel satışa çıxarılıb - QİYMƏT

Bu tarixlərdə "ASAN xidmət" və "ASAN kommunal" mərkəzlərində qeyri-iş günü olacaq

Birbank-da “Birinci” tarifinə qoşul, bonuslar qazan!®

Məhsulun əvvəlki qiyməti şişirdilir, sonra “endirim” edilir?

Bu duzlarda uyğunsuzluq aşkarlandı

Gömrük borcu ilə bağlı yeni qayda

Kriptovalyuta bazarında ucuzlaşma müşahidə olunur - Səbəblər

Biznesdə “3 il qaydası” nə dərəcədə keçərlidir?

Neftin qiyməti 73 dolları keçdi

Bütün xəbərlər

Xəbərin mətnində orfoqrafik səhv var

Qeydinizi daxil edin