
Қазақстанда интернет көмегімен жасалатын алаяқтық саны артып келеді. Ішкі істер министрлігінің мәліметтері бойынша, 2024 жылғы қараша мен қаңтар аралығында интернеттегі алаяқтыққа қатысты шағымдар саны 30-40 пайыз өскен. Өткен жылдың өзінде қазақстандықтар интернет алаяқтары себебінен 20 миллиард теңгеден астам қаржысынан айырылған. Осы орайда Алматы облысы полиция департаменті киберқылмысқа қарсы іс-қимыл басқармасының жедел уәкілі, полиция майоры Олжас Қосжанов Deepfake технологиясымен жасалған фото және видеоларды түпнұсқадан ажырату жолдарын айтып берді.
"Әлемде Deepfake технологиясын қолданып жасалған алаяқтықтардың саны күрт өсті"
"Киберқылмыскерлер нейрожелілерді пайдаланып, атақты адамдардың, саясаткерлердің немесе беделді сарапшылардың қатысуымен сенімді бейнероликтер жасайды. Бұл видеолар күмәнді жобаларға инвестиция салуды ұсынып, жоғары пайдаға уәде береді. Deepfake технологиялары алаяқтарға шынайы суреттер мен видеолар жасауға мүмкіндік беретіндіктен, оларды шындықтан айыру қиын", – дейді Олжас Қосжанов.
Соңғы жылдары әлем бойынша Deepfake технологиясын қолданып жасалған алаяқтықтардың саны айтарлықтай өскен. Onfido компаниясының "Identity Fraud Report 2024" есебінде бұл көрсеткіштің бір жыл ішінде 31 есе, яғни 3000% артқаны көрсетілген. Бұл күрт өсу арзан әрі қарапайым онлайн құралдардың көбеюімен және генеративті жасанды интелектің кең қолжетімді болуымен байланысты екендігі анықталды. Deepfake технологиясы арқылы жасалған суреттер мен видеоларды тану үшін арнайы әдістерді қолдану маңызды. Бұл әдістер нақты дәлдік пен қырағылықты талап етеді әрі жаңа технологияларды пайдаланып ажырату жолдары тұрақты түрде жаңартылып отыруы қажет.

Алаяқтар DeepFake технологиясы арқылы не істей алады?
Полиция майорының айтуынша, қазіргі таңда киберқылмыскерлер адамның жеке мәліметтерін пайдаланып, қаржылық алаяқтықтарды жүзеге асырудың жаңа тәсілін ойлап табуда. Олар, мысалы, жеке тұлғаның банктегі шотына кіру арқылы ақша ұрлайды немесе оның атынан жалған несие рәсімдейді. Кейде қылмыскерлер қайтыс болған адамның деректерін қолдана отырып, оның атынан интернетте қаржылық операциялар жүргізеді.
"Бұдан бөлек, олар күрделі алаяқтық схемаларына қатысу үшін жаңа адамның "жасанды бейнесін" қалыптастырып, ірі қаржылық транзакциялар мен несие рәсімдеуге талпынады. Сонымен қатар, белгілі бір танымал адамның атына жалған видео жасалып, одан кейін осы арқылы халықтан ақша жинайды", – деп түсіндірді Олжас Қосжанов.
Оқи отырыңыз: Интернет алаяқтары қоңырау шалса, не істеу керек? Полиция кеңесі
Қаскүнемдер суреттерді өңдеп, жәбірленушілерден ақша бопсалауы да мүмкін. Белгілі бір елдер арасында араздық туғызу мақсатында жалған фото және видеоларды тарататындар да бар. Мұндай әдістер қоғамда наразылық пен сенімсіздік тудырып, халық арасында алаңдаушылықты арттыруға бағытталған.
Фото немесе бейнероликтің Deepfake технологиясы арқылы жасалғанын қалай анықтауға болады?
Қазақстанда Deepfake технологиясын қолдану арқылы жасалатын алаяқтық әрекеттер туралы нақты статистикалық мәліметтер жоқ. Алайда әлеуметтік желілерде бұл технологияның теріс пайдалану жағдайлары жиі кездеседі. Соңғы уақытта Deepfake арқылы жасалған шындыққа жанаспайтын бейнелер мен аудиолар қоғамдағы белгілі адамдардың атынан тарап, халықты адастыруда. Атап айтқанда, танымал әзілкеш Нұрлан Сабуров, инвестор және бизнесмен Марғұлан Сейсембаев, сондай-ақ спортшы Шавкат Рахмонов атынан жалған хабарлар таратылғаны байқалды. Мұндай әрекеттер адамдарды шатастырып, ақпараттың шынайылығына деген сенімсіздік тудыруда. Сондықтан, Deepfake технологиясының таралуы мен оның салдарын қадағалап, азаматтарды ақпараттық қауіпсіздік туралы хабардар ету маңызды.
Deepfake технологиясы арқылы өзгертілген фото немесе видеоны анықтау кейде қиын болуы мүмкін, бірақ кейбір белгілер арқылы оны тануға болады:
- Бет қимылдарының сәйкессіздігі: Deepfake құралдары қолданатын бет қимылдары кейде табиғи емес болуы мүмкін. Мысалы, көздің дұрыс жыпылықтамауы немесе ауыздың дыбыспен сәйкес келмеуі дегендей.
- Жарқырау және көлеңкелердің сәйкессіздігі: Deepfake жиі жарық пен көлеңкені дұрыс сәйкестіре алмауы мүмкін, бұл суреттің немесе бейненің әртүрлі бөлігінде болады.
- Тері құрылымы мен детальдары: Терінің табиғи текстурасы кейде сақталмауы мүмкін немесе жасанды өңдеуден кейін біркелкі болып көрінуі мүмкін.
- Бет контурының ауытқуы: Құралдар кейде бет контурын дұрыс орындай алмауы мүмкін, бұл әсіресе бас қатты бұрылғанда немесе қимыл жасағанда байқалады.
- Дыбыстың сәйкессіздігі: Видео мен аудио арасында сәйкессіздік болуы мүмкін. Дыбыс кейде бейнемен сәйкес келмеуі немесе табиғи емес естілуі мүмкін.
- Тексерілген дереккөздерді қолдану: Әрқашан жаңалықтар мен ақпаратты ресми және сенімді дереккөздерден тексеріңіз. Сондай-ақ, медиа-файлдардың бастапқы дереккөзін табуға тырысыңыз.
- Техникалық құралдар мен бағдарламалар: Қазіргі уақытта deepfake анықтауға арналған арнайы бағдарламалар мен құралдар бар. Олар ЖИ технологияларын қолданып жасанды бейнелерді анықтауға көмектеседі.
Жасанды интеллект көмегімен жасалған фото мен видеоларды анықтауға арналған бірнеше бағдарлама бар, соның ішінде Deepware, Microsoft Video Authenticator және Hive AI Detector жақсы. Бұл құралдар медиа файлдарды сканерлеп, олардың шынайы немесе жалған екенін пайыздық мөлшерде көрсетуге мүмкіндік береді.
Оқи отырыңыз: Alayaq.net жобасы Қазақстанда 200-ден астам алаяқтық әрекетті анықтауға көмектесті
Hive AI Detector бағдарламасын пайдалану үшін алдымен оны орнатып, содан кейін фотоны зерттеу қажет. Сонымен қатар, Deepware және Microsoft Video Authenticator қосымшалары да видеоларды тексеру үшін қолданылады. Пайдаланушы видеолардың сілтемесін тиісті формаға қойып, видеолардың шынайылығын пайыздық көріністе көре алады. Бұл бағдарламалардың мүмкіндіктері жасанды интеллект көмегімен ақпараттық кеңістіктегі жалған материалдардың таралуын тоқтатуға немесе азайтуға көмектеседі.