"Обещают стопроцентный результат – не верьте". Дипфейки с участием врачей Казахстана заполонили соцсети

Фото Depositphotos
Фото Depositphotos
Чем больше развивается искусственный интеллект, тем более изощрёнными станут способы обмана казахстанцев.

В соцсетях распространились дипфейки, в которых известные врачи активно рекламируют БАДы. Если раньше мошенники ограничивались использованием фотошопа, то сейчас создают полноценные ролики, генерируя видеоизображение авторитетных медиков, копируя их голоса и даже манеру держаться на публике, сообщает "31 канал".

Одно из таких видео прислали президенту Академии профилактической медицины Алмазу Шарману. В кадре он убедительно рекламирует лекарство для суставов и обещает избавление от боли. И таких публикаций, сгенерированных искусственным интеллектом, на просторах интернета немало. В последнее время врачам приходится часто публиковать опровержения и предупреждать пациентов о фейках со своим участием. 

"Это может быть опасным, так как часто они рекламируют такие вещи, которые, так скажем, не имеют сертификата и не прошли соответствующую проверку, не одобрены. Они могут нести определённые риски, могут неблагоприятно повлиять на здоровье помимо того, что это бессмысленная трата денег", – отметил Алмаз Шарман.

Обращения в полицию эффекта не дали, найти таких злоумышленников практически нереально. Врачам приходится самим отстаивать своё честное имя и предупреждать казахстанцев о фейках с их участием. 

"В нашей стране есть закон, который запрещает использовать врача и образ врача для рекламы лекарственных препаратов. Если врач и делает это, то только рассказывает о клинических исследованиях, проведённых реально, на определённом количестве пациентов. Поэтому всей этой рекламе, которая говорит, что препарат излечивает на 100%, конечно, верить нельзя", – сказал эксперт в области здравоохранения Вячеслав Локшин.

Возможности искусственного интеллекта растут с каждым днём, и никто не даёт гарантии, что завтра дипфейки не будут консультировать за большие деньги пациентов, уже неся реальную угрозу жизни и здоровью казахстанцев. Юристы отмечают, что правоохранительные органы должны быть всегда на шаг впереди таких мошенников. 

"Надо не запрещать, а расследовать, понимать, как быстро установить, кто это сделал, откуда выпущено, и привлечь к ответственности. Запреты и блокировки не работают", – отметил юрист Евгений Яворский. 

Эксперты отмечают, что чем больше развивается ИИ, тем больше будет дипфейк-атак и мошеннические способы обмана станут ещё более изощрёнными. Любую информацию, когда от человека требуют срочных действий, всегда необходимо проверять, даже если это указания по работе от начальника в мессенджере.

"Можно очень много говорить про визуальные аномалии – неестественное движение губ, бровей, нерегулярное моргание, несоответствие жестикуляции речи. Важно обращать внимание на освещение – неровные тени, разные оттенки кожи на лице, и, конечно, голос – звучит всегда монотонно, безэмоционально", – отметил сопредседатель комитета по информационной безопасности Альянса Qaztech.

Эксперты подчеркнули, что ни один врач не будет навязывать препарат в рекламе, говорить о "последних упаковках" и срочной покупке, а тем более обещать стопроцентный результат.

Популярное в нашем Telegram-канале
НОВОСТИ ПАРТНЁРОВ