Мы уже привыкли к оплате по лицу, возможности выпуска УКЭП или сим-карты, управлению банковскими данными и к другим современным функциям, доступным при помощи биометрической идентификации личности. Однако и технологии дипфейков тоже не стояли на месте.
Термин «дипфейк» происходит от сочетания английских слов deep learning (глубинное обучение) и fake (подделка). Это синтез правдоподобных поддельных изображений, видео и звука при помощи искусственного интеллекта.
На первый взгляд дипфейки могут показаться безобидным развлечением. Они активно применяются в рекламе, кинематографе и других сферах.
Термин «дипфейк» происходит от сочетания английских слов deep learning (глубинное обучение) и fake (подделка). Это синтез правдоподобных поддельных изображений, видео и звука при помощи искусственного интеллекта.
На первый взгляд дипфейки могут показаться безобидным развлечением. Они активно применяются в рекламе, кинематографе и других сферах.
🔹 Однако значительное число дипфейков создается с иными, неразвлекательными целями. Мошенничество с использованием дипфейков может затрагивать различные аспекты применения биометрических технологий, особенно основанные на лицевой биометрии. Пока одни разработчики создают решения для повышения безопасности, другие ищут способы обмана биометрических систем.
Основная угроза дипфейков для биометрии связана с возможностью выдачи одного человека за другого.
Технологии стали настолько продвинутыми, что распознать дипфейк невооруженным глазом зачастую практически невозможно.
👻Слабые места дипфейков
Тем не менее, у этой технологии есть уязвимые места, которые можно выявить с помощью тщательной обработки. Важно понимать, что алгоритмы синтеза поддельных лиц основаны на преобразовании двухмерных изображений. При создании нового изображения ключевые антропометрические точки сдвигаются, нарушается их расположение относительно друг друга, и конечное изображение перестает соответствовать биометрическому шаблону реального человека. Дополнительно, для распознавания дипфейков можно использовать методы контроля, выявляющие неизбежные цифровые артефакты, такие как различие в оттенках цвета глаз или расстоянии от центра зрачка до края радужной оболочки.
👮 СПОСОБЫ ЗАЩИТЫ
🔵Серия алгоритмов проверки Liveness
Алгоритмы Liveness помогают убедиться, что перед камерой находится живой человек, а не фотография или видео с экрана смартфона. Эти алгоритмы могут быть двух типов: пассивные и активные. Пассивные алгоритмы отслеживают моргание, движения глаз или губ, не требуя действий от пользователя. Активные алгоритмы работают по принципу «вопрос — ответ», например, просят пользователя улыбнуться, махнуть рукой или повернуть голову.
🔵Многофакторная авторизация
Сегодня 2-FA авторизация остается главным методом защиты от подмены изображений. Использование биометрических данных вместе с паролями и кодами позволяет убедиться, что доступ запрашивает настоящий пользователь.
🔵Использование дополнительных камер
Еще один способ борьбы с подделкой лиц – использование нескольких камер, одна из которых работает в инфракрасном спектре. Подделать инфракрасное изображение значительно сложнее. В современное время такими модулями оснащаются большинство банкоматов и терминалов оплаты, где компрометация личности представляет серьезную угрозу.
Борьба с дипфейками в области биометрии является серьезным вызовом, на который отрасль ответит еще более динамичным развитием.
Обязательно подпишитесь на наш телеграм ❤️
Основная угроза дипфейков для биометрии связана с возможностью выдачи одного человека за другого.
Технологии стали настолько продвинутыми, что распознать дипфейк невооруженным глазом зачастую практически невозможно.
👻Слабые места дипфейков
Тем не менее, у этой технологии есть уязвимые места, которые можно выявить с помощью тщательной обработки. Важно понимать, что алгоритмы синтеза поддельных лиц основаны на преобразовании двухмерных изображений. При создании нового изображения ключевые антропометрические точки сдвигаются, нарушается их расположение относительно друг друга, и конечное изображение перестает соответствовать биометрическому шаблону реального человека. Дополнительно, для распознавания дипфейков можно использовать методы контроля, выявляющие неизбежные цифровые артефакты, такие как различие в оттенках цвета глаз или расстоянии от центра зрачка до края радужной оболочки.
👮 СПОСОБЫ ЗАЩИТЫ
🔵Серия алгоритмов проверки Liveness
Алгоритмы Liveness помогают убедиться, что перед камерой находится живой человек, а не фотография или видео с экрана смартфона. Эти алгоритмы могут быть двух типов: пассивные и активные. Пассивные алгоритмы отслеживают моргание, движения глаз или губ, не требуя действий от пользователя. Активные алгоритмы работают по принципу «вопрос — ответ», например, просят пользователя улыбнуться, махнуть рукой или повернуть голову.
🔵Многофакторная авторизация
Сегодня 2-FA авторизация остается главным методом защиты от подмены изображений. Использование биометрических данных вместе с паролями и кодами позволяет убедиться, что доступ запрашивает настоящий пользователь.
🔵Использование дополнительных камер
Еще один способ борьбы с подделкой лиц – использование нескольких камер, одна из которых работает в инфракрасном спектре. Подделать инфракрасное изображение значительно сложнее. В современное время такими модулями оснащаются большинство банкоматов и терминалов оплаты, где компрометация личности представляет серьезную угрозу.
- Меры защиты в России
Борьба с дипфейками в области биометрии является серьезным вызовом, на который отрасль ответит еще более динамичным развитием.
Обязательно подпишитесь на наш телеграм ❤️