Дипфейки: как мошенники используют новые технологии обмана

3783 просмотров
0
FinGramota
Суббота, 20 Авг 2022, 15:00

Данная технология позволяет оживить несуществующих людей, подделать любой голос, мимику, добавить в речь слова, которые человек никогда не произносил

Дипфейки – это фото, видео или аудиозапись, обработанные с помощью искусственного интеллекта. Термин "deepfake" произошел от двух слов – "глубокий" и "фальшивый".

Читайте также
Мошенники в вашем телефоне: как они используют AnyDesk и его аналоги для кражи денег

Данная технология позволяет оживить несуществующих людей, подделать любой голос, мимику, добавить в речь слова, которые человек никогда не произносил. Для мошенников дипфейк является идеальным инструментом для совершения кибератак и кражи конфиденциальных данных граждан.

Технология дипфейков основана на мощнейших нейросетях, с помощью которых можно генерировать любые фото- и видеоизображения, манипулировать такими биометрическими данными, как тональность голоса, выражение лица человека. Благодаря дипфейкам можно создавать события, которые никогда не происходили, добавить возраст человеку, или, наоборот, сбросить ему несколько десятков лет, доснять фильм с актером, которого нет в живых, оживить фотографию. И этим активно пользуются продюсеры, режиссеры, маркетологи, рекламщики и … мошенники.

Что могут сделать злоумышленники?

С помощью дипфейков злоумышленники могут:

- подделать чужую личность для того, чтобы получить доступ к банковскому счету, обналичить его и оформить подставные кредиты;

- выкрасть данные умершего человека, "оживить" его для получения доступа к банковским онлайн-сервисам;

- синтезировать нового "человека", которого не существует в природе, используя его для совершения крупных финансовых транзакций и изощренных схем кредитного мошенничества.

Как это происходило на практике?

Читайте также
Кто такие социальные инженеры и как от них защититься

Дипфейки стали использоваться сравнительно недавно, в интернете поддельные видео на основе этой новейшей технологии появились пять лет назад. А в 2019 году прогремела первая крупная афера в мире.

В Великобритании киберпреступники с помощью искусственного интеллекта подделали голос главы крупной энергетической компании и даже его легкий немецкий акцент. Они позвонили к исполнительному директору и под предлогом срочности потребовали перевести 220 тыс. евро в течение часа якобы поставщику. Управленец выполнил указание своего "босса", но мошенники на этом не остановились и позвонили еще два раза с просьбой совершить дополнительные платежи. Это вызвало подозрения, в результате расследование показало, что была совершена тщательно продуманная хакерская атака с использованием фейкового аудио. Но вернуть средства, как и найти злоумышленников, не удалось.

В 2020 году жертвой мошенников чуть не стал 68-летний адвокат из Филадельфии, который почти поверил звонившему "сыну". Мошенники использовали дипфейк-аудио молодого человека и позвонили его отцу с просьбой перевести 9 тыс. долларов, но, к счастью, афера была вовремя раскрыта.

В 2021 году в Китае уличили во лжи аферистов, выдававшим своим клиентам поддельные накладные. Они покупали фотографии людей и "оживляли" их с помощью технологии дипфейка, чтобы пройти систему проверки личности налоговой службы. Таким образом преступники заработали свыше 76 млн долларов.

В России также известны случаи мошенничества с помощью дипфейков. К примеру, в 2021 году мошенники создали и распространили в сети дипфейк-видео с основателем банка "Тинькофф". "Бизнесмен" призывал пользователей открыть инвестиционный счет, вложить свои средства и хорошо на этом заработать.Для этого надо было перейти по фишинговой ссылке, указанной ниже, и оставить данные о себе. Хотя видео было не очень хорошего качества, многие пользователи все же поверили ролику.

Читайте также
Почему некоторые мобильные приложения опасно хранить в гаджетах

В Казахстане о случаях с мошенничества с использованием технологии дипфейка ничего неизвестно. Но, как говорится, предупрежден – значит, вооружен. Основным способом борьбы с киберпреступниками, использующими дипфейки, является повышение осведомленности пользователей о подобной схеме обмана и соблюдение цифровой гигиены.

Как не попасться на фейк?

Мошенники редко уделают должное внимание качеству своего "продукта", будь то видео, фото или аудио. Поэтому странное моргание человека, либо его отсутствие, слова невпопад, легкое заикание или роботизированный тон должны вас насторожить. Ко всему, что кажется вам неестественным, вы должны отнестись с подозрением.

Звонит близкий или знакомый и просит срочно перевести деньги? Завершите разговор и перезвоните ему сами, самостоятельно набрав его номер. Уточните, действительно ли он звонил к вам, а не мошенники.

В интернете увидели ролик, в котором публичная личность предлагает вам заработать много денег при минимальных усилиях? Не верьте глазам своим, а включите критическое мышление. Гарантированный доход обещают только мошенники. Подобным "рекламам", даже без использования дипфейков, где просто используются изображения известных и уважаемых людей, не нужно доверять. Злоумышленники сегодня активно предлагают заработать на различных инвестиционных онлайн-платформах, для участия в которых нужно оставить свои данные на фейковых сайтах и перечислить организаторам небольшие суммы.

Будьте аккуратны, только мошенники обещают "золотые горы", а взамен оставляют своих жертв у "разбитого корыта". И только мошенники заводят речь о деньгах и хотят получить от вас деньги в виде аванса, вступительного взноса, платы за дополнительные услуги. Теперь они могут делать это не напрямую, а через искусственный интеллект. Некоторые сервисы могут создать дипфейк-видео или аудио, пусть и не очень хорошего качества, только с помощью одного изображения или голосовой записи длиной в несколько секунд.

Читайте также
Как мошенники пользуются доверчивостью предпринимателей

Поэтому, чтобы не попасться на уловки кибермошенников, стоит соблюдать простые правила безопасности в интернете и проявлять внимательность при любых обстоятельствах.

Интересный факт

Существует тест, который разработал Массачусетский технологический институт. Он состоит из восьми вопросов, позволяющих распознать, используется ли технология дипфейка в видео:

  1. Не трансформируется ли лицо при движении?
  2. Не кажется ли вам кожа на лице слишком гладкой или морщинистой? Схоже ли старение кожи со старением волос и глаз?
  3. Глаза и брови. Появляются ли тени в ожидаемых местах? Дипфейк часто не может полностью передать естественную физику освещения.
  4. Есть ли блики на очках? Не слишком ли их много? Изменяется ли угол бликов при движении человека?
  5. Натурально ли выглядит растительность на лице? Искусственный интеллект может добавлять и удалять усы, бороду и бакенбарды, но зачастую не может передать волосы предельно естественно.
  6. Выглядят ли родинки на лице настоящими?
  7. Не слишком ли часто моргает человек?
  8. Обратите внимание на размер и цвет губ. Соответствуют ли они остальной части лица?

Источник: fingramota.kz

ПОДПИСЫВАЙТЕСЬ НА НАШ КАНАЛ И ЧИТАЙТЕ НАС В TELEGRAM!

Регистрация для комментариев:



Вам отправлен СМС код для подтверждения регистрации.




журналист
Америкаға бір ұшақпен біздің мұғалімдерді жібергенде Камала жеңетін еді дейді. Айтпайтындары жоқ.
Для борьбы с коррупционным ОПГ можно использовать ОГПО
Как заставить государственных служащих отвечать за свои дела
Из-за чего вертолёт минобороны совершил “жёсткую посадку” в Актюбинской области
Ремонтные предприятия продолжают срывать сроки ремонта военной техники российского производства из-за войны в Украине
Устроивший ДТП мопедист признан свидетелем аварии
В Алматы судят водителя минивэна, не сумевшего увернуться от мопеда с пассажиром
Суд не дал бывшему топ-менеджеру QazaqGaz заработать ещё 63 млн тенге
Бахтияр Избасаров рассчитывал на выплату бонусов по итогам отработанных лет
Почему наши программы развития плохо работают
Нет опоры на науку, мнимые цели и плохая реализация
Про "ужасную" еду в Америке
Американский общепит - давно food court лучших шеф-поваров мира, считающих за честь иметь свою локацию на американском рынке
Паттайя – Город грехов: что там делать в ноябре и стоит ли вообще туда соваться
Отдых с пользой: советы Андрея Михайлова
Алма-Ата и Алматы. Ноль как показатель безопасности
С начала года на дорогах Казахстана погибло более 300 человек
Первого избранного народом сельского акима всё-таки уволили
Жители Торт-Кудукского сельского округа написали письмо в защиту своего акима президенту, аким Экибастуза посоветовал ему избираться заново
Сергей Агафонов: Нацпроект – это событие с "долгоиграющим" эффектом
Разработчики обещают чуть ли не революцию и полнейшую модернизацию двух ведущих отраслей экономики
В Усть-Каменогорске тысячи человек остались без отопления
Ситуацию спасает установившаяся тёплая погода
Уральский государственный медколледж собираются продать частникам
Сейчас он находится в доверительном управлении
Когда правительство возьмётся за яйца
Прагматично-патриотическое молодёжное движение издало "Ежедневник строителя Второй Республики" с цитатами президента
Президент и крестьяне
Земельные кадастры - как инструмент восстановления справедливости (или передела незаконно захваченного)
Казахская сказка о мальчике Бату стала хитом Amazon
Книга как отложенное оружие мира
Ратель. Лучшее за 2022 год. Аналитическая служба Ratel.kz
Ratel.kz публикует самые читаемые материалы авторов сайта за прошедший год
Исповедь молодого сантехника и молодого акима. Часть 1
- ВЛАДИМИР, огромное Вам человеческое спасибо от всей души и чистого сердца, самое главное здоровья и ещё раз здоровья. На таких людях как Вы, города и держатся. Профессионалов как Вы, необходимо ставить руководителями, которые знают проблему из внутри. Ещё раз ОГРОМНОЕ СПАСИБО!!!!!!!
Когда правительство возьмётся за яйца
- Просто шедевральная статья. Особенно в точности описывает функции партий, которые описаны в данной статье. Изречения которые должны быть прочитаны и приняты во внимание. Самое главное чтобы данный ежедневник был прочитан и принят во внимание. (Про выражение где фигурирует Троцкий просто ШЕДЕВРАЛЬНО и в точку)...
Отчего после публикаций Ratel.kz нервничают в ТОО "AB Energo"
- Сергей, ОГРОМНОЕ Вам спасибо за новое расследование. Всегда держите в напряжение. Ожидаем продолжение... (Интересно, что скажет ещё на это и ГУ "Аппарат акима Абайского района Карагандинской области)
Премьер Смаилов как аманат Назарбаева
- Спасибо большое , здоровье и удачи Вам и Вашим близким, то что Вы творите лучше всех государственных программ по воспитанию . Готовая программа к действию для улучшения жизни населения. Огромное удовольствие что у нас имеется такие журналисты и такой коллектив.
Депутатский запрос фракции "Ак жол": чем комитет гражданской авиации занимался пять лет
- Если случится ещё трагедия , то кого будут винить опять? Всех собак спустили на авиакомпанию Bek Air, хотя надо было просто решать проблему с незаконными постройками намного раньше этой катастрофы. Нельзя это так оставлять. Всех пересажать за коррупцию , кто являлся корнем проблемы!
Все дороги ведут в Каражал: горькая начинка "сладкого пирожочка"
- Огромное спасибо автору за проделанную работу! Только в нашей группе более 100 человек постравших от этой компании в лице гендиректора Максата Токмагамбетова, бессовестного, наглого мошенника, который почему-то до сих пор остаётся безнаказанным, хотя прокуратура и следственные органы завалены сотнями, сотнями заявлений пострадавших. Но мы не остановимся и будем добиваться, чтобы этот "человек", наконец-то, понёс наказание!
Как аким Досаев уничтожает Алматы и рейтинги президента Токаева
- Каменское плато- в р-не обсерватории идет застройка, хотя весной сошел оползень на ул Алмалыкской. Акимат частично помог организовав сброс воды с вышележащего участка на нижнюю часть улицы и домовладельцу в расчистке. Но других мер по предотвращению развития оползневой зоны не принято. Вырублен сад, на месте его строится элитный комплекс Вилла Белгравиа. Летом, здесь нехватка воды, отключения электроэнергии, что будет при вводе в эксплуатацию этого, т.к.доп коммуникаций застройщик не делает.