Если Вы журналист и сталкиваетесь с правонарушениями в отношении Вас со стороны властей и иных лиц, обращайтесь к нам! Мы Вам поможем!

Критическое мышление граждан в Кыргызстане растет, но вместе с тем развиваются и методы манипуляций отдельных групп лиц.  Если раньше политики нанимали фейк-фермы, которые просто воровали фотографии других пользователей соцсетей, а журналисты могли найти реальных владельцев снимков. То сейчас фейки начали иначе использовать украденные фотографии. Они генерируют на украденных фото новые лица с помощью искусственного интеллекта. Это значит, что проверить реальное существование таких людей стало практически невозможно.

Например, фейки, которые лайкают посты зампредседателя Кабинета Министров Бакыта Торобаева, сгенерировали лицо молодого человека и оформили его  профиль, добавив место работы, хобби и личную жизнь. Страница некоего Азамата Султанова, который судя по его «биографии» работает водителем, закончил МГТУ им. Н.Э. Баумана, а в отношениях у него «всё сложно».

На самом деле Азамат Султанов – фейк, его фотография украдена у другого человека, и его лицо полностью изменено. Оригинал фото:


Такая кража чужой фотографии выгодна для владельца фейкового аккаунта тем, что сгенерированное фото выглядит максимально правдоподобно – настоящий пейзаж на заднем плане и логотип известного бренда на футболке не придется добавлять отдельно с помощью фотошопа. Напомним, искусственный интеллект пока не может достаточно хорошо генерировать надписи и тем более воссоздавать уже существующие логотипы.

Определить и выявить обычную кражу фотографии можно с помощью поиска по лицам, но если лицо изменено или сгенерировано ИИ, то найти первоисточник сложно или вообще невозможно.

Под постами того же чиновника мы нашли десятки таких же фейков. Все они использовали на аватарках лица людей, которых мы не нашли ни в Google Photos, ни в «Яндекс.Картинках», и даже в крупном китайском поисковике Baidu.

Единственной зацепкой стали остальные фотографии профилей, которые дублируются у фейков. Фейковый аккаунт Жылдыз Мамытовой на своей странице публикует десерты, которые якобы приготовила она сама. Однако ту же самую фотографию пирога опубликовал другой фейк, Айгерим Бекмаматова, подписав фото «Десерт своими руками».

Или другой пример, где одна и та же картинка мечети у двух фейков, Эркебулана Сатыбалдиева и Саиды Сырыгуловой.

Обратите внимание, что у всех фейковых аккаунтов фотографии созданы по одному принципу – лицо крупным планом с небольшим абстрактным фоном. Это позволяет быстро создавать фото с помощью ИИ, без необходимости генерировать параметры тела и обширный задний фон, по которым может быть заметно, что снимок искусственный.

Напомним, инструменты ИИ по созданию иллюстраций до сих пор не могут достаточно качественно воссоздавать кисти рук человека. Как правило, на таких картинках либо слишком много пальцев на руках (шесть и более), либо они не соответствуют анатомической форме.

Недавние вирусные изображения, показывающие президента Франции Эммануэля Макрона во время беспорядков, можно легко распознать как подделку, взглянув на руки.

Продукты искусственного интеллекта 

Помимо измененных лиц, фейки способны создавать совершенно новые изображения людей. Они используют свои страницы для дискредитации журналистов и активистов, а также для поддержки действующей власти.

Например, фейковый аккаунт Нурбека Исмаилова распространяет ложную информацию о деятельности оппозиционного политика Равшана Жээнбекова.

Среди друзей Нурбека Исмаилова присутствуют и другие аккаунты, занимающиеся дискредитацией оппозиционно настроенных лиц. Однако помимо троллинга, фейковые аккаунты делятся новостями о президенте Садыре Жапарове и главе ГКНБ Камчыбеке Ташиеве.

У лиц, сгенерированных одной платформой искусственного интеллекта, могут быть похожие черты. В нашем случае пропорции расположения глаз, подбородка и размер лба:


Например, на лицах, сгенерированных GAN, глаза находятся в одном и том же положении, независимо от ориентации лица:

Вывод: владельцы фейковых аккаунтов в социальных сетях, работающие на тех или иных лиц для их поддержки или дискредитации их оппонентов, переходят на использование фотографий, сгенерированных искусственным интеллектом.

О том, как работают фейки и как бороться с ними, читайте в нашем предыдущем материале о 1000 найденных фейках политиков и нашем расследовании о индустрии политического пиара через фейковые аккаунты и троллей.

https://factcheck.kg/fejki-v-soczsetyah-bolshe-ne-voruyut-foto-teper-oni-ispolzuyut-ii-primery-iz-kyrgyzstana/