Искусственный "интеллект" и "фэйк ньюз"

Добрый день, Татьяна.

Наткнулся на парочку очень интересных (на мой взгляд, конечно) статей из области, так сказать, высоких технологий. Технологии, возможно, уже не такие уж и новые, но применение им вполне забавное: как обычно, любую технологию можно двояко использовать. Так вот, речь о т.н. машинном обучении.
Прогресс уже дошёл до того, что в скором времени можно будет эмулировать любые голоса (реальных людей) в реальном же времени.

Вот тут статейка на нерусском про имитацию голоса: https://www.heise.de/tr/artikel/Sprechen-wie-Barack-Obama-4333339.html 

Тоже интересная информация относительно синтеза изображений (лиц людей, машин, интерьеров). Некоторые изображения несуществующих персон уже сейчас практически неотличимы от реальных, живых людей:

https://thispersondoesnotexist.com/

Ещё ссыла на нерусском: https://www.lyrn.ai/2018/12/26/a-style-based-generator-architecture-for-generative-adversarial-networks/

Ну и немного видоса, как это работает: https://www.youtube.com/watch?v=kSLJriaOumA#action=share

Короче говоря, "фэйк ньюз" скоро уже на новый уровень выйдут да так, что кадры "химических атак в Сирии" покажутся самодеятельным представлением на детском утреннике в саду.

А программки для приклеивания чужих голов в видео уже сейчас можно скачать в интернетике.

Ну и спонсор всего этого искусства...Nvidia, читай Vanguard & Co.

С уважением, Д

https://www.computerra.ru/235476/najdi-otlichiya-litso-cheloveka-i-sgene...

НАЙДИ ОТЛИЧИЯ: ЛИЦО ЧЕЛОВЕКА И СГЕНЕРИРОВАННЫЙ ИИ ФЕЙК

Вслед за сайтом ThisPersonDoesNotExist.com, использующему ИИ для генерирования не существующих в реальности человеческих лиц, появился ресурс WhichFaceIsReal.com, предлагающий людям отличить искусственно созданные лица от настоящих.

Попытаться найти отличия и научиться различать искусственные и настоящие лица интересно, однако, помимо этого, у нового ресурса имеется более высокая цель. Сайт был создан двумя учеными Вашингтонского университета, Джевином Вэстом (Jevin West) и Карлом Бергстромом (Carl Bergstrom), которые занимаются изучением распространения информации в обществе. По их мнению, рост популярности сгенерированных ИИ несуществующих лиц может представлять проблему, негативно влияя на доверие людей к, казалось бы, очевидным вещам, и именно об этом ученые хотят рассказать населению.

«Самым опасным периодом в появлении подобной инновационной технологии является время, когда люди ничего об этой технологии не знают, – объясняет Бергстром, – именно тогда она может использоваться (злоумышленниками) наиболее эффективно».

«Мы пытаемся рассказать людям о существовании этой технологии, – говорит Вэст, – точно так же, как люди когда-то узнали о редактировании изображений в Photoshop».

Найди отличия: лицо человека и сгенерированный ИИ фейк

Оба сайта используют для создания лиц алгоритм машинного обучения известный как Генеративно-состязательная сеть (Generative adversarial network, GAN). Такие сети функционируют, просматривая большое количество данных (в нашем случае, множество портретов реальных людей), запоминая образцы и пытаясь воспроизвести увиденное.

Методы GAN интересны тем, что они тестируют сами себя. Одна часть сети генерирует лица, а другая сравнивает их с изученными данными. Если находятся отличия, генератор отправляется назад для усовершенствования своей работы. Представьте себе строгого учителя рисования, который не разрешит вам покинуть класс, пока вы не нарисуете правильное количество глаз на портрете. Возможности для творчества а-ля Пикассо здесь не существует – исключительно реализм.

Помимо изображений, эти приемы могут использоваться для работы с аудио и видео. Хотя на данный момент существуют ограничения в отношении того, что могут сделать эти системы, они уверенно развиваются и совершенствуются.

В случае с генерируемыми ИИ лицами, одним из негативных сценариев использования технологии может быть распространение заведомо ложной информации, например, после террористического акта. В частности, ИИ можно использовать для генерирования фейкового лица преступника и распространения изображения этого несуществующего человека в социальных сетях и новостях.

В подобных случаях журналисты обычно пытаются подтвердить источник изображения, используя инструменты наподобие Google Reverse Image search. Однако аналогичные решения не будут работать с фейковым лицом, созданным ИИ.

«Если вы хотите дезинформировать людей в подобной ситуации и публикуете фото преступника, на самом деле изображающее другого человека, это можно очень быстро проверить, – объясняет Бергстром, – но что если вы используете фотографию человека, которого на самом деле не существует? Подумайте о сложностях отслеживания такого изображения».

С другой стороны, Вэст, считает, что пока особых сложностей в распознавании искусственных лиц не существует:

«Я считаю, что на данный момент сделать это довольно просто», – отмечает он.

Пройдя предлагаемый на сайте тест, можно научиться различать сгенерированные ИИ лица и лица реальных людей. На самом деле, у искусственных лиц существует ряд особенностей, например, ассиметрично расположенные черты лица,  неестественно гладкие волосы или разного цвета глаза.

Однако, несомненно, фейковые изображения будут усовершенствоваться.

«Еще через три года они станут неотличимыми, – говорит Вэст, – и когда это произойдет, залогом успеха станут знания».

«Мы не хотим сказать, что людям не следует ничему верить. Мы хотим донести до людей совсем другое –  не стоит быть легковерными».

Источник