Военное обозрение

Технология deep fake как повод для начала войны

53

Новый мир с deep fake



Интернет сейчас есть чуть ли не в каждом утюге, становится все сложнее найти точку на карте, где сеть 4G была бы недоступна. Широкополосный интернет – это прежде всего видео в качестве HD на распространенных платформах, которые постепенно заменяют для нас новостные ленты, аналитику и просто развлекательное чтиво. Кроме того, это инструмент влияния на миллиарды людей, позволяющий создавать нужное в данный момент общественное мнение. На пике этих игр с населением может оказаться технология deep fake, которая уже доказала свою способность превратить знаменитостей, таких, как Галь Гадот, Скарлетт Йоханссон, Тейлор Свифт, Эмма Уотсон и Кэти Перри, в звезд порноиндустрии. Дипфейк – это алгоритм, позволяющий моделировать поведение и внешность человека на видеозаписи. Имя технология получила от сочетания deep learning («глубокое обучение») и fake («подделка»). В основе deep fake лежат пресловутые нейронные сети, работающим по генеративно-состязательному принципу (Generative Adversarial Network, GAN). Алгоритмы, заложенные в базу программы, постоянно соревнуются друг с другом в двух процессах: обучение на представленных фотографиях с целью создания реальной подмены лица на копии и исключение негодных вариантов до тех пор, пока машина сама не начнет путать оригинал и копию. В этой сложной схеме заключается основная цель работы deep fake – создание ложных фотографий и видеоконтента, в которых лицо оригинала замещается другим образом. К примеру, харизматичный президент США Дональд Трамп вполне может встать на место любого одиозного лидера XX века и нести в массы с трибуны откровенную ересь. Сейчас же в одном из сгенерированных deep fake видео бывший президент Барак Обама позволил себе нецензурные выражения в адрес Дональда Трампа.


Конечно, на первых порах реклама deep fake была исключительно вирусной – лица голливудских актрис имплантировали в незамысловатые сюжеты порнороликов со всеми вытекающими последствиями. Или, например, актер Николас Кейдж неожиданно становится главным актером в эпизодах самых знаковых фильмов современности. Некоторые эти творения представлены на видео и, честно говоря, многие из них выглядят несколько топорно.




А вот хип-хоп-исполнительница Карди Би, которая предстала на вечернем шоу Джимми Фэллона в образе актера Уилла Смита, выглядит вполне убедительно.


А вот оригинал.


Неплохо выглядят поделки на канале Ctrl Shift Face. К например, Сильвестр Сталлоне примерил главную роль в «Терминаторе».



Уже сейчас IT-аналитики заявляют, что «фейковая» технология может стать самой опасной в цифровой сфере за последние десятилетия. В дополнение к этой технологии (и на её основе) спецы из университетов Принстона, Макса Планка и Стэнфорда соорудили приложение Neural Rendering. У него задача еще более опасная – «заставить» изображение человека свои голосом произносить любой текст на любом языке. Для этого требуется всего 40-минутное видео со звуком, в ходе которого нейронная сеть научится работать с голосом и мимикой человека, трансформируя это для новых словесных выражений. Изначально идея, конечно, позиционируется как благая: основным потребителем Neural Rendering станут киностудии, желающие сократить время на съемку актерских дублей. Однако всем сразу же стало понятно, что в недалеком будущем фактически любой пользователь может у себя на ноутбуке генерировать видеофейки, от которых волосы встанут дыбом. Вторым ответвлением «фейковой» программы стало приложение DeepNude, способное достаточно реалистично «раздеть» догола на фотографии любую женщину. В первые дни работы сервиса объем свалившихся запросов был настолько велик, что разработчики в опасении судебных исков объявили о его закрытии. Но хакеры взломали ресурс, и сейчас DeepNude может воспользоваться каждый. Конечно, сервис пытаются ограничить в доступе, но все понимают, что это лишь временная мера.

Deep fake оказался неплохим инструментом в руках мошенников. Одну британскую энергетическую компанию ограбили на 220 тыс. евро, когда на связь с финансовым отделом вышел «клон» управляющего из Германии. Он смоделированным голосом попросил срочно перевести деньги на счет в Венгрии, и у бизнес-партнеров не было ни единого повода не верить абоненту. Конечно, сейчас массово и качественно подделывать видеоряд проблематично – государственные регуляторы постоянно блокируют ресурсы с fakeapp и facefake, да и мощности компьютеров пока не позволяют оперативно синтезировать видео. Приходится перепоручать эту работу удаленным платным серверам, которым для работы требуют тысячи фотографий оригинальной личности и «жертвы».

Сasus belli


Технология deep fake может в будущем оставить актеров без работы – вся индустрия вполне может перейти на «мультяшных» киногероев, многих из которых технология воскресит из мертвых. Но это скорее мечты о будущем, так как многочисленные профсоюзы и элементарная нехватка вычислительных мощностей отодвигает перспективу на несколько лет вперед. Хотя уже сейчас в фильме «Изгой один: Звёздные войны» режиссер для одного эпизода «воскресил» актера Питер Кушинга, скончавшегося в 1994 году. Ходят слухи, что в новом фильме о войне во Вьетнаме может появиться знаменитый Джеймс Дин. Нейросети помогают актерам, которые уже в годах, выглядеть в кадре на 10-20 лет моложе – к примеру, Арнольду Шварценеггеру и Джонни Деппу. В среднем в мире сейчас генерируется не менее 15-20 тыс. deepfake видео каждый месяц, большая часть которых появляется в Интернете. Российские программисты стараются идти в русле мировых трендов — компания Vera Voice в июле 2020 года предложит поклонникам творчества Владимира Высоцкого пообщаться с цифровой копией певца в Театре на Таганке.

Все идет к тому, что видео- и фотодоказательства перестанут быть действенными аргументами в судебных разбирательствах, а глобальная система видеонаблюдения окажется пустой тратой денег. Никто не будет доверять кадрам с камер видеонаблюдения. Где гарантия, что это не синтезированная пустышка? В политической пропаганде deep fake уже сейчас становится мощнейшим рычагом влияния на мнение избирателей. Калифорния в октябре 2019 году стала первым штатом, вообще запретившим выкладывать в сеть ролики с политическими кандидатами за 60 дней и менее до выборов. За нарушение данного закона АВ 730 грозит уголовная ответственность. Сейчас к этой инициативе присоединили еще несколько штатов, а января 2020 года в Китае будет запрещено публиковать синтезированные deep fake фото и видео без особой пометки. Кстати, сейчас одним из действенных приемов определения подделки на глаз является отсутствие естественного моргания у синтезированных персонажей.


Сталлоне в роли Терминатора

А теперь представьте, насколько развитие технологии deep fake (а развитие не остановить, пока будет спрос) перевернет представление о правде и лжи. Особенно когда новинку возьмут на вооружение государственные структуры. Любое синтезированное видео об очередном шпионском разоблачении при умелом использовании может стать поводом как минимум для наложения очередного пакета санкций или закрытия дипломатического представительства. И не нужно будет инсценировать химические атаки на мирных жителей, чтобы санкционировать массированный ракетный удар по суверенному государству. Акты геноцида, последствия применения оружия массового поражения, вызывающее и оскорбительное поведение первых лиц государства – весь этот deepfake букет в нужной ситуации может оправдать в глазах избирателей начало очередной военной авантюры. А когда заговорят пушки и полетят ракеты, никто особо и не будет вспоминать, с какого разоблачающего видео началась война.

Сейчас нет однозначного ответа, что делать с этим бедствием. Лучшие алгоритмы, заточенные на разоблачение deep fake, могут гарантировать лишь 97%-ную вероятность. В настоящее время каждый прогрессивный программист может принять участие в Deepfake Detection Challenge, который в сентябре 2019 года анонсировал Facebook. Призовой фонд в 10 млн. долларов достанется тому, кто сможет разработать алгоритм, позволяющий со 100%-ной гарантией распознавать фейковые видео. Насколько быстро последует ответная реакция от подпольных разработчиков deep fake, остается только гадать.
Автор:
Использованы фотографии:
youtube.com, profil.ru
53 комментария
Информация
Уважаемый читатель, чтобы оставлять комментарии к публикации, необходимо зарегистрироваться.

Уже зарегистрированы? Войти

  1. трассер
    трассер 17 декабря 2019 05:29 Новый
    +3
    Мда, опастная штука.
    1. knn54
      knn54 17 декабря 2019 11:30 Новый
      +6
      Честного человека купить нельзя,но его можно опорочить.
      Интересно бы посмотреть альтернативы (когда актеры отказывались) фильмам-например "Иван Васильевич меняет профессию" с Никулиным и Мироновым.
      P.S "17 мгновений весны" с гайдаевской тройкой и Крачковской(радистка Кэт) не предлагать...
      Воистину "О дивный новый мир".
      1. Shurik70
        Shurik70 20 декабря 2019 23:45 Новый
        0
        А уж как ДПС будут рады ...
        Сейчас-то опасаются видеорегистраторов, по надуманным предлогам не штрафуют.
        А вот в будущем любое обвинение против себя назовут синтезированной фальшивкой
        belay
        1. trenkkvaz
          trenkkvaz 22 декабря 2019 22:56 Новый
          0
          Я уверен появиться технология подтверждения правдивости видеозаписи.
          Некая верификация того, что видео записано в определенное время и не имеет исправлений.
          Возможно это можно будет делать через сервер, используя криптографию.
          Технология 5G, обеспечивающая огромную скорость соединения, как раз поможет реализовать подобные вещи.
  2. Mytholog
    Mytholog 17 декабря 2019 06:03 Новый
    +1
    Опасна эта технология только в периоде адаптации к ней, пока не все ещё о ней знают. Когда она станет "ожидаемой шуткой" - опасность её станет равной нулю.
    1. Аэродромный
      Аэродромный 17 декабря 2019 07:01 Новый
      0
      Цитата: Mytholog
      опасность её станет равной нулю

      этот "ноль" может руководить страной...
      1. cniza
        cniza 17 декабря 2019 09:05 Новый
        +3
        "Ноль" не может руководить по определению , а вот помножить на себя все может...
    2. Aleksandre
      Aleksandre 17 декабря 2019 10:39 Новый
      +1
      Цитата: Mytholog
      Опасна эта технология только в периоде адаптации к ней, пока не все ещё о ней знают. Когда она станет "ожидаемой шуткой" - опасность её станет равной нулю.

      Можно предположить, что за время существования так называемой желтой прессы все уже имели возможность к ней адаптироваться или хотя бы мало-мальски приспособиться. Но тем не менее это не так, и на каждый вброс на вентилятор следует незамедлительная бурная реакция преданных читателей-потребителей, ибо глупость человеческая - бесконечна.
  3. Kirill Dou
    Kirill Dou 17 декабря 2019 06:17 Новый
    -1
    Я живу в мире Уильяма Гибсона wink Наконец-то.
    1. депрессант
      депрессант 17 декабря 2019 08:34 Новый
      +3
      Довелось недавно видеть ролик. Разные люди с разными котами на руках смотрят на экраны своих мобильников. Приложение накладывает морду кота на лицо человека. Все коты реагируют одинаково: кот в удивлении таращится на экран, переводит взгляд на хозяина, видит, что он нормальный, затем снова на экран, когнитивный диссонанс животного достигает предела, и оно в ужасе срывается с колен хозяина, шерсть вздыблена, некоторые коты шипят... А ролики с якобы известными политическими деятелями и актерами -- это уже старая тема, ими пестрит интернет. Опять же, "оживленная" принцесса Лея в новых "Звездных войнах", Обама, говорящий речь... И ведь не отличишь! И потому, что не отличишь, видимо, наступает эпоха политиков, говорящих то, что нужно закулисью, которое имеется в каждой стране. Впрочем, разве не всегда так было? Только оно было дороже, политику надо было платить. А сейчас будет дешевле, так как платить нужно будет всего лишь программисту.
      1. Kirill Dou
        Kirill Dou 17 декабря 2019 08:47 Новый
        0
        Довелось недавно видеть ролик. Разные люди с разными котами на руках смотрят на экраны своих мобильников.
        - тоже его смотрел, было смешно)
      2. AlexVas44
        AlexVas44 18 декабря 2019 09:23 Новый
        0
        Цитата: депрессант
        кот в удивлении таращится на экран, переводит взгляд на хозяина, видит, что он нормальный, затем снова на экран, когнитивный диссонанс животного достигает предела, и оно в ужасе срывается с колен хозяина, шерсть вздыблена, некоторые коты шипят...

        Не смотрел, но по описанию очень ярко себе представил, а если ещё и хозяин а ля обама, можно влёжку.......... laughing laughing good fellow
  4. g1washntwn
    g1washntwn 17 декабря 2019 06:25 Новый
    +4
    Например, формат UltraHD Это 3840х2160=8294400 пикселей. Так ли сложно "раскидать" по картинке "сбойные пискели" т.н. "водяного знака" чтобы на общем качестве картинки это сказывалось для глаза минимально?
    Сделать этот знак динамическим по зашифрованному ключу. Ну и прочий блокчейн и квантовую технологию в помощь.
    1. Stas157
      Stas157 17 декабря 2019 08:17 Новый
      +7
      Цитата: g1washntwn
      Так ли сложно "раскидать" по картинке "сбойные пискели" т.н. "водяного знака"

      Я понимаю, это чтобы защитить оригинальное видео. А как распознать фэйк, если видео не было защищено?

      Картинку то алгоритм может подделать, а вот поведенческую модель, психологический портрет, пока вряд-ли. А ведь именно по этому ключу мы безошибочно определяем Михана или Голована в любых воплощениях. Даже не видя картинки.
      1. депрессант
        депрессант 17 декабря 2019 11:23 Новый
        +3
        Да нисколько не тяжело. Привлекут психолога, и он вам точно откорректирует ролик так, что и не заметите, что песонаж фейковый, а не реальный. Небось, и программы уже есть, анализирующие поведение и манеру говорить реального деятеля по журналистским репортажам. Про голос уже и говорить не приходится. Это 21-й век, все подделают! К примеру, когда слушала речь Путина, в которой он убеждал нас отнестись с пониманием к пенсионной реформе, не могла отделаться от ощущения, что это не Путин. Ну, не он, и все!
        1. Maximilian37
          Maximilian37 18 декабря 2019 06:23 Новый
          0
          Цитата: депрессант
          ..... К примеру, когда слушала речь Путина, в которой он убеждал нас отнестись с пониманием к пенсионной реформе, не могла отделаться от ощущения, что это не Путин. Ну, не он, и все!


          Это потому, что в СМИ всё обставили так, как будто это правительство решило поднять возраст, а Путину, типа, ничего не оставалось как подписать закон. И ваш могз до последнего отказывался верить в то, что он "ЗА" повышение пенсионного возраста.
        2. g1washntwn
          g1washntwn 19 декабря 2019 07:51 Новый
          0
          Копирайт с картинок стереть и подменить можно, но после этого даже со 100% совпадением по пикселям "взломанная" картинка перестает быть аутентичной копией. Можно смело называть ее фейковой. Так же и с модифицированными "видео-доказательствами из интернета". Нет заверенной "цифровой подписи" - не является доказательством. Над СМИ которое использовало такой "взломанный" инфо-материал взмахивает мечом товарищ Фемида и оно ныряет с головой в чан с "этим-самым".
      2. bk316
        bk316 17 декабря 2019 16:57 Новый
        +1
        А как распознать фэйк, если видео не было защищено?

        Никак статья именно про это. ВСЕ - ЗАБЫЛИ О ВИДЕОДОКАЗАТЕЛЬСТВАХ ИЗ ИНТЕРНЕТА.
        Ничего страшного в этом нет, проблемы будут только в переходный период пока до народа это не дойдет.
      3. g1washntwn
        g1washntwn 19 декабря 2019 08:09 Новый
        +1
        Неприлично отвечать вопросом на вопрос, но в нем ответ. Имеет ли юридическую силу электронный документ без ЭЦП? Нет. Также и к видеоряду нужно подходить. Любой набор пикселей без установления истинности является фейком по умолчанию.
    2. dmmyak40
      dmmyak40 17 декабря 2019 11:59 Новый
      +3
      Цитата: g1washntwn
      Например, формат UltraHD Это 3840х2160=8294400 пикселей. Так ли сложно "раскидать" по картинке "сбойные пискели" т.н. "водяного знака" чтобы на общем качестве картинки это сказывалось для глаза минимально?
      Сделать этот знак динамическим по зашифрованному ключу. Ну и прочий блокчейн и квантовую технологию в помощь.

      Хорошо излагает, собака!
  5. Uhu
    Uhu 17 декабря 2019 07:08 Новый
    +6
    Да в общем, ничего особенного. Во-первых, манипулировать информацией умели всегда. Еще со времен былин приблудных гусляров. Несут они ахинею про Иван-царевича? Сходи проверь! В тридевятое царство. А уж коллажи из фотографий и ретушь стали применять аж с самого изобретения фотографии.
    Тут просто очередной аспект. В целом, просто нужно все то же - умение работать с информацией...
    ПиСи: а про "безработных актеров" - вообще не новость - давний факт, с которого дружно весь мир ржет - сейчас в рекламе любого фильма вам 20 раз скажут про "спецэффекты". А что фильм - никакой. перепевка старого, Терминатор-28... Так еще в 80-х это оборжали в фильме "назад в будущее". Какие там по счету "челюсти" были?
    1. g1washntwn
      g1washntwn 19 декабря 2019 08:04 Новый
      0
      Согласен. Первые фейки начали царапать еще на стенах пещер - наскальное фэнтэзи "Как мы победили мамонта". Процесс вранья просто меняет формы, способы и скорость. Возможно, в будущем нам будут вшивать фейковые воспоминания и рефлексы уже на стадии рождения сразу в подкорку и исключительно под существующую политическую конъюнктуру, это существенно облегчит работу тамошних Госдепов и Политбюро.
  6. rotmistr60
    rotmistr60 17 декабря 2019 07:24 Новый
    +8
    Сегодня и без deep fake представление о правде и лжи перевернуто с ног на голову. Поэтому страшное уже случилось и без компьютерных программ - фейки, обвинения без доказательств, массированные информационные атаки в СМИ, откровенные провокации... Повод для начала вооруженного конфликта может возникнуть и без этой компьютерной программы.
    1. cniza
      cniza 17 декабря 2019 09:02 Новый
      +3
      Да , многое творится по простому слову , без всякого обоснования и доказательств.
  7. awdrgy
    awdrgy 17 декабря 2019 08:33 Новый
    0
    "глобальная система видеонаблюдения окажется пустой тратой денег" И это хорошо-мы же не хотим что бы за нами постоянно следили Это неприятно В подъезде домофон с камерой на доме рядом камера везде камеры и все в доступе при желании А может я к любовнице поехал?)
    1. Pavel57
      Pavel57 17 декабря 2019 09:36 Новый
      +2
      Всегда можно отмазаться - любовница - это фейк.
      1. awdrgy
        awdrgy 17 декабря 2019 09:41 Новый
        -1
        Так точно! Или "это был не я -это фейк" Хотя боюсь не прокатит
  8. srha
    srha 17 декабря 2019 08:35 Новый
    +1
    Хи, так deep войти в fake, что совсем забыть о давно известной, несколько тыщ лет уж точно, информационной безопасности. Наверно наши далёкие предки тоже мучились вопросом, что любой может выбить на камне поддельные скрижали, потом столь же поддельные папирусы, далее статейки на бумаге, векселя, транзакции, ну вот добрались и до видео... А ставьте-ка вы печать и подпись заверенную свидетелями на видео (электронно-цифровую в случае цифрового видео, технология давно известна и стоит пару копеек), и подделка, у овладевших технологией защиты, уже не пройдёт.
  9. cniza
    cniza 17 декабря 2019 09:00 Новый
    +2
    Призовой фонд в 10 млн. долларов достанется тому, кто сможет разработать алгоритм, позволяющий со 100%-ной гарантией распознавать фейковые видео.


    А это много или мало за такую разработку ? в этом вся проблема , решение может стоить "три копейки" или триллионы ...
    1. spech
      spech 17 декабря 2019 10:54 Новый
      +1
      Призовой фонд в 10 млн. долларов достанется тому, кто сможет разработать алгоритм, позволяющий со 100%-ной гарантией распознавать фейковые видео.

      со времён инквизиции эти "алгоритмы" известны am
  10. Pavel57
    Pavel57 17 декабря 2019 09:35 Новый
    +1
    Все чудексатее и чудесатее.
  11. VictorStar
    VictorStar 17 декабря 2019 09:51 Новый
    +1
    Ну вот и "поколение П" наступило, раз уж это в массы пошло, то нарисовать высшего начальника - ничего не стоит.
  12. михаил3
    михаил3 17 декабря 2019 10:40 Новый
    +1
    Все это уже привело к тому, что никакое видео или фото не могут больше считаться доказательством чего либо. Вот и все. У криминалистики попросту отобрана часть инструментов. Все это с одной стороны не радует, а с другой... теперь "безлюдные" системы безопасности придется снова наполнить людьми, так как за камерами останется только задача оперативного информирования, а для доказательства чего либо нужен живой свидетель - охранник, который видел лично.
  13. MoJloT
    MoJloT 17 декабря 2019 10:58 Новый
    +1
    «заставить» изображение человека свои голосом произносить любой текст на любом языке.

  14. Avior
    Avior 17 декабря 2019 11:41 Новый
    0
    Синтезированные видео определяются при экспертизе, значит, серьезной проблемы не будет
    Это как с историей о «Мама, я твой сын, попал в аварию, дай денег человеку на углу улицы, или меня посадят»
    Пока не знали, у мошенников получалось
    1. bk316
      bk316 17 декабря 2019 14:59 Новый
      0
      Синтезированные видео определяются при экспертизе, значит, серьезной проблемы не будет

      Вы похоже вообще не понимаете о чем статья.....
      В таких случаях может лучше промолчать?
      Себе задайте вопрос кто будет определять подделку?
      1. Avior
        Avior 17 декабря 2019 17:42 Новый
        -1
        Прекрасно понимаю
        А вы нет, похоже
        Как доказательство в суде они не пройдут, экспертиза выявит следы монтажа
        А эффект воздействия на публику в сми или взбросах быстро сойдёт на нет после нескольких разоблачений таких фейков
        Эффект они будут иметь, только пока в голове у большинства подсознательности заложено убеждение, что видео подделать невозможно или очень сложно
        Как только большинству станет ясно что подделка возможна, эффект от таких вбросов сойдёт на нет
        Так вам понятно?
        1. bk316
          bk316 17 декабря 2019 18:28 Новый
          +1
          Как доказательство в суде они не пройдут, экспертиза выявит следы монтажа

          Вы так ничего и не поняли. laughing
          До свидания.
          1. Avior
            Avior 17 декабря 2019 18:29 Новый
            +1
            Похоже, что вы
      2. Толстый
        Толстый 17 декабря 2019 18:19 Новый
        +1
        Цитата: bk316
        Синтезированные видео определяются при экспертизе, значит, серьезной проблемы не будет

        Вы похоже вообще не понимаете о чем статья.....
        В таких случаях может лучше промолчать?
        Себе задайте вопрос кто будет определять подделку?

        Подобный создавшему подделку програмный продукт, что ж ещё. Задача решается. Понятно, что дорого. Один бот производит подделку, другой ее распознает, с определенной степенью достоверности, разумеется ))). Программисты тоже хотят зарабатывать, попутного AI им в...
        1. bk316
          bk316 17 декабря 2019 18:41 Новый
          +1
          Подобный создавшему подделку програмный продукт, что ж ещё. З

          Замечательно, собственно я авиору как бы об этом и намекал.
          Но он у нас упертый, ему не надо. Он свято верит в превосходство США а еще оказывается в величие экспертизы. laughing


          Алгоритмы, заложенные в базу программы, постоянно соревнуются друг с другом в двух процессах: обучение на представленных фотографиях с целью создания реальной подмены лица на копии и исключение негодных вариантов до тех пор, пока машина сама не начнет путать оригинал и копию.


          То есть если продукт тот же, то он подделку не выявит. Значит надо более "мощную" нейросеть сеть и вот тут-то и кроется фигня, нет метрики нейросетей с точки мощности в контексте решаемой задачи. Количество узлов, слоев , топология вовсе не говорит о качестве решения задачи. В результате мы получим ситуацию, когда на суде одна нейросеть говорит подделка другая не подделка. НО НЕЙРОСЕТЬ НЕ МОЖЕТ ОБЪЯСНИТЬ ПОЧЕМУ ПОДДЕЛКА. При этом любая сеть решает данную задачу с некоторой вероятностью, то есть дает ложноположительные результаты.
          Резюме: подобный программный продукт не может решить данную задачу.

          Я понимаю, что не программисту тяжело это понять, но уж объяснил как мог.
          Кстати знаете, что ни один программист не напишет слово программа с ОДНИМ М? laughing
          1. Толстый
            Толстый 17 декабря 2019 18:54 Новый
            +1
            Цитата: bk316
            понимаю, что не программисту тяжело это понять, но

            Вспомнил анекдот про блондинку, которую спросили какова вероятность того, что она встретит динозавра на улице. Блондинка заявила: 50%!
            Или встречу, или не встречу...
            Убойно, но абсолютно корректно - вопросе недостаточно граничных условий)))) Однако.
            1. Добрый_Анонимус
              Добрый_Анонимус 18 декабря 2019 14:09 Новый
              0
              Цитата: Толстый
              50%! Или встречу, или не встречу...
              Убойно, но абсолютно корректно


              Блондинка перепутала вероятность и число возможных исходов. Если ответ кажется вам корректным - вы тоже.
          2. Avior
            Avior 17 декабря 2019 19:14 Новый
            +1
            А я вам намекал, что вы неверно поняли, что в статье написано
            Вы в каком суде видели экспертизу программами или нейросетями?
            Экспертизу выполняет человек , если нужно- в ручном режиме
            И при экспертизе склейки и следы монтажа все равно всплывут, какими бы они нейронными сетями не делались, особенно если подменять придётся не только лицо, а полностью фигуру человека, или , тем более, создавать с нуля
            Или, как вариант, экспертиза не сможет подтвердить подлинность, что совсем не одно и то же, что распознать подделку
            Программы , о которых в статье, нужны не для экспертизы в суде, это для быстрого определения фейков, так, чтобы вы могли такой фейк быстро определить, в режиме реального времени в лучшем варианте
            А каким боком вы сюда США приплели- это вообще загадка
            hi
            1. Толстый
              Толстый 17 декабря 2019 21:15 Новый
              0
              Цитата: Avior
              А я вам намекал, что вы неверно поняли, что в статье написано
              Вы в каком суде видели экспертизу программами или нейросетями?
              Экспертизу выполняет человек , если нужно- в ручном режиме
              И при экспертизе склейки и следы монтажа все равно всплывут, какими бы они нейронными сетями не делались, особенно если подменять придётся не только лицо, а полностью фигуру человека, или , тем более, создавать с нуля
              Или, как вариант, экспертиза не сможет подтвердить подлинность, что совсем не одно и то же, что распознать подделку
              Программы , о которых в статье, нужны не для экспертизы в суде, это для быстрого определения фейков, так, чтобы вы могли такой фейк быстро определить, в режиме реального времени в лучшем варианте
              А каким боком вы сюда США приплели- это вообще загадка
              hi

              Программы о которых в статье речь очень подходят для создания казус белли. Стране агрессору нужен повод а не доказательства. Пример: операция " Консервы", пробирка Пауэла в ООН, или постановка "белых касок ". Собственно статья так и озаглавлена.
              1. Avior
                Avior 17 декабря 2019 21:46 Новый
                0
                Как только такие программы получат распространение, это перестанут воспринимать всерьёз
                С таким же успехом можно поддельное письмо на принтере сфабриковать
                Просто видео пока больше доверяют
                А уж что касается казус белли, так и сейчас такую имитацию сделать не проблема, динозавры по экранам бегают, никого не удивишь
                Просто с программой проще, но для озвученной вами цели это значения не имеет
              2. Добрый_Анонимус
                Добрый_Анонимус 18 декабря 2019 14:15 Новый
                +2
                Цитата: Толстый
                Программы о которых в статье речь очень подходят для создания казус белли.


                Опыт показывает, что казус белли создается и без deep fake. А deep fake, как только явление станет известным, быстро окажется средством розыгрышей и капустников.
            2. Greenwood
              Greenwood 18 декабря 2019 07:52 Новый
              0
              Цитата: Avior
              Экспертизу выполняет человек , если нужно- в ручном режиме
              И при экспертизе склейки и следы монтажа все равно всплывут, какими бы они нейронными сетями не делались
              Очень наивно думать, что человек безошибочно сможет распознавать такое. На текущий момент фейки ещё видно, но в недалёком будущем едва человеческий глаз сможет улавливать разницу. На примере современных фильмов можно видеть, что многие нарисованные эффекты, явления и существа воспринимаются как настоящие. Настолько далеко продвинулись технологии.
              1. Avior
                Avior 18 декабря 2019 08:29 Новый
                +1
                А вы считаете, что экспертиза на подлинность- это просмотр видео экспертом?
                1. Greenwood
                  Greenwood 19 декабря 2019 05:20 Новый
                  -2
                  Я этого не говорил. Я лишь привёл пример развития технологий в кинематографе. Суть в том, что не существует стопроцентного способа распознавания фейка.
    2. Greenwood
      Greenwood 18 декабря 2019 07:48 Новый
      -2
      Цитата: Avior
      Синтезированные видео определяются при экспертизе, значит, серьезной проблемы не будет
      В статье же написано, что не существует алгоритмов, которые со стопроцентной вероятностью распознают deep fake видео. О какой экспертизе вы говорите?
      Цитата: Avior
      Пока не знали, у мошенников получалось
      И сейчас получается, если вы не в курсе. Люди до сих пор ведутся на эту разводку, особенно пенсионеры.
      1. Avior
        Avior 18 декабря 2019 08:31 Новый
        +1
        Алгоритмы- речь идёт о программах, способных распознавать фейки в автоматическом режиме
        1. Greenwood
          Greenwood 19 декабря 2019 05:18 Новый
          -2
          Программы и работают на основе заложенных в них алгоритмов. Ваш так называемый "автоматический режим" тоже ни что иное как тот же алгоритм, состоящий из последовательностий действий, продуманных программистами. На текущий момент не существует ни соответствующих программ, ни соответствующих алгоритмов.