Вы находитесь на странице: 1из 10

C помощью каких инструментов можно

определить применялся ли ИИ при создании


произведения (примеры, решения, практики
других стран)

Денис Ермилов, руководитель практики


консалтинга в сфере создания платежных систем,
Заместитель директора по работе с клиентами
Ермилов Денис – руководитель практики консалтинга в сфере создания платежных
систем, Заместитель директора по работе с клиентами компании Cinimex
Ермилов Денис Игоревич, кратко обо мне
• Имею профильное образование в Computer science, закончил Высшую
Банковскую школу ПрофБанкинг
• Опыт работы в Центральном Банке РФ и в фин. секторе в Европе и США
(проекты для страховых и инвест-компаний)
• Более 15 лет занимаюсь построением бизнеса в сфере ИТ и созданием
платформ для fintech-индустрии
• Ключевые компетенции – платежи, API Economy, платформы для крупного
бизнеса на базе микро-сервисной архитектуры для организации быстрых и
безопасных вычислений и взаимодействия
• Автор патента на продукт для тестирования в банковской сфере в РФ (успешные
продажи и использование в топ банках в РФ)
• Лауреат премий TADVISER IT PRIZE 2023 и CNEWS Инновация года 2023, Лучшие
ESG проекты 2023
• Эксперт государственных фондов Сколково и Фонда содействия инновациям

2
01 Проблема контента, генерируемого ИИ
02 Инструменты класса deep fake detection
03 Инструменты класса deep fake detection на
рынке РФ
04 Что можно сделать на уровне больших
компаний и государства

Содержание 05 Мнение автора и какие еще нерешенные


проблемы порождает ИИ

3
Проблема – масса опасного и вредного контента в сети
С момента выпуска 11/2022 ChatGPT использовали десятки миллионов человек. Это привело в восторг
сообщество ИИ и, стало ясно, что интернет все больше наполняется текстом, сгенерированным ИИ. И люди делают
это самостоятельно. Магия и опасность в одном технологической форме – масса «иллюзорно правильной»
информации, которая искажена и составлена моделями ИИ в различных целях, не всегда «благих» и направленных
на пользу обществу

Модели дезинформации Дезинформация соц. инициатив Вредоносные чат-боты


- Антиреклама в соцсетях, - Боты пишут комментарии - Взаимодействие с людьми
телеграмм-каналах, сайтах против соц. инициатив* через интернет, смс, чаты.
- Дезинформация * Исследователь показал Боты используются для спама,
конкурентов – соцсети, МП инициативы, где были подделаны фишинга, сбора данных, соц.
55-60% обсуждений на инженерии
федеральном сайте (GPT-2)
Политическое влияние Эпоха «богонов» - снежный ком
Масса ошибок в программном
- Дезинформация полит. «галлюцинаций» ИИ
противников коде
- Использование кода от ИИ, - ИИ далее будет обучаться на
- Фальшивые новости для
который не является заведомо ложной или лживой
маскировки нарушений прав
информации (как факты о людях,
граждан надежным. Как результат –
- Подстрекательство против власти событиях, вещах) и генерировать
потенциальные сбои систем
(информац. войны, терроризм) несуществующие факты
* Богоны - термин из романа Нила Стивенсона «Анафема» — это ложная
информация, наводнившая интернет. Более распространен термин deepfake (дипфейки) –
заведомо ложная информация, сгенерированная с помощью ИИ
4
Виды дипфейков, которые используют злоумышленники

{ API }

Текстовые Видео-контент Картинки Генерация голоса


модели (аудио-модели)
С вероятностью Только выдавать
Невозможно 95-96% можно рекомендации, с Самый сложный вид
предсказать с определить, что какой контента для
100% это подделки вероятностью предсказания
точностью Но требуются это Предлагается
Невозможно очень сгенерировано использовать
проверить трудоемкие ИИ дополнительно
«правдивость» вычисления Решение – биометрию человека
фактов вставлять
Можно выдать водяные знаки в
рекомендации код
изображения

5
Инструменты, определяющие что контент сгенерирован ИИ

Текстовые модели Видео контент Картинки Аудио-модели

Resemblyzer (open source),


Originality.AI, HuggingFace и Deepware, DeepFaceLab, AssemblyAI (open sorce), много кода в открытом
Kazan SEO - продукты Sensity.ai – продукты (open Sensity.ai доступе
source), MS Video
Признаки - Authenticator, Intel Признаки – аналогичны Признаки:
• Слишком правильный тест видео ‒ Флюидодинамика
без ошибок Признаки: (Флорида) – различия
• Много часто используемых ‒ Различия в разрешении и Content Authenticity Initiative реального голоса и ИИ
слов (TF-IDF) качестве элементов (CAI) от Adobe – защита ‒ Pidrop США – анализ
• Мат. Модели читаемости ‒ Масштаб и границы лица подлинности изображений сложных звуков в разных
текста (Флега и другие) ‒ Неестественные оттенки языках, окончания слов
• Лингвистические метрики кожи ‒ Resemblyzer – 256
Чтобы функция работала, параметров голоса и
– например, согл. Текста ‒ Моргание, отражение в
поддержку CAI должны вероятностная модель
глазах, зубы и губы,
обеспечить производители ‒ Частоты голоса
Open. source версия от OpenAI кровоток
ПО и фотокамер, а также Самый сложный вид,
+ разработка водяных знаков Deepfake Detection Challenge
социальные платформы решение – доп. методы
для GPT-3 и -4 и использование биометрии
(ID человека) идентификации и
OpenAI – водяные знаки биометрия

6
Инструменты для обнаружения дипфейков в РФ
• Обнаружение дипфейктов – очень наукоемкая работа, но есть большое количество открытых
проектов (прошлый слайд) + более 100 проектов на GitHub с открытым кодом и готовыми решениями

• Патент Сбера в 2022ом на базе кода современных сетей ruDALL-E XL (эффективность 98% и
исследования на компьютере «Кристофари») – выявление информ. атак, фейк-новости и защита
переговоров по видео-связи (работа 10.25559/SITITO.18.202203.680-690)
• НЦКР ИТМО разрабатывает программу Expert (для Роскомнадзора), который позволит проверять
видеозаписи выступлений на предмет лжи и манипуляции – видео и ауидио
• Решения компании VisionLabs для распознавания дипфейков лиц, точность 94-96%
• NtechLab, технологический партнёр госкорпорации Ростех, один из победителей DFDC – решения для
видео-биометрии (FindFace)
• antiplagiat.ru – решения в сфере анализа текстов
• Соцсеть «ВКонтакте» разрабатывает сервис для распознавания дипфейков на фото и видео

• Программа «Новые коммуникационные интернет-технологии» от Ростелекома и Правительства


(2020-2030)

7
Что можно сделать на уровне больших корпораций и государства (для
снижение уровня опасности от дипфейков)
Со стороны бизнеса
• Устанавливать мониторинг контента на сайтах, соцсетях, маркетплейсах – блокировать контент,
помечать его опасным или выставлять над контентом метку (сгенерировано ии с такой-то
вероятностью)
• Полная премодерация контента, пропуск через фильтр «создано ИИ»
• Допускать на интернет-ресурсы только контент, который маркирован «водяными знаками»
(например по стандарту OpenAI) – сайты, медиа и другие ресурсы с большим кол-ом пользователей

Государство
• Повышать уровень грамотности населения о новых типах атак в интернете, по телефону, и прочим
каналам взаимодействия с информацией, которые могут быть сгенерированы на базе ИИ
• Реализация средств и сервисов проверки контента на «опасность» - например, в виде плагина в
Google Chrome
• Законодательная маркировка контента, созданного с помощью ИИ и запрет на использование иного
контента
• Сбор биометрии граждан и использование этих данных с целью проверки контента, который может
подделывать изображение и голоса людей

8
Ключевые вызовы, созданные Как мы можем с ними
системами искусственного справиться
интеллекта

• В настоящее время рынок ИТ (и Чтобы не устраивать эту гонку в


информационной безопасности) не производстве компьютеров необходимо
предлагает специализированных решений будет договариваться на уровне
для защиты от дипфейков, которые давали правительств о использовании единых
бы гарантированный уровень уверенности стандартов по созданию «водяных знаков»
в происхождении контента и его на уровне стран и правительств
«смысловой направленности» И тратить процессорные мощности не на
• Мониторинг, регулирование и замедление поиск и защиту от дипфейков, а на
распространения ИИ (также, как и создание полезных для человека вещей
создание моделей обнаружения) повысит
требования к процессорным мощностям
кратно.
• Мы видим усиление регулирования
интернета и контента в разных странах
(Китай, США)

9
Что такое API и экономика, построенная на интерфейсах взаимодействия (API Economy).
Заключение

Благодарю Вас за внимание!

Мои контакты -
Денис Ермилов, руководитель практики
консалтинга в сфере создания платежных систем,
Заместитель директора по работе с клиентами

Рабочие - denis.ermilov@cinimex.ru,
Личные – denis.ermilov@gmail.com, telegram – denis_fintech

10 10

Вам также может понравиться