Академический Документы
Профессиональный Документы
Культура Документы
"
2
Десятилетие сознания
• Explainable AI Методы и техники использования ИИ, которые позволяют объяснить полученные от ИИ результаты
живым экспертам. Противопоставляется концепции “ИИ как черный ящик”, когда нельзя понять сути используемых
алгоритмов и найденных взаимосвязей
В чем проблема?
• Системы искусственного интеллекта и машинного обучения (AI /
ML) превзошли человеческие возможности почти во всех
приложениях, где они были опробованы.
• ИИ начинает внедряться в потребительские товары. Эта тенденция
ускоряется, и ИИ будет все больше использоваться в критически важных для
безопасности системах.
• Объяснимый ИИ, который также называют XAI или прозрачный ИИ, представляет
собой систему, в которой люди могут с легкостью понять действия ИИ.
Как объединить
лучшее из обеих
Потребность в объяснимом ИИ
Система ИИ Клиент
http://listverse.com/ https://www.re-work.co/
© 2007–2017 ООО «Листверс» © 2017 RE-WORK X LTD
Транспорт Финансы
http://explainthatstuff.com
Ввод
(изображение без
От ярлыка)
низкоуровне Нейроны
вых функций реагируют на 1ул Слой
к простые
высокоуровн формы
евым Нейроны
функциям реагируют на 2nd Слой
более сложные
структуры
Нейроны
реагируют на пth Слой
очень сложные
абстрактные
концепции
Автоматический алгоритм
(выделение и классификация признаков)
https://www.xenonstack.com/ http://fortune.com/
XenonStack © Разрешено к публичному выпуску: распространение без ограничений. 14 © 2018 Time Inc.
Что мы пытаемся сделать?
Cегодня © Спин Юго-Запад
• Я понимаю почему
Это кот: • Я понимаю почему нет
Новый •У него есть мех,
• Я знаю, когда ты
усы и когти.
Обучение •Он имеет
добьешься успеха
Процесс такую • Я знаю, когда ты
© Университет Торонто особенность: проиграешь
• Я знаю когда тебе
Обучени Объясняемая Пояснение Пользователь доверять
е модель Интерфейс с • Я знаю, почему ты
Данные задачей ошибся
,
Цель: производительность и объяснимость
• XAI создаст набор методов машинного обучения, которые
• Создавать более объяснимые модели, сохраняя при этом высокий уровень
эффективности обучения (например, точность прогнозов)
• Дать возможность пользователям-людям понимать, должным образом доверять и
эффективно управлять новым поколением партнеров с искусственным интеллектом
Производительность против объяснимости
Эффективность обучения
Завтра
Cегодня
Объяснимость (условная)
16
Измерение эффективности объяснения
Мера эффективности объяснения
Удовлетворенность пользователей
Структура объяснения
• Ясность объяснения (оценка
пользователей)
Задача • Полезность объяснения (оценка
Рекомендация, пользователей)
• Выявление ошибок
• Исправление ошибок
• Непрерывное обучение
Разрешено к публичному выпуску: распространение без ограничений. 17
Производительность против объяснимости
Методы обучения (сегодня) Объяснимость
(условно)
Эффективность обучения
Нейронные сети
Графический
Модели
Глубокое
Обучение Ансамбль
Байесовские Методы
сети доверия
SRL Случайный
CRF HBNs лес
AOG
Статистические MLN
Эффективность обучения
Нейронные сети
Создайте набор Графически
е
методов Глубокое Модели
машинного Обучение Ансамблей
Байесовский Методы
обучения, которые Сети веры
создавать более SRL Случайный
объяснимые CRF HBNs Лес
AOG
модели, сохраняя Статистически MLN
Решение
при этом высокий еМодели Марков Деревья
уровень SVM ские Объяснимость
обучаемости модели
я модель Интерфейс
© 2017 Green Car Reports
© 2017 POLITI.TV
© Business Insider Inc., 2017.
© УВКБ ООН 2001-2017
Процесс
© 2017 Новости Route 66
Данные обучения
Калифорнийский
университет в Беркли
Глубокое обучение Рефлексивный и рациональный IHMC
Чарльз Ривер Индуктивная каузальная модель Нарративная генерация Психологическая модель
UCLA Теория паттернов + Трехуровневое объяснение
объяснения
OSU Адаптивные программы Приемочное тестирование
Входные
изображения
Карты
внимания
Уточненные карты
внимания
Интерпретация
нескольких
единиц в pool5
AlexNet,
обученных
распознаванию
мест
Ментальная Лучшая
получает пересматривает позвол
Пользователь Объяснение модель яет
производите
пользователя льность
• Цель комбинации нечеткой логики и нейронных сетей состоит в том, чтобы cоздать
архитектуру, которая использует нечеткую логику, чтобы явно показать знания, в то время
как обучающая природа нейронной сети максимизирует ее параметры. Нейро-нечеткая
система, разработанная Джангом в 1992 году, интегрирует преимущества как нейронной
сети, так и нечетких систем, которые не только обладают хорошими возможностями
обучения, но и могут быть легко интепретированы. Нейро-нечеткая системы используется
во многих областях, таких как аппроксимация функций, интеллектуальное управление и
прогнозирование временных рядов.
• Согласно теореме FAT (Fuzzy Approximation Theorem) система, основанная на нечеткой
логике, может аппроксимировать любую математическую систему. Таким образом,
произвольная взаимосвязь может быть бесконечно точно описана с помощью
формализованных высказываний естественного языка «ЕСЛИ-ТО». Структура нейро-
нечеткой продукционной моделей, которая реализует данный функционал представлена на
следующих слайдах.
Пример нейро-нечеткой сети
Более общая форма этой сети
Структура нейронечеткой продукционной
модели типа ANFIS
Слой 1 Слой 2 Слой 3 Слой 4 Слой 5
A x1
11
1 1
П1 N1 1 d 1 y1
x1 A 21
x1
k
A 31
x1 d1 c10 c1i xi
i1
2 y2 m Y
П2 N2 2 d2 yi
...
i 1
2
k
d 2 c20 c2 i xi
i 1
A xk
...
...
...
1k
xk A xk m
m dm
2k
Пm Nm ym
m
A xk k
d m cm 0 cmi xi
3k
i 1
Сеть ANFIS в MATLAB для трех входных
параметров
Глубокая нейросеть с ANFIS
ко
входноеизображение
входное изображение
пулинг полносвязные
слой или
ANFIS
пулинг конволюция
конволюция
конволюция
Конволюционный
Входные слой Следующий
данные слой
a b c
Первый компонент - это создание функций глубокого обучения, которые можно использовать для
создания репрезентативных функций непосредственно из данных датчиков. Вторая -
нейронечеткая система.
19.11.2020 )37