Академический Документы
Профессиональный Документы
Культура Документы
métodos y aplicaciones
W. James Murdoch a, 1, Chandan Singh b, 1, Karl Kumbier a, 2, Reza Abbasi-Asl b, c, 2, y Bin Yu a, b
una UC Berkeley Departamento de Estadísticas .; si UC Berkeley Ingeniería Eléctrica e Informática Departamento .; C Instituto Allen para la Ciencia del Cerebro
modelos de aprendizaje automático han demostrado gran éxito en el aprendizaje de patrones complejos que les permiten hacer
predicciones acerca de los datos observados. Además de utilizar los modelos para la predicción, la capacidad de interpretar lo que ha
aprendido un modelo está recibiendo una cantidad cada vez mayor de la atención. Sin embargo, este mayor enfoque ha dado lugar a una
gran confusión acerca de la noción de interpretabilidad. En particular, no está claro cómo la amplia gama de métodos de interpretación
propuestos están relacionados, y qué conceptos comunes se puede utilizar para evaluarlos.
Nuestro objetivo es hacer frente a estas preocupaciones por de fi nir interpretabilidad en el contexto de aprendizaje de la máquina e
introducir el marco predictivo descriptiva, Relevantes (PDR) para la discusión de las interpretaciones. El marco PDR proporciona tres
desiderata general para la evaluación: la exactitud de predicción, la precisión descriptiva y relevancia, con relevancia juzgado con
relación a una audiencia humano. Además, para ayudar a manejar la avalancha de los métodos de interpretación, introducimos una
categorización de las técnicas existentes en categorías basadas en modelo y post-hoc, con sub-grupos, incluyendo sparsity, modularidad
arXiv: 1901.04592v1 [stat.ML] 14 Ene 2019
y simulatability. Para demostrar cómo los profesionales pueden usar el marco PDR para evaluar y comprender las interpretaciones,
proporcionamos numerosos ejemplos del mundo real. Estos ejemplos ponen de relieve el papel a menudo poco apreciada por el público
desempeñado humanos en las discusiones de la interpretabilidad. Por último, sobre la base de nuestro marco, se discuten las
limitaciones de los métodos existentes y orientaciones para el trabajo futuro. Esperamos que este trabajo proporcionará un vocabulario
común que hará que sea más fácil para los profesionales e investigadores para discutir y elegir entre una amplia gama de métodos de
interpretación.
1. Introducción exactitud, y la relevancia, donde relevancia es juzgado por un público humano. El uso de
estos términos, categorizamos una amplia gama de métodos existentes, todo fundamentado
METRO
atención por su capacidad de predecir con precisión una amplia variedad de
achine aprendizaje (ML) recientemente ha recibido una considerable
en ejemplos del mundo real † . Al hacerlo, proporcionamos un vocabulario común para los
investigadores y profesionales a utilizar en la evaluación y selección de los métodos de
fenómenos complejos. Sin embargo, hay una creciente conciencia de que, además de
interpretación. A continuación, muestran cómo nuestro trabajo permite una discusión más
las predicciones, modelos ML son capaces de producir conocimiento acerca de las
clara de los problemas abiertos para la investigación futura.
relaciones de dominio contenidos en los datos, a menudo referido como
interpretaciones. Estas interpretaciones han encontrado usos tanto en su propio
derecho, por ejemplo, la medicina ( 1 ), La política de decisiones ( 2 ), y la ciencia ( 3 , 4 ), A. De fi nición de aprendizaje automático interpretables. Por su parte, pretability inter es
Así como en la auditoría de las mismas predicciones en respuesta a cuestiones tales un mal de fi concepto amplio, Ned. Tomado en toda su generalidad, para interpretar los
como la presión de regulación ( 5 ) Y equidad ( 6 ). En ausencia de una bien formada datos medios para extraer información (de alguna forma) de la misma. El conjunto de
definición de interpretabilidad, una amplia gama de métodos con una métodos que caen bajo este paraguas se extiende por todo, desde el diseño de un
correspondientemente amplia gama de salidas (por ejemplo, visualizaciones, en experimento inicial para la visualización de resultados final. En esta forma demasiado
lenguaje natural, ecuaciones matemáticas) han sido etiquetado como interpretación. general, pretability inter no es sustancialmente di ff Erent de los conceptos establecidos de
Esto ha dado lugar a una gran confusión acerca de la noción de interpretabilidad. En la ciencia de datos y estadística aplicada.
particular, no está claro lo que significa interpretar cosa algu-, lo que existen puntos en
común entre los métodos dispares, y cómo seleccionar un método de interpretación En lugar de interpretabilidad en general, nos centramos en el uso de interpretaciones en
para un problema particular / audiencia. el contexto de ML como parte del ciclo de vida de la ciencia Data- más grande. Definimos el
aprendizaje de máquina puede interpretar como el uso de modelos de aprendizaje automático
para la extracción de
pertinente el conocimiento acerca de las relaciones de dominio contenidos en los datos.
En este trabajo, se intenta abordar estas preocupaciones. Para hacerlo, primero Aquí, vemos el conocimiento como pertinente si se ofrece
definen interpretabilidad en el contexto de aprendizaje automático y colocarlo dentro de
† Los ejemplos fueron seleccionados a través de una búsqueda no exhaustiva de los trabajos relacionados.
un ciclo de vida de la ciencia de datos genéricos. Esto nos permite distinguir entre dos
clases principales de métodos de interpretación: basado en el modelo * y post hoc. a
continuación, se introduce el marco predictivo descriptiva, Relevantes (PDR), que WM, CS, KK, RA, y BY ayudaron a identificar los conceptos importantes y expresaron una opinión sobre el papel. WM y CS escribió el
documento con las aportaciones de KK, RA, y por los autores declaran que no existe conflicto de intereses. 1W.M. y CS contribuido
consta de tres desiderata para la evaluación y la construcción de interpretaciones: la
igualmente a esta labor.
exactitud de predicción, descriptivo
B. Antecedentes. Interpretabilidad es un rápido crecimiento en el campo de aprendizaje de los problemas en la ciencia de datos. Lo que generalmente se conoce como la interpretación
de máquina, y ha habido varios trabajos ejem- Ining diversos aspectos de se produce principalmente en el modelado y fases de análisis post hoc, con el problema, los
interpretaciones (a veces bajo el epígrafe AI explicables). Una línea de trabajo se centra datos y el público que proporciona el contexto necesario para elegir los métodos apropiados.
puede interpretar como un todo, y dar una orientación limitada sobre cómo
interpretabilidad en realidad se puede utilizar en los ciclos de vida en la ciencia de datos.
Nuestro objetivo es hacerlo, proporcionando un marco y un vocabulario para captar al Iterar
máximo el aprendizaje interpretable por la máquina, sus beneficios, y sus aplicaciones a
Figura 1. Descripción general de las diferentes etapas (texto negro) en un ciclo de vida en la ciencia de datos donde
problemas de datos concretos.
interpretabilidad es importante. etapas principales se discuten en la Sección 2 y exactitud (texto azul) se describe en Sec 3 .
Interpretabilidad también juega un papel en otras áreas de investigación. Por ejemplo, Problema, los datos, y la audiencia Al comienzo del ciclo, un practicante en la ciencia de
interpretabilidad es un tema importante cuando se considera el sesgo y la equidad en los datos define un problema de dominio que les gustaría entender el uso de los datos. Este
modelos ML ( 14 , 15 ), Con ejemplos dados a lo largo del papel ( dieciséis ). En psicología, problema puede tomar muchas formas. En un entorno científico, el médico puede estar
las nociones generales de interpretabilidad y explicaciones se han estudiado en un nivel interesado en las relaciones contenidas en los datos, tales como la forma en las células del
más abstracto ( 17 , 18 ), Proporcionando perspectivas conceptuales pertinentes. cerebro en una zona particular del sistema visual se refieren a los estímulos visuales ( 25 ).
Igualmente, se comenta en dos áreas relacionadas que son distintos pero estrechamente En los establecimientos industriales, el problema a menudo se refiere a la predicción de
relacionado con la interpretabilidad: inferencia causal y la estabilidad. rendimiento u otras cualidades de un modelo, como la forma de asignar las puntuaciones
de crédito con alta precisión ( 26 ), O hacerlo de manera justa con respecto al género y la
raza ( dieciséis ). La naturaleza del problema juega un papel en la interpretabilidad, según el
contexto y la audiencia relevante son esenciales para determinar qué métodos a utilizar.
La inferencia causal La inferencia causal ( 19 ) Es un tema de estadísti- cas que está
métodos de inferencia causales, y totalmente validados mediante estudios entonces un modelo predictivo. En esta etapa, los procesos practicante, limpia, y
experimentales. visualiza los datos, extrae características, selecciona un modelo (o varios modelos) y fi
ts ella. Consideraciones terpretability in- menudo entran en juego en este paso
relacionado con la posibilidad de elegir entre más simple, más fácil de interpretar y
Estabilidad Estabilidad, como una generalización de robustez en estadísti- cas, es un
modelos más complejos, modelos negro-box, que puede encajar mejor los datos. la
concepto que se aplica a lo largo de todo el ciclo de vida de la ciencia Data-, incluyendo
capacidad del modelo para encajar los datos se mide a través de la exactitud de
interpretables ML). El principio de estabilidad requiere que cada paso en el ciclo de vida
predicción.
es estable con respecto a las perturbaciones apropiados, tales como pequeños cambios
en el modelo o datos. Recientemente, la estabilidad ha demostrado ser importante en los
problemas estadísticos aplicados, por ejemplo cuando se trata de sacar conclusiones Análisis post hoc Tener fi cio un modelo (o modelos), el titioner prác- continuación,
acerca de un problema científico ( 21 ) Y en los entornos más generales ( 22 ). La analiza en busca de respuestas a la pregunta original. El proceso de analizar el modelo
estabilidad puede ser útil a menudo implica el uso de métodos terpretability in- para extraer diversas formas
(estables) de
A.2. exactitud descriptiva. La segunda fuente de error se produce Duran- la etapa de análisis
métodos de interpretación A. en el marco PDR. En el marco descrito anteriormente, post hoc, cuando se utilizan métodos de interpretación para analizar un modelo de fi TTED. A
la mayoría de los métodos de interpretación caen o bien en el modelado o etapas de menudo, los métodos de interpretación proporcionan una representación imperfecta de las
análisis post hoc. Llamamos a pretability inter en la etapa de modelado interpretabilidad naves PARENTESCO aprendidas por un modelo. Esto es especialmente difícil para los
basado en modelos modelos de recuadro negro complejas tales como las redes neuronales profundos, que
(Segundo 4 ). Esta parte de la interpretabilidad se centra en constrain- ing forma de almacenan las relaciones no lineales entre las variables en formas no evidentes.
modelos ML para que fácilmente proporcionan información útil acerca de las relaciones
descubiertas. Como resultado de estas limitaciones, el espacio de los posibles modelos
es menor, lo que puede dar lugar a la exactitud de predicción inferior. En consecuencia, . De fi nición Definimos la precisión descriptiva, en el con- texto de interpretación,
la interpretabilidad basado en modelos se utiliza mejor cuando la relación subyacente es ya que el grado en que un método de interpretación captura objetivamente las
relativamente simple. relaciones aprendidas por los modelos de aprendizaje má- quina.
3. Los objetivos propuestos para el PDR interpretaciones B. Relevancia. Al seleccionar un método de interpretación, no es suficiente para que el
método tiene una alta precisión - la información tracted ex también debe ser relevante.
En general, no está claro cómo seleccionar y evaluar los métodos de inter- pretación
Por ejemplo, en el contexto de la genómica, un paciente, médico, biólogo y cian
de un problema y público en particular. Para ayudar a guiar este proceso, se introduce
estadísticamente puede querer cada ff on diferente (pero consistente) interpretaciones
el marco PDR, que consta de tres desiderata que se deben utilizar para seleccionar los
de un mismo modelo. El contexto proporcionado por las etapas de problemas y datos
métodos de interpretación para un problema particular: la exactitud de predicción,
de la figura 1 guía a qué tipo de relaciones es un profesional interesado en conocer, y
precisión descriptiva y de relevancia.
por extensión los métodos que se deben utilizar.
ML, hay dos áreas en las que pueden surgir errores: al aproximar las relaciones de los si se da una idea para una audiencia en particular en un problema de dominio elegido.
Para una inter- pretación que sea digno de confianza, uno debe tratar de maximizar FF entre la exactitud predictiva y descriptiva. Dependiendo del contexto del problema que nos
tanto de las precisiones. En los casos en que la precisión no es muy alta, las ocupa, un médico puede optar por centrarse en uno sobre el otro. Por ejemplo, cuando
interpretaciones resultantes pueden todavía ser útiles. Sin embargo, es especialmente interpretabilidad se utiliza para auditar las predicciones de un modelo, como para hacer cumplir
importante para comprobar su confiabilidad a través de validación externa, tal como la la imparcialidad, la exactitud descriptiva puede ser más importante. En contraste, la
ejecución de un experimento adicional. interpretabilidad también se puede usar exclusivamente como una herramienta para aumentar
la exactitud de predicción de un modelo, por ejemplo, mediante la mejora de la ingeniería
característica.
A.1. La exactitud predictiva. La fuente primera de error se produce durante la etapa de Habiendo descrito los desiderata principal de los métodos de interpretación, que
modelo, cuando se construye un modelo ML. Si el modelo aprende una pobre ahora discutimos cómo se vinculan con la interpretación en el modelado y post hoc
aproximación de las naves PARENTESCO subyacentes en los datos, toda la información etapas de análisis del ciclo de vida en la ciencia de datos. Higo 2 traza paralelos entre
extraída del modelo es poco probable que sea preciso. La evaluación de la calidad de un nuestra desiderata de técnicas de interpretación introducidas en la Sec 3 y nuestra
modelo de fi cio ha sido bien estudiado en los marcos ML supervisadas estándar, rización cate- de métodos en Sec 4 y Sec 5 . En particular, tanto
predictiva
Incrementar Incrementar
una mayor exactitud de predicción y rendir penetraciones Vant más vantes. Tenga en
cuenta que la incorporación de escasez a menudo puede ser bastante dif'ıcil, ya que
requiere la comprensión de la estructura de datos fi ca-ca de la escasez y la forma en que
se puede modelar.
Figura 2. Impacto de los métodos de interpretabilidad precisiones descriptivos y predictivos. basado en un modelo
interpretabilidad (Sec 4 ) Implica el uso de un modelo más simple para encajar los datos que pueden afectar negativamente a la
Los métodos para obtener sparsity a menudo utilizan una penalización en una función de
exactitud de predicción, pero los rendimientos mayor precisión descriptiva. Mensaje interpretabilidad hoc (Sec 5 ) Implica el uso de pérdida, como LASSO ( 31 ) Y escaso codificación ( 32 ), o en una selección modelo de criterios
métodos para extraer información de un modelo entrenado (sin efecto sobre la exactitud de predicción). Estos corresponden a las tales como AIC o BIC ( 33 , 34 ). Muchos métodos basados en la búsqueda han sido
etapas hoc modelo y de correos en la figura 1 .
desarrollados para encontrar soluciones dispersas. Buscar estos métodos a través del espacio
de coeficientes no cero coe fi utilizando métodos de selección de subconjunto clásicos (por
ejemplo matching pursuit ortogonal ( 35 )). escasez modelo es a menudo útil para problemas de
post hoc y los métodos basados en modelos tienen como objetivo aumentar la precisión alta dimensión, donde el objetivo es identificar las características clave para su posterior
descriptiva, pero sólo basado en modelos a ff refleja la exactitud de predicción. No se análisis. Como resultado, las sanciones ralitud se han incorporado en los modelos complejos,
muestra es de relevancia, que determina qué tipo de salida es útil para un problema y público como los bosques aleatorios para identificar un subconjunto de características importantes
en particular. escasa ( 36 ).
que estas predicciones no sólo son exactos, pero interpretable tanto a los cuidadores y
pacientes. Mediante la inspección de los módulos individuales, los investigadores encontraron
una serie de propiedades contrarias a la intuición de su modelo. Por ejemplo, el
Para hacer la predicción, ( 39 ) Utiliza datos de 12.586 pacientes modelo fi tted aprendió que tener asma es ciados ciación con un menor riesgo de morir
detallando su edad, género, historia de las drogas y las condiciones anteriores a su por neumonía. En realidad, lo contrario es cierto - los pacientes con asma se sabe que
diagnóstico, y si tenían un accidente cerebrovascular dentro de un año de diagnóstico. tienen un mayor riesgo de muerte por neumonía. Debido a esto, los datos recogidos en
Con el fin de construir un modelo que tiene una alta predictivo y precisión descriptiva, ( 39 ) todos los pacientes con asma recibieron atención agresiva, que era por suerte e ff caz
Introducir un método para listas de reglas si-entonces que son predictivos de riesgo de a reducir su riesgo de mortalidad en relación con la población general.
else if oclusión y estenosis de la arteria carótida sin infarto entonces el riesgo de apoplejía 15,8% (12,2%
-19,6%) D. Dominio-basado ingeniería característica. Mientras que el tipo de modelo es
else if estado alterado de conciencia y edad> 60 entonces el riesgo de apoplejía 16,0% (12,2% -20,2%)
importante en la producción de una interpretación útil, por lo que son las características
que se utilizan como entradas para el modelo. Tener características más informativos hace
else if años ≤ 70 entonces el riesgo de apoplejía 4,6% (3,9% -5,4%)
más el riesgo de apoplejía 8,7% (7,9% -9,6%) que la relación que debe ser aprendido por el modelo más sencillo, que permite una para
utilizar otros métodos basados en modelos interpretabilidad. Por otra parte, cuando las
Fig. 3. lista de reglas para la clasificación de riesgo de accidente cerebrovascular a partir de los datos del paciente (replicados Fig 5 a partir características tienen más sentido a un público en particular, se vuelven más fáciles de
de ( 39 )). Uno puede simular y comprender las relaciones entre las diferentes variables como la edad en la facilidad el riesgo de apoplejía. Reproducido
interpretar.
con permiso de los autores.
Un estudio reciente ( 51 ), Utiliza aprendizaje no supervisado para aprender ML incluyendo bosques aleatorios ( 20 , 56 ) Y redes neuronales ( 57 , 58 ). En el siguiente
patrones espaciales de la expresión génica en Drosophila ( fruta fl y) embriones. En ejemplo, la precisión descriptiva de bosques aleatorios se incrementa mediante la
particular, utilizan la estabilidad impulsado matriz de factorización no negativa para extracción de las interacciones booleanas (una forma relevante-problema de interpretación)
descomponer las imágenes de los patrones de expresión de genes TiAl SPA-complejos de un modelo entrenado.
Ahora se discute cómo entran en juego consideraciones interpretabilidad en la etapa de Una línea de trabajo anterior considera el problema de la búsqueda de interacciones
análisis post hoc del ciclo de vida en la ciencia de datos. En esta etapa, el profesional biológicas asociadas a los procesos biológicos importantes ( 20 , 56 ). Para identificar las
analiza un modelo entrenado con el fin de proporcionar conocimientos sobre las interacciones candidatos biológica, los autores entrenan una serie de FR de forma iterativa
relaciones aprendidas. Esto es particularmente difícil cuando los parámetros del re-ponderados y la búsqueda de combinaciones estables de características que con
modelo no muestran claramente lo que el modelo de relaciones ha aprendido. Para frecuencia co-ocurren a lo largo de las rutas de decisión predictivos de RF. Este enfoque da
ayudar en este proceso, una variedad de métodos interpretabilidad post hoc se han un paso más allá de la evaluación de la importancia de las características individuales de una
desarrollado para dar una idea de lo que es un modelo entrenado ha aprendido, sin RF, proporcionando una descripción más completa de cómo las características influyen en las
cambiar el modelo subyacente. Estos métodos son particularmente importantes para respuestas predijo. Al interpretar las interacciones utilizadas en RFs, los investigadores identi
entornos en los que los datos recogidos se de alta dimensional y complejo, tal como fi cadas interacciones de genes génicas con 80% de precisión en la Drosophila de embriones
con datos de imagen. Una vez que la información ha sido extraída del modelo TTED fi, e identificar dianas candidatas para las interacciones de orden superior.
puede ser analizado utilizando técnicas estándar de análisis de datos exploratorios,
A.2. importancias de funciones estadísticas. En algunos casos, en adi- ción al valor crudo,
podemos calcular las medidas estadísticas
modelo. Los ff plainti 's informe de expertos ( 60 ) Sugirió que la raza estaba siendo en el desempeño de un modelo ML, puede ser útil examinar no sólo en la precisión media,
utilizado injustamente basándose en el informe original de la o fi cina de la Universidad sino también en la distribución de las predicciones y los errores. Por ejemplo, los gráficos de
de Harvard de Investigación Institucional. También incorpora el análisis de los factores residuos pueden identificar heterogeneidad en las predicciones, y sugerir puntos de datos
más subjetivos como “notas personales” que parecen hacer daño a la admisión de particulares a analizar, tales como valores atípicos en las predicciones, o ejemplos que tenían
estudiantes asiáticos. Por el contrario, el informe de los expertos de soporte Universidad las más grandes errores de predicción. Por otra parte, estas parcelas pueden utilizar para
de Harvard ( 61 ) NDS fi que al tener en cuenta ciertas otras variables, el e ff ect de la raza analizar las tendencias en las predicciones. Por ejemplo, en el siguiente ejemplo, influencia
en los estudiantes la aceptación de Asia ya no es significativa. Cances signi fi derivados funciones son capaces de e fi cientemente identificar puntos de datos mal etiquetados.
identificación de las dimensiones individuales que corresponden a las características interpretación a nivel de predicción ha implicado la asignación de puntajes importancia a
significativas (por ejemplo, posición en la fila, entre comillas) ( 67 ), y la construcción de características individuales. Intuitivamente, una variable con una puntuación grande positivo
herramientas para realizar un seguimiento del proceso de toma el modelo a lo largo de (negativo) hizo una contribución muy positiva (negativa) a una predicción particular. En la
una secuencia ( 68 ). En el siguiente ejemplo, las interpretaciones relevantes se pro- literatura de aprendizaje profundo, se han propuesto una serie de enfoques Erent di ff para
ducido mediante el uso de imágenes máximos de activación para la identificación de hacer frente a este problema ( 70 - 79 ), Con algunos métodos para otros modelos, así ( 80 ). Estos
patrones que conducen a la respuesta de las células cerebrales. a menudo se muestran en forma de un mapa de calor destacando características importantes.
Tenga en cuenta que las puntuaciones de importancia de característica en el nivel de
predicción puede o ff er mucha más información que las puntuaciones de importancia de
característica en el
linealidad: la importancia de una característica puede variar para ejemplos Erent di ff como resultado
característica se utilizan para aumentar la precisión descriptiva de los modelos de recuadro negro con
A.1. Precisión de medida descriptiva. Una forma de medir una mejoría a un método de
el fin de validar su imparcialidad.
interpretación es demostrar que su salida capta mejor lo que el modelo ML ha
aprendido, es decir, su precisión descriptiva. Sin embargo, a diferencia de la exactitud
. Ex. Al utilizar modelos ML para predecir OUT- sensible trata, por ejemplo, si
de predicción, la precisión descriptiva es generalmente muy difícil de medir o
una persona debe recibir un préstamo o una sentencia penal, es importante verificar
cuantificar. Como de repliegue, los investigadores muestran a menudo individuales,
que el rithm algo- no discrimina a las personas basándose en atributos protegidas,
palmitas, interpretaciones que parecen “razonable”. Este tipo de evaluaciones son
tales como la raza o el sexo . Este problema se describe a menudo como asegurar los
limitados y unfalsi fi cable. En particular, estos resultados se limitan a los pocos
modelos ML son “justo”. en ( dieciséis ), Los Thors au- introducen una importancia
ejemplos que se muestran, y en general no aplicable a todo el conjunto de datos.
variable medida diseñada para aislar las contribuciones de las variables individuales,
como el género, entre un conjunto de variables correlacionadas.
puntuaciones pueden proporcionar información útil, también tienen una serie de sido estudiado con anterioridad, los hallazgos experimentales anteriores pueden servir
limitaciones. Por ejemplo, no son capaces de cap- tura cuando algoritmos aprenden las como una verdad parcial en planta para validar de forma retrospectiva interpretaciones ( 20 ).
características significativas, podemos utilizar métodos de modelado más simples para lograr de acuerdo de subvención CCF-0939370. Reza Abbasi-Asl quisiera agradecer el fundador Allen
Institute, Paul G. Allen, por su visión, aliento y apoyo.
una exactitud de predicción comparables. Así, los métodos que pueden producir
características más útiles ampliar los usos potenciales de las interpretaciones basadas en
modelos. La primera categoría principal de trabajo radica en la mejora de herramientas para
1. Litjens G, et al. (2017) Una encuesta sobre el aprendizaje profundo de análisis de imágenes médicas. de imágenes médicas
el análisis exploratorio de datos. Por mejores investigadores que permiten interactuar y análisis 42: 60-88.
entender sus datos, estas herramientas (junto con el conocimiento de dominio) proporcionan 2. Brennan T, Oliver WL (2013) La aparición de técnicas de aprendizaje automático en criminología.
Criminología y Políticas Públicas 12 (3): 551-562.
un aumento de oportunidades para que puedan identificar características útiles. Los ejemplos
3. Angermueller C, Pärnamaa T, piezas de L, Stegle O (2016) El aprendizaje profundo para la biología computacional. sistemas de Biología
incluyen entornos interactivos ( 89 - 91 ), Herramientas de visualización ( 92 - 94 ), y herramientas Molecular 12 (7): 878.
de exploración de datos ( 95 , 96 ). La segunda categoría cae bajo supervisión 4. Vu MAT, et al. (2018) Una visión compartida para el aprendizaje de máquina en la neurociencia. Journal of Neu-
7. Chakraborty S, et al. (2017) interpretabilidad de los modelos de aprendizaje profundas: una encuesta de los resultados en 103 (482): 584-593.
Interpretabilidad de los modelos de aprendizaje profundas: una encuesta de los resultados. 48. Jolliffe I (1986) Análisis de componentes principales.
8. Guidotti R, Monreale A, Turini F, Pedreschi D, Giannotti F (2018) Un estudio de métodos para explicar los modelos de caja negra. arXiv 49. Campana AJ, Sejnowski TJ (1995) Un enfoque de maximización de la información para cegar la separación y deconvolución ciega. computación
en Neuronales Sistemas de Procesamiento. pp. 4768 a 4777. 51. Wu S, et al. (2016) Estabilidad-driven matriz de factorización no negativa de interpretar la expresión de genes espacial y construir
10. Ancona M, Ceolini E, Oztireli C, Gross M (2018) Hacia una mejor comprensión de los métodos de atribución gradientbased para redes redes de genes locales. procedimientos de la Academia Nacional de Ciencias
neuronales profundos en 6ª Conferencia Internacional sobre Representaciones de Aprendizaje (ICLR 2018). 113 (16): 4290-4295.
52. Olden JD, alegría MK, RG Muerte (2004) una comparación precisa de los métodos para cuantificar la importancia variable en arti fi
11. Doshi-Velez M, KIMB (2017) Una hoja de ruta para una ciencia rigurosa de interpretabilidad. arXiv ciales redes neuronales utilizando datos simulados. Ecological Modelling
arXiv: 1702.08608. 178 (3-4): 389-397.
12. Gilpin LH, et al. (2018) Explicando explicaciones: una aproximación a la evaluación de interpretabilidad de aprendizaje automático. arXiv 53. Breiman L (2001) Random bosques. Aprendizaje automático 45 (1): 5-32.
arXiv: 1806.00069. 54. Strobl C, Boulesteix AL, Kneib T, T Augustin, Zeileis A (2008) Condicional importancia variable para los bosques aleatorios. bioinformática
13. Lipton ZC (2016) El mythos de modelo interpretabilidad. arXiv arXiv: 1606.03490. BMC 9 (1): 307.
14. Hardt M, Precio E, Srebro N,, et al. (2016) La igualdad de oportunidades en el aprendizaje supervisado 55. Altmann A, Tolo Si L, O Sander, Lengauer T (2010) Permutación importancia: un corrige
Los avances en los sistemas de procesamiento de información neural. pp. 3.315 hasta 3.323. característica medida de importancia. bioinformática 26 (10): 1340-1347.
15. Boyd D, K Crawford (2012) Las preguntas críticas para grandes datos: Las provocaciones de un fenómeno cultural, tecnológica y 56. Kumbier K, S Basu, Brown JB, Celniker S, Yu B (2018) Re fi nir búsqueda interacción a través de los bosques al azar iterativos
académica. La información, la comunicación y la sociedad 15 (5): 662-679. firmados. arXiv arXiv: 1810.07287.
16. Datta A, Sen S, Zick Y (2016) la transparencia algorítmico través de la entrada cuantitativa influencia: Teoría y experimentos con 57. Tsang M, Cheng D, Liu Y (2017) la detección de interacciones estadísticos de pesos de la red neural.
sistemas de aprendizaje en Seguridad y Privacidad (SP), 2016 IEEE Simposio sobre. ( IEEE), pp. 598-617. arXiv arXiv: 1705.04977.
58. Abbasi-Asl R, Yu B (2017) de compresión estructural de redes neuronales convolucionales basado en codicioso poda de filtro. arXiv
17. Keil FC (2006) Explicación y comprensión. Annu. Rev. Psychol. 57: 227-254. arXiv: 1705.07356.
18. Lombrozo T (2006) La estructura y función de las explicaciones. Tendencias en las ciencias cognitivas 59. O fi cina de Investigación Institucional HU (2018) 157 Anexo: Demografía de har-
10 (10): 464-470. Vard aspirantes de la universidad. http://samv91khoyt2i553a2t1s05i-wpengine.netdna-ssl.com/wp-
19. Imbens GW, Rubin DB (2015) La inferencia causal en las estadísticas, social y ciencias biomédicas. content / uploads / 2018/06 / Doc-421-157-May-30-2013-Report.pdf pp. 8-9.
(Prensa de la Universidad de Cambridge). 60. Arcidiacono PS (2018) Anexo una: Experto reporte de peter s. arcidi-
20. Basu S, Kumbier K, Brown JB, Yu B (2018) bosques aleatorios iterativos para descubrir las interacciones de alto orden de predicción y acono. http://samv91khoyt2i553a2t1s05i-wpengine.netdna-ssl.com/wp-
estables. procedimientos de la Academia Nacional de Ciencias pags. content / uploads / 2018/06 / Doc-415-1-Arcidiacono-Expert-Report.pdf.
201711236. 61. Tarjeta D (2018) Anexo 33: Informe de la tarjeta de David. https://projects.iq.harvard.edu/ archivos / Diverso-
21. Yu B (2013) Estabilidad. Bernoulli 19 (4): 1484-1500. educación / archivos / legal _-_ ling.pdf card_report_revised_ fi.
22. Hampel FR, Ronchetti EM, Rousseeuw PJ, Stahel WA (2011) estadística robusta: el enfoque 62. Zeiler MD, Fergus R (2014) visualizar y la comprensión de las redes convolucionales en Euro-
basado en las funciones de influencia. ( John Wiley & Sons) Vol. 196. Pean conferencia sobre la visión por ordenador. ( Springer), pp. 818-833.
23. Pimentel H, Hu Z, Huang H (2018) Biclustering por análisis de correlación canónica escasa. 63. Olah C, Mordvintsev A, Schubert L visualización (2017) Característica. Destilar 2 (11): e7.
Biología cuantitativa 6 (1): 56-67. 64. Mordvintsev A, Olah C, Tyka M (2015) Deepdream-un ejemplo de código para la visualización de las redes neuronales. Investigación
24. Abbasi-Asl R, et al. (2018) El marco deeptune para el modelado y las neuronas que caracterizan en visual v4 área de la corteza. bioRxiv google 2: 5.
pags. 465.534. 65. Wei D, Zhou B, Torrabla A, W Freeman (2015) La comprensión de los conocimientos dentro de la clase dentro de la CNN. arXiv
25. Roe AW, et al. (2012) Hacia una teoría unificada de v4 área visual. Neurona 74 (1): 12-29. arXiv: 1507.02379.
26. Huang CL, Chen MC, Wang CJ (2007) El puntaje de crédito con un enfoque de minería de datos basado en máquinas de vectores 66. Zhang Q, Cao R, Shi M, Wu YN, Zhu SC (2017) Interpretación de conocimiento CNN a través de un gráfico explicativo. arXiv arXiv:
soporte. Sistemas Expertos con Aplicaciones 33 (4): 847-856. 1708.01785.
27. Caja de GE (1976) Ciencia y estadísticas. Revista de la Asociación Americana de Estadística 67. Karpathy A, Johnson J, Fei-Fei L (2015) La visualización y la comprensión de las redes recurrentes.
71 (356): 791-799. arXiv arXiv: 1506.02078.
28. Breiman L, et al. (2001) el modelado estadístico: Las dos culturas (con comentarios y una réplica por el autor). ciencia estadística 16 68. Strobelt H, et al. (2016) El análisis visual de la dinámica del estado ocultos en las redes neuronales recurrentes.
pp. 371-386. 74. Smilkov D, Thorat N, Kim B, Viégas F, Wattenberg M (2017) Smoothgrad: eliminar el ruido mediante la adición de ruido. arXiv arXiv:
34. Burnham KP, Anderson DR (2004) inferencia Multimodelo: AIC comprensión y BIC en la selección del modelo. métodos sociológicos 1706.03825.
y la investigación 33 (2): 261-304. 75. Shrikumar A, Greenside P, Scherbina A, Kundaje A (2016) No es sólo un cuadro negro: Aprendizaje características importantes a
35. Pati YC, Rezaiifar R, Krishnaprasad PS (1993) ortogonal a juego búsqueda: aproximación de funciones recursivas con aplicaciones a través propagan diferencias de activación. arXiv arXiv: 1605.01713.
la descomposición wavelet en Señales, Sistemas y equipos, 1993. 1993 Conferencia registro de la Vigésima Séptima Conferencia 76. Murdoch WJ, Szlam A (2017) de extracción regla automática de redes de memoria de largo a corto plazo. arXiv arXiv: 1702.02540.
de Asilomar sucesivamente.
(IEEE), pp. 40-44. 77. Dąbkowski P, Gal Y (2017) prominencia imagen en tiempo real para la caja de negro ERS clasi fi. arXiv
36. Amaratunga D, J Cabrera, Lee YS (2008) Enriquecido bosques aleatorios. bioinformática arXiv: 1705.07857.
24 (18): 2010-2014. 78. Ribeiro MT, Singh S, Guestrin C (2016) ¿Por qué debería confiar en ti ?: Al explicar las predicciones de cualquier er fi cación en Actas
37. Breiman L, Friedman J, Olshen R, Stone CJ (1984) Clasi fi cación y regresión árboles. de la 22ª Conferencia Internacional ACM SIGKDD el descubrimiento de conocimiento y minería de datos. ( ACM), pp. 1135-1144.
38. Friedman JH, Popescu BE, et al. (2008) el aprendizaje predictivo a través de conjuntos de reglas. los Anales
de Estadística Aplicada 2 (3): 916-954. 79. Zintgraf LM, Cohen TS, Adel T, Welling M (2017) Visualización profundas decisiones de redes neuronales: análisis de diferencia de
39. Letham B, Rudin C, McCormick TH, Madigan D, et al. (2015) ers Clasi fi Interpretables utilizando reglas y análisis Bayesiano: Construcción predicción. arXiv arXiv: 1702.04595.
de un mejor modelo de predicción de accidente cerebrovascular. Annals of Applied Statistics 9 (3): 1350-1371. 80. Lundberg SM, Erion GG, Lee Si (2018) Consistente atribución función individualizada para los conjuntos de árboles. arXiv arXiv:
1802.03888.
40. Hastie T, Tibshirani R (1986) modelos aditivos generalizados. Statistical Science 1 (3): 297-318. 81. Murdoch WJ, Liu PJ, Yu B (2018) Más allá de la palabra importancia: la descomposición contextuales para extraer las interacciones
41. Kim J, Canny JF (2017) el aprendizaje Interpretables para los coches de auto-conducción mediante la visualización de la atención causal. en ICCV. pp. de lstms. arXiv arXiv: 1801.05453.
2961-2969. 82. Singh C, Murdoch WJ, Yu B (2018) interpretaciones jerárquica para predicciones de redes neuronales.
42. Andreas J, Rohrbach M, Darrell T, Klein D (2016) redes neuronales en módulo Procedimientos de arXiv arXiv: 1806.05337.
la Conferencia IEEE sobre Visión por computador y reconocimiento de patrones. pp. 39-48. 83. Un Rohrbach, Rohrbach M, Hu R, Darrell T, Schiele B (2016) Puesta a tierra de las frases textuales en las imágenes por la
43. Koller D, Friedman N, Bach F (2009) modelos gráficos probabilísticos: principios y tecno- reconstrucción de Conferencia Europea de Visión por Computador. ( Springer), pp. 817-834.
nicas. ( MIT Press).
44. Caruana R, et al. (2015) modelos inteligibles para el cuidado de la salud: La predicción de riesgo de neumonía y un hospital de 30 84. Caruana R, Kangarloo H, Dionisio J, Sinha U, Johnson D (1999) explicación basada en el caso de los métodos de aprendizaje no
días en la readmisión Actas de la 21 Conferencia Internacional ACM SIGKDD el descubrimiento de conocimiento y minería de basados en caso. en Actas del Simposio AMIA. ( Asociación Americana de Informática Médica), p. 212.
datos. ( ACM), pp. 1721-1730.
45. Ramos J, et al. (2003) El uso de TF-IDF para determinar la relevancia palabra en consultas de documentos en 85. Papernot N, McDaniel P (2018) de profundidad k-vecinos más cercanos: Hacia con fi abolladura, interpretable y aprendizaje profundo
Actas de la conferencia de instrucción fi primera en el aprendizaje de la máquina. Vol. 242, pp. 133-142. robusto. arXiv arXiv: 1803.04765.
46. Dalal N, Triggs B (2005) Histogramas de los gradientes de orientación para la detección humana en Computadora 86. Tsang M, Sun Y, Ren D, Liu Y (2018) ¿Puedo confiar en usted más? -Modelo agnóstico explicaciones jerárquicos. arXiv arXiv:
Visión y Reconocimiento de Patrones, 2005. CVPR 2005. Conferencia IEEE Computer Society sucesivamente. 1812.04801.
arXiv: 1811.10154.
89. Kluyver T, et al. (2016) cuadernos-Jupyter un formato de publicación para el trabajo computacional flujos reproducibles. en ELPUB. pp.
87-90.
90. Pérez M, Granger BE (2007) IPython: un sistema para la computación científica c interactiva. Informática
en Ciencias e Ingeniería 9 (3).
91. Equipo rstudio (2016) Rstudio: Entorno de desarrollo integrado para R ( Rstudio, Inc.,
Boston, MA).
92. Barter R, Yu B (2015) Sobrecalentamiento: heatmaps supervisado para la visualización de datos complejos. arXiv
arXiv: 1512.01524.
93. Wickham H (2016) ggplot2: gráficos elegantes para el análisis de datos. ( Saltador).
94. WaskomM, et al. (2014) Seaborn: visualización de datos estadística. URL: https: // Seaborn. pydata.
org / (visitado el 05.15.2017).
95. McKinney W, et al. (2010) Las estructuras de datos para el cálculo estadístico de pitón en Actas
de la 9ª Conferencia de Python en la Ciencia. ( Austin, TX), vol. 445, pp. 51-56.
96. Wickham H (2017) tidyverse: Fácil de instalar y cargar el 'Tidyverse'. R versión del paquete
1.2.1.
97. Ross AS, Hughes MC, Doshi-Velez M (2017) Derecho por las razones correctas: Formación de modelos diferenciables al restringir
sus explicaciones. arXiv arXiv: 1703.03717.
98. Zaidan O, Eisner J, Piatko C (2007) El uso de “razones anotador” para mejorar la máquina de aprendizaje para categorización de
textos en Tecnologías del Lenguaje Humano 2007: La Conferencia del Capítulo de la Asociación de Lingüística Computacional de
América del Norte; Actas de la conferencia principal. pp. 260-267.