Академический Документы
Профессиональный Документы
Культура Документы
1. Soit l’ensemble d’apprentissage constitué des exemples {1, ..., 9}. Construire l’arbre de décision
parfait t1 en choisissant les attributs dans l’ordre P3 , P2 , P1 .
2. Même question avec t2 , en utilisant l’ordre P1 , P2 , P3 .
3. Peut-on trouver un arbre de décision parfait si on considère l’ensemble d’apprentissage constitué
des exemples {1, ..., 10} ?
4. Soit l’ensemble d’apprentissage constitué des exemples {1, ..., 9}, et l’ensemble test constitué
des exemples {11,12,13}. Soit les arbres t3 = A et t4 = P1 (B, A). Calculer l’erreur apparente
sur l’ensemble d’apprentissage, l’erreur apparente sur l’ensemble test, et l’erreur apparente sur
l’échantillon complet pour chacun des arbres t1 , ..., t4 .
1. Calculer, pour l’arbre de décision donné figure 1, les quantités i(), i(1), i(2), i(11) et i(12)
avec la fonction de Gini.
2. Même question en utilisant la fonction d’entropie.
3. Considérons l’arbre vide. Nous avons le choix entre choisir ”température < 37.5” et l’attribut
”gorge irritée”. Lequel doit-on choisir pour maximiser le gain ?
Valeur majoritaire de l’attribut On remplace les valeurs manquantes par la valeur majoritaire
prise par cet attribut sur l’échantillon complet. Quelle valeur associe-t-on sur notre échantillon ?
Peut-on trouver un arbre de décision parfait ? Appliquer l’algorithme de construction d’arbre
de décision en utilisant l’entropie pour le calcul du gain. On décide qu’un nœud est terminal,
i.e. d’attribuer une feuille, lorsqu’il y a au plus un exemple mal classé associé à ce nœud. Les
calculs pour le test à choisir à la racine sont à détailler.
Valeur majoritaire de l’attribut par classe Etant donné un exemple avec une valeur man-
quante, nous remplaçons la valeur manquante par la valeur majoritaire prise par l’attribut
correspondant pour les exemples de l’échantillon appartenant à la même classe. Quelles va-
leurs associe-t-on sur notre échantillon ? Peut-on trouver un arbre de décision parfait ? Quel
arbre obtient-on en appliquant l’algorithme basé sur l’entropie ?
Méthode utilisée par C45 Cette méthode consiste à ne plus attribuer une valeur à l’attribut,
mais une probabilité pour chacune des valeurs possibles. Ces probabilités sont estimées par
les fréquences des valeurs possibles de cet attribut pour l’échantillon associé à une position
p de l’arbre en construction. Par exemple, à la racine, la probabilité que l’attribut taille ait
la valeur petit est de 3/8 car il y a 8 exemples pour lesquels la valeur de l’attribut taille est
connue, et 3 ont la valeur petit. Quelles seraient les modifications à apporter à l’algorithme ?
Nous considérons l’algorithme générique de construction d’arbres de décision, le choix des attributs
se faisant en maximisant le gain en information basé sur l’entropie des échantillons.
Quel est l’attribut choisi à la racine ?