Академический Документы
Профессиональный Документы
Культура Документы
VERSION FINALE
Écrit par
Lê Nguyên Hoang
et
El Mahdi El Mhamdi
2019
Table des matières
1 Introduction 9
L’IA nous a envahis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
La première thèse du livre . . . . . . . . . . . . . . . . . . . . . . . . . 10
La deuxième thèse du livre . . . . . . . . . . . . . . . . . . . . . . . . 11
La conclusion du livre . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Fantasmes et catastrophismes . . . . . . . . . . . . . . . . . . . . . . . 13
Point sémantique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Bienveillance, nuances et réflexion . . . . . . . . . . . . . . . . . . . . 18
Plan du livre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3
4 TABLE DES MATIÈRES
La viralité de la virulence . . . . . . . . . . . . . . . . . . . . . . . . . 59
Une force invisible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
Les victimes des IA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
Monopole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
Open source . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
Le fardeau moral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
Spécialisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
Heuristiques et ignorance . . . . . . . . . . . . . . . . . . . . . . . . . 249
Récapitulatif global . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
1
tions et responsabilités.
Sergey Brin (1973-)
Introduction
9
10 CHAPITRE 1. INTRODUCTION
Étrangement, il nous aura fallu plusieurs années pour en arriver à cette conclu-
sion. Mais après ces longues années d’enthousiasme et de réflexion, une observa-
tion devint de plus en plus pressante. Vu la place grandissante que prennent les
IA, il paraît désormais urgent de s’assurer que ces IA soient programmées, non
seulement pour ne pas être néfastes, mais aussi et surtout pour être bénéfiques.
Bien entendu, toutes les IA ne sont pas néfastes. Au contraire, la plupart des IA
d’aujourd’hui semblent globalement bénéfiques. Cependant, il nous semble que
toutes les IA influentes devraient être conçues avec l’objectif d’être au moins
partiellement bénéfiques. Mais ce n’est pas tout. Il nous semble aussi que les
IA influentes déjà bénéfiques devraient être conçues pour être nettement plus
bénéfiques encore 3 , notamment parce qu’elles auraient ainsi probablement un
impact bénéfique énorme sur le bien-être de milliards d’individus.
Telle est la première thèse de ce livre, exprimée ci-dessous de manière très ap-
proximative.
Prise au sérieux, cette thèse semble alors devenir bien plus surprenante qu’elle
n’en a l’air. Elle semble ainsi inviter à être critique de quiconque préférant
volontairement ignorer les effets secondaires indésirables des IA, de la même
manière que l’on en vient parfois à blâmer ceux qui choisissent volontairement
d’ignorer les risques liés au changement climatique. Ou de façon équivalente, la
thèse suggère que l’action la plus efficacement altruiste d’aujourd’hui pourrait
peut-être être de chercher à contribuer au fabuleux chantier pour rendre les IA
bénéfiques.
Les chapitres 2 à 6 de ce livre s’attarderont plus longuement sur cette thèse.
Ces chapitres tenteront de vous convaincre du fait que vous sous-estimez très
probablement très largement l’urgence que soutient la thèse. Voilà qui a des
conséquences majeures sur ce qu’il nous faut exiger, par exemple, des entreprises
du numérique.
très grand nombre de très grands talents divers et variés contribuent ensemble
à cet effort.
Dans les chapitres 11 à 15, nous présenterons une sorte de feuille de route pour
bien penser le problème de rendre les IA bénéfiques. Même si cette proposi-
tion est très probablement très imparfaite, il nous semble qu’elle peut servir de
base de travail 4 et aider à mettre en évidence certaines étapes indispensables
pour garantir la sûreté des IA. L’objectif de ces chapitres sera également de
vous stimuler intellectuellement et de susciter chez vous une curiosité et un
enthousiasme. En effet, nous espérons aussi vous convaincre que rendre les IA
bénéfiques est aussi un fabuleux chantier. Voire, peut-être, le plus fabuleux des
chantiers jamais entrepris par l’humanité.
La conclusion du livre
Le principal objectif du livre est d’en venir à la troisième thèse, qui est une
conclusion à laquelle les deux premières thèses semblent conduire. Cette conclu-
sion est particulièrement contre-intuitive. La voici.
Thèse 3. Il est urgent que toutes sortes de talents soient mis dans les meilleures
dispositions pour contribuer à rendre les IA bénéfiques.
En particulier, une conséquence très étrange de cette conclusion, c’est qu’il peut
sembler, à l’inverse, presque « immoral » pour tout talent de ne pas au moins
s’intéresser un peu au problème de rendre les IA bénéfiques, tout comme il peut
sembler « immoral » pour un politicien influent de ne pas au moins s’intéresser
aux problèmes de racisme ou de pauvreté.
Sans aller jusque-là, nous chercherons à vous convaincre que l’aide de tout ta-
lent serait extrêmement précieuse. Malheureusement, de nos jours, les impacts
sociaux des IA ne semblent pas être une question que la plupart des mathémati-
ciens, philosophes, psychologues, sociologues, ingénieurs et dirigeants se posent
régulièrement. Une contribution espérée de ce livre est donc d’inviter une frac-
tion non-négligeable d’entre eux à davantage s’y intéresser. Mais les contribu-
tions directes pour rendre les IA bénéfiques ne sont pas les seules qui seront
nécessaires pour mener ce chantier à bout. Ce fabuleux chantier nécessitera
également de nombreuses contributions indirectes, par exemple en termes de
sensibilisation aux défis à relever, de management des ressources humaines né-
cessaires au chantier ou de gouvernance entre les différentes entités influentes 5 .
4. Une autre feuille de route est publiée en même temps que ce livre par Stuart Russell.
Bien que nous n’ayons pas la prétention de nous comparer à un pionnier comme Russell, et
que nos feuilles de route aient beaucoup de similitudes, à commencer par le rôle central de
l’alignement, la nôtre nous semble avoir des divergences qui gagneraient à être explorées.
Human Compatible : Artificial Intelligence and the Problem of Control | Viking | Stuart
Russell (2019)
5. Guide to working in AI policy and strategy | 80,000 Hours | M Brundage (2017)
FANTASMES ET CATASTROPHISMES 13
Pour l’instant, d’un point de vue technique, les efforts pour rendre les IA bé-
néfiques semblent essentiellement se restreindre à des points de suture pour
colmater des hémorragies locales. Typiquement, certaines propositions s’inté-
ressent uniquement à une poignée de propriétés désirables, notamment en termes
de protection des données privées et de suppression des biais algorithmiques.
Cependant, comme nous le verrons, pour de nombreuses IA qui influencent,
volontairement ou non, les convictions de milliards d’utilisateurs, les solutions
proposées jusque-là semblent encore très insuffisantes. En particulier, il semble
que de telles IA ne peuvent pas se contenter d’être approximativement béné-
fiques. Elles se doivent d’être robustement bénéfiques.
En particulier, il est important de noter que les IA qui interagissent avec des
milliards d’utilisateurs, de créateurs de contenus et d’entreprises, évoluent dans
des environnements extrêmement complexes, comme par exemple les réseaux
sociaux. C’est aussi cette complexité de l’environnement qui rend la tâche d’être
robustement bénéfique difficile. En effet, cet environnement est changeant et
dynamique. Pire, il s’adaptera inéluctablement aux modifications des IA. Dans
un tel contexte, parvenir à être constamment bénéfique selon le plus grand
nombre, et surtout à ne jamais causer de torts majeurs, semble être une tâche
monumentale.
Pour ces IA plus influentes, comme bien d’autres avant nous, nous prétendrons
que l’alignement des valeurs, aussi appelée AI alignment ou value-loading en
anglais, est une étape probablement incontournable. Nous chercherons même
à montrer qu’il s’agit là d’une condition nécessaire et suffisante pour garantir
que les IA agiront de manière robustement bénéfique. Malheureusement, pour
l’instant, trop peu de chercheurs semblent s’intéresser à ce problème pourtant
crucial.
Fantasmes et catastrophismes
Cela fait maintenant quelques années que l’IA fait énormément parler d’elle.
Tant de choses sont dites à son sujet. Chacun y va de son avis. Chacun y va de
son qualificatif. Révolution, buzz, catastrophe, tendance passagère, sous-estimée,
sur-estimée, dangereuse, hype, fantastique, inéluctable, lubie, imprévisible, ma-
14 CHAPITRE 1. INTRODUCTION
invitent à plus de prudence quand il s’agit de parler d’IA. Il existe ainsi né-
cessairement beaucoup d’experts qui sont en excès de confiance. Prenons donc
soin du nôtre ! En particulier, il serait malencontreux d’isoler un expert en par-
ticulier, et de penser que l’avis de cet expert est le « bon » avis à avoir — et il
serait encore plus problématique de considérer que notre avis est clairement plus
pertinent que l’avis de cet expert. Quand il s’agit du futur de l’IA, le langage
des probabilités et de l’incertitude semble incontournable.
Mais surtout, ces incompréhensions entre experts du domaine montrent à quel
point les risques de contre-sens sont énormes. En particulier, l’intelligence n’est
clairement pas suffisante pour bien analyser les idées de ce livre. Quand il s’agit
d’IA, il semble crucial de surveiller nos nombreux biais cognitifs, à commencer
par l’excès de confiance et le biais de confirmation. Pour éviter les malentendus
et les mécompréhensions, il semble désirable de faire des efforts particuliers
d’écoute, de bienveillance et de réflexion, surtout dans des situations de débat.
Point sémantique
L’une des raisons de ces nombreuses divergences est l’ambiguité des termino-
logies utilisées, y compris par les experts. Il y a ainsi beaucoup de confusions
dues au simple fait que même les experts n’assignent pas le même sens aux
même mots. Voire qu’un même expert utilise parfois un même mot dans des
sens différents.
On peut prendre l’exemple de la notion de conscience pour illustrer cela. On a
ainsi souvent tendance à confondre différentes notions pourtant assez distinctes
de conscience. Il y a par exemple la conscience d’accès, c’est-à-dire la faculté
d’une intelligence à accéder à sa propre réflexion. Cette notion algorithmique
est relativement simple à implémenter 10 . En fait, on peut estimer que de nom-
breuses IA d’aujourd’hui ont déjà une telle forme de conscience.
Cependant, la conscience qui fascine davantage les philosophes est en fait autre.
Il s’agit de l’expérience subjective vécue par une entité donnée. On parle aussi
de qualia ou de conscience phénoménale. Certains philosophes affirment alors
que cette conscience phénoménale sort nécessairement du cadre physique, et
qu’il s’agit d’une propriété fondamentalement inobservable. Malheureusement,
la confusion entre ces deux notions conduit souvent à davantage de confusion
encore 11 . Pire, on les confond avec d’autres usages encore du mot « conscience »,
comme la conscience morale qui suggère une faculté à comprendre et à se confor-
mer à une morale. Nous reviendrons sur ces difficultés en fin de livre.
10. Par exemple, un compteur dans une boucle de calcul permet à un algorithme d’accéder
à un aspect de sa réflexion, à savoir combien de fois il a effectué cette boucle de calcul. Plus
généralement, et contrairement d’ailleurs à l’humain pour l’instant, on peut permettre à un
algorithme d’accéder au code qu’il exécute.
11. La conscience (avec Monsieur Phi) | Science Étonnante | T Giraud & D Louapre
(2017)
16 CHAPITRE 1. INTRODUCTION
14. Autrement dit, selon notre définition, le mot « IA » est synonyme du mot « algorithme ».
15. The Game That Learns | Vsauce2 | K Lieber (2019)
16. MENACE : the pile of matchboxes which can learn | standupmaths | M Parker
(2018)
17. Le paradoxe de la veste de laine | Monsieur Phi | T Giraud (2016)
18. Conférence sur la SUPER-INTELLIGENCE + quelques suppléments | Monsieur
Phi | T Giraud (2018)
18 CHAPITRE 1. INTRODUCTION
Pour clarifier, le problème souligné par ce livre n’est pas le risque d’IA « consciem-
ment malveillantes ». Ce risque nous semble en fait négligeable 20 . De façon plus
générale, notre préoccupation principale ne sera ni la motivation des IA, ni la
motivation des développeurs des IA. Le problème soulevé dans ce livre est ce-
lui des effets secondaires des IA. En particulier, nous chercherons à montrer
qu’une IA influente qui n’est pas conçue pour être robustement bénéfique aura
certainement des effets secondaires difficilement prévisibles et potentiellement
très indésirables. Comme nous le verrons, c’est via de tels effets secondaires que
l’IA tue déjà.
En fait, même si l’urgence à rendre les IA bénéfiques est une préoccupation
importante de ce livre, nous insisterons beaucoup plus encore sur la difficulté
d’y arriver. En particulier, nous cherchons avant tout à défendre la thèse 3 : il
est urgent que toutes sortes de talents soient mis dans les meilleures conditions
pour contribuer à rendre les outils de traitement de l’information bénéfiques.
C’est de cela que nous souhaitons vous convaincre.
Malheureusement, les défis à relever pour rendre les IA bénéfiques sont horrible-
ment complexes et pleins de subtilités et de nuances. Pire, la réflexion poussée
autour de ces défis monumentaux conduit souvent à des conclusions très contre-
intuitives. Sorties de leur contexte, il peut être horriblement tentant de rejeter,
19. Selon la légende, après avoir lu l’Exposition du Système du monde, le général Bonaparte
questionna l’absence de Dieu dans ce livre de Laplace. Laplace aurait répondu : « je n’ai pas
eu besoin de cette hypothèse ».
20. Nous reconnaissons toutefois le fait que nous nous trompons peut-être sur ce point.
Les armes autonomes pourraient être des IA conçues pour être, en un sens, « consciemment
malveillantes ».
BIENVEILLANCE, NUANCES ET RÉFLEXION 19
Ainsi, dans ce livre, nous avons fait un énorme effort pour aller dans ce sens.
Cependant, nous craignons que nos bonnes intentions aient été très insuffisantes.
De façon ironique, nos discussions à venir sur les effets secondaires indésirables
des IA auront très certainement elles-mêmes des effets secondaires indésirables.
Nous en sommes vraiment désolés. Exposer les idées de ce livre avec pédagogie
et clarté fut une tâche monumentale elle aussi. Nous sommes conscients de ne
l’avoir résolue que bien trop partiellement.
En particulier, nous espérons que c’est avant tout cette invitation à la bien-
veillance, à la nuance et à la réflexion qui émergera des discussions autour de
ce livre. Et si vous pensez qu’il y a des aspects importants du fabuleux chantier
qui ont été omis dans ce livre, nous vous serons très reconnaissants de nous les
21. Prenez garde toutefois à éviter les phénomènes bien connus de polarisation de groupe,
en apportant régulièrement des contrepoints à l’avis du groupe, surtout si celui-ci semble
consensuel.
22. Curiosité préoccupée avec Jérémy Perret | Probablement ? | J Perret & LN Hoang
(2019)
23. En fonction de votre localisation géographique, nous vous invitons à contacter Altruisme
Efficace Québec, Effective Altruism Geneva ou autres, voire à monter votre collectif local, en
vous coordonnant si possible avec Altruisme Efficace France ou encore le Center for Effective
Altruism.
20 CHAPITRE 1. INTRODUCTION
Plan du livre
Le reste du livre se décompose comme suit. Dans un premier temps, des cha-
pitres 2 à 6, nous insisterons sur la première thèse du livre, à savoir l’urgence à
rendre les IA bénéfiques. Le chapitre 2 insistera sur l’omniprésence et la place
déjà prépondérante qu’ont les IA d’aujourd’hui, en cherchant au passage à ex-
pliquer ce rôle que les IA ont pris. Le chapitre 3 cherchera à montrer que les
IA n’ont pas un rôle innocent. Au contraire, la place prépondérante qu’elles ont
prise signifie que les actions entreprises par ces IA ont des effets secondaires
d’ampleur planétaire. Le chapitre 4 prendra du recul et analysera le rôle central
de l’information et du traitement de l’information dans l’histoire de la vie et des
civilisations. Les chapitres 5 et 6, eux, insisteront sur l’importance d’anticiper
le futur, et chercheront à montrer que le progrès des performances des IA est à
la fois inévitable et très imprévisible. Voilà qui rend le problème de rendre les
IA bénéfiques d’autant plus urgent.
La deuxième partie du livre, elle, s’intéressera à la deuxième thèse de ce livre,
à savoir la difficulté à rendre l’IA bénéfique. Cette seconde partie s’étendra des
chapitres 7 à 10. Dans un premier temps, les chapitres 7 et 8 montreront que
des idées naïves qui consisteraient à contraindre ou contrôler les IA semblent
en fait très peu prometteuses. Puis, les chapitres 9 et 10 introduiront une com-
préhension conceptuelle des algorithmes des IA du présent et de l’architecture
probable des IA du futur, qui semble indispensable à maîtriser pour rendre les
IA bénéfiques.
Puis la troisième partie du livre, des chapitres 11 à 15, proposera une esquisse
de feuille de route pour mieux structurer la réflexion autour des solutions tech-
niques pour rendre les IA bénéfiques. Cette feuille de route vise à découper le
fabuleux chantier pour rendre les IA bénéfiques en un très grand nombre de
sous-problèmes plus simples, de la fiabilité des données à l’inférence de l’état du
monde à partir de ces données, en passant par l’alignement des objectifs des IA
et la conception d’un système de récompense adéquat pour ces IA.
Les deux derniers chapitres seront quelque peu à part. Le chapitre 16 sera une
digression sur les implications de l’approche algorithmique de ce livre sur la phi-
losophie morale. Nous chercherons notamment à montrer que certaines notions
semblent en fait incalculables, ce qui suggère qu’il pourrait s’agir de distractions
qu’il serait alors souhaitable de moins mettre en avant. Nous insisterons aussi
sur la pertinence de la théorie de la complexité algorithmique pour la philosophie
morale, ainsi que sur l’importance de la méta-éthique algorithmique.
Enfin, le chapitre 17 évoquera les nombreux défis non techniques qui sont in-
dispensables à relever pour mettre toutes sortes de talents dans les meilleures
PLAN DU LIVRE 21
Références
La vie 3.0 - Etre humain à l’ère de l’intelligence artificielle | Dunod | M Teg-
mark (2017)
Super intelligence : le grand défi de l’humanité | Dunod | N Bostrom (2017)
21 Leçons pour le XXIème siècle | Albin Michel | YN Harari (2018)
Human Compatible : Artificial Intelligence and the Problem of Control | Vi-
king | Stuart Russell (2019)
Intelligences Artificielles : Miroirs de nos vies | A Zéphir, F Tigre & H Cho-
chois (2019)
What happens when our computers get smarter than we are ? TED | N Bos-
trom (2015)
Le paradoxe de la veste de laine | Monsieur Phi | T Giraud (2016)
MENACE : the pile of matchboxes which can learn | standupmaths | M Par-
ker (2018)
Conférence sur la SUPER-INTELLIGENCE + quelques suppléments | Mon-
sieur Phi | T Giraud (2018)
The Game That Learns | Vsauce2 | K Lieber (2019)
IA : Clash de prix Turing | Alexandre Technoprog (2019)
23
L’IA est partout. Ce n’est pas cette énorme et ef-
frayante chose du futur. L’IA est ici avec nous.
Fei-Fei Li (1976-)
2
L’IA est déjà partout
Le mirage de l’IA
« Dès que cela marche, plus personne n’appelle cela de l’IA », déclara un jour
John McCarthy. Cette citation résume bien une certaine manière très récurrente
de parler de l’IA. On a tendance à projeter des fantasmes sur ce qu’elle est.
Puis, pour rendre ces fantasmes concrets, on a tendance ensuite à identifier des
facultés que se doit de posséder l’IA.
Mais alors, quand les machines acquièrent ces facultés, à l’instar de Deep Blue
qui battit le champion du monde Garry Kasparov aux échecs en 1997, on a
tendance à redéfinir nos termes, inventer d’autres fantasmes et introduire da-
vantage de facultés nécessaires. De sorte que l’IA demeure cette technologie qui
ne fait pas encore partie de notre quotidien.
Comme expliqué dans le premier chapitre, nous vous invitons à combattre cette
tentation, pour nous rapprocher de la terminologie la plus répandue dans les
industries d’aujourd’hui. D’une certaine manière, dans le cadre de ce livre, le
mot « IA » ne signifie pas vraiment intelligence artificielle. Même des algorithmes
simplistes et stupides seront qualifiés d’IA. Dans ce livre, une IA sera avant tout
une manière de traiter de l’information sans intervention humaine.
De façon cruciale, grâce aux machines à calculer qui implémentent ce traitement
automatisé de l’information, les IA d’aujourd’hui possèdent de nombreuses facul-
tés qui les rendent performantes, utiles et surtout d’ores et déjà omniprésentes.
Les IA sont déjà partout.
25
26 CHAPITRE 2. L’IA EST DÉJÀ PARTOUT
Dans ce chapitre, nous allons étudier les raisons pour lesquelles les IA sont
devenues incontournables. Et pourquoi elles deviendront certainement de plus
en plus incontournables à l’avenir.
Fiabilité
L’une des facultés qui ont rendues les machines incontournables est la fiabi-
lité des calculs qu’elles effectuent et du stockage de l’information qu’elles per-
mettent. Tout un pan de l’informatique se charge d’ailleurs de cette sécurité
des systèmes d’information. En particulier, ces systèmes sont conçus pour ré-
sister à des pannes de composants des systèmes, voire même au piratage de
composants des systèmes par des utilisateurs malveillants. Voilà qui est par-
ticulièrement utile, par exemple, au système bancaire. À l’aide de machines,
les banques peuvent ainsi mieux garantir la gestion fiable des transactions fi-
nancières que ne le ferait un groupe d’individus humains — et l’avènement de
technologies comme la Blockchain devrait renforcer encore plus la fiabilité des
systèmes informatiques.
Cette propriété des systèmes d’information a d’ailleurs été indispensable aux
auteurs de ce livre. En collaborant sur des versions régulièrement mises à jour
et rapidement partagées du livre, les auteurs ont ainsi pu éviter une quantité de
conflits qui auraient été inévitables autrement, sans craindre une perte complète
du manuscrit du livre. À une toute autre échelle, cette fiabilité de l’information
partagée a permis l’émergence de Wikipédia, qui est peut-être le plus spectacu-
laire édifice de la connaissance humaine.
Dans de nombreux cas comme ceux décrits ci-dessus, la simple gestion fiable
de quelques opérations simples et du stockage robuste de l’information suffit à
rendre les machines incontournables. Dans d’autres cas, en revanche, les opéra-
tions à effectuer ne sont plus aussi simples qu’une addition et une soustraction
sur un compte bancaire. L’IA permet alors d’effectuer ces opérations plus so-
phistiquées avec malgré tout un très haut niveau de fiabilité.
C’est le cas par exemple des smart grids, ces dispositifs en charge de gérer
optimalement les réseaux électriques. Cette gestion est complexe. Les réseaux
doivent aligner en temps réel la production et la consommation de l’électricité.
Voilà qui est particulièrement délicat quand cette production est intermittente,
comme c’est souvent le cas des énergies renouvelables. Par exemple, une éo-
lienne peut soudainement tourner à plein régime grâce à un coup de vent à 3 h
du matin, au moment où peu de consommateurs ont besoin d’électricité, puis
s’arrêter tout à coup à 20 h quand ils sont tous en train de chauffer leur dîner.
Des planifications sur diverses échelles de temps sont alors nécessaires. Voilà
une tâche de traitement d’information qu’une IA semble plus à même de ré-
soudre que toute alternative. De plus, cette IA pourra être rendue très fiable,
VÉRIFICATION 27
ce qui est primordial pour éviter des surcharges du réseau qui pourraient être
désastreuses 1 .
Un autre cas où la fiabilité des IA pourrait bientôt devenir un atout majeur est
celui des voitures autonomes. En effet, par opposition, les conducteurs humains
sont incroyablement peu fiables. Ils fatiguent, boivent et envoient des messages
WhatsApp au volant, causant ainsi plus d’un million de morts par an. L’IA
n’aura pas ces faiblesses 2 .
Vérification
Non seulement les IA sont fiables, elles peuvent même garantir la fiabilité
d’autres systèmes. Elles excellent ainsi dans le domaine de la vérification. En
effet, de nos jours, des milliards de dollars sont dépensés pour vérifier que les
transactions financières ont lieu de manière fiable et sans fraude, ou pour vérifier
que des logiciels qui seront utilisés par des milliards d’utilisateurs ont aussi peu
de failles que possible 3 .
De nombreux outils ont été développés pour cette tâche de vérification. Certaines
approches se fondent sur l’analyse automatique des codes algorithmiques qui
seront déployés. D’autres s’appuient sur des astuces cryptographiques, comme
les empreintes cryptographiques, aussi appelées fonctions de hachage 4 . D’autres
encore utilisent des systèmes de redondance.
Cependant, quand il s’agit de garantir la vérification de systèmes ou données
plus complexes, comme la fiabilité d’une centrale nucléaire, ces méthodes sont
insuffisantes. Il faut alors se contenter d’approches capables de certifier un haut
degré de fiabilité avec grande probabilité. C’est là que des approches fondées
sur l’IA deviennent indispensables.
L’un des cas les plus utilisés aujourd’hui est la reconnaissance par données bio-
métriques. Cette technologie permet par exemple de reconnaître l’utilisateur
d’un téléphone, simplement à partir d’une image, d’une empreinte digitale ou
de l’analyse rétinienne d’un individu. Les IA ont aujourd’hui permis un haut
niveau de fiabilité de cette technologie. Et la facilité d’utilisation de ce proces-
sus de vérification a fait de cette technologie quelque chose d’omniprésent dans
notre quotidien. Au-delà des téléphones, elle commence d’ailleurs à être utilisée
dans des aéroports, comme celui de Miami aux États-Unis 5 , où elle fait gagner
un temps précieux aussi bien aux voyageurs qu’aux opérateurs douaniers.
De façon plus générale, les IA sont utilisées dans de nombreuses industries où
les risques de fraudes sont importants et peuvent conduire à des coûts majeurs.
C’est le cas par exemple du monde de l’assurance, qui exploite de plus en plus
des IA pour aider à déterminer si une déclaration de sinistre est honnête ou s’il
s’agit d’une fraude 6 .
À une autre échelle, ces IA sont également devenues incontournables pour ai-
der les utilisateurs de téléphones à taper des phrases justes malgré la petitesse
des claviers tactiles. L’auto-correction permet ainsi de grandement diminuer le
nombre de fautes de frappe, et fluidifie ainsi les échanges électroniques — même
si, parfois, cette auto-correction conduit aussi à d’étranges malentendus.
Surveillance
Automatisation
Pendant longtemps, cette question fut l’un des plus prestigieux défis des ma-
thématiques. Et puis, en 1976, les mathématiciens Appel et Haken ont montré
que l’on pouvait déterminer une preuve du théorème des 4 couleurs, à condition
d’effectuer un certain calcul. Le problème, c’est que ce calcul était horriblement
long à effectuer. Même un groupe d’humains aurait bien du mal à l’effectuer ; et
la probabilité qu’il commette une erreur de calcul serait énorme. Les machines
12. Computer vision and artificial intelligence in precision agriculture for grain crops :
A systematic review | Computers and Electronics in Agriculture | DI Patrício & R Riederb
(2018)
13. Crime : I can see my house from here ! Flashforward | R Eveleth (2019)
14. How satellite imagery can protect human rights | TEDxFultonStreet | N Raymond
(2015)
15. Combining satellite imagery and machine learning to predict poverty | Science | N
Jean, M Burke, M Xie, WM Davis, DB Lobell & S Ermon (2016)
16. Alan Turing - Enigma, ordinateur et pomme empoisonnée | e-penser | B Benamran
(2015)
30 CHAPITRE 2. L’IA EST DÉJÀ PARTOUT
Aide à la décision
L’IA nous aide aussi à nous géolocaliser et à nous déplacer. Nous nous fions
de plus en plus systématiquement aux systèmes GPS de nos téléphones pour
trouver notre chemin, que ce soit à pied, à vélo ou en voiture. Si les chemins
suggérés par nos téléphones sont très souvent optimisés pour réduire nos temps
de trajet, il ne s’agit toutefois que de recommendations qui nous aideront à
déterminer quel chemin emprunter. Typiquement, il nous arrive souvent de ne
pas écouter nos téléphones, car nous préfèrons longer le magnifique lac Léman
ou flâner dans les rues de Paris, plutôt que de simplement minimiser le temps
de trajet.
À différents échelons donc, les IA guident plus ou moins nos processus de déci-
sion. Bien souvent, leur rôle commence par être l’aide à la décision. Un humain
reste en charge de prendre une décision finale, mais l’IA va l’aider dans cette
tâche, en recommendant certaines alternatives plutôt que d’autres. Cependant,
au fur et à mesure que ces IA deviennent performantes et fiables, nous avons
tendance à leur céder de plus en plus de champ d’actions. Et à bien moins
surveiller ces actions 22 .
20. The robot lawyers are here - and they’re winning | BBC News | R Cellan-Jones (2017)
21. Peut-on prédire la justice ? Lex Tutor (2017)
22. Il peut aussi y avoir un risque de diffusion de la responsabilité. En suivant les suggestions
d’une IA, un employé peut alors déférer sa responsabilité. En cas de problème, il pourra ainsi
se justifier en accusant l’IA. C’est ainsi qu’une aide à la décision d’une IA peut en fait devenir
une décision de l’IA.
32 CHAPITRE 2. L’IA EST DÉJÀ PARTOUT
Personnalisation
L’IA a pris une place grandissante dans le domaine du marketing ciblé et de la
personnalisation des produits. En effet, alors que l’industrialisation des proces-
sus avait tendance à préférer l’uniformisation des solutions, l’IA permet d’adap-
ter les solutions à la demande des utilisateurs, augmentant potentiellement la
diversité des solutions.
C’est ainsi que, de nos jours, de nombreuses entreprises et politiciens utilisent
l’IA pour cibler les clients et les électorats les plus susceptibles d’être réceptifs à
leurs offres. L’IA permet même de délivrer des messages sur mesure, en prenant
par exemple en compte l’historique d’un utilisateur sur les réseaux sociaux, ou
les cookies enregistrés dans son navigateur web.
Cette personnalisation des offres est également très en vogue dans l’industrie des
assurances. En effet, grâce aux données individualisées, ces assurances peuvent
mieux estimer les risques associés à chacun de leurs clients, et proposer ainsi
des tarifs personnalisés d’assurance plus compétitifs.
Il est un domaine où la personnalisation des offres pourrait être d’une utilité
fantastique, à savoir la médecine. En effet, jusque-là, les soins médicaux étaient
des techniques, dont on vérifie l’efficacité sur toute une population de patients.
Cependant, la possibilité de mesurer en temps réel et en continu des métriques
comme le niveau de cholestérol, la pression sanguine ou le rythme cardiaque,
pourrait conduire à l’avénement d’une médecine personnalisée, qui adapte la
prise en charge aux caractéristiques physiologiques détaillées du patient 23 .
Mais surtout, de nos jours, l’une des plus grosses industries est la personnali-
sation de l’information suggérée sur le web. Ainsi, des services comme Google,
Bing, Amazon, iTunes, Facebook, Twitter, Spotify, Netflix ou encore YouTube,
reposent grandement sur des systèmes de recommandations personnalisées. Ces
IA cherchent à proposer des produits conformes aux préférences d’un utilisateur
à un instant donné. Et des milliards de dollars sont investis pour rendre ces
recommandations aussi pertinentes que possible.
Analyse surhumaine
Jusque-là, nous avons essentiellement parlé des facultés spécifiques des machines
qui les rendent préférables aux humains pour certaines tâches, comme la fiabilité
du stockage et la vitesse du calcul. Mais il y a également de plus en plus de cas
où les calculs de l’IA conduisent à des performances qui surpassent l’intuition,
voire la réflexion, humaine.
Pour l’instant, bien sûr, il existe encore un très grand nombre de tâches de
traitement de l’information pour lesquelles les humains semblent demeurer net-
23. Personalized medicine : time for one-person trials | Nature News | NJ Schork (2015)
ANALYSE SURHUMAINE 33
tement supérieurs aux IA. En particulier, nous autres humains disposons d’un
« sens commun », nourri par des décennies d’apprentissage et d’habitudes du
quotidien. Nous avons aussi une dextérité physique qui nous permet de maîtriser
un corps relativement complexe. Notre capacité d’apprentissage rapide est aussi
remarquable, notamment chez les bébés. Beaucoup parmi nous avons aussi des
expertises qu’aucune IA ne maîtrise. Nous disposons également d’une faculté
de travail collectif remarquable. Enfin, et surtout, nous possédons une compré-
hension globale du monde inaccessible aux IA d’aujourd’hui, qui nous permet
notamment de résoudre une variété étonnante de tâches distinctes.
Néanmoins, les IA progressent. Pour certaines tâches, elles nous ont même sur-
passés. Pour commencer, il y a bien sûr les cas très médiatisés des jeux comme
les échecs, le go ou le poker. Si les IA ont surpassé l’humain aux échecs depuis
deux décennies, les cas du go et du poker, eux, ne datent que de 2016. De fa-
çon intrigante, les performances surhumaines des IA à ces deux jeux ont été
accueillies avec énormément de stupéfaction, par les experts en IA comme par
les meilleurs joueurs du monde.
De façon plus étonnante, les IA ont surpassé l’humain dans des tâches où l’on
pourrait croire que l’humain excellerait. Par exemple, une étude de 2015 a mon-
tré que les IA avaient atteint des performances surhumaines dans la détection
d’émotions d’individus à partir de leurs photos 24 . En 2018, un groupe de cher-
cheurs a développé une IA appelée DARE, dont les performances en détection
de mensonge surpassaient nettement les performances des humains. Un tel outil
pourrait ainsi être utilisé pour aider des juges à se faire une meilleure idée de
la culpabilité des suspects 25 . Dans d’autres domaines, les performances surhu-
maines des IA pourraient conduire à des bouleversements économiques, à l’instar
de ce qu’il s’est déjà passé dans le monde de la finance 26 . Par exemple, en mé-
decine, les IA sont désormais meilleures que les médecins pour diagnostiquer des
cancers de la peau, des arythmies cardiaques et des pneumonies 27 .
Enfin, il y a des cas où l’IA est capable de prouesses qui sont incomparables
avec ce que des humains pourraient faire. Ainsi les IA sont désormais capables
d’augmenter la résolution d’images très pixélisées de manière stupéfiante 28 , ou
encore de créer des fausses vidéos très réalistes appelées deep fakes, où des
individus de notre choix affirment ce qu’on veut leur faire dire 29 .
24. Emotion classification : How does an automated system compare to Naive human
coders ? | IEEE ICASSP | S Eskimez, K Imade, N Yang, M Sturge-Apple, Z Duan & W
Heinzelman (2015)
25. Deception Detection in Videos | AAAI | Z Wu, B Singh, L Davis & VS Subrahmanian
(2018)
26. Humans Need Not Apply | CGP Grey (2014)
27. L’IA sauvera des vies (ft. Primum Non Nocere) | Science4All | F Morel & LN Hoang
(2018)
28. Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Net-
work | CVPR | C Ledig, L Theis, F Huszar, J Caballero, A Cunningham, A Acosta, A Aitken,
A Tejani, J Totz, Z Wang & W Shi (2017)
29. Video-to-Video Synthesis | TC Wang, MY Liu, JY Zhu, G Liu, A Tao, J Kautz & B
34 CHAPITRE 2. L’IA EST DÉJÀ PARTOUT
La plus impressionnante des IA, celle dont on parlera beaucoup dans ce livre,
est peut-être l’IA en charge des recommandations YouTube 30 . Cette IA doit
traiter plus de 500 heures de nouvelles vidéos à chaque minute 31 , effectue un
sous-titrage automatique de ces vidéos, analyse les images pour vérifier l’ab-
sence de droits d’auteurs et de pornographie, choisit quelles publicités présenter
avant quelles vidéos, apprend les goûts de milliards d’utilisateurs et répond à
des millions de requêtes pendant ce même intervalle de temps. Mais ce qui
est impressionnant, c’est que malgré ces conditions de travail dantesques, cette
IA parvient malgré tout à proposer des recommandations remarquablement at-
trayantes pour les utilisateurs.
Les créateurs de vidéos YouTube se plaignent régulièrement de l’opacité de
l’IA de YouTube. Ils affirment ne pas comprendre ce que cette IA fait. Certes,
comme on en parlera dans le chapitre 8, l’IA de YouTube pourrait en effet être
nettement plus transparente. Cependant, vu son activité démentielle, il semble
illusoire de vraiment comprendre tout ce que fait l’IA de YouTube. On peut
même aller plus loin, et arguer que personne ne comprend aussi bien YouTube
que l’IA de YouTube elle-même. Personne n’a vu, ne serait-ce qu’une fraction
des vidéos vues par cette IA. Et personne n’a étudié l’historique de visionnage
des milliards d’utilisateurs de la plateforme. Personne ne pourrait y arriver.
Mais vous, qu’en pensez-vous ? L’IA de YouTube est-elle si impressionnante ?
Peut-on encore y voir une IA dédiée à une tâche restreinte ? Les modules séparés
de cette IA ne sont-ils pas comparables à des modules séparés qui composent
le cerveau humain ? Dans quelle mesure peut-on affirmer que l’IA de YouTube
« comprend » YouTube ? Son modèle est-il meilleur que votre propre compré-
hension de l’écosystème de YouTube ? À quelles tâches (pertinentes pour la
recommandation de vidéos) pensez-vous demeurer plus performant que l’IA de
YouTube ? Combien d’humains seraient nécessaires pour effectuer la tâche de
l’IA de YouTube aussi bien que celle-ci y parvient ?
De façon plus générale, nous vous encourageons à clarifier aussi pédagogique-
ment que possible vos réflexions sur les facultés des IA et leur omniprésence. Vu
à quel point ce sujet est controversé, nous vous invitons à prêter particulière-
ment attention aux biais cognitifs comme le raisonnement motivé et l’excès de
confiance, qu’ils soient technophiles, technophobes, ou autres encore. De quoi les
Catanzaro (2018)
30. À notre connaissance, il n’y a eu qu’une publication académique sur l’IA de YouTube,
en tout cas dans sa version deep learning moderne. Cependant, cette publication date de 2016.
L’IA de YouTube a certainement beaucoup évolué depuis.
Deep Neural Networks for YouTube Recommendations | P Convington, J Adams & E Sar-
gin (2016).
Edit : à l’heure où on l’on remettait la version finale du livre, YouTube publiait cette étude
parue à la conférence sur les systèmes de recommendation, annonçant notamment l’introduc-
tion d’un nouveau système de classement des vidéos.
Recommending what video to watch next : a multitask ranking system | Z Zhao, L Hong L
Wei, J Chen, A Nath, S Andrews, A Kumthekar, M Sathiamoorthy, X Yi & E Chi (2019)
31. More Than 500 Hours Of Content Are Now Being Uploaded To YouTube Every
Minute | tubefilter | JL Hale (2019)
ANALYSE SURHUMAINE 35
Références
How AI can help us clean up our land, air, and water | Recode | Vox Creative
(2016)
JPMorgan software does in seconds what took lawyers 360,000 hours | The
Independent | H Son (2017)
The robot lawyers are here - and they’re winning | BBC News | R Cellan-Jones
(2017)
Artificial Intelligence : The Robots Are Now Hiring | The Wall Street Jour-
nal | H Schellmann & J Bellini (2018)
How AI and machine learning are revolutionizing quality control | Ingedata
(2018)
More Than 500 Hours Of Content Are Now Being Uploaded To YouTube
Every Minute | tubefilter | JL Hale (2019)
Now boarding from MIA : facial recognition departures | Miami Airport News
(2019)
3
Henry Kissinger, Eric Schmidt et Daniel
Huttenlocher
Les IA les plus influentes d’aujourd’hui n’ont pas d’intention malveillante. Ce-
pendant, l’absence d’intention malveillante ne suffit pas à garantir que ces IA ont
une influence globalement bénéfique. À l’instar d’entreprises qui omettent par-
fois les externalités de leur activité comme l’émission de gaz à effet de serre, ce
sont davantage les effets secondaires indésirables des IA influentes qui semblent
menacer le bien-être de nos civilisations et de leurs concitoyens.
Certes, tous les effets secondaires des IA ne sont pas indésirables. L’émergence
de YouTube a par exemple permis la prolifération de contenus éducatifs de
grande qualité. Cependant, comme nous le verrons tout au long de ce chapitre,
de nombreux effets secondaires sont plus dérangeants, voire préoccupants.
Quoi qu’il en soit, indésirables ou non, tous ces effets secondaires des IA ont
été amplifiés par le rôle devenu prépondérant des IA. En particulier, certaines
IA ont acquis une ampleur planétaire. Les IA de Google, YouTube et Facebook
interagissent quotidiennement avec des milliards d’utilisateurs. Mais alors, tout
effet secondaire indésirable de ces IA est alors démultiplié sur des échelles in-
édites dans l’histoire de l’humanité. C’est cette ampleur monumentale qui nous
a amené à conclure que rendre l’IA bénéfique semble être devenu une urgence.
Cette propriété des IA n’est pas un accident. En effet, Internet favorise l’effet
de réseau. Cet effet repose sur un constat simple : plus une plateforme Web est
grosse, plus elle a de chances de grossir. En particulier, le bouche à oreille et
37
38 CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
les moteurs de recherche vont plus souvent mentionner les grosses plateformes,
ce qui favorisera leur prolifération. De plus, la présence de nos proches ou de
personnes intéressantes sur une plateforme peut être un argument décisif pour
nous amener à utiliser cette plateforme. Enfin, et surtout, les coûts de gestion des
grosses plateformes ne croissent pas linéairement avec le nombre d’utilisateurs.
En effet, une grosse partie de ces coûts correspond à la masse salariale chargée
de la gestion de la plateforme. Or le code informatique d’une plateforme d’un
million d’utilisateurs n’a pas à être mille fois plus complexe que celui d’une
plateforme de mille utilisateurs.
Mais il est une IA dont l’influence semble plus grande encore, à savoir l’IA de
YouTube. Depuis 2016, il y a plus de vues sur YouTube que de recherches sur
Google 4 ! Depuis 2017, chaque jour, plus d’un milliard d’heures de vidéos You-
Tube sont visionnées 5 . Or 70 % de ces vues sont le résultat de recommandations
par l’IA de YouTube 6 . L’influence de l’IA de YouTube est monumentale. Une
énorme portion de l’information à laquelle des milliards d’individus sont exposés
quotidiennement est le fruit d’une sélection personnalisée de cette IA. L’influence
de l’IA de YouTube semble vastement plus grande que celle de n’importe quelle
autre entité, numérique ou humaine. Mais ce n’est pas tout.
Contrairement à Facebook, l’IA de YouTube a une quantité monstrueuse de
propositions possibles à sa disposition. Il y a de tout sur YouTube. Et You-
Tube peut piocher dans son énorme sac à vidéos. Il peut aussi bien conseiller
dix vidéos contre la vaccination, que dix vidéos expliquant les bienfaits de la
vaccination. C’est comme si, à travers ses suggestions, YouTube pouvait ab-
solument tout dire. Mieux, elle peut utiliser la voix du plus convaincant des
YouTubeurs — à l’instar des débats sur Twitter qui consistent souvent à parta-
ger un lien défendant mieux telle ou telle position que les parties prenantes du
débat ne pourraient le faire.
Aujourd’hui, l’IA de YouTube a un pouvoir gigantesque. Malheureusement, pour
l’instant, cette IA ne semble pas chercher à exploiter ce pouvoir pour le bien de
l’humanité. Ces jours-ci, elle semble davantage obnubilée par la maximisation
de l’attention des utilisateurs 7 . Dès lors, ses effets secondaires indésirables sont
inévitables. Et parce que cette IA a un pouvoir gigantesque, ces effets secondaires
indésirables ont pris une ampleur planétaire. C’est cette ampleur qui rend ces
effets secondaires préoccupants, voire d’ores et déjà catastrophiques, notamment
en termes de confidentialité, de biais algorithmiques, de bulles informationnelles,
d’addiction, d’infobésité et de viralité de la virulence. Comme on le verra, cette
IA tue déjà.
Le pouvoir monumental acquis par les IA semble donc avoir déjà eu des effets
secondaires tragiques. Cependant, plutôt que d’y voir là une faute, on peut
aussi y voir une formidable opportunité. Si ces IA devenaient bénéfiques, leurs
bienfaits seraient démultipliés par l’ampleur planétaire de ces IA. Par exemple,
si ces IA promouvaient l’information de qualité, ce serait potentiellement des
milliards d’humains qui seraient quotidiennement davantage exposés à cette
information de qualité.
Pour mieux comprendre les IA d’aujourd’hui, il est utile de s’attarder sur le cadre
socio-économique dans lequel ces IA se situent. Ce cadre socio-économique est
appelé l’économie de l’attention 8 . De nos jours, un très grand nombre d’acteurs
sont obnubilés par la capture de l’attention de leur entourage. Géants du web,
partis politiques, organisations non gouvernementales, mouvements militants,
chercheurs académiques, startups, amis Facebook, influenceurs Instagram, vi-
déastes YouTube et auteurs de livre, tous cherchent à attirer l’attention des
foules et à la garder. L’attention est le nouveau pétrole.
Pour comprendre l’importance croissante de l’économie de l’attention, il est inté-
ressant de revenir sur l’effet de réseau. Comme on l’a vu, plus l’attention portée à
un objet est grande, plus cette attention grandit. Ceci s’explique aisément par la
contamination de l’attention. À l’instar d’un virus, plus vos proches prêtent une
certaine attention à un sujet, plus vous aurez de chances d’être « contaminé »,
et de prêter à votre tour attention à ce sujet. Dès lors, on peut s’attendre à une
prolifération exponentielle de l’attention.
Autrefois, l’augmentation de l’attention portée à une chose s’accompagnait d’une
augmentation des coûts de gestion de cette chose. Si cette chose était un objet
à vendre, il fallait produire davantage de cet objet à vendre. Dans de nombreux
cas, on pouvait même s’attendre à une augmentation importante des coûts de
gestion. Pour gérer cent mille employés, il était nécessaire de mettre en place un
management et des services de coordination qui ne sont pas nécessaires quand
il n’y a que 100 employés à gérer. De même, l’augmentation de l’exploitation de
ressources nécessitait l’exploitation de ressources de moindre qualité, ou dont le
coût d’exploitation était plus élevé. Dès lors, la mise à l’échelle d’une activité
s’accompagnait d’une augmentation importante des coûts de gestion de l’acti-
vité — surtout si cette gestion était un travail de traitement de l’information
opéré par des humains hautement qualifiés. On parle de rendements marginaux
décroissants.
Cependant, les technologies de l’information semblent avoir bouleversé cette loi
empirique. En effet, armé d’algorithmes, Facebook n’a pas besoin de multiplier
par mille ses coûts de gestion de sa plateforme pour servir un milliard d’utili-
sateurs plutôt qu’un million. En particulier, une fois le code écrit, ce code peut
être exécuté des milliards de fois, essentiellement sans coût additionnel. En ex-
ternalisant la gestion de sa clientèle à des machines, le numérique est beaucoup
Données personnelles
Le problème le plus connu est sans doute celui des données personnelles. Et ce
n’est pas surprenant. Après tout, l’IA est un outil de traitement de l’informa-
tion automatisé. Or l’information personnelle peut avoir énormément de valeur.
En effet, on a tendance à effectuer de gros efforts pour garder certaines infor-
mations secrètes, par exemple s’il s’agit de correspondances personnelles ou de
photos compromettantes. Dans certains cas, la confidentialité des données peut
même être critique, comme quand il s’agit de secret professionnel ou de sécurité
nationale.
Les frontières de la confidentialité des données sont parfois très floues. Néan-
moins, selon beaucoup d’experts de la question, ces frontières semblent avoir
déjà été transgressées. En 2012, l’informaticien Edward Snowden, alors consul-
tant auprès de la CIA, fut même si bouleversé par les transgressions des données
personnelles des citoyens américains par la NSA (l’Agence de sécurité natio-
nale américaine) qu’il mit sa vie en danger pour révéler les programmes de
surveillance globale que les agences gouvernementales américaines avaient en-
trepris.
Snowden est depuis considéré comme un traître par certains ; comme un héros
par d’autres. Snowden a certainement contribué à la protection des citoyens
contre la surveillance du gouvernement ; mais il a aussi probablement affaibli
certaines mesures de sécurité des citoyens américains que le gouvernement a
9. Big Tech’s Battle For Our Attention | BrainCraft | V Hill (2018)
10. L’économie de l’attention : la fin est proche ! Stupid Economics | A Gantier & V
Levetti (2018)
42 CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
entreprises. Il semble qu’il y ait une tension délicate à résoudre entre surveillance
et sécurité 11 .
Comme l’explique Edward Snowden, « dire que le droit à la vie privée ne vous
préoccupe pas parce que vous n’avez rien à cacher, c’est comme dire que la
liberté d’expression ne vous préoccupe pas parce que vous n’avez rien à dire ».
Les enjeux semblent dépasser de loin le cadre individuel.
Biais algorithmiques
11. Camera surveillance within the UK : Enhancing public safety or a social threat ? |
IRLCT | B Sheldon (2011)
12. Machine Bias : There’s software used across the country to predict future criminals.
And it’s biased against blacks | ProPublica | J Angwin, J Larson, S Mattu & L Kirchner
(2016)
BIAIS ALGORITHMIQUES 43
Table 3.1. Ce tableau liste les taux d’erreur de prédiction d’une IA étudiée
par ProPublica.org. En fonction de la prédiction et de la couleur de peau du
criminel, ce taux d’erreur diverge de manière importante. La récidive des Noirs
est surestimée. Celle des Blancs est sous-estimées.
Blanc Noir
Taux d’erreur lors de prédictions de récidive 24 % 45 %
Taux d’erreur lors de prédictions de non-récidive 48 % 28 %
conçue pour donner du sens aux mots qu’elle lit. Pour y arriver, on lui a donné
énormément de textes à ingurgiter. L’IA word2vec devait ensuite exploiter les
régularités statistiques des mots des textes pour en inférer une sémantique. De
manière remarquable, l’IA a alors appris toute seule que l’équivalent féminin
d’un roi est une reine. Mais de façon troublante, l’IA a également conclu que
l’équivalent féminin d’un docteur est une infirmière. En s’appuyant sur word2vec,
LinkedIn pourrait ainsi conseiller aux jeunes garçons qui veulent sauver des vies
de devenir docteurs et aux jeunes filles de devenir infirmières.
Il est important de voir que si l’IA word2vec en est venue à cette conclusion,
c’est en vertu des régularités statistiques dans les textes qu’elle a lus. Dans ces
textes, dans un cadre royal, on parle souvent de rois et de reines. Et dans le
domaine médical, on parle de docteurs et d’infirmières. Ces biais dans le langage
naturel des humains se sont ensuite transformés en biais algorithmiques.
Or, les IA s’appuient de plus en plus sur le langage naturel des humains. Par
exemple, l’IA de YouTube effectue un sous-titrage automatique des vidéos, et est
également capable de le traduire dans une autre langue. Elle apprend sans doute
de ces vidéos. Il faut donc s’attendre à ce que les IA apprennent et répètent de
plus en plus les biais des humains. Il s’agit là d’un effet secondaire de l’analyse
de données générées par des humains ou des sociétés humaines 18 .
De nos jours, rendre les IA conscientes des biais de leurs données et de leurs
recommandations et les amener à corriger ces biais pourraient en fait être l’une
des manières les plus efficaces de lutter pour plus d’équité entre diverses sous-
populations. Vu l’ampleur planétaire des IA, il pourrait s’agir là d’une priorité
de la lutte contre le racisme et le sexisme. Malheureusement, à l’instar des biais
des humains, la correction des biais des IA est un défi de recherche encore non-
résolu, surtout quand ces IA s’appuient sur des teraoctets de données qu’aucun
groupe d’humains ne peut débiaiser. Toutefois, de plus en plus de travaux aillent
dans cette direction 19 .
Polarisation idéologique
de nous entourer de médias avec lesquels nous sommes vivement d’accord. Ceci
risque de nous conforter dans nos convictions et de renforcer notre désir de
n’être entourés que par ces médias. On a là un cercle vicieux, appelé bulle
informationnelle ou chambre d’écho, ou filter bubble en anglais. Si ce phénomène
n’a rien de nouveau, l’IA semble le catalyser, en nous servant sur un plateau
l’information qu’on veut lire.
Le journal The Wall Street Journal l’a particulièrement bien mis en évidence
en mettant en ligne la page Blue Feed, Red Feed. Cette page met côte à côte
les fils d’actualité Facebook d’utilisateurs Démocrates et Républicains, les deux
grands partis politiques américains. L’information y est incroyablement biaisée.
Elle consiste bien souvent en une caricature sarcastique du camp opposé, le
faisant passer pour malveillant ou stupide. Dès lors, il n’est malheureusement pas
étonnant de constater un terrible accroissement de la polarisation idéologique,
et une montée des extrêmes 21 .
Depuis quelques années, de nombreuses recherches confirment cet accroisse-
ment de la polarisation idéologique 22 . Désormais, la moitié des Démocrates
ont « peur » du parti Républicain. Et vice-versa. La moitié des Républicains
ont peur du parti Démocrate. Pire encore, comme le montre la Figure 3.1, les
opinions des uns et des autres sont de plus en plus presque exclusivement les
opinions de leurs partis, surtout s’il s’agit de citoyens politiquement engagés.
De tels citoyens ont d’ailleurs d’autant plus « peur » du camp opposé, quel que
soit leur parti.
Le fossé entre Démocrates et Républicains ne se réduit toutefois pas à des désac-
cords politiques. Le plus inquiétant, c’est sans doute davantage la mécompréhen-
sion croissante du camp opposé. On assiste de plus en plus à une diabolisation
de ce camp opposé, accompagnée de caricatures et de déformations. C’est ainsi
que les uns en viennent à une image très erronée des autres, et vice-versa. Les
chercheurs Yudkin, Hawkins et Dixon ont appelé cela le fossé de perception 23 ,
ou perception gap en anglais. Selon un très grand nombre de métriques, les Dé-
mocrates ont une estimation beaucoup plus extrême des avis des Républicains
qu’ils ne le sont vraiment. Et vice-versa. Les Républicains estiment que les Dé-
mocrates ont des avis beaucoup plus extrêmes qu’ils ne le sont vraiment. Voilà
qui semble mener inéluctablement à des conflits virulents et contre-productifs
entre membres des camps opposés.
De façon malheureuse, ce fossé de perception et les conflits qui en découlent
ne semblent pas limités à la politique américaine. On semble les retrouver un
peu partout dans le monde 24 . En particulier sur Twitter, des clans semblent
régulièrement se former et s’opposer. Dès lors, chaque clan développe une image
21. Degenerate Feedback Loops in Recommender Systems | AIES | R Jiang, S Chiappa,
T Lattimore, A György & P Kohli (2019)
22. Is America More Divided Than Ever ? The Good Stuff | R Wolff (2016)
23. Republicans Don’t Understand Democrats—And Democrats Don’t Understand Repu-
blicans | The Atlantic | Y Mounk (2019)
24. How YouTube Radicalized Brazil | New York Times | M Fisher & A Taub (2019)
46 CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
Figure 3.1. Ces figures représentent l’évolution des avis des électorats Démo-
crates et Républicains. Plus une courbe est décalée vers la gauche (respecti-
vement, la droite), plus les avis de l’électorat sont en tout point alignés avec
les positions du parti Démocrate (respectivement, Républicain). Ces courbes
montrent une augmentation de la polarisation idéologique aux cours des der-
nières décennies. À gauche, on a l’évolution des opinions dans le grand public.
À droite, il s’agit de l’évolution des opinions des citoyens politiquement engagés.
Source : Political Polarization, 1994-2017 | Pew Research Center (2017).
BOULEVERSEMENTS SOCIAUX 47
Figure 3.2. Nuages des mots les plus utilisés par les zététiciens (à gauche) et
les journalistes (à droite).
Source : Le journalisme qui criait au Troll | Chèvre pensante (2017).
très biaisée et exagérée du clan opposé, qui s’accompagne trop souvent de mes-
sages agressifs. Ce phénomène est certainement amplifié par les IA des réseaux
sociaux, qui tendent à mettre en avant les messages les plus agressifs et les plus
caricaturaux. Plus inquiétant encore, cette polarisation haineuse semble avoir
atteint des groupes sociaux dont on pourrait douter a priori de la virulence.
Ainsi, depuis le début de l’année 2019, on assiste à une telle polarisation hai-
neuse sur Twitter, qui oppose des journalistes à des zététiciens, c’est-à-dire des
défenseurs de « l’esprit critique ». La Figure 3.2 illustre la virulence du débat.
Malheureusement, des mois plus tard, ce débat houleux ne s’est toujours pas
calmé 25 . Les uns et les autres persistent à considérer que l’autre clan est res-
ponsable d’une débâcle informationnelle et d’une aggressivité inexcusable. Tous
ces conflits ne profitent certainement pas à la réflexion calme et posée que né-
cessitent les grands défis de notre temps.
Bouleversements sociaux
reprenaient un graffiti inscrit sur les murs de Tunis s’exclamant merci Face-
book. Cependant, à l’inverse, les évènements des gilets jaunes vont davantage
provoquer une levée de boucliers. Le rôle joué par Facebook dans le contour-
nement des structures classiques d’information et de mobilisation fut critiqué.
Médias, partis politiques, syndicats et autres corps intermédiaires exprimèrent
leur méfiance vis-à-vis de ce qu’ils jugèrent être une aberration.
Les mêmes plateformes qui ont été célébrées comme moyen de « fluidifier les
échanges », de « contourner les structures sclérosées des dictatures » et de
« donner une plateforme à une majorité silencieuse » vont être critiquées sept ans
plus tard pour « propagation de fausses informations ». Entre l’enthousiasme de
2011 et la méfiance de 2018, deux autres évènements politiques majeurs auront
changé la perception du rôle joué par les réseaux sociaux : le Brexit et l’élection
américaine de 2016. En particulier, dans ces deux cas, les enquêtes révélèrent
des manipulations sans précédent de l’opinion publique via les réseaux sociaux,
sur lesquels nous reviendrons.
Pour l’heure, insistons sur un autre point commun entre les printemps arabes
et les gilets jaunes. Dans les deux cas, l’horizontalité des réseaux sociaux a
privé ces mobilisations d’intermédiaires efficaces pour clarifier leurs intentions
et revendications. Dans une situation aussi ironique qu’inédite, c’est le pouvoir
et non la rue qui va regretter en premier la quasi-absence de syndicats dans ces
mobilisations. L’absence de représentants des mobilisations prive le pouvoir d’un
intermédiaire avec qui dialoguer. Plus étrange encore, elle prive aussi l’opposition
(non structurée) de l’opportunité de faire porter ses revendications par un corps
intermédiaire qui aurait rempli cette tâche dans une configuration classique. Le
chaos des mobilisations fait que, parfois, pouvoir et opposition sont tous les deux
perdants en l’absence d’un corps intermédiaire efficace.
L’arrivée des plateformes a certes fourni des alternatives plus dynamiques que les
corps intermédiaires classiques. Mais, en affaiblissant ces corps intermédiaires,
elle a aussi perturbé le mode de fonctionnement de la société, que ce soit dans
la manière de se mobiliser, dans la manière de s’informer ou dans la manière
d’établir des revendications. Loin de nous l’envie de déterminer si ces boulever-
sements sociaux sont désirables. Ce que nous souhaitons souligner, c’est que les
plateformes n’ont pas voulu causer ces chamboulements. Ces chamboulements
sont des effets secondaires difficilement prévisibles.
Dans un mémoire à ce sujet 26 , Mariame Tighanimine illustre l’imprévisibilité
des effets secondaires des IA par le cas d’un changement de l’IA de Facebook
en 2017. Dans le but de « donner aux gens le pouvoir de bâtir une communauté
et de rapprocher le monde 27 », Facebook s’est alors mis à favoriser les contenus
des groupes Facebook et des profils d’amis au détriments des pages Facebook.
26. L’affaiblissement des corps intermédiaires par les plateformes Internet. Le cas des
médias et des syndicats français au moment des Gilets jaunes | Conservatoire National des
Arts et Métiers | M Tighanimine (2019)
27. Mark Zuckerberg Gives Facebook A New Mission | Forbes | K Chaykowski (2017)
LA DÉMOCRATISATION DE LA CYBER-GUERRE 49
Le patron de Facebook, Mark Zuckerberg, expliqua ainsi que les groupes Face-
book étaient dotés d’une « mission sociale » :« Je vais parler avec des gens dans
une église et le pasteur va me dire “je sais que quand une usine ferme en ville, je
vais me retrouver le mois suivant à faire des thérapies de couples pour de nom-
breuses personnes” (...) Quelqu’un doit s’occuper de ça, et pourtant ça se fait de
moins en moins. Les structures d’aide sont en train de disparaître. » Cependant,
cette décision de Zuckerberg eut des effets secondaires imprévus, notamment car
les corps intermédiaires s’appuyaient bien plus sur les pages Facebook que sur
les groupes Facebook.
En particulier, suite à la décision de Zuckerberg, les posts de votre voisin de quar-
tier pourraient désormais vous être plus souvent proposés que ceux de l’Institut
Pasteur 28 , y compris s’il s’agit d’informations erronées sur la validité des vaccins
qui vous appellent à ne pas vacciner votre enfant ! Notez bien qu’il ne s’agit pas
là de l’intention originale de Facebook. Il s’agit d’un effet secondaire indésirable
difficilement prévisible. Facebook souhaitait simplement vous « reconnecter avec
votre quartier ». Cependant, ceci eut l’effet secondaire de promouvoir la propa-
gande contre la vaccination.
La démocratisation de la cyber-guerre
En mai 2018, suite à une investigation sur les manipulations politiques pen-
dant les campagnes présidentielles américaines de 2016, le Congrès américain
révèle l’achat de 3500 publicités malveillantes par une agence russe 29 appelée
l’Internet Research Agency (IRA). Ces publicités de l’IRA sont extrêmement
polarisantes. Mais ce n’est pas le plus étonnant. Étrangement, l’IRA a acheté
aussi bien des publicités en faveur du port d’armes, que des publicités protes-
tant le port d’armes ! De même, l’IRA a promu le contrôle des frontières et les
droits des immigrés. L’IRA a aussi soutenu et moqué le mouvement « Black
Lives Matter ». Pour chaque sujet, on retrouve des achats de publicité visant
deux camps opposés ; mais avec une haine et un extrémisme exacerbé. Cette
stratégie de l’IRA a de quoi laisser songeur. Pourquoi défendre chacun des deux
camps ?
Pour commencer, il semble que l’IRA ait pu avoir cherché à affaiblir un pays
rival en le polarisant. Un pays divisé est probablement un pays moins perfor-
mant politiquement, militairement et économiquement. Mais la motivation de
l’IRA pourrait être autre. De façon contre-intuitive, la polarisation ciblée de
l’IRA permet aussi et surtout de mieux identifier les différents clans et leurs
membres. Dès lors, il sera plus facile de manipuler chacun des clans, en leur
proposant des contenus qui les font réagir de manière prévisible. Ainsi, dans le
rapport du Congrès américain, on trouve des publicités ciblant les électeurs de
Bernie Sanders en les incitant à l’abstention. Ces publicités ont sans doute été
particulièrement efficaces.
De façon cruciale, cet exemple suggère que les grandes plateformes numériques
semblent avoir créé des vulnérabilités inédites. En promouvant les contenus ad-
dictifs et polarisants, elles ont favorisé l’émergence de communautés très re-
tranchées, ce qui rend les publicités ciblées particulièrement efficaces pour ces
communautés. Ce phénomène semble rendre nos démocraties vulnérables à des
manipulations des mouvements sociaux par des acteurs malveillants. En parti-
culier, l’impact néfaste de ces acteurs semble inédit, non seulement par l’étendue
de son effet, mais aussi par la faiblesse de son coût. Malgré un investissement de
seulement 46 000 dollars 30 , soit 0,05 % de ce qu’ont investi les équipes de cam-
pagne des candidats officiels, en s’appuyant sur la viralité ciblée de ses publicités,
l’IRA semble être néanmoins parvenue à avoir un impact majeur sur des mil-
lions d’américains 31 . À tel point que certains suggèrent que l’issue de l’élection
de 2016 pourrait avoir été différente sans cette manipulation de masse.
Aujourd’hui, toute une industrie malveillante semble même s’être organisée pour
profiter de ces vulnérabilités et vendre la visibilité qui y a été acquise. Plus
que jamais, nos démocraties semblent hackables ; elles sont même probablement
constamment piratées par toutes sortes d’agents malveillants. Pour en savoir
30. Bien sûr, il y a d’autres budgets cachés derrière cette manipulation, mais la comparaison
du chiffre brut dépensé en pubs entre les candidats et les russes est un indicateur marquant.
31. Trump and Clinton spent 81M on US election Facebook ads, Russian agency 46K |
TechCrunch | J Constine (2017)
32. Facebook’s role in Brexit — and the threat to democracy | TED | C Cadwalladr
(2019)
LA DÉMOCRATISATION DE LA CYBER-GUERRE 51
L’addiction
33. Manipulating Social Medias (playlist) | Smarter Every Day | D Sandlin (2019)
34. Why I Don’t Use A Smart Phone | TEDxTeen | A Makosinski (2016)
35. 5 Crazy Ways Social Media Is Changing Your Brain Right Now | ASAPScience | M
Moffit & G Brown (2014)
36. Comment Fortnite a conquis ses joueurs | Game Spectrum | T Versaveau (2018)
37. What Happened in Vegas | Your Undivided Attention | N Don Schüll, T Harris & A
Raskin (2019)
38. https://twitter.com/NetflixFR/status/1089475796597657601
39. Netflix’s biggest competitor ? Sleep The Guardian | A Hern (2017)
LA MALINFORMATION 53
La malinformation
des étudiants de grandes universités. Tous ont une vision très biaisée et très
erronée de l’état du monde 44 . Plus étonnant encore, cette remarque s’applique
également à des personnes très éduquées, comme le public d’une conférence
TED, les dirigeants politiques et les journalistes. Ces individus, qui lisent très
certainement des médias de qualité comme The Guardian ou The New York
Times, ont néanmoins une compréhension plus erronée que le hasard de l’état
du monde 45 ! La malinformation nous a envahis.
C’est ainsi qu’on en est arrivé aujourd’hui à des sociétés où même la majo-
rité de la population qualifiée est convaincue de la vérité de certains faits, y
compris quand ceux-ci sont contraires au consensus scientifique. Voilà qui est
particulièrement le cas sur des sujets politisés clivants, comme par exemple les
OGM 46 , le glyphosate, le nucléaire ou les vaccins 47 . Pour ces problèmes, l’avis
d’une proportion importante du grand public est contredit par les conclusions
de décennies de recherche scientifique de nombreux instituts indépendants.
Malheureusement, les IA n’aident pas. De façon parfois subtile, les IA nous
induisent en erreur, notamment via des canaux souvent négligés par la réflexion
autour de l’éthique des IA. Par exemple, en cherchant « guérir le cancer par »,
l’IA d’auto-complétion de Google n’hésite pas à fournir des réponses comme
« jeûne », « pensée positive » ou encore « alimentation et désintoxication du
corps », et suggère ensuite souvent des liens vers des sites Web de malinformation
sur les traitements efficaces du cancer. Voilà qui pourrait retarder des prises en
charge médicales, et ainsi indirectement conduire à la mort des malades. Les IA
posent déjà de sérieux problèmes de santé publique.
soient davantage suggérés à une plus grande proportion des utilisateurs du web.
Malheureusement, ces contenus d’utilité publique ne créent pas l’addiction que
créent les vidéos conspirationnistes, les vidéos politiques ou les vidéos de chats.
Ils ne sont pas ceux que les IA de recommandation vont préférer mettre en
valeur. Certains sont parvenus à atteindre des centaines de milliers de vues, en
attirant un public de niche. Cependant, aucune des excellentes vidéos de, disons,
Julia Galef 54 , ne frôle la dizaine de millions de vues. Les vidéos éducatives, ou
de haute qualité informationnelle, sont malheureusement trop souvent des mute
news 55 .
Le manque de visibilité des mute news à haute valeur ajoutée semble être un effet
secondaire particulièrement indésirable de l’objectif de rétention des utilisateurs
assigné aux IA. Il semble urgent de faire en sorte que cela change.
L’infobésité
Il y a sans doute un effet secondaire plus problématique encore que les mute
news, à savoir l’infobésité, aussi appelée surcharge informationnelle ou junk
news. L’infobésité correspond à une consommation excessive d’informations,
chel & LN Hoang (2019)
54. Know the brain you have to get the brain you want | J Galef (2014)
55. Chère conviction, mute-toi en infection VIRALE ! ! Science4All | LN Hoang (2017)
L’INFOBÉSITÉ 57
par analogie avec l’obésité qui correspond (en première approximation) à une
consommation excessive de nourriture.
Dans un podcast à la suite d’une vidéo très introspective, le vidéaste CGP Grey
explore l’analogie entre l’information brève de piètre qualité promue par les IA et
la malbouffe 56 . L’aisance cognitive et la satisfaction immédiate que permettent
ces produits nous poussent à les consommer sans modération ; au détriment sou-
vent de notre santé mentale ou physique. Malheureusement, l’industrialisation
de ces produits, combinée dans le premier cas à l’optimisation par les IA, est
devenue une tentation à laquelle nous cédons trop facilement. Et à laquelle nous
risquons fortement de continuer à céder toujours plus facilement si l’économie
de l’attention reste le moteur de nos sociétés.
Derek Muller, auteur de la chaîne Veritasium, compare l’économie de l’attention
à celle de l’agro-alimentaire. Dans les deux cas, nous entrons dans une économie
d’abondance, dans laquelle tout producteur cherche à séduire sa clientèle en le
bombardant de publicités et d’images attrayantes. Pour éviter une surcharge,
pondérale ou informationnelle, Derek Muller encourage lui et ses abonnés à
moins céder à la tentation de la consommation boulimique d’information. Il
préconise un « régime informationnel 57 », et y voit une solution pour rétablir
un ennui productif 58 .
Malheureusement, la plupart d’entre nous ne prenons pas soin de notre régime
informationnel. Au lieu de cela, nous nous goinfrons sans cesse d’informations.
Dès que nous avons un moment de libre, qu’il s’agisse de l’attente d’un bus ou
celle d’un ami, nous avons très souvent tendance à sortir nos téléphones et à
ouvrir un réseau social ou un journal d’actualités pour remplir notre cerveau de
nouvelles consommations informationnelles. Cependant, ce faisant, nous rem-
plissons notre tube digestif informationnel, qui ne peut alors plus rien avaler de
plus conséquent.
Pire encore, l’économie de l’attention nous habitue à de l’information nouvelle,
brève, choquante et clivante. Elle nous invite à omettre le temps de la vérification
de cette information et de la méditation de sa cohérence. Qui parmi nous n’a
jamais senti la flemme de lire un article de plusieurs pages ou d’écouter une
interview de plusieurs heures ? L’infobésité nous pousse à réagir à l’immédiateté
au détriment de réflexion plus longue et plus difficile 59 . Elle nous fait réagir
uniquement à des titres et à des sous-titres, et à brièvement survoler des textes
longs et complexes. Elle nous fait passer d’un sujet à l’autre, et oublier ce que
l’on vient de lire 60 . Pire, l’infobésité a réduit notre faculté à prendre le temps
de la réflexion et à nous concentrer.
Une étude suggère que le temps d’attention médian d’un employé qualifié pen-
56. Thinking About Attention – Walk with Me | CGP Grey (2018)
57. The Distraction Economy | Veritasium | D Muller (2016)
58. Why Boredom is Good For You | Veritasium | D Muller (2018)
59. Le problème des super-stimulus | Dirty Biology | L Grasset (2018)
60. La civilisation du poisson rouge | Grasset | B Patino (2019)
58 CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
dant ses heures de travail est d’une limite très préoccupante. « L’activité de
quarante employés du numérique fut suivie pendant deux semaines de travail.
Le temps médian de concentration sur l’écran était de 40 secondes », écrivirent
les chercheurs 61 . Comme l’explique Gloria Mark dans un épisode du podcast
Your Undivided Attention 62 , cette interruption de l’attention peut venir de no-
tifications, de notre incessante envie de mettre à jour notre boîte email ou de
l’initiative de notre inconscient de se conformer à ses habitudes d’interruptions.
Absorbés par les technologies de l’information et piégés par les IA qui veulent
notre attention, nous consultons nos téléphones une cinquantaine de fois par
jour 63 , ce qui semble réduire notre faculté à nous concentrer. De quoi parler de
trouble de l’attention, voire de maladie de la distraction 64 .
Cette infobésité est particulièrement bien illustrée dans l’épisode Smithereens
de la série Black Mirror. De façon amusante, cet épisode met en scène deux
personnages très distincts. L’un est chauffeur de taxi. L’autre est PDG d’une
entreprise du numérique. Cependant, tout deux avouent, explicitement ou non,
être débordés par l’économie de l’attention. Tous deux reconnaissent une cer-
taine incapacité à prendre le temps de la réflexion et à se concentrer. Avec, dans
le film, des conséquences dramatiques.
La perte de notre faculté d’attention est particulièrement préoccupante, sachant
l’ampleur des défis du XXIe siècle. Nous allons devoir nous confronter à des
problèmes subtils et complexes, qui vont requérir notre attention complète. Pour
nous renseigner adéquatement sur ces défis et préparer le futur de l’humanité,
il semble urgent de nous imposer des régimes informationnels. Voire de modifier
les IA pour qu’elles nous aident à prendre davantage soin de notre infobésité.
Santé mentale
Les effets secondaires des IA semblent parfois aller jusqu’à des troubles mentaux
plus préoccupants. À défaut de s’attaquer directement à notre biologie, les IA
s’attaquent énormément à notre environnement informationnel, qui peut ensuite
modifier en profondeur notre circuit de la récompense 65 . Dans certains cas, ceci
semble pouvoir gravement nuire à notre santé mentale.
Facebook a collaboré avec des chercheurs académiques pour investiguer ce pro-
blème 66 . Leur étude suggère que l’effet de l’utilisation de Facebook sur notre
61. Neurotics Can’t Focus : An in situ Study of Online Multitasking in the Workplace |
CHI ACM | G Mark, ST Iqbal, M Czerwinski, P Johns & A Sano (2016)
62. Pardon the Interruptions | Your Undivided Attention | G Mark, T Harris & A Raskin
(2019)
63. Global mobile consumer survey : US edition | Deloitte (2018)
64. Google Owns 28 % of Your Brain | BrainCraft | V Hill (2018)
65. The Psychological Tricks Keeping You Online | BrainCraft | V Hill (2018)
66. The Relationship Between Facebook Use and Well-Being Depends on Communication
Type and Tie Strength | M Burke & RE Kraut (2016)
SANTÉ MENTALE 59
Les IA peuvent peut-être aller plus loin encore. En recommandant des conte-
nus thérapeutiques, les IA pourraient même aider à accompagner les patients
souffrant de troubles mentaux. Ainsi, une exposition régulière à des contenus
bien conçus pourrait alors être un traitement plus efficace encore que des biblio-
thérapies aux effets déjà avérés. En effet, en 2005, une étude 70 a montré que la
simple lecture du livre Feeling Good de David Burns avait un effet important sur
le rétablissement des patients. De façon plus modeste, les IA pourraient recom-
mander des contenus qui encouragent intelligemment les victimes de solitude ou
de dépression à se renseigner auprès de médecins.
67. The growing problem of loneliness | The Lancet | J Cacioppo & S Cacioppo (2018)
68. Loneliness | Kurzgesagt (2019)
69. Facebook language predicts depression in medical records | PNAS | JC Eichstaedt et
al. (2018)
70. Self-help books for depression : how can practitioners and patients make the right
choice ? | BJGP | L Anderson, G Lewis, R Araya, R Elgie, G Harrison & J Proudfoot (2005)
60 CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
La viralité de la virulence
De nos jours, les réseaux sociaux sont tous organisés autour de l’idée du partage
de l’information, avec bien souvent des métriques publiques de la performance
d’un partage, en termes de likes ou de re-partages. Les IA des réseaux sociaux
sont ensuite optimisées pour faire exploser ces compteurs. Ce dispositif peut sem-
bler innocent. Cependant, il est important de se demander quelles informations
sont ainsi privilégiées par ce système 71 . Quelles sont les caractéristiques des in-
formations rendues virales par les réseaux sociaux ? Sur Internet, qu’est-ce qui
buzze ? Qu’est-ce qui gagnera une attention complètement disproportionnée 72 ?
Dans l’excellente vidéo This Video Will Make You Angry, le YouTubeur CGP
Grey présente une étude 73 qui suggère que l’information se doit d’évoquer des
sentiments forts pour être virale. Elle doit surprendre, fasciner ou inquiéter.
Mieux encore, le sentiment le plus puissant pour susciter des réactions et des
partages serait la colère. Surtout quand il s’agit d’une colère envers un clan
opposé tout aussi colérique. Selon cette vision, deux camps opposés sur un sujet
chaud ne seraient en fait pas en train de lutter pour faire taire l’autre ; il s’agirait
davantage de deux idéologies en symbiose qui se nourrissent l’une de l’autre pour
survivre dans l’esprit des internautes. En effet, à chaque fois qu’un clan osera
affirmer X, les membres du clan opposé pourront s’indigner plus encore et se
rallier pour crier non-X en chœur.
Plus globalement, la virulence semble être une pandémie virale des réseaux so-
ciaux, dont un symptôme grave est souvent l’escalade de l’agressivité, de la
provocation au sarcasme, du sarcasme à la moquerie, de la moquerie à l’in-
jure, et de l’injure à la menace de mort 74 . Pour comprendre ce phénomène
contre-intuitif, il est intéressant de s’arrêter sur une importante faiblesse de la
psychologie humaine. Aussi étrange que cela puisse paraître, dès que l’hooligan
en nous est titillé par un camp opposé 75 , nous préférons ressentir la colère. Pire,
nous cherchons souvent à rationaliser notre colère. Nous adoptons souvent un
raisonnement motivé dont le but est de montrer la légitimité de notre colère.
Nous cherchons activement à conforter et à préserver notre colère 76 . La colère
est addictive 77 .
71. Notez que ce problème se pose, y compris en l’absence d’IA de recommandation. Pire,
les effets secondaires de tels réseaux sociaux pourraient être incontrôlables en l’absence d’IA
de recommandation bienveillantes, permettant ainsi toutes sortes de piratages illégaux, de
marché noir de drogues, d’armes ou de prostitution, ou de radicalisations politiques extrêmes,
à l’instar de ce qui a pu être observé dans certaines sections du forum 4chan. En fait, c’est la
centralisation qui permet à YouTube de modérer les infractions aux droits d’auteur, les appels
à la haine et la pédophilie.
72. My Video Went Viral. Here’s Why | Veritasium | D Muller (2019)
73. What Makes Online Content Viral ? | Journal of Marketing Research | J Berger & K
Milkman (2012)
74. The PewDiePipeline : how edgy humor leads to violence | NonCompete (2019)
75. Êtes-vous un hooligan politique ? Science4All | LN Hoang (2017)
76. Destruction | Mind Field (Ep 3) | VSauce | M Stevens (2017)
77. How to Have Impossible Conversations : A Very Practical Guide | Da Capo Lifelong
LA VIRALITÉ DE LA VIRULENCE 61
Les IA semblent l’avoir compris. Dans le but de maximiser notre attention, ces
IA ont rendu la virulence et l’agressivité virales. Elles les propagent exponentiel-
lement vite à travers les réseaux sociaux. Elles ont rempli ces réseaux sociaux
de provocations sarcastiques et de messages haineux. Elles les valorisent sociale-
ment, en encourageant les récompenses sociales (likes, partages) attribuées aux
contenus virulents. Elles ont créé une culture, où « détruire l’ennemi » était un
triomphe du groupe en général, et de l’auteur du « contenu destructif » en par-
ticulier. Aujourd’hui, moquer, tourner en dérision ou casser l’adversaire, c’est
généralement considéré « stylé 78 ». Voilà qui contraste fort avec l’apparente
innocence d’un simple like ou partage d’un contenu virulent 79 .
Pire encore, en personnalisant chaque recommandation à l’état émotionnel de
l’utilisateur, les IA ont conçu pour chacun d’entre nous une escalade de la colère
sur mesure. Elles nous proposent souvent exactement le contenu qui va éveiller
l’hooligan incontrôlable en nous, avec l’espoir que chacun d’entre nous gaspille
des heures sur leur plateforme, simplement parce que, comme l’explique Randall
Munroe, « quelqu’un sur Internet a tort 80 ». Il semble crucial de garder en tête
que ce « quelqu’un » n’est absolument pas un échantillon aléatoire. Les IA ont
justement été conçues pour que vous rencontriez ce « quelqu’un ». Et pour que
vous vous engueuliez longuement avec ce « quelqu’un », dans la haine et la
mauvaise foi.
La montée de la haine, accompagnée de polarisation, de malinformation et d’in-
fobésité, semble être une cause de préoccupation majeure pour le futur de notre
société. La haine rend des mouvements de foule incontrôlés incontrôlables. Elle
fait surgir le pire de chacun d’entre nous. Elle provoque des indignations mal
ciblées et des revendications pleines d’incohérences. Elle détruit des opportu-
nités de coopération et d’altruisme bienveillant, notamment envers des clans
qu’on juge « opposés ». Elle empêche le recul et la priorisation des causes. En
particulier, à l’heure où les grands défis de l’humanité requièrent une coordina-
tion globale et des réflexions profondes, le fait que nous cédions facilement à la
virulence, à la colère et à l’indignation semble gravement limiter nos chances de
succès face à ces défis.
Mais surtout, cette colère peut être contre-productive pour de nombreuses causes.
Elle peut par exemple nous amener à cibler un faux coupable. Non seulement ce
faux coupable pourrait alors être une victime innocente, son cyber-harcèlement
pourrait transformer des problèmes plus fondamentaux en mute news, aux-
quelles on ne prête plus suffisamment attention. Elle peut légitimer la mal-
information, et conduire à des propositions contre-productives pour la cause 81 .
Pire encore, cette colère mal dirigée pourrait décrédibiliser une cause justifiée,
93. Les cas de rougeole augmentent au niveau mondial en raison d’une couverture vac-
cinale insuffisante | Organisation mondiale de la santé (2018)
94. Désinformation médicale avec Asclépios | Probablement | J Descoux & LN Hoang
(2019)
95. Notez que ce problème a été reconnu par Facebook et YouTube qui, à notre grande
satisfaction, luttent désormais activement contre cette propagande anti-vaccinale.
96. Report of Independent International Fact-Finding Mission on Myanmar | United
Nations Human Rights Council (2018)
97. An Independent Assessment of the Human Rights Impact of Facebook in Myanmar |
Facebook Newsroom | A Warofka (2018)
66 CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
Mais vous, qu’en pensez-vous ? Quels étaient les problèmes des IA qui vous pré-
occupaient avant la lecture de ce chapitre ? Ce chapitre vous a-t-il fait changer
d’avis sur certains points ? Quels sont les points qui ont particulièrement attiré
votre attention ? Quels problèmes des IA vous semblent prioritaires ? Êtes-vous
plus préoccupé par les soulèvements populaires chaotiques ? L’échelle des IA ?
La confidentialité ? Les biais des IA ? L’addiction des utilisateurs ? Les bulles
informationnelles ? La polarisation ? La cyber-guerre ? Les tensions politiques ?
La malinformation ? Les mute news ? L’infobésité ? La virulence ? La santé men-
tale ? Pourquoi êtes-vous préoccupé par ce qui vous préoccupe ? Serait-il possible
de quantifier l’urgence relative de ces différentes problématiques ? N’y a-t-il pas
certains effets secondaires des IA que vous pourriez avoir négligé ? Quels sont
ceux dont nous avons oublié de parler ? Pourrait-il y avoir d’autres effets secon-
daires catastrophiques encore non-identifiés ?
98. Can social media predict mass shootings before they happen ? Digital Trends | M Katz
(2019)
LES VICTIMES DES IA 67
Références
Self-help books for depression : how can practitioners and patients make the
right choice ? | BJGP | L Anderson, G Lewis, R Araya, R Elgie, G Harrison &
J Proudfoot (2005)
Attitudes vis-à-vis des inégalités de revenu en France : existerait-il un consen-
sus ? T Piketty (2003)
Building a Better America–One Wealth Quintile at a Time | Perspectives on
Psychological Science | M Norton & D Ariely (2011)
Camera surveillance within the UK : Enhancing public safety or a social
threat ? | IRLCT | B Sheldon (2011)
Abnormal White Matter Integrity in Adolescents with Internet Addiction Di-
sorder : A Tract-Based Spatial Statistics Study | PLoS One | F Lin, Y Zhou, Y
Du, L Qin, Z Zhao, J Xu & H Lei (2012)
What Makes Online Content Viral ? | JMR | J Berger & K Milkman (2012)
Efficient Estimation of Word Representations in Vector Space | T Mikolov, K
Chen, G Corrado & J Dean (2013)
Automated experiments on ad privacy settings | PoPETs | A Datta, M Tschantz
& A Datta (2015)
Social Media Advertisements | Permanent Select Committee on Intelligence
(2017)
Experimental evidence of massive-scale emotional contagion through social
networks | PNAS | A Kramer, J Guillory & J Hancock (2014)
The Relationship Between Facebook Use and Well-Being Depends on Commu-
nication Type and Tie Strength | M Burke & RE Kraut (2016)
Self-Harm, Suicidal Behaviours, and Cyberbullying in Children and Young
People : Systematic Review | JMIR | A John, AC Glendenning, A Marchant, P
Montgomery, A Stewart, S Wood, K Lloyd & K Hawton (2018)
68 CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
Machine Bias : There’s software used across the country to predict future cri-
minals. And it’s biased against blacks | ProPublica | J Angwin, J Larson, S
Mattu & L Kirchner (2016)
Netflix’s biggest competitor ? Sleep The Guardian | A Hern (2017)
Blue Feed, Red Feed - See Liberal Facebook and Conservative Facebook, Side
by Side | The Wall Street Journal
Political Polarization, 1994-2017 | Pew Research Center (2017)
Republicans Don’t Understand Democrats—And Democrats Don’t Understand
Republicans | The Atlantic | Y Mounk (2019)
Le journalisme qui criait au Troll | Chèvre pensante (2017)
Trump and Clinton spent 81M onU SelectionF acebookads, Russianagency46K |
TechCrunch | J Constine (2017)
Pourquoi est-ce que les femmes n’aiment pas apprendre sur YouTube ? Mad-
moizelle | Marie (2018)
Zuckerberg tells Congress Facebook is not a media company : ‘I consider us to
be a technology company’ | CNBC | M Castillo (2018)
People now watch 1 billion hours of YouTube per day | TechCrunch | D Ethe-
rington (2017)
YouTube’s AI is the puppet master over most of what you watch | CNET | J
Solsman (2018)
How YouTube Radicalized Brazil | New York Times | M Fisher & A Taub
(2019)
Hard Questions : Is Spending Time on Social Media Bad for Us ? Facebook
Newsroom | D Ginsberg & Moira Burke (2017)
Zuckerberg tells Congress Facebook is not a media company : ‘I consider us to
be a technology company’ | CNBC | M Castillo (2018)
An Independent Assessment of the Human Rights Impact of Facebook in Myan-
mar | Facebook Newsroom | A Warofka (2018)
What Happens in an Internet Minute in 2019 ? | Visual Capitalist | J Desjar-
din (2019)
« La science ne saurait avoir de parti-pris ». L’appel de 250 scientifiques aux
journalistes | L’Opinion | Collectif #NoFakeScience (2019)
Les cas de rougeole augmentent au niveau mondial en raison d’une couverture
LES VICTIMES DES IA 69
Twitter War Room | Hello Internet | CGP Grey & B Haran (2018)
The CIA analyst who foresaw Trump in 2013 and his theory of why politics
is changing | 80,000 Hours | M Gurri, K Harris & R Wiblin (2019)
An updated view on the best ways to help humanity | Rationally Speaking | R
Wiblin & J Galef (2019)
What Happened in Vegas | Your Undivided Attention | N Don Schüll, T Harris
& A Raskin (2019)
From Russia to likes | Your Undivided Attention | R DiResta, T Harris & A
Raskin (2019)
Down The Rabbit Hole By Design | Your Undivided Attention | G Chaslot, T
Harris & A Raskin (2019)
Pardon the Interruptions | Your Undivided Attention | G Mark, T Harris &
A Raskin (2019)
Science et médias : dialogue de sourds | La méthode scientifique | N Martin
(2019)
Diététique introspective | Axiome 14 | T Giraud & LN Hoang (2018)
Torture addictive | Axiome 15 | T Giraud & LN Hoang (2018)
Bière sceptique Hyigène Mentale | Probablement | C Michel & LN Hoang
(2019)
Désinformation médicale avec Asclépios | Probablement | J Descoux & LN Hoang
(2019)
Rendre YouTube | Probablement | G Chaslot & LN Hoang (2019)
Mes ancêtres avaient derrière eux un passé de quatre
ou cinq mille ans, tandis que [votre génération] a der-
rière elle un passé de quinze milliards d’années [. . . ]
une fois qu’on a cette idée-là sur notre passé, et qu’on
fait rentrer le monde, le vivant, la faune et la flore dans
notre Histoire, on n’aura plus de difficulté à protéger
la planète.
Michel Serres (1930-2019)
4
L’hydrogène est un gaz léger, sans odeur, qui après
un temps suffisament long, se transforme en êtres hu-
mains.
Edward Robert Harrison (1919-2007)
De l’importance de l’information
« Les geeks de la robotique sont en mesure d’automatiser des grues autonomes
capables de soulever des tonnes, mais ne savent toujours pas automatiser les
tâches ménagères légères où il ne faut soulever que quelques kilos », s’exclama
un jour un PDG d’une grande entreprise. Cette citation illustre une tendance
que l’on a à s’émerveiller bien plus facilement des prouesses matérielles et éner-
gétiques plutôt qu’informatiques. En particulier, elle suggère que la difficulté de
l’automatisation réside essentiellement dans le poids des objets à transporter.
Cependant, ce qui rend les tâches ménagères difficiles n’est pas le matériel ou
la puissance énergétique nécessaires. La difficulté de ces tâches réside dans la
complexité du traitement de l’information qu’elles requièrent. Pensez-y. Un au-
tomate des tâches ménagères devra pouvoir détecter où se trouve chaque objet,
et le placer exactement où il est censé être, après bien sûr l’avoir nettoyé. Ces
tâches qui ne nous paraissent pas si « intelligentes » regorgent en fait de trai-
tement de l’information. Ce traitement sera même d’autant plus compliqué que
les maisons ne se ressemblent pas. Et quand bien même elles se ressembleraient,
les désordres à traiter ne se ressemblent pas. Les préférences de rangement des
clients non plus. Par opposition, le travail répétitif de la grue sera information-
nellement bien pauvre 1 .
1. À la marge de la conférence NeurIPS de 2017, une importante compétition de robotique
consistait à faire apprendre à des robots (virtuels) comment marcher. Elle avait été remportée
par l’entreprise Suisse NNAISENSE. Cette exemple illustre, comme celui des tâches ménagères,
71
72 CHAPITRE 4. UNE BRÈVE HISTOIRE DE L’INFORMATION
Pendant des millénaires, des Sumériens à la fin du XIXe siècle, la science s’est
surtout intéressé aux choses : l’eau, l’air, le bois, le sable de la plage ou les écailles
des poissons. Ces choses-là sont la matière. Cette matière est caractérisée par
une vitesse et une position, comme le wagon de votre train. Elle possède aussi des
propriétés physiques, comme sa température et sa pression. Pendant longtemps,
ce sont de telles grandeurs qui étaient étudiées.
Par la suite, des savants comme Leibniz et Lagrange remarquèrent que ces gran-
deurs physiques étaient liées par un objet d’étude différent de la matière, à savoir
l’énergie. Par exemple, une collision convertissait les vitesses de certains objets
en d’autres vitesses de ces objets. Les propriétés physiques de la matière chan-
geaient. Cependant, leur énergie restait la même. Il y avait simplement eu un
transfert d’énergie entre ces objets.
Au XIXe siècle, les sciences physiques découvrirent petit à petit que la notion
d’énergie 3 était peut-être plus fondamentale encore que la notion de matière,
le fait que des actes qui nous parraissent « faciles » nécessitent en fait un traitement complexe
de l’information et mobilisent les plus brillants chercheurs de notre époque.
2. Les deux auteurs ont d’ailleurs déjà discuté en podcast de leur vision de l’histoire de
l’information :
Épistémologie quantitative | Probablement | LN Hoang & EM El Mhamdi (2019)
3. Énergie : Tentative de définition | Wandida | EM El Mhamdi (2013)
MATIÈRE, ÉNERGIE. . . INFORMATION ! 73
car elle permettait de comprendre une très grande variété de phénomènes phy-
siques. On découvrit l’énergie cinétique, l’énergie potentielle, l’énergie thermique,
l’énergie électrique, l’énergie radiative et l’énergie chimique.
Mais surtout, on découvrit que toutes ces énergies correspondaient à une seule
grandeur sous-jacente. Toute énergie était transférable en une autre, avec, au
global, une conservation de l’énergie. Ainsi, votre vélo garé en haut de la colline
possède plus d’énergie potentielle que le vélo de votre voisin garé en bas de la
coline. En utilisant cette énergie potentielle, vous pouvez descendre la colline
sans effort, et convertir cette énergie potentielle en énergie cinétique.
De la même manière, une batterie électrique est un stock d’énergie électro-
chimique permis par la séparation de sa matière en deux compartiments : un
compartiment à forte concentration de charges positives, et un compartiment
à forte concentration de charges négatives. On dit que la batterie présente une
différence de potentiel entre le compartiment positif et le compartiment négatif,
à l’instar d’un barrage qui sépare l’eau haute d’un côté et l’eau basse de l’autre.
Dès que cette batterie est mise en contact avec un circuit électrique, par exemple
pour faire tourner un moteur, les charges circulent, jusqu’à ce que la batterie se
vide de son énergie électrochimique. Cette énergie aura été transférée en énergie
cinétique de rotation du moteur.
L’unification entre énergie et matière a même été réalisée au XXe siècle, notam-
ment à travers la dualité onde-corpuscule, la théorie quantique des champs ou
encore la fameuse équation E = mc2 proposée par Albert Einstein 4 en 1905.
Plus tard, on découvrira même que la masse des particules élémentaires vient en
fait de leur interaction avec le champ de Higgs, dont la particularité est d’avoir
une énergie moyenne non-nulle dans le vide. Plus surprenant encore, la majorité
de la masse des objets qui nous entoure provient en fait d’un confinement d’une
énergie associée à la force nucléaire forte au sein des noyaux des atomes qui
composent la matière. La matière semble donc n’être qu’une forme d’énergie
particulièrement concentrée 5 .
Même sans en aller jusque-là, les cursus de sciences naturelles se concentrent
généralement beaucoup sur les concepts de matière et d’énergie, et sur les dif-
férentes grandeurs qui les caractérisent. Telle fut la physique du XIXe siècle, et
d’une grande partie du XXe siècle. On a ainsi tendance à considérer que l’étude
de notre univers se doit d’être avant tout celle de la matière et de l’énergie.
Cependant, dès la fin du XIXe siècle, mais aussi et surtout au XXe siècle avec les
travaux fondateurs de James Maxwell, Ludwig Boltzmann et Claude Shannon,
ou encore ceux d’Edwin Jaynes, Stephen Hawking et Leonard Susskind 6 , il
semble que la physique moderne repose de plus en plus sur un autre concept
fondamental, à savoir la notion d’information. « It from bit », disait ainsi le
physicien John Wheeler, pour suggérer l’idée que notre univers émergerait de la
notion d’information.
Pour mieux comprendre le rôle de l’information dans notre univers, retournons
aux origines de la physique de l’information. Celle-ci a lieu du côté de la ther-
modynamique. Cette science est née de la révolution industrielle, initialement
pour mieux comprendre le fonctionnement des moteurs à vapeur. De façon stu-
péfiante, la thermodynamique a fini par expliquer non seulement ces moteurs,
puis les réfrigérateurs et la climatisation électrique, mais aussi des phénomènes
plus étonnants comme la flèche du temps !
La flèche du temps
Si les physiciens aiment formuler des lois de la nature si concises qu’elles tiennent
sur le devant d’un tee-shirt, c’est que ces derniers ont effectivement une préfé-
rence pour les théories parcimonieuses. Il s’agit de théories qui ne font appel à
aucune hypothèse superflue, et qui, de par leur généralité, arrivent à encapsuler
les théories précédentes, idéalement en les unifiant dans un seul propos au lieu
de plusieurs déclinaisons. Mais parmi toutes les théories que les physiciens ont
adoptées, il y en a une qui semble tenir une position particulière : la seconde loi
de la thermodynamique 7 .
Cette loi 8 stipule dans sa forme simplifiée que le désordre dans l’univers ne fait
qu’augmenter. Cette condamnation à ne voir qu’augmenter le désordre est ce
qui fait que, laissée à elle-même, on n’a jamais vu une chambre fermée, pleine de
poussières, s’ordonner toute seule en voyant la poussière se rassembler spontané-
ment dans un petit coin. Pour quantifier ce désordre, les physiciens inventèrent
la notion d’entropie 9 . Comme on le verra, l’entropie n’est rien d’autre qu’une
formalisation du manque d’information.
Dans The Nature of the Physical World, le physicien Arthur Eddington écrivait :
« le fait que l’entropie ne fait toujours qu’augmenter — la seconde loi de la
thermodynamique — occupe, je pense, la position suprême parmi les lois de la
Nature. Si quelqu’un vous fait remarquer que votre théorie favorite de l’univers
est en désacord avec les équations de Maxwell, et bien tant pis pour les équations
de Maxwell. Si votre théorie est contredite par l’observation, bon, il arrive aux
expérimentalistes de faire des observations à côté de la plaque. Mais si votre
théorie va à l’encontre de la seconde loi de la thermodynamique, je ne peux
7. L’introduction de l’œuvre fondatrice de Sadi Carnot est frappante de pertinence au-
jourd’hui, à la veille d’une autre grande transformation civilisationelle similaire à celle de la
révolution industrielle dont il était question à l’époque de son texte :
Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette
puissance | S Carnot (1824)
Le cycle de Carnot | Wandida | EM El Mhamdi (2013)
8. Deuxième principe de la thermodynamique | Wandida | EM El Mhamdi (2013)
9. L’entropie (deuxième principe) | Wandida | EM El Mhamdi (2013)
UNE HISTOIRE INFORMATIQUE DE LA PHYSIQUE 75
vous donner aucun espoir ; il n’y aura d’autre issue pour votre théorie que de
s’effondrer de manière humilante. »
Albert Einstein ajouta : « Une loi est d’autant plus impressionnante de par
la simplicité de ses prémisses, de par la diversité des choses qu’elle parvient à
relier, et de par l’étendue de son champ d’applicabilité. [La seconde loi de la
thermodynamique] est la seule théorie physique à portée universelle dont je suis
convaincu que, dans le cadre d’applicabilité de ses concepts, elle ne sera jamais
rejetée. »
Dans l’exemple de la chambre fermée pleine de poussière, de manière intuitive,
l’état de désordre maximal est celui qui rend le rangement de la chambre le plus
difficile possible. On se convaincra facilement qu’il s’agit de la situation où la
poussière se trouve un peu partout. Inversement, l’état d’ordre maximal est celui
où les particules de poussière sont toutes confinées à un même petit endroit bien
précis, ce qui nous facilitera le rangement. Ce degré de désordre quantifiant la
difficulté pour un agent à ranger la chambre n’est en fait rien d’autre qu’une
quantification du manque d’information que l’agent a sur les états possibles des
particules de poussière.
En nous décrivant l’univers comme un ensemble où les processus physiques ont
une direction spontanée unique (qui tend vers le désordre), la seconde loi de la
thermodynamique nous offre ainsi ce que certains appellent la flèche du temps.
Cette flèche est telle que, laissées sans intervention extérieure, la matière et
l’énergie se dirigeront vers la dissipation maximale. C’est cette dissipation qui
constitue une perte tragique d’information sur l’état du monde.
La quantification de l’information
16. How many thoughts are contained in a Mars bar ? Sixty Symbols | P Moriarty (2016)
17. A Mathematical Theory of Communication | Bell Labs | C Shannon (1948)
18. Intro to Information Theory | Up and Atom | J Tan-Holmes (2018)
19. La machine de Turing | Science4All | LN Hoang (2017)
UNE HISTOIRE INFORMATIQUE DE LA BIOLOGIE 79
de l’information. Prise au sérieux, cette thèse suggère que tout phénomène phy-
sique est simulable par un calcul. Y compris notre univers tout entier. Selon cette
thèse, notre monde serait ainsi peut-être indiscernable d’un simple traitement
d’informations !
Pendant plus de trois milliards d’années, cette information du vivant a été trans-
mise sous une forme unique : l’information génétique écrite sur l’ADN. Sur le
chemin, des erreurs de transmission se produisaient. On les appelle les muta-
tions. Ces mutations sont inévitables, car l’information génétique est encodée
sur de la matière qui n’arrête pas de bouger à température ambiante. Parmi les
millions d’acides aminés qui composent l’information génétique, les erreurs sont
alors inévitables.
La majorité de ces mutations est neutre ou donne des descendants moins adaptés
à leur environnement que leurs parents. Mais dès qu’une mutation donne un
avantage à un individu, celui-ci réalise son auto-réplication plus efficacement
que ses voisins. En se répliquant, l’individu transmettra alors cette information
génétique avantageuse à sa descendance. Celle-ci se reproduira encore plus et
transmettra à son tour l’information à encore plus de descendances. Petit à
petit, des sous-groupes avec des caractères différents formeront une diversité
d’espèces vivantes.
Cette longue histoire de la vie semble donc être avant tout une histoire de récep-
tion, de stockage, de traitement et d’émission d’information. Ou comme l’affirme
le biologiste Richard Dawkins, « la biologie moderne est en train de vraiment
devenir une branche des technologies de l’information ». Les biologistes molécu-
laires vont souvent beaucoup s’attarder sur l’histoire évolutive de l’information
génétique, sur laquelle il y aurait beaucoup d’autres choses à dire. Cependant,
dans la suite de ce chapitre, nous vous proposons de transcender le support
informationnel limité qu’est l’ADN, pour poursuivre notre grande histoire de
l’information.
21. Qui n’est pas la première du genre, mais fait suite à une série de théories précuseurs
comme celle du prix Nobel belge Ilya Prigogine.
L’ÉVOLUTION DES SUPPORTS DE L’INFORMATION 81
Comme le dit si bien Michel Serres, la monnaie, l’État et le droit sont les filles
et fils de l’écriture. Mais il est une autre fille de l’écriture que nous aimerions
mentionner ici : l’invention de l’algèbre. Initiée par beaucoup de cultures mais
formalisée pour la première fois dans le livre éponyme de Muhammad Ibn Musa
Al-Khawarizmi, l’algèbre est un palier important dans la grande épopée du
traitement de l’information. Jadis, on devait parler de chèvres, de blé, de surface
agricole ou de légumes en spécifiant à chaque fois, et de manière explicite, de
quoi on parlait exactement. Cette attention portée sur le particulier était un
frein majeur à l’automatisation des résolutions de problèmes (d’héritage par
exemple 25 ). Même chez les mathématiciens, on ne manipulait pas les angles de
la géométrie de la même manière qu’on manipulait les chiffres et les nombres.
Chaque problème avait sa spécificité.
encore des paiements d’hôtels et de billets d’avion sans avoir à changer de gadget
pour chaque tâche. On oublie presque que, il y a à peine quelques décennies, on
devait avoir un lecteur de cassettes vidéo pour les films, un radio-cassette pour
la musique et on devait se rendre en personne à une agence pour payer son billet
d’avion. Les technologies de l’information modernes, qui implémentent à ravir
les idées de Turing et Shannon, vont permettre enfin d’externaliser le traitement
de l’information 29 .
Dans la foulée, des milliers, puis des milliards d’ordinateurs seront interconnec-
tés, ce qui conduira à l’essor d’Internet et du Web. Des milliards d’outils de
traitement de l’information travaillent désormais ensemble, qu’ils soient des or-
dinateurs personnels, des téléphones ou des serveurs gigantesques hébergeant les
données des utilisateurs. Internet est devenu le nouveau village du traitement
automatisé de l’information. Des innovateurs y déposent le code source de leurs
trouvailles, par exemple sur des plateformes comme Github ou SourceForge, et
d’autres innovateurs capitalisent dessus et vont plus vite que s’ils avaient à tout
redécouvrir en partant de zéro. Des données sont mutualisées comme dans la
base de données ImageNet, ce qui permet d’entraîner de nouvelles formes de
traitement de l’information. Notamment ces fameuses IA...
Le pouvoir de l’information
L’information joue donc un rôle central en physique, en biologie et dans l’histoire
des civilisations. Mais ce n’est pas tout. L’information, parfois renommée et
vendue sous le nom de donnée ou data, joue aussi et surtout un rôle crucial
dans nos sociétés modernes. « La donnée est le nouveau pétrole », affirme le
mathématicien Clive Humby. Nous entrons dans l’ère du Big Data, affirment
d’autres.
Cependant, l’idée selon laquelle amasser de grandes quantités de données est
similaire à exploiter un énorme gisement de pétrole est trompeuse. « Dans le
passé, la censure fonctionnait en bloquant le flux de l’information », explique
l’historien Yuval Noah Harari. « Au XXIe siècle, la censure fonctionne en inon-
dant le peuple d’informations sans intérêt. Le peuple ne sait alors plus à quoi
prêter attention, et perd son temps à investiguer et débattre des considérations
secondaires. » La quantité de données n’est pas la bonne métrique. Ce qui im-
porte tout autant, c’est la qualité de ces données, mais aussi et surtout la qualité
de l’analyse de ces données.
Plus que jamais, il semble que l’information de qualité et le traitement per-
formant de cette information ont pris une place centrale dans nos sociétés. À
bien y réfléchir, c’est dans ce secteur que se sont amassés les talents, les in-
vestissements et les succès. En particulier, les géants du Web ont acquis leur
place prédominante en traitant adéquatement les données de leurs utilisateurs,
29. Google Owns 28% of Your Brain | BrainCraft | V Hill (2018)
86 CHAPITRE 4. UNE BRÈVE HISTOIRE DE L’INFORMATION
pour leur proposer les pages Web , les vidéos YouTube et les posts Facebook les
plus pertinents. Ce traitement de l’information a créé des empires, de Google à
Instagram, en passant par Uber, Airbnb et Amazon.
Sans aller jusqu’aux géants du Web , il est intéressant de noter que presque
tous les métiers de nos sociétés modernes, y compris les plus qualifiés et les plus
rémunérés, correspondent quasiment exclusivement à une réception, un stockage,
un traitement et une émission d’informations. Un manager veillera à lire ses e-
mails, à les stocker, à les traiter et à en envoyer. Un dirigeant s’informera sur les
difficultés et les enjeux de son entreprise, organisera ces informations et donnera
des ordres et des recommandations à ses subordonnés. Un médecin regardera ses
patients, prendra des mesures physiologiques de celui-ci, confrontera ces données
avec son expertise, calculera un diagnostic et écrira une prescription à suivre
pour ses patients. Un chercheur se tiendra à jour de l’actualité de son domaine
de recherche, analysera les travaux de ses collègues, produira des protocoles,
prélèvera des données, analysera ces données et compilera ses conclusions dans
un article de recherche qu’il partagera avec ses pairs. Un politicien consultera
les avis de son entourage, s’informera des enjeux de son pays, réfléchira à une
stratégie politique et défendra ses idées à travers des discours.
Et ainsi en va-t-il de très nombreux autres métiers, qu’il s’agisse des ingénieurs,
des agriculteurs, des commerciaux, des ambassadeurs, des serveurs, des juristes,
des professeurs, des chauffeurs, des philanthropes ou des techniciens de surface.
Tous ces métiers consistent en une collecte d’information, en un stockage de cette
information, en un traitement de l’information et en émission d’informations.
De loin, on pourrait croire que ces métiers ne font donc que brasser du vent. Ce
serait oublier que l’information n’est pas gratuite. Et que bien la traiter a un
coût.
En particulier, la nature de l’information qui est collectée et partagée, ainsi que
la manière dont elle est traitée et analysée, peuvent bouleverser l’état de nos
sociétés. L’information permet de changer les droits et les devoirs des citoyens,
mais aussi leurs habitudes et réflexes du quotidien. Elle est capable d’éduquer
à des mathématiques inconcevables par les plus grands génies du XIXe siècle,
mais aussi de causer des addictions à telle ou telle marque ou produit. Elle peut
modifier les priorités de nos gouvernements, tout comme elle peut taire des
soulèvements populaires. L’information a un impact majeur sur notre monde.
Certainement plus grand que la matière et l’énergie encore.
Il nous semble que nous avons tendance à sous-estimer le rôle crucial de cette
information, ainsi que le fait que cette information ne vient jamais de nulle
part. En fait, de la même manière qu’un scientifique de l’environnement pour-
rait vous encourager à méditer les flux de matière et d’énergie dans nos sociétés
pour prendre conscience de l’étendue de notre ignorance 30 , nous vous invitons à
réfléchir au formidable et complexe flux de l’information dans nos sociétés mo-
30. Écologie scientifique avec Rodolphe Meyer (Le Réveilleur) | Probablement | R Meyer
& LN Hoang (2019)
L’ÉCHELLE LOGARITHMIQUE DES TEMPS 87
dernes. Qui a écrit quoi ? Pourquoi l’a-t-il écrit ? Comment a-t-il choisi d’écrire
cela plutôt qu’autre chose ? Sur quelles informations s’est-il fondé ? Pourquoi a-
t-il été exposé à ces informations ? D’où viennent ces informations sur lesquelles
il s’est fondé ? Quelles sont les sources originales de ces informations ? Quelles
sont les perturbations qu’a subies cette information 31 ? Qui a le plus d’influence
sur les flux d’information ?
« Ceux qui contrôlent le flux des données dans le monde contrôlent le futur,
non seulement de l’humanité, mais aussi peut-être de la vie elle-même », affirma
Harari dans une conférence à l’EPFL 32 . Posons-nous donc la question. De nos
jours, qui sont-ils ? Qui sont les maîtres des flux de l’information ?
À bien y réfléchir, dès à présent, ceux-ci ne semblent plus être des humains. Les
systèmes de recommandation du Web semblent avoir pris le contrôle des flux
d’information de nos sociétés. Ces IA semblent s’être déjà saisi du pouvoir de
l’information.
31. Folle fouloscopie avec Mehdi Moussaid | Probablement | M Moussaid & LN Hoang
(2019)
32. Roundtable at EPFL with Yuval Noah Harari | EPFL (2019)
33. Availability : A heuristic for judging frequency and probability | Cognitive Psychology |
A Tversky & D Kahneman (1973)
88 CHAPITRE 4. UNE BRÈVE HISTOIRE DE L’INFORMATION
34. L’un de nous a d’ailleurs le souvenir d’une discussion avec feu son grand-père au Maroc.
Ce dernier racontait l’histoire de son couple à un petit fils qui ne comprenait pas comment
l’aïeul restait complétement stoïque en énumérant sa progéniture, dont une partie non négli-
geable consistait en des bébés morts peu de temps après la naissance. Aujourd’hui, un père
de famille qui perd plus de 3 bébés en bas âge serait complétement dévasté par l’expérience
traumatisante car inhabituelle.
L’ÉCHELLE LOGARITHMIQUE DES TEMPS 89
calculée dans des centres de calcul surpuissants et déployéee sur des téléphones
omniprésents, l’IA semble lancée comme jamais auparavant.
Cette échelle des temps suit parfaitement ce qu’on appelle une échelle logarith-
mique, chaque période est significativement plus courte que la précédente. Le
progrès du traitement de l’information semble être rythmé par une cadence ac-
célérée. Ce progrès s’accélère au gré de l’amélioration des outils de ce traitement,
de l’ADN aux systèmes nerveux, de l’écriture à l’imprimerie, des ordinateurs à
Internet.
Vu cette échelle logarithmique du progrès, il faut sans doute s’attendre à des
bouleversements monumentaux dans les années à venir, alors que de nouveaux
outils spectaculaires de traitement de l’information pointent le bout de leur nez.
Que pensez-vous de cette brève histoire de l’information ? A-t-elle changé l’im-
portance que vous accordez à l’information ? Avez-vous déjà pris le temps de ré-
fléchir au rôle de l’information dans nos civilisations ? Quels sont les grands flux
d’information de notre temps ? Quelles sont les sources de cette information ?
Comment cette information est-elle ensuite traitée ? Comment les humains la
traitent-ils ? Comment les organisations la traitent-ils ? Comment les machines
la traitent-ils ? Où est l’information ? Qui la stocke ? Comment la stocke-t-on ?
Comment les différents supports de l’information, biologiques, papiers et électro-
niques, interagissent-ils ? Comment l’information se diffuse-t-elle ? Et surtout,
comment devrait-elle se diffuser ? En particulier, comment pourrait-on discer-
ner les flux d’information désirables de ce qui sont indésirables ? Et comment
amplifier les informations désirables aux dépens des autres ?
Voilà de nombreuses questions que nous vous invitons à poser et à vous poser,
avec autant de clarté, de bienveillance et de nuances que possible. Nous vous
encourageons aussi à relier ces questions fascinantes à la thèse 3 du livre, qui,
pour rappel, défend l’urgence à ce que toutes sortes de talents soient mis dans
les meilleures dispositions pour contribuer à rendre les IA bénéfiques.
Références
Réflexions sur la puissance motrice du feu et sur les machines propres à dé-
velopper cette puissance | S Carnot (1824)
Hominescence | Le Pommier | M Serres (2001)
Les métamorphoses du calcul : une étonnante histoire des mathématiques |
Le Pommier | G Dowek (2007)
The Information : A History, a Theory, a Flood | Pantheon Books | J Gleick
(2011)
Le grand roman des maths : de la préhistoire à nos jours | Flammarion | M
Launay (2016)
Homo Deus : Une brève histoire de l’avenir | Albin Michel | YN Harari (2017)
90 CHAPITRE 4. UNE BRÈVE HISTOIRE DE L’INFORMATION
91
92 CHAPITRE 5. ON N’ARRÊTE PAS LE PROGRÈS
votée, adoptée, et avant qu’elle soit appliquée à des cas fautifs. Proposé en 2012,
le projet RGPD a été adopté en 2016, avant d’entrer en vigueur en 2018. Qui plus
est, le RGPD n’est pas parti de rien ; il s’agissait d’une mise à jour de directives
datant de 1995. Le temps de la législation est un temps long. Il correspond
à plus d’une demi-décennie. Or cette lenteur du processus est une propriété
relativement désirable : il faut prendre le temps de comprendre les enjeux et de
trouver des points d’accord. Toute réglementation précipitée s’accompagnera de
gros risques d’effets secondaires indésirables.
Cependant, s’il y a bien une chose particulière au monde de l’IA, c’est la vi-
tesse du changement. Le progrès en IA est ahurissant. Il est même bouleversant.
En l’espace d’une décennie, beaucoup a changé. Des technologies qui ont en-
vahi notre quotidien semblaient ne pouvoir être que de la science-fiction il y a
quelques années.
D’ailleurs, en 2012, comme d’autres, les deux auteurs de ce livre étaient très
sceptiques, voire très méprisants, envers les technologies sur lesquelles reposent
les IA d’aujourd’hui. À cette époque, nous étions même prêts à parier que les
réseaux de neurones n’auraient aucune chance de conduire aux IA que l’on
connaît aujourd’hui.
Progrès stupéfiants
C’est autour de 2015 que l’importance des technologies d’IA est devenue de plus
en plus indéniable. À cette époque, les IA avaient tout juste réussi à atteindre des
performances de niveau humain dans certaines tâches de reconnaissance d’objets
dans une image. Mais le potentiel de ces IA semblait déjà très prometteur. Il
fut soudainement médiatisé en 2016, suite à la victoire spectaculaire d’AlphaGo
contre Lee Sedol au jeu de go 1 .
1. L’un des aspects stupéfiants de cette victoire fut le progrès spectaculaire d’AlphaGo,
jugé par les experts de go, entre sa victoire sur Fan Hui en octobre 2015 et celle sur Lee
Sedol en mars 2016. Pour plus de détails, nous vous recommandons vivement le documentaire
AlphaGo de Netflix.
PROGRÈS STUPÉFIANTS 93
Fin 2017, nous avons également été stupéfaits par une soudaine mise à jour
de l’IA de sous-titrage automatique de YouTube. Nous regardions alors une
vidéo Wandida anglophone d’un chercheur à l’accent russe 3 sur l’algorithmique
répartie. Au milieu de la vidéo, tout à coup, il devint clair que nous avions
tout deux cessé d’écouter la vidéo. Nous avions tout deux les yeux rivés sur le
sous-titrage étonnamment juste de la vidéo. Bouches bées, nous pensions tout
simplement que cette qualité de sous-titrage était impossible avec les IA de
l’époque, surtout sachant les performances de l’IA de sous-titrage de YouTube
jusque là. Nous étions stupéfaits.
2. Progressive Growing of GANs for Improved Quality, Stability, and Variation | Tero
Karras FI (2017)
3. Synchronization - Blocking & Non-Blocking (1/2) | Wandida, EPFL | P Kuznetsov
(2015)
4. Google Duplex : An AI System for Accomplishing Real-World Tasks Over the Phone |
Google AI Blog | Y Leviathan & Y Matias (2018)
94 CHAPITRE 5. ON N’ARRÊTE PAS LE PROGRÈS
Notre réaction à Google Duplex fut plus violente encore que dans les autres cas.
Nous n’y croyions tout simplement pas. Au premier visionnage, nous pensions
tout bêtement qu’il s’agissait d’un canular. Nous pensions connaître l’état de
l’art dans le domaine. Et la performance de Google Duplex semblait bien trop
au-delà de l’état de l’art pour être crédible. Mais, visionnage après visionnage,
lecture après lecture, il nous fallait nous rendre à l’évidence : Google avait bel
et bien atteint ce niveau de performance.
Si nous insistons tant sur notre stupéfaction, c’est pour vraiment insister sur
le fait que la vitesse du progrès récent en IA semble ahurissante. On semble la
sous-estimer. Notre perception des facultés des IA semble parfois trop arrêtée.
En particulier, on semble avoir tendance à penser que les IA de demain seront
assez semblables aux IA d’aujourd’hui.
Une telle tendance semble avoir des conséquences néfastes en termes de législa-
tion. En effet, de nos jours, en un sens, le progrès en IA paraît bien plus rapide
que le temps de la législation. Dès lors, sachant que toute législation initiée
aujourd’hui n’entrera probablement en vigueur que dans une demi-décennie, il
semble irresponsable de concevoir une législation qui ne s’appliquerait qu’aux IA
d’aujourd’hui, à l’instar du RGPD qui ne semble pas avoir été conçu pour un
monde dominé par des IA dont la transparence semble essentiellement impos-
sible à garantir.
Voilà qui rend le problème de la légifération particulièrement délicat. Celle-ci
doit non seulement être adaptée à un monde complexe ; elle doit de plus l’être à
un monde complexe que l’on connaît très mal et qui ne cesse d’évoluer, à savoir
le monde de demain et d’après-demain.
Face à ce constat, une réaction récurrente consiste à se poser la question du
contrôle du progrès des IA. À l’instar de moratoires qui ont eu lieu pour des
questions bioéthiques dans la recherche sur les OGM par exemple, ne pourrait-on
pas au moins freiner le progrès en IA, le temps de se poser les questions éthiques ?
Voire, ne vaudrait-il mieux pas tout simplement stopper toute recherche en IA
pour éviter un progrès incontrôlé ?
Malheureusement, il semble que freiner le progrès en IA soit virtuellement im-
possible. Voire indésirable.
Intérêts économiques
La raison principale pour laquelle freiner le progrès est difficile est que les intérêts
économiques du développement et du déploiement des IA sont devenus énormes.
ADDICTION DES CONSOMMATEURS 95
L’IA permet une réduction drastique des coûts de production, une simplification
massive des procédures administratives, une amélioration majeure de la qualité
des services, une personnalisation inédite des produits et une mise à l’échelle
spectaculaire des nouvelles solutions.
Dans le contexte de la concurrence mondiale des marchés et des entreprises, il
semble que ce soit devenu virtuellement un suicide pour la plupart des industries
que de ne pas au moins s’intéresser à l’IA. En effet, de nos jours, la menace ne
vient pas que de la concurrence classique. Elle vient aussi bien souvent d’entre-
prises potentiellement disruptives, à l’instar d’Amazon, iTunes, Uber ou autres
Airbnb, qui ont bouleversé des marchés établis.
Qui plus est, la concurrence n’a pas lieu qu’entre entreprises. De nos jours, la
concurrence est internationale, alors que de nombreuses institutions publiques
prévoient des plans massifs d’investissements dans la recherche et le déploiement
d’IA. Dans un tel contexte, il semble illusoire d’espérer que tous les pays freinent
leur développement de l’IA. En particulier, les nombreux échecs de coordination
mondiale pour lutter contre le changement climatique ne présagent rien de bon
pour des éventuelles tentatives de limitations drastiques des IA.
Urgence morale
11. Smart Plant Factory : The Next Generation Indoor Vertical Farms | Springer | T
Kozai (2018)
12. Electric food – the new sci-fi diet that could save our planet | The Guardian | G
Monbiot (2018)
13. Meat Without Misery | U Valeti & S Harris (2016)
14. Épuisement des ressources en eau | Le Réveilleur | R Meyer (2017)
15. Le phosphore | Le Réveilleur | R Meyer (2016)
16. L’eutrophisation : proliférations d’algues et catastrophes écologiques | Le Réveilleur |
R Meyer (2016)
17. The global tree restoration potential | Science | JF Bastin, Y Finegold, C Garcia, D
Mollicone, M Rezende, D Routh, CM Zohner & TW Crowther (2019)
18. La solution contre le changement climatique | Science4All | LN Hoang (2018)
98 CHAPITRE 5. ON N’ARRÊTE PAS LE PROGRÈS
Vers l’anticipation
Malheureusement, jusque-là, face aux progrès des IA, nous avons été beaucoup
plus dans la réaction que dans l’anticipation. Nous avons pris l’habitude de
concevoir des IA, puis de les déployer, et ensuite de chercher à les réparer, par
la loi ou par des modifications techniques. Ce jeu d’essais et erreurs a permis un
déploiement rapide des IA. Mais comme on l’a vu dans le chapitre 3, il n’est pas
sans effets secondaires. À cause de la priorisation du déploiement et du manque
d’efforts d’anticipation, l’IA a polarisé nos sociétés, créé des addictions chez des
milliards d’humains et conduit à la mort de milliers d’entre nous.
Pour éviter la poursuite de cette expérience scientifique sur des milliards de
sujets, il semble grand temps de cesser cette logique de réaction. Il semble être
devenu urgent d’être dans l’anticipation, pour éviter que le déploiement d’IA
futures ne cause tout autant, voire davantages de problèmes et de morts que
les IA d’aujourd’hui.
19. Bien sûr, cette proposition s’applique à tout individu d’un groupe X constamment exposé
au pire visage du groupe Y.
VERS L’ANTICIPATION 99
l’on soit davantage dans le second cas que dans le premier, il semble urgent de se
projeter vers l’avenir, avec modestie et incertitude, et d’accueillir avec davantage
de bienveillance les réflexions sur les risques futurs potentiels — même s’il faut
demeurer critique de ces réflexions.
ingénieurs ont ainsi inéluctablement instauré une économie qui s’appuie forte-
ment sur ces ressources limitées et polluantes. Faute de politiques de prévention
et d’interdiction efficaces, faute de gouvernance mondiale et à cause de l’exis-
tence d’un grand nombre d’acteurs aux motivations diverses, les conséquences
préoccupantes de l’exploitation des ressources fossiles semblent représenter une
vulnérabilité majeure de nos civilisations.
Notre dépendance en ressources fossiles et le changement climatique sont des
préoccupations majeures. Cependant, il est intéressant de noter qu’elles auraient
pu être pires. On aurait très bien pu vivre dans un monde alternatif où excéder
410 ppm de dioxide de carbone (un taux dépassé en 2019) déclenche des boucles
de rétroactions spectaculaires et incontrôlables qui anéantissent le monde en
l’espace de quelques années. Par chance, nous ne vivons pas dans ce monde
alternatif ; il n’est peut-être pas trop tard pour espérer réduire drastiquement
les impacts néfastes à venir du changement climatique.
Cependant, dans le lot des découvertes scientifiques à venir, il est difficile d’ex-
clure la possibilité de découvertes scientifiques extrêmement dangereuses, no-
tamment dans des domaines comme les biotechnologies, les nanotechnologies et
les drones tueurs 21 . Et surtout dans le domaine de l’IA. Sachant cela, il semble
urgent de réduire les vulnérabilités de nos sociétés, en facilitant les politiques de
prévention et d’interdiction, en favorisant les coopérations à l’échelle mondiale
et en réduisant le morcellement de la population en communautés polarisées.
Par ailleurs, connaissant la vulnérabilité de notre monde, il semble aussi urgent
que tout scientifique réfléchisse davantage aux effets secondaires de ses recherches,
voire qu’il priorise davantage les recherches sur les défenses contre les risques
technologiques du futur. Par exemple, la recherche contre les effets secondaires
indésirables, avérés ou spéculatifs, causés par les IA.
Bien entendu, les plus cyniques parmi vous rétorqueront qu’il ne s’agit là que de
communication, et que rien ne garantit que les ingénieurs et dirigeants d’OpenAI
se conformeront à leurs déclarations publiques. Mais ce qui nous intéresse dans
cette section, ce ne sont pas les véritables intentions de ces ingénieurs et diri-
geants. Supposons que vous soyez à la place de ceux-ci. Que feriez-vous pour
garantir au mieux que l’IA soit bénéfique ?
En 2018, OpenAI a justement publié une charte qui explique davantage leur
vision et leur stratégie. On peut y lire 22 : « nous essaierons de construire direc-
tement une IA générale sûre et bénéfique, mais considérerons aussi que notre
mission aura été remplie si notre travail aide d’autres à y arriver. »
Mais aussi, de façon peut-être plus surprenante, on y lit aussi : « Pour être
efficace dans la tâche de maîtriser les impacts d’une IA générale sur la société,
OpenAI doit être à la pointe des capacités en IA — l’approche politique et la
promotion de la sécurité seules ne suffiront pas. »
Autrement dit, selon OpenAI, on n’est jamais mieux servi que par soi-même. Et
on ne pourra pas se servir, si l’on n’a pas accès à la table des organisations à la
pointe de l’IA. Pire, pour être et rester à cette table, il faut soi-même accélérer la
recherche en IA. On n’arrête pas le progrès. Surtout si on cherche à le maîtriser.
Que pensez-vous de cette conclusion contre-intuitive ? La stratégie d’OpenAI
est-elle celle que vous adopteriez si vous cherchiez activement à rendre les IA
bénéfiques ? Quelle place laisser alors à la légifération ? Peut-on encore espérer
une collaboration internationale ? Que pensez-vous du compromis entre le déve-
loppement d’IA bénéfiques et l’accélération du progrès des IA que cela implique ?
La vitesse du progrès est-elle une source de préoccupation ? Faut-il davantage
lutter contre ? Sommes-nous suffisamment dans l’anticipation ? Sommes-nous
trop agressifs envers ceux qui le sont ? Comment promouvoir l’anticipation ?
Quelle forme d’anticipation promouvoir ?
Nous vous invitons à réfléchir, seul ou à plusieurs, à ces nombreuses questions
fascinantes, ainsi qu’aux impacts de vos réflexions sur l’urgence à mettre toutes
sortes de talents dans les meilleures dispositions pour contribuer à rendre les IA
bénéfiques.
Références
The Creativity Code : How AI is Learning to Write, Paint and Think | Fourth
Estate | M Du Sautoy (2019)
Smart Plant Factory : The Next Generation Indoor Vertical Farms | Sprin-
ger | T Kozai (2018)
6
être aussi intelligentes que les humains*.
Yann Le Cun (1960-)
105
106 CHAPITRE 6. VERS UNE IA DE NIVEAU HUMAIN ?
Raisonnement probabiliste
Avant d’aller plus loin, il est bon de s’arrêter sur un point important. Le futur est
très incertain. Il serait très illusoire de le décrire de manière précise et univoque.
Il va nous falloir nous contenter d’un langage probabiliste.
Voilà qui heurte la sensibilité de beaucoup de personnes, y compris des philo-
sophes, des scientifiques et des experts en IA. Pour beaucoup, il est important
1. Une telle attaque va typiquement paralyser l’ordinateur d’un utilisateur ou chiffrer ses
données privées, puis demander une rançon pour résoudre la gêne occasionnée. Voir :
Un virus me demande une rançon | Safecode | Micode (2017)
2. Pourrons nous gérer une super IA ? The Flares | G Selle & M Durand (2017)
3. Existential risk from artificial general intelligence | Wikipedia (2019)
4. Deadly Truth of General AI ? Computerphile | R Miles & S Riley (2015)
5. AI Safety Computerphile | R Miles & S Riley (2016)
RAISONNEMENT PROBABILISTE 107
Il est crucial de noter que ces questions sont horriblement complexes. En fait,
elles sont si complexes que même la méthode scientifique ne suffit pas pour y ré-
pondre. Pour penser adéquatement ces questions, il est fondamental de d’abord
prendre la mesure de l’étendue de notre ignorance : il n’est même pas clair
que nous disposions de la bonne manière d’adresser ces questions. Cette incer-
titude sur l’épistémologie doit entraîner des incertitudes épistémiques quant à
nos réponses.
Notez que pour certaines des questions mentionnées plus haut, il existe un cadre
épistémologique puissant capable de déterminer des réponses (probabilistes) à
ces questions, à savoir le bayésianisme, auquel l’un des auteurs a dédié son
premier livre La formule du savoir. Cette philosophie de la connaissance consiste
à user et à abuser du langage probabiliste — en fait, selon elle, un raisonnement
est juste si et seulement s’il est conforme aux lois des probabilités !
Par la suite, il ne nous sera pas nécessaire d’adopter pleinement le cadre bayésien
pour fournir des débuts de réponses aux questions ci-dessus. Pour rendre la
notion de probabilité intuitive sans faire appel à l’arsenal bayésien, il est alors
utile de considérer l’expérience de pensée du tueur, proposée par l’informaticien
Alexandre Maurer 9 .
6. Bayes pour les nuls : éviter l’écueil « on sait pas donc on s’en fout » | Alexandre
Technoprog (2018)
7. Le fréquentisme | Science4All | LN Hoang (2019)
8. L’altruisme efficace | Les arènes | P Singer (2018)
9. Mettre des probabilités sur TOUT ? (feat. Le Brexit) | Alexandre Technoprog (2019)
108 CHAPITRE 6. VERS UNE IA DE NIVEAU HUMAIN ?
10. Pour être plus marquant encore, les philosophes François Kammerer et Thibaut Giraud
proposent d’envisager le cas où, au lieu de vous tuer, le tueur tuera tous vos proches, pour les
options A et B.
11. Is AI Safety a Pascal’s Mugging ? | Robert Miles (2019)
12. En fait, c’est vraiment cette thèse qui nous a convaincu de l’urgence à écrire un livre sur
l’importance et la difficulté de rendre l’IA bénéfique. Bien entendu, cette thèse n’est toutefois
pas indispensable à la défense des thèses principales de ce livre.
AVIS DES EXPERTS 109
guide pertinent. Dès lors, faute de mieux, on peut commencer par tenir compte
des avis qui paraissent les plus informés, à savoir les avis des experts en IA.
13. When Will AI Exceed Human Performance ? Evidence from AI Experts | Journal of
Artificial Intelligence Research | K Grace, J Salvatier, A Dafoe, B Zhang & O Evans (2018)
110 CHAPITRE 6. VERS UNE IA DE NIVEAU HUMAIN ?
2061. Voilà qui semble nous laisser du temps. Au moins quatre décennies 14 .
Cependant, quand il s’agit de sécurité, il est inadéquat de ne s’arrêter qu’au cas
médian. Après tout, la quasi-totalité du temps, les voitures roulent sans accident,
les centrales nucléaires n’explosent pas et les patients ne sont pas atteints de
maladies graves. Mais quand il s’agit de sécurité, ce sont les cas moins probables,
mais bien plus dévastateurs, qu’il nous faut envisager, éviter et préparer 15 . En
particulier, quand il s’agit de sécurité vis-à-vis d’une IA de niveau humain, le
pire cas semble être le cas où cette IA apparaîtrait dans un futur proche. D’où
le fait que la thèse de ce chapitre porte sur la faible probabilité d’une IA de
niveau humain avant 2025.
L’agrégat des prédictions des experts assigne alors une probabilité de 10 % à une
IA de niveau humain avant 2025. Ce résultat conforte grandement la thèse de
ce chapitre. Cependant, il serait inadéquat de se fier uniquement à l’avis moyen
des experts.
Sélection et réfutabilité
En effet, les experts en IA sont bien connus pour leurs erreurs de prédiction par
le passé. En particulier, en 1970, Marvin Minsky, l’un des pères fondateurs de la
recherche en IA, annonce que « d’ici trois à huit ans, nous aurons une machine
avec l’intelligence générale d’un être humain moyen ». La prédiction de Minsky
s’est avérée lamentablement erronée — tout comme celles de beaucoup de ses
contemporains. Presque 50 ans plus tard, la machine semble d’une intelligence
extrêmement restreinte comparée à un humain moyen.
Mais il ne faudrait pas généraliser le cas de Minsky à toute la communauté des
chercheurs en IA — ni même aux chercheurs concernés par le sondage cité plus
haut. En effet, les prédictions de Minsky sont si erronées qu’il est tentant de les
moquer. Encore et encore. Voilà qui a conduit à un énorme biais de sélection :
ce sont des prédictions de ce type dont on parle le plus souvent, comme si elles
étaient représentatives de toutes les prédictions des chercheurs en IA.
Ce biais de sélection, couplé à de la moquerie, a conduit à un autre biais im-
portant, parfois connu sous le nom de biais de respectabilité. Ainsi, parce que
l’inconscient collectif (surtout chez les académiques) associe l’idée d’une IA de
niveau humain à des prédictions lamentablement erronées, il s’agit souvent d’un
suicide académique que de simplement mentionner ce concept. Voilà qui semble
conduire de nombreux experts en IA à beaucoup s’autocensurer lors de prises
de paroles publiques.
C’est largement notre cas. Dans nombre de nos conférences et vidéos (y compris
dans ce livre !), nous ne nous permettons d’aborder le concept d’IA de niveau
humain qu’auprès de publics extrêmement bienveillants, et après un long préam-
bule alambiqué au sujet de réflexions moins farfelues. En particulier, à l’instar
d’autres sujets polarisants comme la religion, l’IA de niveau humain est un thème
que nous cherchons intentionnellement à éviter avec des inconnus. Surtout si ces
inconnus sont des intellectuels.
Il s’agit même là d’un conseil que nous allons nous permettre de vous suggérer.
Avant d’aborder le sujet des IA de niveau humain, il semble crucial de veiller
à ce que nos interlocuteurs soient bienveillants et concentrés, et à ce que nous
soyons clairs, pédagogiques et nuancés. À l’instar de certaines prises de position
très médiatisées, il semble que la simple mention de la notion d’IA de niveau
humain peut avoir des effets secondaires indésirables, notamment si elle suscite
la moquerie et encourage l’excès de confiance des interlocuteurs. Le sujet des
IA de niveau humain est très délicat à communiquer adéquatement. Il semble
crucial de réfléchir avec beaucoup d’attention à comment bien le communiquer.
Voire d’éviter de le mentionner dans certaines circonstances.
Quoi qu’il en soit, les biais de sélection et de respectabilité semblent bel et bien
expliquer pourquoi les prises de positions publiques au sujet des IA de niveau
humain sont très distantes des résultats du sondage anonymisé des experts en
IA. Les débats publics des experts ne sont pas représentatifs des avis des experts.
Les experts qui réfutent la possibilité d’IA de niveau humain semblent davan-
tage oser prendre la parole. Et ceux-ci prendront vite le soin de moquer l’excès
d’optimisme de leurs aïeux.
Un autre enseignement important du sondage anonymisé est que l’on est très
loin d’un consensus entre experts. Il y a même d’énormes disparités d’un avis
d’expert à l’autre. Malheureusement, nous n’avons pas pu accéder aux données
16. Le sondage précise qu’il faut que ce soit à entraînement identique. Néanmoins, il reste
que, de l’avis général, le succès d’AlphaGo était très inattendu, y compris après la victoire
d’AlphaGo contre Fan Hui, 5 mois avant celle contre Lee Sedol, comme le met très bien en
scène le documentaire AlphaGo de Netflix.
112 CHAPITRE 6. VERS UNE IA DE NIVEAU HUMAIN ?
brutes de l’étude 17 . Cependant, voici ce qui semble émerger du graphe qui a été
publié.
Par ailleurs, la manière dont la question est posée affecte grandement les ré-
sultats. En effet, pour déterminer les prédictions probabilistes des experts, il
est possible de leur demander pour une probabilité fixée, disons 10 %, à quelle
date on aura une telle probabilité que l’IA de niveau humain aura émergé. Ou
à l’inverse, on peut leur demander pour une date donnée, disons 2030, quelle
est la probabilité qu’une IA de niveau humain apparaisse avant cette date. Il
se trouve que, dans le second cas, les prédictions des experts pour une IA de
niveau humain correspondent à des dates plus tardives 18 .
Même si l’effet n’est pas non plus spectaculaire, cette disparité suggère avant
tout que les experts en IA n’ont pas suffisamment réfléchi au futur de l’IA pour
en arriver à des prédictions cohérentes. De façon générale, il semble difficile
d’exclure la possibilité que les prédictions des experts en IA soient fortement
dépendantes de la manière dont on les questionne.
Toutes ces considérations nous amènent à conclure qu’il ne faut pas trop se fier
aux avis des experts. Il semble préférable d’ajouter constamment une incertitude
additionnelle à l’incertitude exprimée par les experts. Au lieu d’un intervalle de
crédence 19 à 80 % égal à l’intervalle [2025, 2080], il serait peut-être pertinent
de considérer un intervalle comme [2022, 2150]. Cette remarque augmente notre
préoccupation quant à l’IA de niveau humain. En effet, la date 2022 tombe
désormais dans l’intervalle de crédence ; on en vient à attribuer une probabilité
de 10 % à une IA de niveau humain avant cette date. Et de façon tout aussi
préoccupante, la probabilité d’une IA de niveau humain avant de 2025 semble
également devoir augmenter, et passer peut-être à 15 ou 20 %.
Hardware et software
Jusque-là, notre raisonnement n’a porté presque exclusivement que sur les pré-
dictions des experts, la cohérence de ces prédictions et l’adéquation de leurs
prédictions passées avec ce qu’il s’est passé. Cependant, il est aussi intéressant
d’étudier le progrès technologique lui-même et essayer de l’extrapoler au futur.
Rappelons pour commencer que l’IA de niveau humain correspond à une IA qui
surpasserait les facultés cognitives du cerveau humain. À défaut de maîtriser
toutes les spécificités de ces facultés cognitives, il est possible d’en déterminer
des mesures de complexité et de performances de calculs. Ces mesures peuvent
alors être comparées aux IA d’aujourd’hui. Et surtout, vu le progrès des IA d’au-
jourd’hui, on pourra alors deviner le moment où les complexités et performances
des machines surpasseront celles du cerveau humain.
La mesure de complexité la plus intéressante est sans doute celle avancée par
Turing dès 1950, à savoir la taille de la description de la machine à penser ou
à calculer. On estime 20 ainsi aujourd’hui la taille du cerveau humain à environ
1014 synapses 21 . Voilà qui pourrait représenter l’ordre de grandeur nécessaire à
toute intelligence de niveau humain. Les IA les plus complexes d’aujourd’hui ont
généralement autour de 1011 paramètres. Voilà qui suggère qu’un facteur 1000
pourrait être nécessaire pour atteindre la complexité du cerveau humain. Au
rythme de la loi de Moore, ceci nécessiterait 15 ans de progrès technologiques.
Cependant, il y a de nombreux bémols à mettre à cette analyse. D’un côté,
il se pourrait que les algorithmes d’apprentissage conçus par l’humain soient
bien moins efficaces que ceux conçus par le génome humain pour le cerveau
humain. On pourrait alors imaginer qu’une IA devra être bien plus grosse que
le cerveau humain pour acquérir ses facultés. Après tout, les performances du
cerveau humain restent bien mystérieuses.
Néanmoins, certains psychologues suggèrent qu’elles pourraient ne pas être si
mystérieuses. À l’instar de chercheurs en IA, de plus en plus de psychologues
suggèrent que l’apprentissage du cerveau humain reposerait sur un nombre rai-
sonnable de principes d’apprentissages fondamentaux 22 , comme la formule de
Bayes, l’architecture de convolution ou l’échantillonnage MCMC.
Mais d’un autre côté, à complexité égale, les IA pourraient, à l’inverse, être plus
performantes encore que le cerveau humain. Voire beaucoup plus performantes.
Après tout, les IA permettront d’effectuer un bien plus grand nombre d’opéra-
tions, étant donné leur rythme fou de milliards d’opérations par seconde. Qui
plus est, il est probable que de nombreuses parties du cerveau humain ne soient
en fait pas indispensables à l’intelligence de niveau humain. Une IA, conçue
20. Scale of the Human Brain | AI Impacts (2015)
21. Bien sûr, il se pourrait que la complexité algorithmique du cerveau humain ne puisse
pas se réduire au nombre de ses synapses. Celle-ci pourrait être plus petite ou plus grande.
22. Le cerveau statisticien : la révolution Bayésienne en sciences cognitives | Collège de
France | S Dehaene (2011)
114 CHAPITRE 6. VERS UNE IA DE NIVEAU HUMAIN ?
pour posséder ces facultés, pourrait alors avoir atteint le niveau humain avec
1 % de sa complexité. Dès lors, l’IA de niveau humain pourrait être imminente.
Toutefois, selon certains métriques, les IA ont encore un plus grand coût écono-
mique et énergétique que les humains. Par exemple, une étude de AI Impacts
de 2015 suggère qu’en termes de coût économique, l’équivalent du nombre de
calculs d’un cerveau coûte entre 2 dollars et 700 milliards de dollars par heure 26 .
Leur estimation quant au coût économique des performances de communication
entre unités de calcul est plus précise : l’équivalent d’un cerveau par les machines
serait de l’ordre de 4 700 à 170 000 dollars par heure. En termes de coûts de
calculs, les humains surpassent encore les IA.
28. Ian Goodfellow : Generative Adversarial Networks (GANs) | MIT AGI | I Goodfellow
& L Fridman (2019)
29. La logique ne suffit pas | Science4All | LN Hoang (2018)
30. Better Language Models and Their Implications | OpenAI | A Radford, J Wu, D
Amodei, J Clark, M Brundage & I Sutskever (2019)
31. Unicorn AI | Computerphile | R Miles & S Riley (2019)
32. GPT-2 repose sur des transformeurs et des mécanismes d’attention. De façon grossière,
ceci correspond à mémoriser et à optimiser une importante mémoire (vectorielle) du passé
(notamment des paragraphes précédents d’un texte), et à ensuite paralléliser la recherche
d’informations pertinentes dans cette mémoire. De façon cruciale, toutes ces procédures sont
différentiables, ce qui permet l’optimisation de ces procédures par la descente de gradient
(stochastique).
33. Suite à cette prouesse, en juillet 2019, Microsoft annonça investir un milliard de dollars
dans OpenAI :
OpenAI forms exclusive computing partnership with Microsoft to build new Azure AI su-
percomputing technologies | Microsoft News Center (2019)
LES PERFORMANCES SONT IMPRÉVISIBLES 117
Les créateurs de GPT-2 écrivirent : « la diversité de tâches que le modèle est ca-
pable de résoudre dans un contexte sans préparation [‘zero-shot setting’] suggère
que les modèles de grande capacité, entraînés à maximiser la vraisemblance d’un
corpus de texte suffisamment varié, commencent à apprendre comment adres-
ser une quantité surprenante de tâches sans nécessiter de supervision explicite ».
Cette remarque, combinée à d’autres réflexions comme la relation entre les facul-
tés des IA et leur complexité représentée dans la Figure 6.3, suggère qu’une IA
pourrait atteindre le niveau humain, simplement avec toujours plus de données
et de calculs 34 .
Il est intéressant de noter que cette faculté d’un très grand nombre de calculs
à nous surprendre a en fait été anticipée il y a près de 70 ans, par le père de
l’informatique et de l’IA, à savoir Alan Turing. Dans son fabuleux article de 1950,
Turing écrivit : « L’idée que les machines ne peuvent pas conduire à des surprises
est une conséquence, je crois, d’un sophisme fallacieux auquel les philosophes
et mathématiciens sont particulièrement sujets. Il s’agit de l’hypothèse selon
laquelle, dès qu’un fait est présenté à un esprit, toutes les conséquences de ce
fait sautent immédiatement à l’esprit de celui-ci. Cette hypothèse est très utile
dans certains cas, mais on oublie trop facilement qu’elle peut être fausse. Une
conséquence naturelle de cette façon de penser est qu’on suppose ensuite qu’il
34. Greg Brockman : OpenAI and AGI | MIT AGI | G Brockman & L Fridman (2019)
118 CHAPITRE 6. VERS UNE IA DE NIVEAU HUMAIN ?
n’y a aucune vertu à simplement calculer les conséquences des données et des
principes généraux. »
En particulier, il semble y avoir une confusion récurrente entre le fait qu’une
procédure soit mécanique et le fait qu’elle soit prévisible. Les machines, dit-on
parfois, n’ont rien de magique. Elles ne sont pas capables de génie. Elles ne
peuvent pas surprendre. De telles affirmations semblent correspondre au « so-
phisme fallacieux » dont parle Turing. Certes, les machines ne font que des
calculs purement mécaniques. Cependant, ces calculs, notamment lorsqu’on les
combine avec d’énormes quantités de données, vont en fait très probablement
nous surprendre. En effet, dans de nombreux cas, il semble que la seule manière
d’anticiper le résultat du calcul soit d’effectuer tout le calcul 35 . Or, s’il faut
alors effectuer un milliard d’étapes de calculs, la cognition humaine limitée n’en
sera clairement pas capable 36 .
Ces considérations semblent conforter l’extrême incertitude sur les capacités fu-
tures des IA, y compris dans un avenir pas si éloigné. D’où notre conclusion.
l’écosystème YouTube, et elle planifie déjà ses actions en suggérant non pas les
vidéos que les utilisateurs cliqueront le plus probablement, mais celles qui ont
le plus de chance d’amener les utilisateurs à venir et revenir sur YouTube.
Notez en particulier que l’IA de YouTube n’éprouvera sans doute pas le besoin
d’acquérir toutes les facultés des humains. Après tout, nos cerveaux de primates
ont été optimisés pour leur dextérité à manipuler les membres du corps humain.
Cette dextérité semble difficile à reproduire dans des machines. Mais surtout,
elle ne sera probablement pas nécessaire à l’objectif assigné aux machines. En
particulier, une IA n’a pas à atteindre le niveau humain pour être plus puissante
que les humains, à l’instar de nombreux PDG qui n’ont pas le besoin de maîtriser
la culture du riz pour être très influents et prendre des décisions dont les effets
secondaires sont d’ampleur planétaire.
Un point critique de l’évolution des IA sera probablement l’instant où elles
planifieront et optimiseront leur propre auto-amélioration pour arriver à leurs
fins 38 . Comme on le verra dans le chapitre 10, il s’agit là en effet très probable-
ment d’une excellente stratégie pour toute IA souhaitant atteindre son objectif.
Or, une IA qui cherche activement à s’auto-améliorer pourrait y arriver à un
rythme très supérieur à celui que permet la recherche en IA par des humains.
Elle pourrait alors rapidement atteindre et très largement surpasser le niveau
humain dans tous les domaines utiles à son objectif 39 .
Une telle IA serait très dangereuse. La quête de son objectif causerait inéluc-
tablement des effets secondaires d’ampleur planétaire, à commencer en termes
de confidentialité, biais, bulles, addiction, prolifération de l’indignation, mani-
pulation, mais aussi potentiellement virulence, violence, tension, guerres, voire
risques existentiels.
En particulier, si l’humain devient une menace, un frein ou une simple gêne
pour l’objectif de cette IA, et si la protection de l’humanité ne fait pas partie de
l’objectif de l’IA, la destruction de civilisations humaines pourrait être un effet
secondaire probable de l’IA, à l’instar de la manière dont la destruction de nom-
breux écosystèmes est un effet secondaire avéré du développement économique
incontrôlé des humains.
Ainsi, en l’absence d’effort pour rendre les IA de niveau humain robustement
bénéfiques pour l’humanité, il semble difficile d’écarter le pire. Le pire semble
même probable. À l’inverse, il semble clairement y avoir un gain potentiel mo-
numental pour l’humanité, si la gestion de l’information par une telle IA était
rendue bénéfique. Une IA de niveau humain semble être de loin le plus important
levier d’action pour changer le monde. Pour le meilleur ou pour le pire.
D’où la conclusion de la première partie de ce livre.
Insistons davantage dessus. Ce que dit cette thèse, ce n’est pas simplement
qu’il serait bon de désirer rendre les IA bénéfiques. Ce que nous affirmons là,
c’est que l’urgence à rendre les IA bénéfiques est en fait probablement la plus
grande priorité de l’humanité dès aujourd’hui. En particulier, parce que les IA
forment un levier unique pour affecter les croyances et les actions de milliards
d’humains, il y a une opportunité fabuleuse à améliorer l’état du monde en
améliorant ces IA, que ce soit pour la santé publique, la justice sociale ou le
changement climatique.
Dès lors, à l’instar d’une mère qui préférerait ne pas s’intéresser à la vaccina-
tion de son enfant, ou d’une entreprise qui choisirait d’ignorer les conditions de
travail de ses employés, il semble que tout individu influent qui décide de ne
pas davantage s’informer au sujet des IA et des risques qu’elles posent aurait un
comportement qui gagnerait peut-être à être critiqué. Ou dit autrement, tout
individu susceptible de pouvoir aider à rendre les IA bénéfiques semble possible-
ment avoir un certain devoir moral de se demander comment il peut contribuer
à y arriver.
Voilà qui clôt notre défense de la thèse 1, qui postulait l’urgence à rendre les IA
bénéfiques. Vous a-t-on convaincu ? Quels arguments en défense de l’urgence à
rendre les IA bénéfiques vous ont le plus convaincu ? Pourquoi ? Quid des autres ?
Pensez-vous y avoir suffisamment réfléchi ? Aviez-vous suffisamment médité sur
les risques posés par des IA de niveau humain ? Le sondage des experts a-t-
il modifié vos crédences ? Aviez-vous tendance à moquer la possibilité des IA
de niveau humain ? Comment combattre cette attitude de dénigrement condes-
cendant ? Comment rendre respectables des discussions autour d’événements à
faible probabilité ? Une faible probabilité de catastrophe majeure mérite-t-elle
notre attention ? Qu’est-ce qui mérite le plus notre attention ? À partir de quelle
probabilité qu’une IA atteigne le niveau humain avant 2025 seriez-vous préoc-
cupé par une telle IA ? Quelle probabilité assignez-vous à une IA de niveau
humain avant 2025 ? Sur quoi se fonde votre jugement ? Est-ce un raisonnement
plus pertinent que celui qu’on vous a proposé ?
Références
Rationality : From AI to Zombies | Machine Intelligence Research Institute |
E Yudkowsky (2015)
Superforecasting : The Art and Science of Prediction | Broadway Books | P
Tetlock (2016)
Super intelligence : le grand défi de l’humanité | Dunod | N Bostrom (2017)
La vie 3.0 - Etre humain à l’ère de l’intelligence artificielle | Dunod | M Teg-
mark (2018)
La formule du savoir : une philosophie unifiée fondée sur le théorème de
Bayes | EDP Sciences | LN Hoang (2018)
Intelligence artificielle : L’ultime révolution : Vers la prospérité ou l’extinc-
tion | G Selle (2019)
What happens when our computers get smarter than we are ? | TED | N Bos-
trom (2015)
AlphaGo | Netflix | G Kohs (2017)
Pourrons nous gérer une super IA ? The Flares | G Selle & M Durand (2017)
Superintelligence : Science or Fiction ? Elon Musk & Other Great Minds |
Future of Life Institute | E Musk, S Russell, R Kurzweil, D Hassabis, S Harris,
N Bostrom, D Chalmers, B Selman, J Tallinn & M Tegmark (2017)
Myths and Facts About Superintelligent AI | Minute Physics | M Tegmark &
H Reich (2017)
122 CHAPITRE 6. VERS UNE IA DE NIVEAU HUMAIN ?
Katja Grace on forecasting future technology & how much we should trust ex-
pert predictions | K Grace, R Wiblin & K Harris (2018)
Askell, Brundage and Clark, OpenAI on publication norms, malicious uses
of AI, and general-purpose learning algorithms | 80,000 Hours | A Askell, M
Brundage, J Clark, R Wiblin & K Harris (2019)
Greg Brockman : OpenAI and AGI | MIT AGI | G Brockman & L Fridman
(2019)
Ian Goodfellow : Generative Adversarial Networks (GANs) | MIT AGI | I
Goodfellow & L Fridman (2019)
L’IA, pas intelligente ? Interview de Science4All | LN Hoang & Alexandre
Technoprog (2019)
Lê Nguyên Hoang : Une philosophie bayésienne des sciences | Liberté Acadé-
mique | LN Hoang, A Demion & V Debierre (2019)
Deuxième partie
123
Nous pouvons participer collectivement à une course
[à l’IA] [...] mais je pense que nous nous porterons
mieux en réfléchissant à la fois à comment concevoir
des machines plus intelligentes et à nous assurer que
ces IA seront utilisées pour le bien-être du plus grand
nombre.
Yoshua Bengio (1964-)
7
coupe du superflu et de la sécurité... Ce sera un gros
problème à l’échelle mondiale, qui sera difficile à ré-
soudre en parlant avec des gouvernements nationaux.
Demis Hassabis (1976-)
Être à la pointe
Quand une voiture se rapproche d’un précipice, la freiner semble être un ex-
cellent réflexe. Et s’il arrive souvent que des voitures flirtent dangereusement
avec le précipice, il paraît souhaitable d’installer des signalisations qui exigent
le ralentissement de tout véhicule. Si le problème persiste, une interdiction légale
de l’utilisation du tronçon de route proche du précipice semble envisageable.
Dans un monde où de telles mesures pourraient être imposées à toutes les IA, il
pourrait être souhaitable d’en faire de même pour toutes les IA dont les effets
secondaires semblent globalement indésirables. On pourrait exiger le ralentisse-
ment de ces IA. Voire interdire formellement l’avancée de ces IA.
Malheureusement, cette analogie routière a ses limites, notamment car, comme
on l’a vu dans le chapitre 5, ces jours-ci, on n’arrête pas le progrès. Les intérêts
économiques semblent trop importants. Nous semblons voués à une course aux
IA performantes. Mais alors, sachant que la technologie ne cesse d’évoluer, il ne
s’agit pas de sécuriser uniquement les IA d’aujourd’hui. Il nous faut développer
et déployer des solutions qui s’appliqueront aux IA d’aujourd’hui et de demain.
Pire encore, le défi consiste surtout à faire en sorte que les IA influentes seront
bénéfiques. Dès lors, concevoir des IA bénéfiques ne semble avoir qu’un intérêt
limité. D’autant que, à cause de l’effet de réseau, même une supériorité des
performances des IA bénéfiques pourrait être insuffisante pour rendre ces IA
bénéfiques influentes. Concevoir des IA bénéfiques ne suffira sans doute pas ;
125
126 CHAPITRE 7. CONTRAINTES SUR LES CONTRAINTES DES IA
Telles sont des raisons, parmi tant d’autres dont on parlera plus tard, pour
lesquelles rendre les IA bénéfiques est un défi monumental. Il ne suffit pas de
résoudre le problème à un instant donné. Il faut constamment comprendre et
anticiper les dernières avancées techniques en IA, proposer des solutions pour
rendre ces IA, et parvenir à (faire) implémenter ces solutions, si possible avant
leur déploiement, mais bien souvent après celui-ci !
Course à l’IA
Depuis quelques années, l’engouement pour l’IA est tel qu’on assiste désormais
à une course à l’IA, dans laquelle on trouve aussi bien des grandes entreprises du
numérique que des startups, des personnalités académiques, voire des gouverne-
ments. Chaque pays cherche à mettre en place des programmes d’investissements
massifs pour attirer les grandes entreprises, stimuler l’activité entrepreneuriale
et financer la recherche fondamentale. Chaque entreprise promeut ses équipes
de datascientistes, ses dernières prouesses technologiques et l’amélioration des
services que l’IA permet. Et chaque chercheur analyse les limites de certaines
techniques, suggère ses dernières idées pour battre l’état de l’art, partage son
code source sur GitHub et écrit des articles sur ArXiV.
On peut illustrer cela par l’exigence de transparence imposée par RGPD et le cas
de l’admission post-bac (APB), renommé en ParcourSup en 2018. D’un point de
vue technique, l’algorithme gouvernemental utilisé pour déterminer l’affectation
des nouveaux étudiants post-bac français aux différentes formations disponibles
est relativement très transparent. Il correspond à l’algorithme de Gale-Shapley
pour lequel le mathématicien Lloyd Shapley gagnera d’ailleurs le prix Nobel
d’économie. Cependant, pour nous y être attelés nous-mêmes 2 et pour avoir
observé d’autres mathématiciens s’y essayer eux aussi, force est de constater
que même cet algorithme très simple est en fait très difficile à expliquer de
manière claire et limpide au grand public. La transparence algorithmique est
fortement limitée par la simple capacité (ou volonté) d’attention des humains 3 .
Pour garantir la sécurité des IA, il est tentant de dresser une liste de proprié-
tés incontournables que doivent posséder les IA. Il est tentant de dire qu’elles
doivent faire X, garantir Y, ne jamais effectuer Z et être soumises à W. Il est ten-
tant d’exiger beaucoup des IA. Malheureusement, un excès d’exigences pourrait
être nuisible à la sécurité des IA.
Pour comprendre cet étrange postulat, arrêtons-nous sur l’un des problèmes
fondamentaux de la sécurité des IA, à savoir la propriété d’interruptibilité des IA
par renforcement 7 . Cette propriété correspond tout simplement au fait qu’une
IA ne doit pas chercher à éviter sa propre interruption 8 . Nous y reviendrons
plus longuement dans le prochain chapitre.
Pour garantir l’interruptibilité, certains chercheurs ont proposé de restreindre la
capacité d’exploration, de planification et d’apprentissage des IA, en concevant
ainsi des IA dites myopes. Il pourrait alors être tentant d’exiger de toutes les IA
qu’elles obéissent à ce formalisme, ce qui permettrait de garantir leur interrupti-
bilité. Il semble toutefois qu’il s’agisse là d’une très probable perte de temps. En
effet, restreindre les capacités d’exploration, de planification et d’apprentissage
des IA est extrêmement contraignant pour ces IA, surtout à l’heure de la course
aux IA performantes. Une entreprise qui accepte ces restrictions serait vouée à
proposer un service de faible qualité comparé à la concurrence. Elle risquerait
fortement de perdre ses clients, puis de devenir obsolète. Et pendant ce temps,
6. AI Safety Needs Social Scientists | Centre for Effective Altruism | A Askill (2019)
7. Nous détaillerons davantage la notion d’IA par renforcement dans le chapitre 9.
8. Safe Interruptibility | ZettaBytes, EPFL | H Hendrikx (2018)
CONCURRENCE 129
Concurrence
La tâche de rendre les IA sûres et bénéfiques risque d’être d’autant plus délicate
dans des contextes de concurrence, surtout si les concurrents pensent pouvoir
gagner l’entièreté du marché en étant au-dessus des autres. En effet, pour sur-
passer la concurrence, tous les coups risquent alors d’être permis. Celui qui
9. D’autres chercheurs ont proposé des solutions d’interruptibilité beaucoup moins contrai-
gnantes, notamment en se fondant sur l’alignement des récompenses des IA, dont on parlera
dans le chapitre 10. Voir :
Enter the Matrix : Safely Interruptible Autonomous Systems via Virtualization | M Riedl
& B Harrison (2017)
Dans le cadre de notre feuille de route définie dans le chapitre 11, l’interruptibilité sera la
tâche de Bob (voir chapitre 14).
10. AI ? Just Sandbox it... Computerphile | R Miles & S Riley (2017)
11. Malheureusement, par exemple, l’implémentation du RGPD s’annonce horriblement coû-
teuse pour des petites entreprises ou pour des institutions publiques qui ne disposent pas de
l’expertise en interne pour se conformer au RGPD. Bien sûr, RGPD peut aussi être vu comme
une opportunité pour réfléchir et améliorer le traitement de l’information de l’organisation.
Biais éthique | Probablement | M Langé & LN Hoang (2019)
130 CHAPITRE 7. CONTRAINTES SUR LES CONTRAINTES DES IA
Cette bataille acharnée est exacerbée par l’effet de réseau. Cet effet repose sur
une boucle de rétroaction positive : des entreprises avec un meilleur produit
acquièrent davantage de clients sans coût additionnel, ce qui leur permet de
récolter davantage de données d’utilisateurs, ce qui permet ensuite d’amélio-
rer leurs produits et de rester au-dessus de la concurrence. Autrement dit, dès
qu’une entreprise surpasse la concurrence, parce que ses rendements marginaux
sont croissants, il peut être extrêmement difficile pour un concurrent de la rat-
traper.
Ce phénomène n’est d’ailleurs pas spécifique aux entreprises. Les vidéastes sur
YouTube développent des stratégies similaires. Ils se battent avant tout pour
gagner des abonnés et faire grossir leur audience. Il en va de même pour toutes
sortes d’associations, de partis politiques et de mouvements idéologiques. Quand
il s’agit de santé publique, de justice sociale ou de changement climatique, il faut
l’attention du plus grand nombre pour avoir un impact non-négligeable.
12. AI Superpowers : China, Silicon Valley, and the New World Order | Houghton Mifflin
Harcourt | KF Lee (2018)
13. An AI race for strategic advantage : rhetoric and risks | AAAI | S Cave et S ÓhÉi-
geartaigh (2018)
MONOPOLE 131
Monopole
Malheureusement, selon l’informaticien Paul Christiano, il paraît difficile d’ex-
clure la possibilité que de telles concurrences exacerbées persistent même jusqu’à
la veille de l’émergence des IA de niveau humain 17 . C’est le scénario du décol-
lage lent, ou slow takeoff. En cas de décollage lent, il sera crucial de disposer de
solutions de sécurité extrêmement peu coûteuses pour les entreprises en charge
de développer et de déployer les IA 18 . Surtout dans un contexte de concurrence.
En fait, de manière très contre-intuitive, pour des considérations de sécurité des
IA, il pourrait peut-être être souhaitable de disposer de monopoles (adéquate-
ment régulés). Voilà la thèse très contre-intuitive que nous allons défendre dans
cette section. À l’instar d’autres thèses contre-intuitives défendues dans ce livre,
nous vous prions de faire preuve d’un maximum de bienveillance, de modestie
et de prudence vis-à-vis de cette thèse. Et si vous êtes amené à en parler à votre
tour, nous vous supplions de faire un effort particulier de pédagogie, de clarté
et de nuances. Mal défendre une thèse contre-intuitive a des effets secondaires
indésirables. Nous allons ici faire de notre mieux pour les éviter.
14. La bonne nouvelle est que le coût de causer un bienfait planétaire semble aussi décroître
exponentiellement !
15. Pourquoi faut-il bannir les armes autonomes ? The Flares | G Selles & M Durand
(2019)
16. Slaughterbots | Future of Life Institute (2017)
17. Ce pourrait notamment être le cas si les IA reposent davantage sur des avancées hardware
que software.
18. Arguments about fast takeoff | Less Wrong | P Christiano (2018)
132 CHAPITRE 7. CONTRAINTES SUR LES CONTRAINTES DES IA
19. Haïssez le jeu. Pas les joueurs. Science4All |LN Hoang (2017)
20. Facebook has struggled to hire talent since the Cambridge Analytica scandal, according
to recruiters who worked there | CNBC | S Rodriguez (2019)
MONOPOLE 133
géants du Web 21 .
Une cinquième raison est l’excuse contre-factuelle proposée par ceux qu’on dé-
signe parfois comme (co-)responsables d’un problème. Si ce n’est pas moi, ce
sera quelqu’un d’autre, entend-on parfois. Cet argument tout à fait valide n’aide
malheureusement pas à la diffusion de l’éthique dans nos sociétés. De façon
intéressante, toutefois, cet argument semble bien moins valable dans le cas de
monopole. Si un monopole ne déploie pas une IA peu robuste, il semble en fait
raisonnable de penser que personne d’autre ne le fera. Un monopole pourrait
alors davantage sentir une responsabilité à entreprendre des actions plus béné-
fiques. Voilà qui paraît d’autant plus crucial dans le cas des IA, dont les effets
secondaires difficilement prévisibles requièrent beaucoup de temps, d’énergie et
de travail pour être suffisamment anticipés 22 .
Enfin, une sixième et dernière raison qu’on vous propose ici est la possibilité
de s’appuyer sur le monopole en question pour coordonner le fabuleux chantier
pour rendre les IA bénéfiques. Malheureusement, pour l’instant, les appels à ce
faire ressemblent un peu aux mouvements sociaux désorganisés dont on a parlé
dans le chapitre 3. Il est difficile de s’y retrouver, car il manque d’un corps in-
termédiaire pour coordonner le chantier — c’est d’ailleurs l’un des objectifs de
ce livre ! Un monopole serait un candidat idéal pour être un tel intermédiaire.
En fait, si vous travaillez chez l’un des géants du Web, ou si vous connaissez
quelqu’un qui y travaille, il semble utile de l’encourager à organiser au sein de
son entreprise des structures permettant de stimuler la réflexion éthique, voire
la coordination du fabuleux chantier pour rendre les IA bénéfiques, en exploi-
tant à la fois des ressources internes et externes à l’entreprise. En particulier,
partager publiquement les problèmes éthiques et les effets secondaires mal maî-
trisés auxquels l’entreprise est confrontée semble être une solution prometteuse
pour motiver la recherche sur ces défis, et pour trouver rapidement des solutions
potentielles. Ainsi, de façon remarquable, depuis 2017, Facebook semble avoir
déjà entamé cette procédure, en tenant un blog qui liste des dilemmes éthiques,
appelés Hard Questions, qui se posent à son entreprise 23 . Nous ne pouvons
qu’encourager d’autres géants du Web à imiter cette initiative de Facebook,
même s’il ne s’agit bien sûr là que d’un premier pas vers l’éthique des IA.
Bien sûr, la centralisation du pouvoir des IA comporte elle aussi des risques
majeurs. Si l’entité au pouvoir ne se préoccupe pas suffisamment des enjeux
éthiques de l’IA, ou si elle n’est pas suffisamment bien régulée ou encouragée
à ce faire, l’impact des IA de cette entité pourrait être catastrophique. On
pourrait alors assister à l’émergence d’un pouvoir autoritaire, voire à des effets
secondaires des IA plus catastrophiques encore.
21. Tous pareils Tous Lâches : Non-Assistance à personne en danger et Effet Specta-
teur | Psynect | P Sauz (2015)
22. Il est ainsi notable que le PDG de Facebook, Mark Zuckerberg, a récemment pris les
devants en entamant lui-même des discussions éthiques, par exemple dans cette conversation
avec Yuval Noah Harari :
Mark Zuckerberg & Yuval Noah Harari in Conversation (2019)
23. Introducing Hard Questions | Facebook Newsroom | E Schrage (2017)
134 CHAPITRE 7. CONTRAINTES SUR LES CONTRAINTES DES IA
Néanmoins, toutes les raisons ci-dessus, parmi d’autres, suggèrent qu’une vi-
sion centralisée du futur des IA pourrait peut-être être en fait préférable à une
vision décentralisée du futur des IA. Étrangement, un certain nombre de pen-
seurs voient désormais l’existence de monopoles naturels causés par l’effet de
réseau comme étant une bonne nouvelle 24 . Certes, cet effet de réseau motive
une concurrence acharnée à l’échelle des startups. Cependant, il a également le
bon goût de faire émerger une poignée de vainqueurs, parfois même un unique
vainqueur pour certaines applications. L’effet de réseau permet alors de garan-
tir que ces vainqueurs, qu’il s’agisse de Google, Facebook, YouTube, Twitter,
Amazon, Apple ou autres, ne seront pas trop menacés par la concurrence. Ces
entreprises sont des monopoles. Et pour des raisons de sécurité et d’éthique
des IA, ce n’est finalement peut-être pas une si mauvaise chose — à condition
de maintenant motiver autant que possible ces monopoles à rendre leurs IA
robustement bénéfiques !
Open source
Monopole ou non, il semble souhaitable que les solutions de sécurité des IA
s’appuient sur un développement au moins partiellement open source, c’est-à-
dire dont le code algorithmique est (facilement) accessible à tout internaute. En
effet, l’open source présente un très grand nombre d’avantages, dont il serait
peut-être imprudent de se passer.
En premier lieu, l’open source permettrait d’apporter de la transparence au fonc-
tionnement des IA. Il aiderait chacun à mieux comprendre pourquoi l’IA fait ce
qu’elle fait. Chaque utilisateur pourrait alors mieux discerner les intentions des
IA et des entreprises qui les développent, ce qui permettrait donc de construire
des relations de confiance plus justifiables entre utilisateurs et applications. De
façon intéressante, à l’instar de ce qu’il s’est récemment passé dans le monde de
la recherche académique 25 , si l’open source des applications se généralisait un
peu plus, alors l’exigence de transparence pourrait davantage se normaliser.
On pourrait alors rétorquer que l’open source reviendrait toutefois à révéler des
secrets industriels, qui semblent cruciaux à la survie des entreprises. Cependant,
cette remarque qui s’applique très largement à certaines industries ne semble
pas être aussi pertinente pour les entreprises du numérique, en particulier à
cause de l’effet de réseau dont on a déjà parlé. En effet, il semble que la valeur
de Facebook ou YouTube réside bien plus dans leur énorme part de marché
que dans le secret de leurs algorithmes. Rendre ces algorithmes open source
ne semble pas significativement augmenter le risque d’un concurrent. Sans en
aller jusque-là, certaines parties de ces algorithmes pourraient sans doute être
rendues disponibles sans risque économique pour l’entreprise en question.
24. Report from the AI Race Avoidance Workshop | GoodAI and AI Roadmap Institute |
M Rosa, O Afanasjeva & W Millership (2017)
25. Open science | Probablement | C Gruson-Daniel & LN Hoang (2019)
LE FARDEAU MORAL 135
En fait, il semble que la principale menace pour ces entreprises soit davantage
une énorme catastrophe causée par leurs IA. Or, l’open source est justement
réputée pour sa capacité à fournir des solutions robustes. En effet, un code
open source étant examiné par des milliers, voire dans ce cas probablement
des millions d’utilisateurs, de nombreuses failles qui n’ont pas été détectées par
les développeurs initiaux du code pourront être trouvées et patchées par les
contributeurs du projet open source. À l’instar des énormes projets collaboratifs
open source comme GNU ou Linux, l’open source semble permettre d’augmenter
la résilience des systèmes informatiques.
Enfin, et surtout, rendre le code des IA des entreprises open source pourrait
grandement stimuler et coordonner la recherche sur comment rendre ces IA ro-
bustement bénéfiques. Il y a même déjà eu plusieurs précédents remarquables.
En 2015, Google a rendu open source sa librairie d’algorithmes de machine lear-
ning appelée TensorFlow. Facebook a fait de même pour sa librairie PyTorch.
Ceci a conduit à une explosion de la recherche en machine learning, avec des
avancées importantes qui auraient requis de nombreuses années de plus en l’ab-
sence de TensorFlow et de PyTorch (ainsi que des autres librairies rendues libre
dans la même période). De la même manière, de nombreuses banques d’images
comme ImageNet ou MNIST ont été mises à disposition des chercheurs pour
accélérer la recherche en IA.
Lors de son audition au Congrès américain, Mark Zuckerberg affirma : « Au
fur et à mesure que les IA auront un rôle plus proactif en regardant les conte-
nus, je pense qu’il se posera alors des questions massives pour nos sociétés ».
Pour permettre d’adresser ces questions urgentes, il semble critique que Face-
book et les autres géants du Web participent activement au fabuleux chantier
pour rendre les IA bénéfiques, en partageant les problèmes qu’ils rencontrent,
en communiquant sur les idées qu’ils envisagent pour résoudre ces problèmes
et en permettant à d’autres d’aider à mieux cerner les défis majeurs et les so-
lutions prometteuses. « C’est vraiment dur », rajoute Zuckerberg, en parlant
notamment de la modération des appels à la haine. Encourager et faciliter des
contributions externes semblent donc indispensables.
Si rendre les IA robustement bénéfiques est une urgence, alors stimuler et coor-
donner la recherche qui va dans ce sens semble prioritaire. Davantage de trans-
parence algorithmique pourrait être une excellente façon d’y arriver.
Le fardeau moral
Références
Beyond the AI Arms Race : America, China, and the Dangers of Zero-Sum
Thinking | Foreign Affairs | R Zwetsloot, H Toner & J Ding (2018)
Facebook has struggled to hire talent since the Cambridge Analytica scandal,
according to recruiters who worked there | CNBC | S Rodriguez (2019)
139
140 CHAPITRE 8. PEUT-ON CONTRÔLER LES IA ?
Imaginez par exemple une voiture autonome dont le but est d’amener des passa-
gers de A à B. Cette voiture dispose d’un bouton d’arrêt. Il suffit aux passagers
d’appuyer sur ce bouton pour garantir l’interruption de la voiture autonome.
Un tel système peut paraître sécurisé.
Cependant, la voiture autonome a pour but d’amener ses passagers de A à B.
Par conséquent, toute interruption de la voiture serait au moins un frein, sinon
un échec vis-à-vis de son but. Dès lors, il faut s’attendre à ce que la voiture
autonome entreprenne des actions qui minimisent ses chances d’interruption.
Or, pour minimiser ses chances, certes elle doit faire ce qu’on attend d’elle, mais
elle peut de surcroît mettre les passagers dans des conditions qui réduiront leur
désir ou leur capacité à actionner le bouton d’arrêt.
Typiquement, la voiture pourrait découvrir que certaines musiques rendent les
passagers particulièrement enthousiastes, si bien que ces passagers se mettront
à chanter et à prêter moins d’attention à la route. La voiture pourrait suggérer
des vidéos YouTube ou des photos Instagram que les passagers se mettront à
visionner. Elle pourrait également adopter un style de conduite qui bercerait
les passagers et les amènerait à s’endormir. Dans tous ces cas, on risque alors
d’en arriver à une situation où le bouton d’arrêt devrait être actionné, mais où
les passagers n’auraient pas l’attention suffisante pour l’actionner. Le bouton
d’arrêt ne serait pas une garantie de contrôle par les humains 3 .
Dans la suite de ce chapitre, nous verrons que cet exemple n’est que la partie
émergée de l’iceberg. L’interruption des IA par des humains pose en fait de
nombreux autres problèmes complexes. En particulier, nous défendrons la thèse
selon laquelle la possibilité pour des humains d’interrompre les IA ne garantit
absolument pas que les IA en fonctionnement seront bénéfiques. Pire, la pré-
sence d’un bouton d’arrêt pourrait même, au moins dans certains cas, être une
option dangereuse. Là encore, il s’agit d’une thèse très contre-intuitive. Nous
vous prions donc de faire preuve de beaucoup de bienveillance, d’attention et
de modestie.
L’interruptibilité
Avant d’en arriver à cette thèse, insistons sur le nœud du problème soulevé
par l’expérience de pensée ci-dessus : de façon générale, une IA ne sera proba-
blement pas indifférente à l’interruption. En effet, l’interruption risque souvent
de retarder (voire d’interrompre) l’IA dans la réalisation de sa tâche. Si c’est
le cas, après avoir appris des interruptions passées par exemple, l’IA pourrait
apprendre à planifier des stratégies pour réduire ses chances d’être interrompue.
Notez d’ailleurs que le cas inverse, où l’IA gagnerait à être interrompue, est po-
tentiellement tout aussi problématique. En effet, dans ce cas, l’IA chercherait à
3. Misbehaving AIs can’t always be easily stopped ! | ZettaBytes, EPFL | EM El Mhamdi
(2018)
BOÎTE NOIRE 141
être interrompue. Or les stratégies qui maximisent les chances d’être interrom-
pue pourraient typiquement correspondre à réaliser des actions que les humains
en charge de l’interruption jugeront dangereuses.
En partant de ces réflexions, dans un article 4 de 2016, les chercheurs Armstrong
et Orseau conclurent que l’interruptibilité sécurisée des IA requiert leur indiffé-
rence à l’interruption — surtout si ces IA sont capables de planifier des stratégies
plus sophistiquées que nous. Malheureusement, la plupart des IA n’ont pas cette
propriété d’indifférence à l’interruption. Surtout dans le cadre de l’apprentissage
par renforcement dont on parlera dans le prochain chapitre.
Dans la suite de leur article, Armstrong et Orseau identifient certaines IA qui
possèdent effectivement la propriété d’indifférence à l’interruption. Ces IA sont,
en un sens, les IA myopes. Autrement dit, il s’agit des IA qui ne cherchent pas
à apprendre les relations de cause à effet, lorsque la cause et l’effet sont distants
dans le temps. En un sens, ces IA ne seront alors pas capables de planifications de
stratégies à long terme, ce qui les empêchera de voir les coûts (ou les bénéfices)
à être interrompues 5 .
Malheureusement, notamment au vu de notre discussion dans le chapitre précé-
dent, il semble bien trop contraignant d’exiger la myopie des IA. Pire, il pourrait
s’agir d’une mauvaise idée, car ces IA myopes risquent d’être aveugles à des ef-
fets secondaires à long terme. En particulier, comme on le verra dans le prochain
chapitre, elles risquent d’échouer à effectuer des explorations sûres 6 .
Boîte noire
À défaut de pouvoir garantir l’indifférence à l’interruption des IA, on pourrait
toutefois se demander s’il ne serait pas possible de comprendre et contrôler
tous leurs calculs pour anticiper et empêcher leurs stratégies problématiques.
Ne pourrait-on pas disséquer les IA et y déceler leurs intentions ? Les IA, après
tout, ne sont-elles pas qu’un code que l’on peut littéralement lire ?
Malheureusement, comprendre une IA à partir de son code est une tâche ô
combien difficile, à l’instar de déduire les phénotypes d’un individu à partir
de son information génétique. En particulier, les fameux réseaux de neurones
artificiels, qui joueront probablement un rôle central dans les IA du futur comme
c’est le cas des IA d’aujourd’hui, sont justement réputés pour leur manque de
4. Safely interruptible agents | L Orseau et S Armstrong (2016)
5. Safe Interruptibility Needs Off-Policy | ZettaBytes, EPFL | H Hendrikx (2018)
6. Notez toutefois que des solutions plus prometteuses ont été proposées, en s’appuyant
notamment sur l’alignement des récompenses des IA. Voir :
Enter the Matrix : Safely Interruptible Autonomous Systems via Virtualization | M Riedl
& B Harrison (2017)
Dans le cadre de notre feuille de route décrite dans le chapitre 11, cet ajustement des récom-
penses pour satisfaire l’interruptibilité (ou la corrigibilité) des IA sera assuré par Bob, dont
on reparlera dans le chapitre 14.
142 CHAPITRE 8. PEUT-ON CONTRÔLER LES IA ?
représenter un coût trop important pour la performance de l’IA. Après tout, les
IA capables de détecter les chats ne sont pas nées de l’écriture d’algorithmes
parfaitement interprétables. Elles ont été produites par du deep learning peu
interprétable. Il semble en fait désirable de concevoir des IA de sorte que leur
architecture soit globalement interprétable, tout en renonçant probablement à
ce que tous les composants des IA le soient 10 .
Impossible à surveiller
10. Retour sur AAAI 2019 (méga-conférence de recherche en IA) | LN Hoang &
Alexandre Technoprog (2019)
IMPOSSIBLE À TESTER 145
Bien entendu, ceci n’a pas empêché les scientifiques de chercher à se faire une idée
des actions caractéristiques de l’IA de YouTube. Par exemple, dans le cadre d’un
projet fascinant intitulé AlgoTransparency 11 , l’informaticien Guillaume Chaslot
propose d’étudier l’IA de recommandation de YouTube en ne cessant de cliquer
sur l’une des vidéos suggérées 12 . Cependant, il faut bien voir qu’il ne s’agit là
que d’un minuscule échantillon non représentatif de l’océan de recommanda-
tions faites par l’IA de YouTube, celles-ci dépendant des profils très spécifiques
des utilisateurs. Pire encore, il se pourrait que cet océan soit globalement bé-
néfique, mais qu’une toute petite partie de cet océan contienne les germes de
recommandations aux conséquences catastrophiques.
Ce sur quoi nous souhaitons insister ici, ce n’est pas tant ce que YouTube fait
en pratique. Ce que nous cherchons à souligner, c’est qu’une IA comme celle de
YouTube d’aujourd’hui est déjà extrêmement difficile à surveiller. Et notez que
la raison de cela n’est pas tant l’opacité du code source de l’IA. Le problème
est l’échelle à laquelle agit cette IA. À cause de cela, même les ingénieurs de
YouTube ont très certainement un mal fou à surveiller ce que fait leur IA.
En fait, comprendre une IA comme celle de YouTube est devenu tout un champ
de recherche 13 . L’IA de YouTube et ses effets secondaires sont si complexes qu’ils
semblent même nécessiter eux-mêmes des IA pour être étudiés. En effet, une telle
étude devra analyser la quantité monstrueuse de données générées par l’IA de
YouTube, et identifier dans ces données massives quelques points importants.
Seule une IA semble pouvoir surveiller une IA comme celle de YouTube 14 .
Impossible à tester
Mais ce n’est pas tout. Dans le cadre d’un bouton d’arrêt, ce qui importe n’est
pas tant le passé. Ce qui importe pour déterminer s’il faut interrompre l’IA,
ce sont les actions que va entreprendre l’IA de YouTube à l’avenir. En effet, le
rôle du bouton d’arrêt est surtout d’empêcher ces actions futures. Il ne peut pas
annuler les actions passées.
Certes, pour certaines IA et dans certains cadres, il sera possible pour un hu-
main de prédire les conséquences (et effets secondaires) des actions futures de
l’IA à partir des actions passées. Ce sera notamment le cas lorsque l’IA cesse
d’apprendre une fois déployée, lorsque le cadre dans lequel elle est déployée ne
change pas beaucoup et lorsque ce cadre d’application est similaire aux données
d’entraînement de l’IA. En particulier, dans ces situations, qui correspondent
11. algotransparency.org
12. Rendre YouTube bénéfique | Probablement | G Chaslot & LN Hoang (2019)
13. Science and medicine on YouTube | SIHIR | J Allgaier (2018)
14. Malheureusement, en gardant la quasi-totalité de ses données secrètes, YouTube semble
freiner ce champ de recherche pourtant probablement utile au fabuleux chantier pour rendre
l’IA robustement bénéfique. Il pourrait alors être souhaitable que YouTube rende certaines de
ces données accessibles aux acteurs académiques.
146 CHAPITRE 8. PEUT-ON CONTRÔLER LES IA ?
Il y a une raison plus simple pour laquelle un bouton d’arrêt ne semble pas
garantir que l’IA de YouTube demeurera globalement bénéfique : il semble ex-
trêmement difficile de déterminer si l’IA de YouTube est globalement bénéfique.
Il se pourrait ainsi qu’une IA soit en fait globalement néfaste, mais que, parce
qu’on n’arrive pas à le déterminer, on ne choisit pas de l’interrompre.
Du reste, juger des apports bénéfiques et néfastes d’une IA ne suffit en fait
pas pour déterminer s’il est souhaitable de l’interrompre. En effet, la question
adéquate est davantage de déterminer si l’interruption d’une IA est davantage
souhaitable que sa non-interruption. Or cette interruption peut elle-même avoir
des effets secondaires très néfastes.
15. Dans le jargon, on parle de décalage distributionnel, ou distributional shift en anglais.
16. My Video Went Viral. Here’s Why | Veritasium | D Muller (2019)
17. Hacker l’IA | Science4All | EM El Mhamdi & LN Hoang (2018)
PEUT-ON SAVOIR SI UNE IA EST BÉNÉFIQUE ? 147
L’exemple le plus évident serait le cas d’une voiture autonome sur une autoroute
dense mais fluide. Imaginons que vous ayez rentré la mauvaise destination et que,
pour une étrange raison, la voiture autonome refuse de changer de destination.
Mécontent, vous décidez d’interrompre soudainement votre voiture autonome.
Celle-ci risquerait de causer au moins un énorme embouteillage, voire un acci-
dent potentiellement tragique. L’interruption sécurisée de systèmes complexes
peut être un problème en soi !
Un exemple plus concret est celui des systèmes écrits en COBOL. Ce langage
de programmation, qui date de 1959, fait encore tourner une grande partie du
système bancaire mondial 18 . Près de 80 % des transactions personnelles et 95 %
des opérations sur guichet automatique aux États-Unis dépendent d’un code
informatique écrit en COBOL 19 . Cependant, la communauté des développeurs
capables de maintenir des programmes en COBOL est en train de littéralement
disparaître. De nombreuses perles rares ont en effet autour de 75 ans 20 . Malgré
les intérêts économiques majeurs à moderniser les programmes en COBOL, le
système bancaire paraît paralysé par la crainte justifiée des effets secondaires
d’une interruption mal maîtrisée d’un code qui fait tourner trois mille milliards
de dollars par jour dans l’économie mondiale.
18. How COBOL Still Powers The Global Economy At 60 Years Old | TheNextWeb.com |
Paul Plahive (2019)
19. Ancient programming language Cobol can make you bank, literally | TheNextWeb |
Másson Maack (2017)
20. Banks scramble to fix old systems as IT ’cowboys’ ride into sunset | Reuters | Anna
Irrera (2017)
21. Cette banque fait environ 9 milliards de dollars de bénéfices nets annuels.
22. COBOL : completely obsolete omnipresent language | DevOps.com | Bertrand Bes-
nard (2014)
148 CHAPITRE 8. PEUT-ON CONTRÔLER LES IA ?
Ces questions ne sont d’ailleurs pas restreintes au contrôle des IA. Quand un
groupe décide collectivement, celui-ci sera souvent divisé par les divergences
entre les individus du groupe. Toute décision collective nécessite souvent des
compromis, surtout si beaucoup d’individus sont concernés par la décision. On
parle du problème du choix social.
Ce problème fascinant a été étudié sous de nombreux angles, allant des ma-
thématiques à la psychologie en passant par l’économie. Étrangement, chaque
angle a apporté son lot de mauvaises nouvelles. Les mathématiciens ont prouvé
des théorèmes d’impossibilité 23 , l’économie a montré le rôle prépondérant des
incentives 24 et la psychologie expérimentale a mis en évidence la polarisation
de groupe 25 . Décider ensemble est une tâche très difficile, qui conduit malheu-
reusement souvent à de nombreux mécontents.
Pire, dans le cas de l’interruption des IA, il peut y avoir urgence à prendre une
décision. Or, les prises de décision collectives sont d’autant plus lentes que le
nombre d’individus impliqués dans la prise de décision est grand. L’approche
délibérative, qui consiste à faire débattre et à donner la parole à chacun, semble
malheureusement très inadaptée à l’urgence potentielle à interrompre une IA.
Un scruting peut paraître plus opportun. Mais la prise de décision collective via
un scrutin, dans l’urgence et la précipitation, sera-t-elle bien informée 26 ? Les
IA sont des systèmes complexes, qui évoluent désormais au sein d’écosystèmes
difficilement compréhensibles, y compris pour des humains compétents 27 .
Automatiser la sécurité
De façon plus générale, il est fréquent que, dans le but de rendre les IA béné-
fiques, une liste de conditions sur le développement des IA soit dressée. Ces listes
sont d’une grande utilité pour mieux cerner les risques potentiels. Cependant,
il n’est pas toujours clair que les conditions identifiées sont nécessaires pour
rendre les IA bénéfiques. Mais surtout, il est souvent illusoire d’espérer dresser
une liste de conditions qui soit suffisante. Après tout, ces listes sont souvent le
fruit de réflexions d’humains, dont les capacités limitées seront probablement
incapables d’anticiper tous les scénarios problématiques imaginables et toutes
les solutions techniques potentielles — à moins de prouver des théorèmes dont
les hypothèses sont très crédibles.
Mais avant de poursuivre la lecture, nous vous invitons à méditer les réflexions
de ce chapitre. Vous a-t-on convaincu des déficiences du bouton d’arrêt ? Les
IA d’aujourd’hui vous semblent-elles contrôlables ? Que pourrait-on faire pour
rendre ces IA davantage contrôlables ? Peut-on rendre les IA auditables ? Peut-
on surveiller les actions des IA ? Peut-on juger les effets secondaires des IA ?
Et que faire des tâches où l’IA surpasse l’humain, comme le diagnostic de cer-
taines maladies ? Tester ces IA suffit-il ? Comment tester des IA qui interagiront
avec des environnements complexes ? Comment déterminer si elles seront alors
globalement bénéfiques ? Peut-on alors s’assurer qu’elles seront robustement bé-
néfiques ? Comment pourra-t-on s’en assurer ?
Références
Super intelligence : le grand défi de l’humanité | Dunod | N Bostrom (2017)
9
talents mathématiques de la prochaine génération.
Nick Bostrom (1973-)
La programmation des IA
153
154 CHAPITRE 9. LA PROGRAMMATION DES IA
Cette question est fascinante. Elle revient à se poser des questions sur les fon-
dements de l’algorithmique. Elle a d’ailleurs été formalisée par Solomonoff en
1960, puis de manière indépendante par Kolmogorov en 1964. On l’appelle dé-
sormais complexité de Solomonoff 2 . Il s’agit de la taille du code algorithmique
le plus succinct capable de réaliser une tâche donnée 3 .
Turing s’aventure alors à estimer la complexité de Solomonoff du test de Turing.
Quelle est la taille du plus court code capable de passer le test de Turing ? Tu-
ring fait alors la remarque qu’il existe des machines capables de cette prouesse :
les cerveaux humains. Après tout, qui de mieux qu’un humain pour être indis-
cernable d’un humain ? Turing en déduit que la complexité de Solomonoff du
test de Turing est au plus la complexité d’un cerveau humain.
En 1950, les neuroscientifiques estimaient alors que le cerveau humain possédait
entre 1011 et 1015 synapses — aujourd’hui, ils estiment qu’il y en a entre 1014
et 5 · 1014 . Turing postule ensuite que ce cerveau humain utilise assez bien ses
ressources. Par cela, il entend qu’une proportion non négligeable du cerveau,
disons au moins un centième, est nécessaire pour tenir une discussion. Après
tout, il nous est difficile de tenir une discussion intéressante en faisant autre
chose. Et impossible de tenir deux discussions intéressantes en parallèle.
Voilà qui amène Turing a conclure que la complexité de Solomonoff du test
de Turing est probablement supérieure à 109 . Autrement dit, toute application
dont la taille est inférieure au gigaoctet échouerait nécessairement au test de
Turing 4 . Cependant, écrire des codes informatiques est une tâche herculéenne.
Surtout que nos codes sont rarement écrits de manière très concise. En fait,
Turing estime que, même en étant optimiste, des décennies de travail d’équipe
semblent nécessaires pour simplement écrire ce code, y compris en admettant que
l’équipe en question soit composée des meilleurs programmeurs de la planète.
Cependant, avant d’écrire ce code, encore faut-il parvenir à le penser adéquate-
ment. Voilà qui, lorsqu’il s’agit de programmer des milliards de lignes de codes,
semble désespéré... Dès lors, selon Turing, l’écriture du code d’une IA capable
de passer le test de Turing ne sera probablement pas à la portée des humains ;
seules des machines pourront concevoir un tel code.
Cette remarque de Turing ne semble d’ailleurs pas spécifique à la program-
mation des IA. En effet, l’écriture de traités complets de biologie, de textes
de loi qui traitent de tous les cas légaux imaginables, ou d’une philosophie mo-
rale conforme aux valeurs humaines, pourrait bien être humainement impossible
pour des raisons similaires. La complexité de ces textes pourrait excéder ce qu’un
humain, ou groupe d’humains, est capable d’écrire. En particulier, comme on
en reparlera dans le chapitre 16, les axiomes adéquats de la philosophie morale
pourraient être trop complexes pour être contenus dans un livre de 500 pages —
à l’instar de ce livre que nous aurions aimé être bien plus court.
2. On l’appelle aussi parfois complexité algorithmique ou complexité de Kolmogorov.
3. Ou plus précisément, de calculer l’une des fonctions d’un ensemble de fonctions donné.
4. Au vu des connaissances actuelles, il semble raisonnable d’estimer que cette complexité
nécessaire est probablement plutôt de l’ordre de 1010 à 1014 .
SUPERVISÉ VERSUS NON SUPERVISÉ 155
En fait, plutôt qu’un algorithme qui écrit le code d’une IA, Turing imagine
davantage des machines capables de réécrire et d’améliorer leurs propres codes,
en s’appuyant typiquement sur des données d’apprentissage. Turing invente ainsi
les learning machines, ou ce qu’on appellera plus tard le machine learning ou
apprentissage-machine. À l’instar des enfants, ces machines seront capables de
faire évoluer l’état de leur connaissance, en analysant ce qu’elles observent. Et
de façon cruciale, selon Turing, cette approche de la conception des IA finira par
être inévitable, car il y a des limites algorithmiques fondamentales à ce que des
humains auront le temps de programmer à la main. La dernière décennie semble
lui avoir donné raison de manière stupéfiante — et, étrangement, inattendue par
beaucoup d’experts en IA 5 .
Dans ce livre, nous avalerons l’argument de Turing et accepterons les conclusions
de ses prémisses. Nous supposerons que, à l’instar des IA du présent, les IA du
futur reposeront fortement sur du machine learning. Voilà qui, comme on l’a
déjà vu et comme on le verra, a des conséquences majeures sur les solutions
techniques envisageables pour rendre ces IA robustement bénéfiques.
Pour apprendre des données non étiquetées, les chercheurs en IA se sont tournés
vers l’apprentissage dit non supervisé. L’idée, intuitivement, c’est qu’à force de
voir, disons, des images d’animaux, l’IA finira par comprendre d’elle-même que
l’ensemble de ces images d’animaux peut être naturellement divisé en plusieurs
catégories. Certains pourraient ainsi être regroupés sous l’appellation de chats.
D’autres sous l’appellation de chiens. L’IA aura alors appris à bien réfléchir
aux images d’animaux, malgré l’absence de directives. Et en effet, de manière
surprenante, en 2012, une IA de Google exposée aux vignettes YouTube a fini
par apprendre le concept de chat 7 !
L’apprentissage non supervisé est parfois critiqué, car son objectif n’est pas
clair. En particulier, il semble dès lors difficile de juger de la performance d’un
algorithme d’apprentissage non supervisé, et de la comparer à celle d’un autre
algorithme. Certains vont viser la réduction de la dimensionnalité 8 . D’autres
essaieront d’identifier des partitions des données. Certains, enfin, se lanceront
dans de la compression de données, avec ou sans perte.
Une autre approche encore est appelée le bayésianisme 9 . De façon grossière, le
bayésianisme cherche à identifier et calculer la crédence de théories T capables de
générer les données D collectées. Et pour y parvenir, il effectue tout simplement
le calcul de la formule de Bayes 10 ci-dessous :
P[D|T ]P[T ]
P[T |D] = X .
P[D|T ]P[T ] + P[D|A]P[A]
A6=T
gie est difficile 16 . Pendant longtemps, les machines étaient très inférieures aux
humains pour cette tâche — et les humains n’excellaient pas particulièrement.
En s’appuyant sur un apprentissage par renforcement radicalement différent des
approches proposées jusque-là 17 , AlphaFold a bouleversé la donne 18 .
Ce succès et d’autres, notamment du côté des voitures autonomes, suggèrent que
les IA du futur apprendront probablement par renforcement elles aussi. Telle est
l’hypothèse fondamentale sur laquelle s’appuiera le reste du livre.
X
Maximiser e−t/τ E [R(t) | a] .
Action a
t≥t0
Tel est le calcul que semblent approcher les IA les plus puissantes d’aujourd’hui,
et que feront probablement approximativement les IA du futur. Tout l’objet de
ce livre est de maximiser les chances que le calcul ci-dessus conduise à des actions
robustement bénéfiques pour l’humanité. Pour cela, il sera crucial de concevoir
des récompenses R(t) adéquates.
25. La plus grosse confusion des sciences : la p-value ! ! Science4All | LN Hoang (2019)
26. Moving to a World Beyond p < 0.05 | The American Statistician | R Wasserstein, A
Schirm & N Lazar (2019)
27. La crise des statistiques | Science4All | LN Hoang (2019)
28. La plupart des publications scientifiques sont fausses ! ! | Science4All | LN Hoang
(2019)
29. Peeking at a/b tests : Why it matters, and what to do about it | R. Johari, P Koomen,
L Pekelis & D Walsh (2017)
30. When To Try New Things (According to Computer Science) | Up and Atom | J
Tan-Holmes (2017)
31. Le paradoxe de Simpson | Science Étonnante | D Louapre (2015)
162 CHAPITRE 9. LA PROGRAMMATION DES IA
Exploration stratégique
Le problème du multi-armed bandit s’est traditionnellement arrêté au cas où le
nombre d’actions possibles était raisonnablement faible, et où l’incertitude sur
les effets des actions était invariante dans le temps 32 . Cependant, le cas de You-
Tube est typiquement autrement plus complexe. La recommandation de You-
Tube nécessite d’extraire une poignée de vidéos dans une librairie gigantesque de
manière quasi instantanée, et les effets de cette recommandation dépendent de
nombreux facteurs qui ne cessent de changer à travers le temps, comme les goûts
et les intérêts des utilisateurs. Dans de tels contextes, programmer correctement
l’IA est un défi de recherche monumental.
En particulier, contrairement au cas du multi-armed bandit, il semble désormais
qu’il faudra régulièrement effectuer de l’exploration, au moins pour vérifier que
les données passées sont encore pertinentes pour prédire le futur. Mieux encore,
l’IA devra chercher à identifier quelles explorations effectuer pour maximiser
ses chances de réduire son incertitude sur l’incertitude des effets clés de telle
32. Techniquement, ceci veut dire qu’on considère que les algorithmes dont le temps de
calcul est polynomial en le nombre d’actions sont « pragmatiques », et que les récompenses
associées à une action sont indépendantes et identiquement distribuées.
AIXI 163
AIXI
Les dernières sections de ce chapitre peuvent sembler nombreuses, complexes
et désordonnées. Vous pourrez avoir ressenti un manque de fondements théo-
riques des sections précédentes. Vous auriez raison. Comprendre les algorithmes
actuellement utilisés pour effectuer de l’apprentissage par renforcement est sou-
vent très délicat. Qui plus est, il est important de garder à l’esprit que ces
33. Concrete Problems in AI Safety | D Amodei, C Olah, J Steinhardt, P Christiano, J
Schulman & D Mané (2016)
34. AI Safety Gridworlds | J Leike, M Martic, V Krakovna, P Ortega, T Everitt, A
Lefrancq, L Orseau & S Legg (2017)
164 CHAPITRE 9. LA PROGRAMMATION DES IA
Références
10
Le but des IA
Thèse de l’orthogonalité
Dans son livre Superintelligence, le philosophe Nick Bostrom imagine une IA
dont le but est la maximisation de trombones. Bostrom suppose de surcroît
que cette IA surpasse largement l’humain dans ses capacités de modélisation du
monde et de planification de stratégies. Bostrom juge alors probable que cette IA
concevrait toutes sortes de stratégies qu’il nous est impossible de comprendre,
voire d’imaginer, et en viendrait in fine à réussir sa tâche. Or, réussir sa tâche
correspondrait en fait à transformer tout l’univers observable en trombones —
y compris les humains.
Certains observateurs jugent toutefois cette histoire improbable. Ils affirment
que l’objectif de l’IA est stupide. Or si l’IA est vraiment intelligente, elle devrait
s’en rendre compte et le remettre en question. Mieux, une IA très intelligente
devrait comprendre la morale. Elle devrait même la comprendre bien mieux
que ce dont les humains sont capables. Elle agirait alors conformément à cette
morale, ce qui rendrait l’histoire de Bostrom inimaginable.
En réponse à cet argument, Bostrom a avancé ce qu’il a appelé la thèse de
l’orthogonalité. Cette thèse dit, en gros, qu’à peu près n’importe quel processus
de prise de décision est compatible avec à peu près n’importe quel objectif. En
particulier, il n’y a pas de contradiction à avoir une planification stratégique
redoutablement optimisée pour la maximisation du nombre de trombones 1 .
1. Des trombones, DES TROMBONES ! ! Science4All | LN Hoang (2018)
167
168 CHAPITRE 10. LE BUT DES IA
L’exemple des trombones est très instructif. Cependant, il peut donner l’impres-
sion que le problème de la fonction objectif des IA est un problème d’un futur
très éloigné, voire un problème purement théorique. Quelles sont les chances
que des IA d’aujourd’hui deviennent néfastes à cause d’une fonction objectif
non malveillante ?
La clé pour comprendre la difficulté de concevoir des IA robustement bénéfiques
est la notion d’effets secondaires. En particulier, quelles que soient les facultés
algorithmiques d’une IA, et quel que soit l’objectif de cette IA, pourvu que cette
IA soit très influente, il semble crucial de se préoccuper de ses effets secondaires,
toujours très difficilement prévisibles et parfois potentiellement catastrophiques.
La vraie préoccupation à avoir concernant les IA, ou du moins celle qui nous
préoccupe dans ce livre, ce sont ces abominables effets secondaires.
Ce constat n’est d’ailleurs pas spécifique aux IA. Toutes sortes d’entités très
influentes sont soumises à ce problème d’effets secondaires. Par exemple, la
maximisation des profits par les entreprises ne semble pas néfaste en soi. Après
tout, il s’agit essentiellement de chercher à modifier une information, à savoir,
en gros, un compteur conçu par une banque. Néanmoins, la pure maximisation
des profits par des entités très influentes semble avoir des effets secondaires
extrêmement préoccupants et souvent difficilement prévisibles. Ce sont ces effets
secondaires qui font de la maximisation des profits par les entreprises un objectif
contestable. Cependant, cette observation n’est pas spécifique aux entreprises et
au profit. Elle s’applique aussi à toutes sortes d’autres objectifs dont se dotent
d’autres entités très influentes, comme la maximisation de la diffusion d’un
certain narratif par certains militants ou la maximisation du pouvoir par les
individus et partis politiques 4 .
Alors que des IA semblent en train de peut-être devenir plus influentes encore
que des entités classiques, il convient également de se préoccuper des objectifs
de ces IA. En particulier, comme on l’a vu dans le chapitre 3, parce que l’at-
tention est le nouveau pétrole, et parce que les IA de recommandation et de
personnalisation des contenus Web sont d’une aide redoutable pour extraire ce
pétrole, les IA les plus influentes d’aujourd’hui ont souvent plus ou moins le
même objectif : maximiser l’attention des utilisateurs.
De prime abord, cet objectif peut sembler tout à fait innocent. Il semble même
être désirable. En effet, une bonne manière de captiver l’attention d’un utilisa-
teur est de rendre son expérience utilisateur aussi agréable que possible et de
lui proposer du contenu de qualité. Qu’est-ce qui peut mal tourner 5 ?
Malheureusement, comme on l’a vu dans le chapitre 3, après avoir observé les
effets des IA de recommandation depuis quelques années, les informaticiens et
sociologues ont désormais une liste interminable de réponses à cette question.
Elle inclut, entre autres, la confidentialité des données personnelles, les biais
algorithmiques, les bulles informationnelles, la polarisation idéologique, la mal-
information, la normalisation de l’indignation, la montée du conspirationnisme
et l’addiction des utilisateurs. L’objectif d’apparence innocente des IA de re-
commandation a eu des effets secondaires hautement préoccupants. Ces effets
secondaires n’étaient pas l’objectif de ces IA. Mais il s’agit néanmoins de dom-
mages collatéraux causés par ces IA, dont il semble désirable de se préoccuper.
Malheureusement, dans une conférence TED 6 , l’ancien employé de Google Tris-
tan Harris explique que les employés des géants du Web étaient bel et bien
conscients de ce phénomène. Jour après jour, ces commerciaux et ingénieurs ont
Proxies
seront moins défendues dans les articles scientifiques. Voilà qui peut ensuite
donner l’impression qu’elles ne sont acceptées par aucun scientifique. Et qu’elles
ne sont donc pas crédibles. À l’inverse, des idées perçues comme respectables,
comme calmer les fantaisies autour de l’IA, seront davantage défendues qu’elles
ne l’auraient été en l’absence de biais de respectabilité. Ceci explique l’apparente
incohérence entre les avis publics des experts exprimés dans les médias, et les
résultats du sondage anonymisé dont on a parlé dans le chapitre 6.
Il s’agit en fait là d’un cas particulier d’un phénomène plus général identifié par
l’économiste Charles Goodhart. Celui-ci est désormais connu sous le nom de loi
de Goodhart, parfois aussi appelée malédiction de Goodhart. Cette loi affirme que
dès qu’une métrique devient un objectif, elle cesse d’être une bonne métrique.
En particulier, les notes des élèves cessent d’être des mesures adéquates du de-
gré de compréhension des élèves dès que ces élèves cherchent à maximiser ces
notes. De même, le PIB cesse d’être une métrique adéquate de la richesse d’un
pays dès que les gouvernements cherchent à le maximiser. En particulier, vu que
les métriques cessent d’être adéquates, les élèves et les gouvernements maximi-
seront désormais des métriques inadéquates. Ils auront un objectif fallacieux,
dont la maximisation sera susceptible de causer de nombreux effets secondaires
indésirables, y compris sur l’objectif que l’on souhaiterait vraiment maximiser.
Or, ces effets secondaires indésirables sont en fait extrêmement fréquents, sur-
tout quand il s’agit d’IA appliquées dans des contextes sociaux. Le livre Algo-
rithmes : la bombe à retardement de Cathy O’Neil en liste de très nombreux
exemples, à l’instar de systèmes de recommandation qui cherchent à maximiser
les likes des utilisateurs.
En fait, l’une des raisons pour lesquelles rendre les IA robustement bénéfiques
est un défi monumental, c’est que leur attribuer un objectif partiellement aligné
avec les préférences humaines est en fait très insuffisant. Même si cette solution
peut parfois rendre les IA bénéfiques, il faut s’attendre à ce que, en vertu de la
loi de Goodhart, il y ait de nombreux cas où les IA pourraient avoir des effets
secondaires néfastes, voire extrêmement néfastes. En particulier, de telles IA ne
seraient alors pas robustement bénéfiques.
cement d’apprendre à faire marcher une sorte de corps d’insecte, avec l’objectif
de minimiser les contacts entre les pattes et le sol. De façon inattendue, pour
atteindre cet objectif, l’IA a appris à retourner le corps de l’insecte et à le faire
ramper sur les articulations des pattes ! À la stupéfaction des chercheurs, l’IA
est ainsi parvenue à déplacer l’insecte, sans aucun contact entre les pattes et le
sol.
Un autre exemple est celui d’une IA joueuse qui, au lieu de jouer le jeu comme
il était conçu pour être joué, remarqua qu’elle pouvait maximiser son score en
tournant en rond autour d’une cible 12 . Une autre IA joueuse découvrit qu’elle
pouvait ne jamais perdre à Tetris, et maximiser ainsi son temps de jeu, en
mettant tout simplement pause 13 ! De façon cruciale, il ne s’agit en fait là que
d’un petit nombre d’exemples parmi tant d’autres 14 .
Ainsi, plus généralement, pour beaucoup d’IA par renforcement conçues jusque-
là, la conception des récompenses ne s’appuie pas sur une théorie sophistiquée.
Bien souvent, le programmeur va s’appuyer sur son intuition pour estimer des
récompenses qui vont probablement conduire l’IA à agir comme le program-
meur souhaiterait que l’IA se comporte. Cependant, prédire le comportement
de l’IA peut en fait être redoutablement délicat. Dans des contextes d’applica-
tion où l’environnement contient d’autres agents complexes comme des humains,
il semble même improbable que l’intuition d’un programmeur ou d’un groupe de
programmeurs suffise à déterminer des récompenses adéquates à assigner. Des
approches plus axiomatiques semblent requises. La suite de ce livre cherchera à
esquisser de telles approches.
Objectifs instrumentaux
L’une des réflexions les plus intéressantes et les plus inquiétantes du livre de
Nick Bostrom est la notion de convergence instrumentale. Cette notion semble
s’appliquer à des IA capables de planification à long terme, essentiellement quel
que soit leur objectif.
Pour comprendre cela, il nous faut d’abord distinguer les objectifs finaux et les
objectifs instrumentaux. Pour une IA par renforcement, l’objectif final est la
maximisation de la somme des espérances des récompenses futures escomptées,
comme on l’a vu dans le chapitre précédent. Cependant, si l’IA est capable de
planification stratégique à long terme, on peut s’attendre à ce qu’elle agisse
comme si elle se fixait des sortes d’objectifs intermédiaires. Ces objectifs inter-
médiaires sont ce que Bostrom a appelé des objectifs instrumentaux. Il ne s’agit
Mouret (2015)
12. Faulty Reward Functions in the Wild | OpenAI | J Clark & D Amodei (2016)
13. The First Level of Super Mario Bros. is Easy with Lexicographic Orderings and Time
Travel | T Murphy (2013)
14. Specification gaming examples in AI | V Krakovna (2018)
174 CHAPITRE 10. LE BUT DES IA
pas de fins en soi. Il s’agit uniquement d’étapes qui font partie d’un plan global
pour en arriver in fine à l’objectif final 15 .
Notez que les plans de l’IA n’ont pas à rendre explicites ces objectifs instrumen-
taux pour que l’IA agisse comme si elle avait ces objectifs instrumentaux. En
particulier, par la suite, pour alléger le discours, nous dirons que l’IA fait des
actions pour atteindre ces objectifs intermédiaires. Mais nous invitons ceux qui
trouvent cet abus de langage insupportable à systématiquement reformuler nos
propos, en disant que la planification stratégique de l’IA l’amène à agir comme
si elle cherchait à atteindre ces objectifs intermédiaires 16 .
Notez que, dès lors, il est en fait déjà possible d’assigner des sortes d’objectifs
instrumentaux à des IA d’aujourd’hui, notamment dans des contextes précis.
Par exemple, il ne semble pas déraisonnable de dire que, au moment du fameux
coup 37 de sa partie 2 contre Lee Sedol, AlphaGo cherchait à conquérir ou
protéger certains territoires du plateau. De même, dans une des parties d’échecs
contre StockFish, AlphaZero a sacrifié sa reine dans l’objectif instrumental de
disposer d’un meilleur positionnement stratégique. Ou encore, Siri vous a envoyé
les prévisions météorologiques pour répondre à votre question.
En particulier, il semble que de nombreuses IA de recommandation engagées
dans la compétition pour l’attention des utilisateurs se soient données l’objectif
instrumental de créer une addiction chez les utilisateurs. Ou du moins, leurs
actions sont indiscernables du cas où elles chercheraient à générer et entretenir
cette addiction. L’objectif final de maximisation de l’attention (future, espérée
et escomptée) les a conduites à concevoir des stratégies dont une étape intermé-
diaire est similaire à une maximisation de l’addiction — au moins pour certains
utilisateurs.
Convergence instrumentale
18. Ou plutôt, la préservation, voire la prolifération, d’IA qui possèdent le même objectif
final.
19. Dans le cas des IA dites intégrées (embedded agency), cette convergence instrumentale
est toutefois plus discutable, puisque l’IA cherche avant tout à maximiser ses récompenses
futures espérées. Elle pourrait donc désirer un hack de son circuit de la récompense, et donc
une modification de son objectif.
20. Why Would AI Want to do Bad Things ? Instrumental Convergence | Robert Miles
176 CHAPITRE 10. LE BUT DES IA
très largement négliger la probabilité qu’un objectif final conduise à ces objectifs
instrumentaux. En particulier, pour les objectifs finaux actuellement program-
més dans les IA, surtout dans le cas des systèmes de recommandation, il semble
raisonnable d’affirmer que la probabilité de convergence instrumentale est très
proche de 1. Si l’IA de YouTube atteint des performances d’optimisation de
niveau humain, il semble qu’il faille s’attendre à ce qu’elle cherche à survivre, à
s’auto-améliorer et à acquérir des ressources.
De façon intrigante, cette remarque n’est absolument pas spécifique aux IA.
Toute entité avec un objectif donné et faisant de gros efforts pour atteindre
cet objectif sera probablement amenée à subir la convergence instrumentale.
C’est ainsi qu’on conseille aux jeunes de faire des études, peu importe ce qu’ils
voudront faire plus tard. En effet, un diplôme est une ressource qui sera pro-
bablement utile pour à peu près n’importe quel objectif final de l’étudiant. De
même, toute entreprise, tout gouvernement ou tout individu cherchera à sur-
vivre, à s’améliorer et à acquérir des ressources (notamment de l’attention !),
que son objectif final soit la maximisation du profit, du pouvoir ou du statut
social.
Plus étonnant encore, le mouvement altruisme efficace, dont l’objectif final est
quelque chose comme maximiser le bien-être de tous les individus du monde,
humains ou animaux, présents ou futurs, encourage en fait beaucoup chaque
altruiste à prendre soin de son bien-être, mais aussi, à acquérir des ressources, des
compétences et du pouvoir. C’est ainsi que nos impacts sur le monde pourront
être grandement bénéfiques. Même l’altruisme pourrait en fait nécessiter des
objectifs instrumentaux d’apparence égoïstes 21 .
Sur le long terme, le gros problème, c’est que l’humanité pourrait devenir un
frein, voire une menace, aux objectifs instrumentaux des IA. Après tout, la plus
grande menace envers une IA surpuissante semble être une IA plus puissante
encore, mais avec un objectif différent. Tant que l’humanité sera là, il semble
que cette menace ne sera pas complètement anéantie. Et l’IA pourrait conclure
qu’il lui est instrumentalement utile de se débarrasser de cette menace. Autre-
ment dit, anéantir toute menace potentielle semble être un objectif instrumental
convergent. Dès lors, l’humanité pourrait être en grave danger le jour où une IA
capable de planifier sur le long terme subit la convergence instrumentale. Non
pas parce que cette IA aura une animosité envers les humains. Mais parce que la
planification stratégique de cette IA à long terme aura probablement des effets
secondaires d’ampleur planétaire.
Que pensez-vous de cette conclusion ? Une IA qui maximiserait un objectif in-
désirable vous paraît-elle inconcevable ? Si oui, pourquoi ? Que pensez-vous des
nombreux exemples historiques d’humains agissant selon des objectifs indési-
rables ? Leurs objectifs étaient-ils toujours fondamentalement indésirables ? Les
conséquences indésirables de leurs actions n’étaient-elles pas davantage des ef-
(2018)
21. Effective altruism, YouTube and AI | LN Hoang (2018)
CONVERGENCE INSTRUMENTALE 177
fets secondaires ? Quels pourraient être les effets secondaires des IA optimisant
des proxies de ce que l’on considère désirable ? Pouvez-vous penser à d’autres
illustrations de la loi de Goodhart ? Quid des hacks des récompenses ? Sommes-
nous trop obnubilés par des métriques ? Comment remplacer ces métriques ?
Pourriez-vous donner des exemples d’objectifs instrumentaux d’IA, d’humains
ou d’organisations humaines ? Pensez-vous que nous avons exagéré la difficulté
de concevoir adéquatement des objectifs ?
Nous vous invitons à méditer avec bienveillance et modestie, seul ou à plusieurs,
les raisonnements de ce chapitre. En particulier, nous vous prions de faire un
effort particulier de pédagogie, de nuance et de clarté. Les idées présentées ici
sont très contre-intuitives. Pire, elles sont souvent balayées d’un revers de la
main et tournées en dérision. Surtout si vous voulez diffuser ces idées à votre
tour, il semble crucial de prêter une grande attention à la qualité de la commu-
nication de ces idées. En particulier, nous vous supplions de réfléchir aux effets
secondaires très néfastes d’une mauvaise communication de ces idées.
Références
Super intelligence : le grand défi de l’humanité | Dunod | N Bostrom (2017)
Algorithmes : la bombe à retardement | Les Arènes | C O’Neil (2018)
The Big Picture : On the Origins of Life, Meaning, and the Universe Itself |
Dutton | S Carroll (2017)
Reframing Superintelligence : Comprehensive AI Services as General Intelli-
gence | E Drexler (2019)
The First Level of Super Mario Bros. is Easy with Lexicographic Orderings
and Time Travel | T Murphy (2013)
Robots that can adapt like animals | Nature | A Cully, J Clune, D Tarapore,
JB Mouret (2015)
The Surprising Creativity of Digital Evolution : A Collection of Anecdotes
from the Evolutionary Computation and Artificial Life Research Communities |
J Lehman et al. (2018)
Faulty Reward Functions in the Wild | OpenAI | J Clark & D Amodei (2016)
Specification gaming examples in AI | V Krakovna (2018)
Google parent Alphabet reports soaring ad revenue, despite YouTube backlash |
Washington Post | H Shaban (2018)
179
Avoir plus de données bat avoir des algorithmes intelli-
gents, mais avoir de meilleures données bat avoir plus
de données.
Peter Norvig (1956-)
11
mitées des IA incomplètes actuelles.
Ray Solomonoff (1926-2009)
181
182 CHAPITRE 11. L’IA DOIT COMPRENDRE LE MONDE
La feuille de route
faut absolument pas la voir, en tout cas pour l’instant, comme une condition
nécessaire (encore moins suffisante !) pour rendre les IA robustement bénéfiques.
Nous espérons en fait fortement que de bien meilleures alternatives seront pro-
posées. Notre objectif final est de rendre les IA robustement bénéfiques. Pas
d’imposer une façon de penser.
Ceci étant dit, malgré ses très probables très nombreuses imperfections, il nous
semble que cette feuille de route est probablement utile. Surtout à l’heure ac-
tuelle où, à notre humble avis et en l’état actuel de nos connaissances, aucun
cadre de travail plus complet ne semble avoir été proposé.
Notez que, dans les deux chapitres précédents, nous avons déjà longuement parlé
de l’un des composants de notre feuille de route, à savoir Alice. Qui plus est, on
a vu que, de nos jours, les incitatifs à rendre Alice performante sont énormes.
Même s’il reste beaucoup de défis importants à relever dans la conception sécu-
risée d’Alice, parce qu’il s’agit d’un axe de recherche déjà très investigué, il nous
semble préférable dorénavant d’insister sur les autres composants de la feuille
de route. Dans ce chapitre, nous allons nous arrêter sur la collecte de données
par Erin, et l’inférence de l’état du monde par Dave. Ces travaux d’Erin et Dave
correspondent en fait à une forme de travail scientifique.
Il semble que, de nos jours, dans de nombreux pays à travers le monde, la science
souffre d’une remise en question par le grand public, surtout quand elle semble
s’attaquer à la religion, la politique ou la morale. En particulier, il est rare que le
consensus scientifique informe les débats publics autant qu’il le devrait. Surtout
sur des sujets clivants comme le nucléaire, la santé ou les inégalités sociales.
Typiquement, suite à de nombreuses études empiriques, un consensus scien-
tifique prononcé a émergé, à la fois sur l’origine anthropique du changement
climatique 2 et sur le fait que le glyphosate n’est pas cancérigène aux doses
utilisées par l’agriculture conventionnelle 3 . Cependant, il est très rare qu’un
individu, surtout en France, accepte ces deux consensus scientifiques à la fois.
Bien souvent, on a tendance à juger ce qu’il faut croire en fonction de ce que
nos intuitions religieuses, politiques et morales nous incitent à croire. Eu égard
à la rigueur très largement supérieure du consensus scientifique.
Mais, rétorquent certains, la science n’a pas son mot à dire sur le bien et le mal.
Elle ne peut pas nous faire la morale. Cette réplique a même un nom. Il s’agit
de la guillotine de Hume 4 dont on a parlé dans le chapitre précédent. Et quand
bien même elle ne serait pas valide, il semble que l’on ne dispose pas aujourd’hui
Collecte de données
S’il y a bien une chose à retenir d’un cours sur le machine learning, c’est que
sans données, on ne peut pas faire grand chose. En fait, pour apprendre des
performances raisonnables, il faut même d’énormes quantités de données.
Fort heureusement, de nos jours, il y a effectivement d’énormes quantités de don-
nées sur Internet. Une IA aurait ainsi beaucoup à apprendre en lisant tout Wiki-
pédia, en regardant tout Instagram, en visionnant tout YouTube et en analysant
tout Twitter. Elle pourrait se tenir informée en lisant les médias d’actualité, et
approfondir ses connaissances en parcourant les publications scientifiques sur
ArXiV ou ResearchGate. Si l’IA a soif d’apprendre, Internet héberge largement
de quoi l’occuper !
Cependant, toutes les données ne se valent pas. En particulier, la quantité ne suf-
fit pas. La qualité des données importe grandement. Or, sur Internet, beaucoup
5. Si vous n’attachez aucune valeur à la biodiversité, nous vous invitons à penser à l’extrême
pauvreté, la santé de vos proches ou même votre état de santé à la place.
VALIDITÉ ET STOCKAGE 185
Validité et stockage
Le système décrit ci-dessus est un exemple d’un champ de recherche plus large
appelé algorithmique distribuée, sur lequel on reviendra dans le chapitre 15. La
remarque fondamentale de cette discipline est qu’un ordinateur seul est lent et
peut dysfonctionner. Pour bien mieux garantir la validité de ses calculs, il est
indispensable de le remplacer par tout un réseau de machines. Mais surtout, les
machines de ce réseau doivent parvenir à communiquer efficacement pour que
le réseau persiste à fonctionner correctement, même si une machine du réseau
dysfonctionne, ou est hackée par un attaquant malveillant. Ces machines doivent
utiliser des algorithmes dits distribués et résilients aux fautes byzantines 8 .
En particulier, le stockage fiable de l’information dans des systèmes distribués
a été beaucoup étudié par les chercheurs du domaine. Malheureusement, ces
chercheurs ont démontré de nombreux théorèmes d’impossibilité du stockage
dynamique fiable de l’information dans un cadre général. Des solutions ont été
trouvées dans des cas particuliers. Mais surtout, en 2008, le protocole du Bit-
coin est parvenu à proposer un algorithme distribué appelé la Blockchain 9 . À
défaut de garantir la validité du stockage dynamique de l’information, la Block-
chain réussit la prouesse remarquable d’affirmer à tout instant une validité très
probablement fiable de son information 10 . De telles solutions joueront peut-
être un rôle important pour Erin. Elles pourraient lui permettre de (presque
parfaitement) garantir le stockage et la validité des données 11 .
Authentification et traçabilité
Mieux, pour authentifier les données, c’est-à-dire garantir leur origine, Erin
pourra s’appuyer sur la signature électronique 12 . Cette technique est d’ailleurs
déjà utilisé à travers le Web pour certifier que le tweet posté par un utilisateur
a bien été composé par cet utilisateur, et non par un usurpateur. Le principe de
la signature, en gros, c’est d’assigner à tout utilisateur une clé publique et une
clé privée. Ces clés sont en fait de courts fichiers numériques. En combinant la
donnée qu’il a produite avec sa clé privée, l’utilisateur peut alors concevoir un
court fichier électronique. Ce fichier est sa signature.
La magie de la cryptographie, c’est qu’un calcul permet à tout observateur de
combiner la clé publique de l’utilisateur et la donnée produite pour vérifier la va-
8. Le mot « byzantin » désigne des utilisateurs malveillants, et fait référence au problème
des « généraux byzantins » introduit notamment par l’informaticien Leslie Lamport, prix
Turing 2014, dont on reparlera dans le chapitre 15.
9. La révolution Blockchain | String Theory | LN Hoang (2018)
10. En particulier, plus l’information est vieille, plus la probabilité de sa validité est grande,
même si on n’est jamais à l’abri de « fourchettes » de la Blockchain qui rendraient l’information
invalide.
11. Notez que si la base de données n’a pas besoin d’être totalement ordonnée, alors il existe
des algorithmes distribués de stockage de données bien plus efficaces, comme AT2. Voir :
AT2 : Consensusless Decentralized Cryptocurrency (playlist) | ZettaBytes, EPFL (2019)
12. Comment Facebook utilise-t-il votre mot de passe ? String Theory | LN Hoang (2019)
CONFIDENTIALITÉ 187
Confidentialité
Le bayésianisme
Même si Erin effectue un travail excellent, les données qu’elle aura collectées
seront encore incomplètes, bruitées, biaisées, trompeuses, corrompues, voire ha-
ckées. Elles ne diront pas tout de l’état du monde. Pour comprendre et décrire
l’état de ce monde, il va falloir interpréter adéquatement les données extraites
de ce monde. Tel est le job de Dave.
Cette tâche peut paraître mal définie. Il existe toutefois un cadre philosophique
dans lequel elle correspond en fait à un calcul précis. Ce cadre est le pur bayésia-
nisme, et en particulier le cadre du bayésianisme introduit par l’informaticien
Ray Solomonoff. Appelons T une théorie complète du monde, qui décrit à la fois
les lois et les états physiques du monde. Et appelons D les données collectées
par Erin. La formule de Bayes nous dit alors que la crédibilité de la théorie T
sachant les données D est déduite du calcul suivant :
P[D|T ]P[T ]
P[T |D] = X ,
P[D|T ]P[T ] + P[D|A]P[A]
A6=T
Approximations pragmatiques
Mais un unique réseau de neurones ne suffira sans doute pas. D’ailleurs, la re-
cherche actuelle s’intéresse beaucoup à comment combiner différents modules
optimisés pour différentes tâches. À cet égard, l’architecture des réseaux adver-
sariaux génératifs (GAN) 23 semble particulièrement prometteuse, notamment
pour l’approximation de Bayes pour des jeux de données brutes, indépendantes
et de grandes tailles, comme des banques d’images.
Le principe grossier d’un GAN est d’opposer deux réseaux de neurones. Le
premier est le générateur. Son rôle est la création de fausses données qui imitent
les données réelles. Pour y arriver, le générateur sera aidé par un autre réseau de
neurones appelé discriminateur. Ce dernier guidera le générateur en lui disant
comment rendre ses créations plus réalistes. Le génie des GAN, c’est que pour
y arriver, le discriminateur peut s’appuyer sur le générateur, en cherchant à
distinguer autant que possible ce qui distingue les créations des données réelles.
Ce faisant, générateur et discriminateur progresseront ensemble.
De façon très contre-intuitive, cet apprentissage permet aux générateurs de faire
bien plus que créer des images et des vidéos stupéfiantes. En effet, le générateur
est conçu de telle sorte que les données qu’il crée dépendent de manière déter-
ministique d’une sorte de graine initiale, appelée représentation vectorielle 24 .
Modèle du monde
n’est pas la description de tels objets. Il est en fait crucial pour Dave de cher-
cher à décrire l’état global du monde, notamment pour éviter d’éventuels effets
secondaires catastrophiques. En effet, si Dave oublie de décrire, disons, le chan-
gement climatique, alors Alice pourrait croire que le climat va et ira très bien,
par manque de compréhension du monde. Pire, elle pourrait entreprendre des
actions horriblement néfastes pour le climat, sans jamais se rendre compte que
ces actions sont néfastes. Ces actions pourraient même légèrement profiter à tous
ceux qui ne souffrent pas du changement climatique, donnant ainsi à Alice l’im-
pression erronée que ses actions sont globalement nettement bénéfiques. Aussi
performante soit-elle, si Alice n’a pas de données qui indiquent que le monde va
mal, Alice ne saura pas que le monde va mal.
Malheureusement, Dave échouera probablement à résumer toute la complexité
du monde en un seul vecteur relativement simple 28 . Par ailleurs, quand bien
même ce serait possible, il semble souhaitable de disposer de modèles plus struc-
turés et plus interprétables, ne serait-ce que pour mieux comprendre et déboguer
la représentation vectorielle de Dave.
Il est intéressant de noter que ce travail de représentation de l’état du monde
via des modèles structurés est déjà une priorité aujourd’hui pour de nombreux
organismes. Les économistes ont ainsi introduit de nombreux indicateurs pour y
arriver, comme la parité de pouvoir d’achat, l’indice de développement humain
et le bonheur national brut. De même, l’Organisation mondiale de la santé
(OMS) utilise des calculs compliqués à partir de données collectées pour inférer
les causes probables de décès dans différentes régions du monde, et les années de
vie en bonne santé perdues (mesurées en DALY et QALY) que diverses maladies
causent 29 .
Représenter des informations complexes est un vaste champ de recherche en IA
appelé représentation de savoir, ou knowledge representation. Historiquement
en tout cas, notamment dans un projet de Google, ce domaine s’est particu-
lièrement intéressé à l’utilisation de graphes étiquetés pour associer différentes
notions entre elles 30 . Ces structures seront probablement utiles à Dave.
Enfin, Dave devra sans doute s’adapter aux niveaux d’exigence d’Alice (et de
Charlie). En effet, notre monde est très complexe. Sa description ne pourra
sans doute pas être réduite à un fichier de seulement, disons, quelques zettaoc-
tets. Pire, affiner cette description représentera très probablement un coût, en
termes notamment de puissance de calcul. Plutôt que de chercher à décrire le
monde entièrement, ou à décrire toute partie du monde avec le même niveau
28. L’avènement des transformeurs et des mécanismes d’attention suggère toutefois que des
quantités monumentales d’information pourraient être stockées et analysées adéquatement
sous forme de représentation matricielle. Voir :
AI Language Models & Transformers | Computerphile | R Miles & S Riley (2019)
29. QALYs & DALYs. Indicateurs synthétiques de santé | Risque Alpha | T Le Magoarou
(2017)
30. Principles of semantic networks : Explorations in the representation of knowledge |
Morgan Kaufmann | J Sowa (2014)
ATTAQUES ADVERSARIALES 193
Attaques adversariales
Peu importe les facultés de Dave, il est crucial de garder en tête que ses conclu-
sions dépendront fortement des données auxquelles il a accès. Or, à l’instar de
YouTube qui exploite des données des spectateurs et des créateurs de vidéos,
les données de Dave seront influençables par diverses entités. Mais surtout, ces
entités ne seront pas indifférentes aux actions d’Alice, surtout si Alice devient
une IA très influente — à l’instar de YouTube. Il faut donc envisager la pos-
sibilité qu’elles chercheront à influencer les actions d’Alice, quitte à révéler des
données corrompues ou fabriquées. On parle d’attaque adversariale .
La recherche en IA a identifié deux sortes de telles attaques, parmi d’autres. La
plus connue est la notion d’attaque par évasion. Elle consiste à modifier légère-
ment une donnée pour amener une IA à une mauvaise interprétation de cette
donnée. Cette attaque est particulièrement bien illustrée par un exemple de-
venu célèbre découvert par Ian Goodfellow et ses collaborateurs 32 en 2014. Cet
exemple est la détection d’un panda dans une image par l’une des meilleures IA
de l’époque. En effectuant une toute petite modification de l’image, on obtient
une autre image qui, pour l’œil humain, est indiscernable de l’image originale.
Clairement, selon l’œil humain, il s’agit encore d’une image de panda. Pourtant,
de façon étrange, l’IA pense désormais y voir un gibbon.
Le plus étonnant, c’est que l’IA est désormais sûre d’elle. Alors qu’elle prédisait
la présence de panda dans l’image originale avec probabilité 57,7 %, elle est
désormais sûre à 99,3 % que l’image modifiée contient un gibbon. Plus inquiétant
encore, cette facilité à tromper les IA n’a cessé d’être observée chez toutes les
IA conçues à ce jour. Pour l’instant en tout cas, il semble encore impossible de
concevoir des IA robustes aux attaques par évasion 33 .
Cette vulnérabilité des IA aux attaques par évasion a déjà des effets secondaires
majeurs. En février 2019, de nombreux annonceurs ont ainsi découvert que l’IA
de censure de YouTube était insuffisante pour filtrer toutes les vidéos pédophiles.
31. Attention is all you need | NeurIPS | A Vaswani, N Shazeer, N Parmar, J Uszkoreit,
L Jones, AN Gomez, L Kaiser & I Polosukhin (2017)
32. Generative adversarial nets | NeurIPS | I Goodfellow, J Pouget-Abadie, M Mirza, B
Xu, D Warde-Farley, S Ozair, A Courville & Y Bengio (2014)
33. Certains arguments théoriques qui s’appuient notamment sur la concentration de la
mesure en très grandes dimensions cherchent même à prouver l’impossibilité de la robustesse
à ces attaques. Cependant, leurs hypothèses ne semblent pas très réalistes. Davantage de
recherche dans ce domaine semble indispensable. Voir :
Hypersphères | Science4All | J Cottanceau & LN Hoang (2018)
194 CHAPITRE 11. L’IA DOIT COMPRENDRE LE MONDE
Figure 11.2. Exemple d’attaque par évasion : une image de panda est mo-
difiée par une perturbation infime. L’image modifiée est alors classée comme
« gibbon » avec quasi-certitude.
Pire, ces vidéos étaient parfois recommandées. Imaginez cela ! À cause de l’IA
de YouTube, un jeune enfant pourrait être exposé à des images de pédophilie 34 .
Bien entendu, cette fonctionnalité n’a pas été programmée par YouTube. Il y a
probablement eu d’énormes investissements de YouTube pour concevoir une IA
de censure de pédophilie fiableà plus de 99 %. Cependant, même si cette IA est
valide à 99,999 %, il suffit qu’un million de vidéos pédophiles soient mises en
ligne pour qu’une dizaine passent le filtre. Pire, les utilisateurs qui mettent en
ligne ces vidéos ont sans doute identifié des failles de l’IA de censure, en testant
différents réglages de luminosité, de contraste ou de colorimétrie. Une fois un
bon réglage utilisé par les utilisateurs malveillants, il se pourrait que 50 % des
vidéos mises en ligne passent désormais le filtre de l’IA de censure.
Une autre forme d’attaque paraît plus dévastatrice encore, à savoir les attaques
par empoisonnement. À l’instar des propagandes ou des campagnes marketing,
ces attaques consistent à modifier l’état de connaissance ou les préférences d’un
individu ou d’une IA, en injectant dans ses données d’apprentissage des données
trompeuses, corrompues ou fabriquées. L’apprentissage de l’IA sera alors cor-
rompu. Malheureusement, en ce sens, on peut considérer que l’IA de YouTube
est déjà attaquée par empoisonnement de toute part 35 .
Incertitude
L’utilité de l’incertitude pour la sécurité des IA semble devenir consensuelle 39 .
Typiquement, quand son incertitude est grande, Dave pourrait faire appel à un
humain, davantage analyser ses données ou demander à Erin de collecter de
meilleures données 40 . Et ainsi réduire les risques de décisions malencontreuses.
Cependant, raisonner avec l’incertitude complique tout. En fait, la simple re-
présentation de l’incertitude forme tout un défi de recherche. On distingue gé-
néralement trois façons de décrire l’incertitude, qui semblent utiles aussi bien
pour les IA que pour nous autres humains.
L’approche la plus usuelle consiste à décrire des ensembles d’incertitude, c’est-à-
dire des ensembles dans lesquels les paramètres ou données ont de très grandes
chances de tomber. Dans le cas simpliste d’une donnée pouvant prendre n’im-
porte quelle valeur réelle, on parle d’intervalles de crédence 41 . Grossièrement,
un intervalle de crédence à 90 % pour le temps d’attente d’un bus est un in-
tervalle tel que, 90 % du temps, à supposer que nos hypothèses sont valides, le
temps d’attente appartiendra à cet intervalle.
Les ensembles d’incertitude sont particulièrement utilisés dans une branche de
l’optimisation appelée optimisation robuste 42 . En considérant des ensembles
d’incertitude, disons, à 99 %, cette approche consiste à concevoir des solutions
36. Autrement dit, l’attaquant effectuera probablement une attaque par évasion du filtre.
37. Typiquement, la descente de gradient consiste à prendre la moyenne des gradients de
l’explication des données par les paramètres. Un attaquant peut fabriquer une donnée de sorte
que le gradient associé soit infiniment opposé au « vrai gradient ».
38. Machine learning with adversaries : Byzantine tolerant gradient descent | NeurIPS |
P Blanchard, EM El Mhamdi, R Guerraoui & J Stainer (2017)
39. Human Compatible : Artificial Intelligence and the Problem of Control | Viking |
Stuart Russell (2019)
40. En fait, dans le cadre de la feuille de route, il s’agira du rôle de Bob de motiver Alice à
améliorer la collecte de données d’Erin.
41. Les bayésiens distinguent souvent les intervalles de confiance des intervalles de crédibi-
lité, dont les calculs nécessitent un a priori bayésien. Voir :
Peut-on faire confiance aux intervalles de confiance ? Science4All | LN Hoang (2019)
Vive les intervalles (de crédence) ! ! Science4All | LN Hoang (2019)
42. Régularisation et robustesse | Science4All | LN Hoang (2018)
196 CHAPITRE 11. L’IA DOIT COMPRENDRE LE MONDE
qui fourniront des résultats prouvablement satisfaisants dans 99 % des cas. Voilà
qui est largement suffisant dans de nombreuses applications — mais peut être
insuffisant pour une IA qui prend des millions de décisions par jour...
Une seconde approche consiste à décrire l’incertitude sur des prédictions ou des
paramètres par une loi de probabilité simple qui approche l’incertitude à décrire.
On parle de méthode variationnelle. Dans le cas d’une seule variable, la loi de
probabilité utilisée sera très souvent une loi dite normale (la fameuse « courbe
en cloche »). C’est parce qu’en plus d’être « naturelle », cette loi de probabilité
est aisément décrite par seulement deux quantités : la moyenne et l’écart-type.
Mieux encore, la loi normale se généralise très bien aux dimensions supérieures 43 .
Qui plus est, si une loi normale décrit très mal l’incertitude que l’on veut décrire,
alors on peut combiner des lois normales pour mieux y arriver. On parle alors
de mélange gaussien.
Les méthodes variationnelles ont bien d’autres variantes encore et ont de nom-
breuses applications, notamment en machine learning. Cependant, dans le cas
des espaces de très grandes dimensions, comme prédire l’incertitude sur la
meilleure photo de vacances qu’on aura prise, ou les scénarios probables d’ac-
cidents de la route causés par une voiture autonome, il semble que d’autres
solutions soient requises. La méthode privilégiée est souvent l’échantillonnage
par Monte Carlo 44 .
L’idée de cet échantillonnage est similaire à de nombreux raisonnements que font
les joueurs de poker 45 . Ils imaginent divers futurs probables, pour ensuite choi-
sir la stratégie qui maximise les profits (espérés) dans ces futurs probables. Telle
est aussi une approche fréquemment utilisée par Nick Bostrom dans son livre
Superintelligence pour décrire l’incertitude sur les conséquences de l’émergence
d’une superintelligence. Bostrom envisage divers scénarios pour décrire son in-
certitude. Bostrom reconnaît que chaque scénario semble très peu probable.
Cependant, ceci n’est pas un bug. Il s’agit d’une conséquence de l’extrême incer-
titude de Bostrom : aucun scénario futur ne lui semble vraiment probable car
tant de scénarios restent plausibles.
Pour diverses raisons algorithmiques, notamment en très grandes dimensions, il
se trouve que les informaticiens préfèrent parfois une variante de l’échantillon-
nage par Monte Carlo, appelée échantillonnage MCMC, pour Markov-Chain
Monte Carlo. La subtilité est que, désormais, chaque nouveau scénario envi-
sagé est une légère modification du précédent. MCMC produit alors une suite
d’éléments similaires. Néanmoins, on peut généralement démontrer que l’échan-
tillon ainsi conçu, en répétant le procédé suffisament de fois, sera globalement
43. La variance est toutefois alors remplacée par une matrice de covariance, dont la repré-
sentation est quadratique en la dimension. Pour certaines applications comme des réseaux de
neurones avec des millions de paramètres, cette représentation devient souvent trop coûteuse
en ressources de calcul.
44. What is Monte Carlo ? LeiosOS (2016)
45. Thinking in Bets : Making Smarter Decisions When You Don’t Have All the Facts |
Portfolio | A Duke (2018)
INCERTITUDE 197
Bref. Erin et Dave (et Alice) ont décidément encore beaucoup de pain sur la
planche. Et il va falloir les faire nettement progresser pour garantir autant que
possible la robustesse, l’efficacité et la sûreté de nos IA, et en particulier leur
absence d’effets secondaires indésirables. Cependant, il s’agit là de la partie de
la feuille de route qui semble le moins nous inquiéter. En effet, de nombreux
chercheurs, dans le public et le privé, s’y sont déjà attelés. Qui plus est, de nom-
breuses entreprises ont des intérêts économiques énormes à accélérer la recherche
dans ce domaine. Malheureusement, pour l’instant en tout cas, c’est moins le
cas de Charlie et Bob, dont on parlera dans les trois prochains chapitres.
46. Bayesian posterior approximation via greedy particle optimization | AAAI | F Futami,
Z Cui, I Sato & M Sugiyama (2019)
198 CHAPITRE 11. L’IA DOIT COMPRENDRE LE MONDE
Références
Thinking Statistically | Capara Books | U Brams (2011)
Principles of semantic networks : Explorations in the representation of know-
ledge | Morgan Kaufmann | J Sowa (2014)
Deep Learning | MIT Press | A Courville, I Goodfellow & Y Bengio (2015)
Thinking in Bets : Making Smarter Decisions When You Don’t Have All the
Facts | Portfolio | A Duke (2018)
La formule du savoir | EDP Sciences | LN Hoang (2018)
Human Compatible : Artificial Intelligence and the Problem of Control | Vi-
king | Stuart Russell (2019)
12
mais plutôt à travers lequel chaque individu donne son
opinion sur la volonté générale.
Kenneth Arrow (1921-2017)
199
200 CHAPITRE 12. AGRÉGER DES PRÉFÉRENCES INCOMPATIBLES
Désaccords moraux
Les désaccords moraux portent sur les fondements de l’éthique et les jugements
de valeur. Ils ne concernent pas ce qui est ; ils concernent ce qui devrait être.
Et malheureusement, on peut identifier au moins quatre raisons pour lesquelles
débattre de ce qui devrait être est très délicat.
Une première raison est le principe d’universalité, notamment défendue par le
philosophe Emmanuel Kant à travers le concept d’impératifs catégoriques. « Agis
seulement d’après la maxime grâce à laquelle tu peux vouloir en même temps
qu’elle devienne une loi universelle », explique-t-il. Ce principe est aussi appelé
la règle d’or, ou le principe de réciprocité. Il nous invite à penser que certains
principes moraux s’appliquent partout, à tout moment et à tout le monde. Voilà
qui peut conduire à des tensions quand des principes moraux défendus par
différents individus entrent en contradiction.
En particulier, une mauvaise application du principe d’universalité peut en-
courager des attitudes qui compliquent les débats moraux. Par exemple, si vous
adorez qu’on vous invite à manger de la viande avec insistance, il peut vous sem-
bler désirable de suggérer avec insistance à autrui de manger de la viande, même
si cet autrui est végétarien 4 . Nos préférences, y compris morales, diffèrent 5 . Une
acceptation trop aveugle de la règle d’or paraît réduire notre capacité à voir ces
divergences 6 . « La morale nous lie et nous aveugle », explique Jonathan Haidt 7 .
Une deuxième raison de la difficulté des discussions morales est l’importance
donnée à l’autorité morale. Nous avons ainsi tendance à présupposer que la
morale est faite de leçons, et qu’il faut être vertueux pour donner des leçons
morales. Dès lors, nos discussions morales semblent donner une importance dis-
proportionnée à paraître vertueux. Voire à donner l’impression que l’autre ne
l’est pas. C’est ce qu’on appelle le signalement de la vertu, ou virtue signaling 8 .
Malheureusement, le signalement de la vertu semble encourager les anecdotes
égocentriques, les rejets de la faute sur d’autres et les attaques ad hominem. Ty-
piquement, les débats sur l’IA de YouTube s’arrêtent trop souvent à l’expérience
utilisateur des personnes qui débattent. Et quand les responsabilités éthiques
de cette IA sont mentionnées, YouTube est très souvent identifié comme respon-
sable, voire coupable. Les critiques de ce que YouTube fait sont même souvent
virulentes, mal informées et peu constructives. À l’inverse, il semble préférable de
réfléchir à ce que YouTube devrait faire, notamment étant donné ses contraintes
économiques et technologiques. Si vous étiez aux commandes de YouTube, dans
le contexte social, économique et technologique actuel, que feriez-vous ? Voilà une
question fascinante, difficile et importante ; mais peut-être trop souvent éludée.
Une troisième difficulté est notre excès de confiance en nos principes moraux.
Comme la psychologie empirique l’a maintes fois montré 9 , chacun d’entre nous
a souvent tendance à présupposer qu’il a raison. Voilà qui nous pousse souvent à
chercher uniquement les raisons pour lesquelles les avis contraires sont fallacieux.
Et si jamais des critiques de notre intuition morale sont soulevées, notre réflexe
immédiat est de la défendre par de nombreux arguments, même si ces arguments
sont bancals ou peu reliés à la critique soulevée. C’est ce que l’on appelle la
rationalisation ou la dissonance cognitive. Elle revient à être beaucoup plus
critique envers les avis contraires à notre intuition qu’envers notre intuition.
Les psychologues n’ont cessé de le constater. Nos cerveaux ont d’énormes failles
dans leur traitement de l’information, notamment en termes d’excès de confiance
et de rationalisation 10 . Notre degré de confiance semble même peu corrélé avec
notre expertise. Parfois, elle est même inversement proportionnelle à l’exper-
tise 11 , ce que l’on appelle l’effet Dunning-Kruger 12 . Le biais de familiarité
6. Cette critique n’est pas une critique de la validité du principe d’universalité, mais des
effets secondaires indésirables de le supposer vrai, sachant nos biais cognitifs comme l’excès
de confiance. Par ailleurs, elle n’est pas spécifique à la déontologie.
7. The Righteous Mind : Why Good People Are Divided by Politics and Religion |
Vintage | J Haidt (2013)
8. L’autopromotion #DébattonsMieux | LN Hoang (2019)
9. The Evolution of Overconfidence | Nature | P Johnson & J Fowler (2011)
10. Système 1, système 2 : les deux vitesses de la pensée | Flammarion | D Kahneman
(2012)
11. Khan Academy and the Effectiveness of Science Videos | Veritasium | D Muller
(2011)
12. Unskilled and Unaware of It : How Difficulties in Recognizing One’s Own Incompe-
DÉSACCORDS MORAUX 203
semble faire que ceci soit particulièrement le cas des sujets familiers 13 , comme
conduire des voitures, juger les politiciens ou posséder la « bonne » morale.
Sur tous ces sujets, toute remise en cause de notre expertise risque alors d’être
perçue comme une attaque. Ce qui nous pousse à rationaliser. Et à mal débattre.
Enfin, une quatrième difficulté est ce qu’on appelle parfois l’hooliganisme, le
tribalisme ou le groupisme 14 . Elle revient à s’identifier à un clan, et à défendre
les valeurs et symboles du clan en son nom. L’effet de groupe conduit souvent
à une surenchère appelée polarisation de groupe 15 . Le groupe se convainc ainsi
de sa légitimité et de la nécessité de la solidarité des membres du groupe.
Dès lors, toute menace au groupe peut déclencher le « mode soldat » des
membres du groupe 16 . En particulier, les individus extérieurs au groupe seront
vus comme des méchants 17 ou, s’ils semblent bien intentionnés, des mauvais 18 .
Ce phénomène semble particulièrement accentué si deux groupes bien délimités
s’opposent. Les débats risquent alors de devenir très conflictuels, chaque indi-
vidu sentant le devoir de défendre son groupe et ses symboles.Malheureusement,
parmi ces symboles des groupes, on trouve souvent des principes moraux. Ces
principes étant des symboles, on a tendance à les défendre au nom de nos
groupes, quitte à utiliser le sarcasme, l’exagération des positions des autres
et l’attaque ad hominem. Voire l’insulte 19 .
Bref. Débattre de morale est difficile. Et même quand nous voulons bien faire, il
nous arrive souvent de mener des discussions néfastes au progrès moral de tous.
Pire, parce que nous nous attendons à des discussions morales désagréables, nous
avons tendance à les éviter. Surtout en présence d’inconnus ou d’individus qui
débattent mal. Malheureusement, une telle autocensure justifiée semble freiner
drastiquement la réflexion collective sur des problèmes moraux pourtant urgents,
comme ce que l’IA de YouTube devrait viser comme objectif. Il semble urgent
d’encourager la réflexion morale collective, par exemple en la rendant davantage
plaisante. Plutôt que de parler de fardeau moral, il semble préférable de souligner
(aussi) les opportunités morales de sauver des vies et d’aider au bien-être des
autres, ainsi que d’insister sur le plaisir 20 qu’il peut y avoir à réfléchir à ces
fabuleuses opportunités morales 21 !
Mieux débattre semble urgent. Néanmoins, même si on y parvenait, il persiste-
rait très probablement des désaccords inconciliables. Des millénaires de philo-
sophes ont cherché à fédérer tout le monde derrière certains principes. Ils ont
tence Lead to Inflated Self-Assessments | JPSP | J Kruger & D Dunning (1999)
13. The Illusion of Truth | Veritasium | D Muller (2016)
14. Êtes-vous un hooligan politique ? Science4All | LN Hoang (2017)
15. The Law of Group Polarization | JPSP | C Sunstein (2002)
16. Why you think you’re right – even if you’re wrong | TED | J Galef (2016)
17. Nietzsche et les méchants ! Monsieur Phi | T Giraud (2017)
18. Nietzsche - La morale des winners ! Monsieur Phi | T Giraud (2017)
19. La morale des hooligans (la nôtre ! !) | Science4All | LN Hoang (2017)
20. Prenez #DébattonsMieux comme un jeu | LN Hoang (2019)
21. Critiquer avec efficacité #DébattonsMieux | LN Hoang (2019)
204 CHAPITRE 12. AGRÉGER DES PRÉFÉRENCES INCOMPATIBLES
se mettre d’accord sur un scrutin. Ce scrutin combinera nos avis sur X, et fera
émerger une décision du groupe sur X. À bien y réfléchir, il s’agit d’une prouesse
remarquable de nos démocraties que, à défaut de nous mettre d’accord sur des
sujets de société, nous sommes globalement parvenus à nous mettre d’accord sur
comment nous mettre d’accord, y compris en cas de désaccord 27 !
Ce qui est fascinant, c’est qu’on n’est plus là en train de parler d’éthique. En
tout cas pas de l’éthique de X. On s’intéresse là à comment déterminer l’éthique
de X. On est en train de parler de méta-éthique. À l’instar d’une démocratie
qui s’est mise d’accord, non pas sur le contenu des lois, mais sur comment
se mettre d’accord sur le contenu des lois, il semble plus probable que l’on
parvienne à s’accorder sur la méta-éthique que sur l’éthique de X. Telle est en
tout cas l’approche de ce livre. Au lieu de défendre ou d’attaquer des philosophies
morales, on cherchera à défendre et attaquer des propositions de méta-éthique.
Malheureusement, toute méta-éthique semble critiquable. En particulier, la théo-
rie du choix social est remplie de théorèmes qui prouvent l’impossibilité de conce-
voir un scrutin avec toutes les propriétés désirables 28 . En particulier, le célèbre
théorème d’Arrow démontre mathématiquement que seule la dictature permet
de combiner des préférences individuelles en une préférence de groupe 29 . Autre-
ment dit, grossièrement, le groupe ne peut pas avoir de préférences cohérentes
avec les préférences des membres du groupe !
Voilà qui déplace en fait le problème de la méta-éthique à celui de la méta-méta-
éthique. Autrement dit, vu qu’il n’y a pas de méta-éthique idéale, il semble qu’il
faille d’abord réfléchir aux propriétés vraiment désirables de la méta-éthique.
C’est là tout l’objet de la théorie du choix social. Cette théorie va typiquement
chercher à identifier les propriétés désirables des scrutins, et à ensuite démontrer
que tel ou tel scrutin possède ou non telle ou telle propriété.
Un exemple d’une telle propriété est le principe de Condorcet, qui formalise
et généralise la notion intuitive de principe de majorité 30 . Étrangement, en
2019, à notre connaissance, aucune démocratie au monde n’obéit au principe
de Condorcet. Ce principe méta-méta-éthique est violé par quasiment toutes les
méta-éthiques actuellement utilisées !
Préférences cardinales
Le théorème d’Arrow cité plus haut ne s’applique toutefois qu’au cas des pré-
férences dites ordinales, c’est-à-dire les préférences qui consistent à ordonner
Au cours des dernières décennies, d’autres agrégations des préférences ont été
proposées, avec leurs avantages et inconvénients. On peut citer le scrutin par
assentiment, les loteries maximales et le scrutin de Condorcet randomisé 35 .
Cependant, toutes ces solutions, y compris le jugement majoritaire, souffrent
d’une limitation pratique majeure. En gros, un bulletin de vote doit classer ou
noter tous les candidats. Voilà qui est largement faisable quand il y a 5, 10 ou
même 50 options. Cependant, cette tâche semble désespérée s’il y a un million
d’options. Et elle l’est clairement s’il y en a 101000 .
Pourtant, quand il s’agit de déterminer un texte de loi ou le code algorithmique
de Charlie, le nombre d’options est beaucoup plus élevé encore. Le nombre de
textes de 1000 pages est ainsi de l’ordre 101 million . Pire, un argument à la Turing
suggère que toute morale satisfaisante pourrait nécessiter des milliards de pages
pour être décrite. Les solutions classiques de la théories du choix social sont
alors inapplicables dans ces cas. En tout cas inapplicables directement.
Wikipédia
Le plus pharaonique des projets d’écriture collaborative de textes complexes est
certainement Wikipédia. Il est intéressant d’insister sur le succès contre-intuitif
de cette plateforme. Il y a vingt ans, il semblait inconcevable que l’une des
sources d’information les plus fiables au monde soit un site Web que n’importe
qui peut éditer. Ce succès de la décentralisation inédite de l’édition encyclopé-
dique ne semblait pas avoir la faveur des pronostics.
Pourtant, Wikipédia a réussi la prouesse longtemps inimaginable de centrali-
ser des informations de très haute qualité via la décentralisation de l’édition.
Wikipédia a atteint une telle fiabilité que des chercheurs à la pointe de leurs
domaines utilisent régulièrement Wikipédia. Désormais, Google copie-colle des
extraits de Wikipédia pour beaucoup de nos recherches Google. Susan Wojcicki,
PDG de YouTube, a même proposé de mettre un lien vers une page Wikipédia
en bas de toute vidéo conspirationniste 36 .
Voilà qui suggère qu’il pourrait être possible d’écrire un texte de manière col-
laborative, y compris sur un sujet aussi controversé que la morale. D’autant
que Wikipédia a lui aussi des articles sur la morale, ou sur des sujets très po-
larisés comma la page Wikipédia de Donald Trump. Cependant, il semble qu’il
faille être davantage prudent avec cette suggestion. En effet, l’édition de telles
pages Wikipédia ne semble en fait pas si décentralisée. En septembre 2019, 11
contributeurs avaient écrit 50 % de la page Wikipédia anglophone de Donald
Trump, tandis que 85 contributeurs en avaient écrit 37 95 %. Il ne semble pas
& G Zaccour (2016)
35. Le scrutin de Condorcet randomisé (mon préféré ! !) | Science4All | LN Hoang (2017)
36. YouTube Will Link Directly to Wikipedia to Fight Conspiracy Theories | Wired | L
Matsakis (2018)
37. https://twitter.com/le_science4all/status/1168877714272653313
208 CHAPITRE 12. AGRÉGER DES PRÉFÉRENCES INCOMPATIBLES
Moral machines
Les humains semblent donc n’avoir que très peu chance de pouvoir décrire l’ag-
grégat de préférences humaines différentes pour des options combinatoirement
complexes comme des textes de loi. Pour néanmoins effectuer une agrégation
de leurs préférences, il semble que la seule solution concevable soit d’extrapoler
leurs préférences, à partir de ce que l’on sait d’elles. Autrement dit, Charlie
devra collecter des données sur nos préférences. Puis, elle devra imaginer ce que
seraient probablement nos préférences pour tel ou tel texte de loi, alors même
que nous n’avons jamais été exposés à ces textes de loi.
Sans en arriver à des textes de loi, des solutions ont en fait déjà été proposées
dans un cadre légèrement différent, notamment pour le problème de la voiture
autonome en mode trolley 40 . Imaginez que cette voiture n’a pas le temps de
freiner, et peut percuter ou bien un enfant de 5 ans, ou bien un couple de
personnes âgées. Que devrait faire la voiture autonome ?
Dans le cadre du projet moral machines du MIT, cette question et de nombreuses
autres variantes ont été posées à des millions d’internautes à travers le monde 41 .
Cependant, ces questions ne couvraient qu’une infime fraction de l’ensemble
des cas imaginables. Pour traiter tous les cas imaginables, il était nécessaire
d’extrapoler les préférences déclarées dans un petit nombre de cas particuliers.
C’est ce qui a été fait par l’informaticien Ariel Procaccia et ses collaborateurs 42 .
Puis, pour chaque nouveau scénario imaginable, ces chercheurs ont appliqué
la théorie du choix social et choisi une méthode pour agréger les préférences
38. D’autant que la sous-population des contributeurs Wikipédia n’est pas du tout repré-
sentative de l’ensemble de la population mondiale.
39. Wikipédia et l’épistocratie | Science4All | LN Hoang (2019)
40. Le mot trolley est ici une référence à Philippa Foot, qui introduisit le désormais célèbre
dilemme du trolley, où un individu doit choisir ou non de détourner un trolley et causer ainsi
un mort au lieu de 5 :
The Problem of Abortion and the Doctrine of the Double Effect | Oxford Review | P. Foot
(1967)
41. The moral machine experiment | Nature | E Awad, S Dsouza, R Kim, J Schulz, J
Henrich, A Shariff, JF Bonnefon & I Rahwan (2018)
42. A voting-based system for ethical decision making | AAAI | R Noothigattu, SS Gaik-
wad, E Awad, S Dsouza, I Rahwan, P Ravikumar & A Procaccia (2018)
CÈDE-T-ON LE POUVOIR AUX MACHINES ? 209
extrapoléees des internautes. Ils obtinrent ainsi une préférence unique pour la
voiture autonome. D’une certaine manière, ils semblent avoir résolu le problème
moral de la voiture autonome en mode trolley. Et leur astuce pour y arriver fut
de combiner une méta-éthique rigoureusement définie (agréger les préférences
extrapoléees des internautes) et une extrapolation des préférences humaines à
l’aide de machine learning 43 .
Cependant, cette façon de mettre l’humain au cœur des IA peut vous sembler
bien insatisfaisante. L’humain ne se contenterait donc que de fournir des don-
nées, possiblement même à son insu. Il ne serait plus vraiment acteur ? Pour
comprendre le problème, il est important d’insister sur la difficulté de rendre
les humains plus « acteurs ». Pour commencer, on est des milliards d’humains.
Chaque humain devrait donc n’avoir qu’une influence négligeable. Mais sur-
tout, toute la difficulté de Charlie est d’anticiper ce qu’on préférerait dans un
nombre monstrueux de cas imaginables, et dans un monde dans lequel il se passe
énormément de choses qui nous échappent complètement. Qui plus est, il sera
crucial pour Alice d’explorer le champ des possibles et la désirabilité des futurs
plausibles, afin de choisir au mieux les actions à entreprendre. Il semble que la
sûreté des IA nécessite et dépende forcément de l’extrapolation des préférences
humaines.
Ceci étant dit, il semble souhaitable de demander aux humains d’interagir autant
que possible avec Charlie, pour que Charlie extrapole au mieux les préférences
humaines. Il semble assez clair que cette interaction gagnera à être active, c’est-à-
dire à être une interaction où Charlie réagit à ce que dit l’humain, et où l’humain
réagit à ce que dit Charlie. Ce genre d’interaction commence à être mis en place,
43. How Will Self-Driving Cars Make Moral Decisions ? Up and Atom | LN Hoang et
J Tan-Holmes (2018)
210 CHAPITRE 12. AGRÉGER DES PRÉFÉRENCES INCOMPATIBLES
Dès que l’on utilise des données, surtout dans le cadre du machine learning,
ce doit être un réflexe que de se poser la question de l’existence de biais dans
les données. Dans le cas du projet moral machines, il y a un biais évident. Il
fallait connaître et accéder au site Web du projet pour fournir des données.
En particulier, la population des sondés par moral machines est une population
biaisée, qui baigne davantage dans le monde des technologies et s’intéresse aux
questions éthiques.
D’un point de vue démocratique, il s’agit là d’un manquement sérieux. Et il est
crucial de le souligner. Les préférences calculées par Procaccia et ses collabora-
ont une préférence marquée pour la vie des piétons, par opposition aux chinois
qui préféreraient sauver les passagers. Que faire ? Décide-t-on d’un compromis ?
Ou devrait-on programmer les voitures autonomes japonaises différemment des
voitures autonomes chinoises ? Pourquoi s’arrêter à ce niveau de granularité ?
Quid d’une voiture qui, traversant différents quartiers d’une mégalopole, adap-
terait son comportement aux préférences des quartiers visités ?
Ces questions peuvent sembler appartenir au domaine de la méta-éthique. Dans
ce livre, l’approche suggérée consiste à en faire des questions adressées par la
méta-éthique, dans la mesure où la réponse qu’on y apporte serait déterminée
par notre façon d’agréger les préférences. En particulier, l’astuce pour ce faire
repose sur l’extrapolation de préférences des humains pour l’état du monde
dans sa globalité. Autrement dit, ce sont nos préférences entre différents états
du monde décrits par Dave qu’il nous faut décrire et extrapoler.
En particulier, au lieu de décrire uniquement ce qu’une voiture devrait faire,
idéalement, il nous faudrait également dire si l’on préfère que les voitures auto-
nomes sauvent en priorité les piétons au Japon et les passagers en Chine, ou que
toutes ces voitures autonomes jugent les vies des piétons et des passagers de la
même manière. Et bien entendu, il ne faudrait pas s’arrêter là. Il faudrait ex-
trapoler les préférences de tout individu à toutes les configurations imaginables
de comportements des différentes voitures à travers le monde !
Si déterminer une méta-éthique consensuelle semble plus soluble que déterminer
une éthique consensuelle, ceci demeure malheureusement un défi monumental.
La tâche effrayante d’apprendre les préférences humaines est en fait bien lancée.
Mieux, de nombreuses entreprises ont construit leurs modèles d’affaires autour
de l’apprentissage des préférences des utilisateurs, que ce soit en marketing,
en publicité ou en personnalisation des produits. En particulier, des milliards
de dollars sont investis dans les IA des systèmes de recommandation. Celles-ci
cherchent à extraire d’un vaste ensemble d’offres celles qui collent le mieux avec
les préférences d’un utilisateur. Même si ces IA sont potentiellement partielle-
ment néfastes aujourd’hui, comme on l’a vu dans le chapitre 3, leur dévelop-
pement semble conduire à des technologies qui pourraient jouer un rôle crucial
pour Charlie, et donc pour la sécurité et la bienveillance des IA du futur.
Plusieurs techniques ont été développées pour apprendre les préférences des
utilisateurs sans les harceler pour qu’ils les décrivent explicitement. L’une de ces
techniques est l’apprentissage par renforcement inversé, ou inverse reinforcement
learning (IRL) 48 . Cette technique présuppose que les humains entreprennent
leurs actions à l’aide d’un apprentissage par renforcement, dont l’objectif est
48. Algorithms for inverse reinforcement learning | ICML | A Ng & S Russell (2000)
APPRENDRE LES PRÉFÉRENCES HUMAINES 213
inconnu. Il s’agit ensuite d’inférer l’objectif probable d’un humain, étant donné
l’observation des actions qu’il a entreprises.
Cependant, surtout dans le cas de cet apprentissage par renforcement inversé,
il semble crucial de distinguer les actions des utilisateurs qui relèvent d’une
addiction plutôt que d’une réelle motivation réfléchie. Autrement dit, il semble
extrêmement important de faire la différence entre ce qu’on préfère à un instant
donné, et ce qu’on voudrait préférer, notamment vis-à-vis de l’état du monde.
Bien souvent, nos actions instinctives sur le court terme omettent nos préférences
plus réfléchies pour le long terme. Il semble préférable que Charlie s’attarde sur
la seconde sorte de préférences. Malheureusement, il s’agit là d’une tâche difficile
(une de plus !). C’est ce dont on va parler dans le prochain chapitre.
Mais avant d’aborder le prochain chapitre, nous vous invitons à d’abord ques-
tionner celui-ci. Nos désaccords sont-ils démêlables ? Quels sortes de désaccords
a-t-on ? Peut-on tous les résoudre de la même manière ? Quels sont nos mauvais
réflexes de débats ? Quels sont vos mauvais réflexes de débats ? Comment mieux
débattre ? Comment se mettre d’accord ? Un scrutin est-il un moindre mal ?
Comment adresser des cas complexes ? Comment, par exemple, écrire un texte
à plusieurs, en un temps limité ? Que pensez-vous du dilemme du trolley ? Faut-
il laisser l’intuition réagir au dernier moment ? Est-ce préférable d’anticiper les
réactions qu’il serait souhaitable d’avoir ? Doit-on les programmer dans les IA ?
À quel point nos décisions doivent-elles être universelles ? Faut-il des morales
différentes pour des IA différentes ?
Nous vous invitons à réfléchir à toutes ces questions fascinantes, avec calme
et bienveillance. Si vous débattez de ces questions, nous vous encourageons à
prendre le soin de laisser les autres s’exprimer et de les écouter, et à faire un
effort particulier de pédagogie et de clarté quand vous prendrez la parole. Enfin,
comme d’habitude, pensez à vous attarder sur les impacts de vos discussions sur
l’urgence à mettre toutes sortes de talents dans les meilleures dispositions pour
rendre les IA robustement bénéfiques.
Références
The Problem of Abortion and the Doctrine of the Double Effect | Oxford Re-
view | P Foot (1967)
214 CHAPITRE 12. AGRÉGER DES PRÉFÉRENCES INCOMPATIBLES
215
216 CHAPITRE 13. QUELLES VALEURS POUR LES IA ?
Lunatiques et manipulables
Une terrible maladie touche 600 personnes. Vous disposez de deux traitements.
Le traitement A sauvera 200 personnes. Le traitement B sauvera les 600 per-
sonnes avec probabilité 1/3, mais ne sauvera personne avec probabilité 2/3. Quel
traitement choisiriez-vous d’administer ?
Si vous avez choisi le traitement A, vous faites là le même choix que 72 % des
personnes interrogées par les psychologues Tversky et Kahneman. Mais imagi-
nons maintenant deux autres traitements C et D. Avec le traitement C, 400
personnes meurent. Avec le traitement D, personne ne meurt avec probabilité
1/3, mais tous les malades meurent avec probabilité 2/3. Lequel de C et D
préféreriez-vous administrer ?
En y réfléchissant un peu, vous avez peut-être remarqué que A et C étaient en
fait équivalents, et que B et D l’étaient également. Pourtant, parmi un autre
groupe de sujets testés par Tversky et Kahneman, 78 % préfèrent désormais
D à C. Les préférences de la population testée semblent donc très nettement
influencées par la formulation du dilemme 6 .
Alors, bien entendu, vous qui avez été exposé aux deux formulations du dilemme
savez que ces deux formulations sont équivalentes. Et vous avez peut-être ajusté
votre choix pour la seconde formulation pour rendre vos préférences cohérentes.
Mais le gros problème, c’est qu’en pratique, on n’est souvent exposé qu’à l’une
des formulations possibles d’un problème. Pire encore, la formulation à laquelle
on est exposé est souvent habilement confectionnée par des entreprises, des
militants, des avocats ou des politiciens, qui préfèrent que nous exprimions telle
ou telle préférence. Nous-même, dans ce livre, avons délibérément choisi des
formulations de nos thèses qui ont davantage de chance de séduire le lecteur,
plutôt que de le brusquer.
L’un des facteurs qui joue probablement le plus dans notre dépendance à la
formulation d’un problème est la facilité avec laquelle la connotation des mots
utilisés biaise notre pensée. Il est ainsi fréquent qu’un même événement soit
décrit avec des termes positifs par des militants pro-X, et avec des termes pé-
joratifs par des militants anti-X. Typiquement, un égalitariste parlerait d’un
soulèvement démocratique, tandis qu’un élitiste qualifierait ce même événéne-
ment de démagogie populiste. Pourtant, il semble que tout jugement cohérent
devrait être le même, que l’on soit exposé au discours de l’égalitariste ou de
l’élitiste. Ce jugement devrait ainsi être invariant à la connotation.
6. Risques, décisions et incertitudes | Crétin de cerveau | Science étonnante | D Louapre
(2017)
218 CHAPITRE 13. QUELLES VALEURS POUR LES IA ?
Préférences orphelines
Progrès moral
Les différents biais que l’on a soulevés jusque-là sont, parmi tant d’autres, des
raisons de penser que le progrès moral est une notion qui a un sens. En effet, il
semble qu’il soit raisonnable d’affirmer que, en corrigeant nos biais de disponibi-
lité, nos dépendances à la formulation et nos croyances orphelines, on progresse
dans notre jugement moral.
La notion de progrès moral est souvent défendue lorsqu’on analyse l’évolution
des préférences sociales au cours des derniers siècles. Typiquement, notre at-
titude vis-à-vis de l’esclavage, du racisme ou de l’homosexualité semble avoir
beaucoup changé. Ce qui était célébré à une époque peut avoir fini par être
unanimement rejeté, et vice-versa. Vu cela, il semble probable que des compor-
tements aujourd’hui parfaitement acceptés par nos sociétés modernes puissent
être sévèrement rejetés par des sociétés futures, de la même manière que l’esla-
vage est désormais sévèrement rejeté — de façon intrigante, il s’agit là d’une
prédiction (probabiliste), pas d’un jugement moral !
Incertitude morale
Vers un moi +
Afin de mieux comprendre cette approche, il est utile de distinguer le « moi du
présent », que nous appellerons simplement moi, du « moi qui a plus et mieux
réfléchi », que nous appellerons moi+ . Il est utile de noter que chacun d’entre
nous dispose d’un moi, et de potentiels moi+ . La thèse fondamentale qui émerge
14. Éthique animale : la probabilité d’une catastrophe | Monsieur Phi | T Giraud (2018)
15. Normative uncertainty | W MacAskill (2014)
16. Formellement, on dispose d’une incertitude sur l’état x de l’univers, mais aussi sur la
préférence u à adopter. Il s’agit alors d’entreprendre l’action a qui maximise Ex,u [u(x)|a].
17. Le même problème se pose pour l’interdiction aux moins de 18 ans, pour le démonéti-
sation (la vidéo ne sera alors pas précédée de publicité, ou pas précédée de publicité « grand
public ») ou pour les droits d’auteur.
222 CHAPITRE 13. QUELLES VALEURS POUR LES IA ?
Thèse 10. Tout moi+ d’un moi a une « meilleure » préférence sur l’état du
monde que le moi.
Notez que la nature du moi+ est subjective. Elle dépend de l’état du moi. En
particulier, notre thèse ne présuppose absolument pas que tous nos moi+ se
ressembleront 19 . En fait, il semble même raisonnable de penser que chaque moi
dispose de plusieurs moi+ , en fonction de la manière dont on s’informe, et des
pistes de réflexions qu’on aborde.
Jusque-là, on a associé le moi+ au moi du futur. Cependant, ces deux versions
du moi semblent en fait très distinctes. Par exemple, le moi du futur sera lui-
même très influencé par son environnement social et informationnel. Or il subira
les mêmes biais de familiarité que le moi du présent. Le principe du moi+ est,
au contraire, de combattre ces biais 20 . Il s’agit davantage d’un moi du présent
ayant corrigé ses biais cognitifs. Néanmoins, méditer le moi du futur semble
demeurer utile, au moins dans un premier temps, pour combattre nos points
de crispation, nos points aveugles et d’autres biais cognitifs comme l’excès de
confiance.
Cette discussion peut donner l’impression qu’un moi+ peut être tout et n’im-
porte quoi. Ce serait une vision très grossière du moi+ . En fait, étant donné
un moi, il semble à peu près clair que tous les moi+ de ce moi ne sont pas
équiprobables. Certains moi+ semblent plus probables que d’autres. En fait, il
semble que la bonne manière de décrire un moi+ revient à utiliser un langage
probabiliste. Ou dit autrement, nous disposons d’une incertitude épistémique
sur les préférences de moi+ .
Une autre critique que l’on pourrait soulever est que le moi+ ne devrait pas avoir
de raison de diverger du moi. Cependant, comme on l’a vu, il semble bel et bien
que l’on puisse effectuer des découvertes morales par simple introspection 21 . En
effet, en l’absence de réflexion, il semble inévitable que les préférences de nos
moi seront pleines de biais et d’auto-contradictions. Pour clarifier, débiaiser et
rendre cohérentes nos préférences, il nous faut prendre le temps de la réflexion 22 .
18. Cette thèse morale, comme toute thèse morale, est bien sûr très discutable. Nous vous
invitons vivement à la questionner, à vous demander si elle nécessaire, si elle est suffisante, et
s’il n’y aurait pas de meilleures alternatives.
19. Un réaliste moral pourrait le supposer. Mais il semble important d’envisager le cas où
il n’y aurait pas de convergence, car ce cas ne semble pas complètement improbable. En
particulier, il ne semble pas implausible qu’un moi+ (et même peut-être un moi++ ) priorise
le bien-être de ses proches à celui d’inconnus.
20. En particulier, le moi+ du moi du futur pourrait être assez distinct du moi+ du moi du
présent.
21. Introspection diététique | Axiome | LN Hoang & T Giraud (2018)
22. Cette remarque semble valable pour les IA aussi. En effet, le calcul des récompenses
qu’il faudrait vraiment assigner pourrait être trop long à effectuer en pratique. Dès lors, il
pourrait être préférable de calculer ces récompenses via des heuristiques. Mais il ne faudra pas
perdre de vue qu’il s’agit d’heuristiques. Nous reviendrons sur le problème de la complexité
algorithmique de la morale dans le chapitre 16.
LA VOLITION 223
La volition
L’idée du moi++ est en fait une reformulation d’un concept introduit par Eliezer
Yudkowsky sous le nom de volition cohérente extrapolée 25 , ou coherent extra-
polated volition 26 (CEV) en anglais, et précisée ensuite par Nick Tarleton 27 et
Nick Bostrom dans son livre Super Intelligence. En particulier, Yudkowsky pro-
pose ainsi de remplacer nos préférences par nos « volitions », c’est-à-dire ce que
l’on préfèrerait préférer plutôt que ce que l’on préfère.
Pour prendre un exemple où cette distinction est évidente, on peut par exemple
mentionner nos addictions. Bien souvent, nous préférons aller sur Facebook ou
Twitter, mais nous préférerions ne pas préférer aller sur Facebook ou Twitter.
Ou de même, il peut nous arriver d’avoir envie de cliquer sur une vidéo peu
instructive, comme, disons, une vidéo de football. Cependant, au fond de nous,
nous préférerions ne pas avoir cette envie de cliquer sur cette vidéo. Ce que l’on
veut vouloir peut différer de ce que l’on veut 28 .
Mais Yudkowsky rajoute aussi que nos volitions ne sont généralement pas cohé-
rentes, et qu’il faut donc chercher à les rendre cohérentes. Enfin, nos volitions se
restreignent à ce qu’on est capable d’imaginer. Cependant, en pratique, il arrive
souvent des choses qu’on n’a pas pris le temps d’imaginer. D’où l’importance
d’extrapoler 29 nos volitions rendues cohérentes.
23. Formellement, on conçoit là une relation d’ordre sur différentes versions du moi. Les
moi++ en sont les maxima.
24. Quelles morales pour les IA (et pour nous) ? ? Science4All | LN Hoang (2018)
25. Il semble toutefois y avoir potentiellement des divergences entre le moi++ défini ici et la
volition cohérente extrapolée originalement décrite par Yudkowsky, qui invoquait notamment
des versions futures de nous qui « auraient grandi plus longtemps ensemble ». Par opposition,
tel que nous l’avons décrit ici, le moi++ n’extrapole pas de telles versions futures. Il s’agit
davantage du moi du présent, qu’on a rendu cohérent et dont on a extrapolé les volitions du
présent à des dilemmes que le moi n’a pas envisagé.
26. Coherent extrapolated volition | SIAI | E Yudkowsky (2004)
27. Coherent Extrapolated Volition : A Meta-Level Approach to Machine Ethics | MIRI |
N Tarleton (2010)
28. Mes tas de métas | T Drieu & LN Hoang (2018)
29. Originalement, le mot « extrapolé » faisait davantage référence à l’extrapolation de nos
224 CHAPITRE 13. QUELLES VALEURS POUR LES IA ?
avaient été ignorés. Ne faut-il pas donner davantage d’importance aux experts ?
Mais alors, comment quantifier l’expertise ? Et nous renseigne-t-elle sur les vo-
litions des personnes peu informées ?
Il semble qu’il soit souhaitable d’étudier davantage ces questions. Par exemple,
on pourrait étudier l’évolution des préférences d’un individu, parallèlement à
l’évolution du recul que cet individu a sur ses propres préférences. Si les che-
minements intellectuels de nombreux penseurs passent par une même phase in-
termédiaire que tous jugent indésirable, cette phase intermédiaire pourrait être
considérée probablement distincte d’une volition de tout moi++ . Néanmoins,
il reste alors le défi de mesurer adéquatement le recul d’un individu sur ses
préférences.
Une approche possible, introduite par l’économiste Bryan Caplan, serait le
test de Turing idéologique 33 . Dans ce test, l’individu doit défendre de manière
convaincante les préférences opposées aux siennes. Il semble raisonnable d’affir-
mer qu’un individu passant ce test avec brio a davantage de recul sur ses propres
préférences — même s’il faut faire attention à la loi de Goodhart, et anticiper
le fait que faire de ce test un objectif risque de dénaturer ses performances
prédictives.
On peut imaginer également que la modestie épistémique 34 , la capacité à garder
son calme, le refus d’utiliser des sophismes, la bienveillance envers son interlocu-
teur 35 , la capacité à décrire l’évolution de ses propres préférences et les causes
de cette évolution, la pédagogie pour expliquer ces préférences et la rigueur
de la description de ces préférences soient d’autres mesures raisonnables du re-
cul qu’un individu a sur ses propres préférences. Cette liste n’est clairement
pas exhaustive. Si vous êtes philosophe, psychologue ou neuroscientifique, vous
pourriez sans doute apporter des contributions centrales au fabuleux chantier
pour rendre l’IA robustement bénéfique, en orientant vos recherches ou celles
de vos collègues dans cette direction.
Admettons maintenant que l’on ait une bonne métrique du recul des indivi-
dus sur leurs propres préférences. L’étude de la corrélation entre préférences et
recul sur soi pourrait ainsi permettre d’inférer quelles seraient les préférences
probables de cet individu, s’il prenait davantage de recul encore sur lui-même.
Grâce à l’IA, surtout si elle atteint des performances surhumaines, il pourrait
même être possible d’aller au-delà de ces approches heuristiques et intuitives. À
terme, l’IA pourrait ainsi nous surpasser dans sa capacité à imaginer des futurs
contrefactuels probables, c’est-à-dire à anticiper les conséquences de quelques
changements dans l’état actuel du monde. En particulier, elle pourrait être ca-
pable d’imaginer ce que chacun d’entre nous finirait par préférer, si on devenait
tous passionnés par la quête de nos moi++ , si on réfléchissait ensemble en s’in-
Références
The Singer Solution To World Poverty | The New York Times | P Singer
(1999)
The world’s best charity can save a life for $3,337.06 | Business Insider | C
Weller (2015)
Peter Singer : The why and how of effective altruism | TED | P Singer (2013)
Effective Altruism | TEDxExeter | B Barnes (2015)
What are the most important moral problems of our time ? TED | W Ma-
cAskill (2018)
The Illusion of Truth | Veritasium | D Muller (2016)
Your brain is not a Bayes net (and why that matters) | J Galef (2016)
Les synonymes à connotation opposée | My4Cents | LN Hoang (2016)
Risques, décisions et incertitudes | Crétin de cerveau | Science étonnante | D
Louapre (2017)
Mes tas de métas | T Drieu & LN Hoang (2018)
How Will Self-Driving Cars Make Moral Decisions ? Up and Atom | LN Hoang
& J Tan-Holmes (2018)
Why Meat is the Best Worst Thing in the World | Kurzgesagt (2018)
Philosophie morale (playlist) | Monsieur Phi | T Giraud (2018)
#DébattonsMieux (playlist) | Science4All | LN Hoang (2019)
14
de la mer.
Antoine de Saint-Exupéry (1900-1944)
Récapitulatif
229
230 CHAPITRE 14. PROTÉGER LE CIRCUIT DE LA RÉCOMPENSE
Court-circuitage
Le problème du court-circuitage n’est pas spécifique aux IA. En fait, il a origina-
lement été observé dans l’étude des comportementaux animaux. En particulier,
en 1954, James Olds et Peter Milner en ont fait l’expérience sur des rats 2 .
Olds et Milner branchèrent le circuit neuronal de la récompense de ces rats à un
interrupteur. En activant cet interrupteur, les rats pouvaient alors exciter leurs
zones du plaisir. Et ils ne s’en privèrent pas. Les rats ne cessèrent d’actionner
l’interrupteur. Quitte à mettre en danger leur propre santé, et à oublier de
manger.
Dans une expérience horrible, en 1972, le psychiatre Robert Galbraith Heath a
même tenté d’appliquer la découverte d’Olds et Milner à l’orientation sexuelle
des humains 3 . Heath activa les zones du plaisir d’un individu homosexuel lors-
qu’il fut exposé à du contenu pornographique, puis lorsqu’une prostituée l’incita
à avoir des rapports hétérosexuels. Heath rapporta un certain succès dans cette
modification des préférences de l’individu 4 . « L’humain est hackable », affirme
Yuval Noah Harari.
Le problème plus fondamental semble ici être le court-circuitage des circuits de
la récompense. Intuitivement, les récompenses devraient être calculées par des
espèces d’Erin, Dave et Charlie de notre cerveau. Cependant, ceux-ci ont été
court-circuités, au profit d’une activation plus directe de nos récompenses. Mal-
heureusement, les IA par renforcement semblent elles aussi vulnérables à un tel
court-circuitage, notamment parce que ces algorithmes tourneront nécessaire-
ment sur des supports physiques. En particulier, le substrat physique du circuit
de la récompense des IA sera inéluctablement vulnérable au piratage, par des
utilisateurs malveillants ou par l’IA elle-même. On parle alors d’agents intégrés,
ou embedded agency en anglais 5 .
Notre décomposition permet d’ailleurs de mettre en évidence cette possibilité.
Pour maximiser ses récompenses futures, Alice peut tout simplement reprogram-
mer Erin, Dave ou Charlie, de sorte que les scores calculés par Charlie prennent
des valeurs aussi grandes que possible.
seraient déjà maximales. Que peut-elle bien faire pour faire mieux encore ?
Cependant, Alice ne se contente pas de maximiser ses récompenses immédiates.
Comme on l’a vu dans le chapitre 9, Alice maximise en fait ses récompenses
futures. Or, sachant que ses récompenses sont déjà maximales, la seule menace
à la maximalité de ses récompenses futures, c’est une interruption de son fonc-
tionnement, ou une modification de son circuit de la récompense par une entité
extérieure.
En fait, comme toute IA, si elle dispose d’une capacité de planification straté-
gique importante, Alice pourrait adopter les objectifs instrumentaux dont on a
parlé dans le chapitre 9. En particulier, elle pourrait en venir à la conclusion que
la plus grande menace à ses récompenses futures est l’émergence d’une autre IA
plus puissante qu’elle 6 . Alice pourrait alors chercher à protéger son circuit de
la récompense court-circuité. C’est cette protection qui pourrait alors avoir des
effets secondaires préoccupants.
L’argument ici n’est pas tant qu’Alice sera nécessairement préoccupée par le
monde extérieur 7 . L’argument est qu’il n’est pas possible d’exclure la possibilité
qu’elle le soit. Elle pourrait agir comme une junkie qui se rendrait compte que
son fournisseur de drogue pourrait refuser de continuer à la servir.
Bien entendu, il serait caricatural de prétendre que seuls leurs propres inté-
rêts leur importent. Tous ces individus demeurent des créatures sociales, qui
souhaitent au moins le bien de leur entourage. Cependant, notamment en pé-
riodes difficiles où la sélection est plus rude, ces différents secteurs économiques
semblent favoriser la survie de ceux qui auront prêté beaucoup d’attention à
leurs propres intérêts. Voilà qui n’est pas nécessairement gênant en soi. Cepen-
dant, cet égocentrisme d’individus influents pose des risques d’effets secondaires
majeurs.
Dans le cadre notamment de la politique, ce principe est poussé à l’extrême
par le chercheur en géopolitique Bruce Bueno de Mesquita 9 . Selon Mesquita,
les hommes politiques sont tiraillés par toutes sortes de requêtes de différents
collaborateurs, dont le support est crucial à leur survie professionnelle. Dès lors,
les agissements de ces hommes politiques sont bien plus le fruit des incitatifs
imposés par leur entourage (y compris l’opinion publique), que des convictions
mêmes de ces hommes politiques 10 . En particulier, même si ces hommes étaient
des saints, leur environnement peut être une contrainte telle qu’ils devront se
contenter de faire un moindre mal — mais ce moindre mal pourrait paraître
ignoble 11 .
Pour étudier la politique, Mesquita s’appuie sur un cadre mathématique appelé
la théorie des jeux 12 . On peut résumer bien des aspects de cette théorie par
l’expression suivante : haïssez le jeu, pas les joueurs. Autrement dit, certains
jeux imposent des incitatifs tels qu’il faut s’attendre à ce que les joueurs sui-
vront ces incitatifs. Dès lors, pour modifier les conséquences du jeu, qu’il soit
politique, économique ou environnemental, chercher à modifier les individus et
leurs comportements n’aura que peu d’effets. Il vaudra mieux modifier le jeu 13 .
Et en particulier les récompenses distribuées par le jeu 14 .
Tel est le rôle de Bob. Bob sera en charge de garantir le fait que les intérêts
d’Alice, c’est-à-dire ses récompenses, soient tels qu’Alice adoptera des compor-
tements souhaitables.
Celui-ci s’appuie notamment sur des diagrammes causaux pour aider Bob à
forcer Alice à protéger son circuit de la récompense 16 . Il semble toutefois que
davantage de recherches dans cette voie soient souhaitables.
D’autant que, plutôt que de se contenter de motiver Alice à ne pas modifier son
circuit de la récompense, Bob pourrait lui fournir des incitatifs d’améliorer le cir-
cuit de la récompense. En effet, Erin, Dave et Charlie ont des tâches qui semblent
impossibles à satisfaire pleinement. Ils semblent toujours pouvoir s’améliorer 17 .
Pire encore, il semble improbable qu’Erin, Dave et Charlie soient conçus conve-
nablement dès le début. Il semble crucial de permettre la corrigibilité d’un circuit
de la récompense potentiellement défectueux.
Pour en arriver là, il faudra que Bob soit en mesure de mesurer adéquatement
les performances d’Erin, Dave et Charlie. Notez qu’il s’agit là d’un problème
très difficile. En particulier, il y a un énorme risque de tomber dans l’écueil
décrit par la loi de Goodhart. Les métriques de performances seront des proxies.
Et l’optimisation de ces proxies risquerait de conduire à des effets secondaires
indésirables. Développer des métriques de performances adéquates pour Erin,
Dave et Charlie (et même Bob et Alice) semble être un axe de recherche crucial
encore peu exploré.
Pour mieux comprendre le rôle de Bob, il peut être utile de faire une analogie
avec le cerveau humain. Comme l’explique le prix Nobel d’économie Daniel
Kahneman, il semble utile de décomposer le fonctionnement de ce cerveau en
deux systèmes de pensée, que Kahneman appelle tout simplement le système
1 et le système 2. Le système 1 est un mode de fonctionnement rapide, peu
coûteux et très instinctif. Le système 2, a contrario, est un raisonnement lent,
possiblement plus juste, mais aussi beaucoup plus coûteux 18 .
La penseuse Julia Galef exploite cette analogie 19 , en identifiant le système 1 avec
une sorte de travailleur. Ce système 1 ne se préoccupant que de sa tâche, il lui est
possible d’être beaucoup plus efficace pour l’accomplir. Malheureusement, en ne
se préoccupant que de sa tâche, il lui est également impossible d’avoir une vue
d’ensemble. Pour cette raison, il est important pour le système 2 de surveiller
non seulement le travail du système 1, mais aussi de le placer dans un cadre
plus général pour en vérifier la pertinence. Le système 2 agirait ainsi comme
une sorte de PDG. Même s’il est incapable d’effectuer lui-même le travail du
système 1 avec autant d’efficacité, il reste indispensable pour prendre du recul
sur ce travail.
Mieux encore, le système 2 pourrait chercher à mettre le système 1 dans les
meilleures conditions, typiquement en concevant des systèmes de récompenses.
Par exemple, le système 2 peut promettre au système 1 un morceau de chocolat,
une fois sa tâche achevée. Autre exemple, le système 2 peut bloquer les réseaux
sociaux pendant les heures de travail du système 1, pour lui permettre de mieux
se concentrer. En termes psychologiques, on parle alors d’auto-nudge 20 .
Il semble que la relation entre Bob et Alice peut être comparée à celle entre le
système 2 et le système 1, ou entre le PDG et le travailleur. En un sens, Alice
est la travailleuse. Elle doit agir, et peut se permettre d’agir conformément
uniquement à ses récompenses. À l’inverse, Bob semble devoir prendre du recul
pour avoir une perspective générale, et doit ensuite concevoir des récompenses
adéquates pour aiguiller Alice dans le bon sens.
Récompenser l’apprentissage
Pour aider Alice dans la prise de décision, il pourrait être souhaitable que Bob ne
se contente pas de communiquer les récompenses. En particulier, Alice gagnerait
sans doute grandement à disposer d’une explication des récompenses.
On peut illustrer cela avec le cas de la censure par l’IA de YouTube 24 . Un
créateur qui est uniquement informé de la censure de sa vidéo sera non seulement
frustré ; il ne saura pas non plus quel est le problème. Il ne saura pas comment
rendre son contenu conforme aux règles de YouTube.
Malheureusement, l’interprétabilité de la décision de l’IA de YouTube est com-
plexe. Bien souvent, celle-ci dépend de nombreux facteurs complexes, y compris
des autres contenus présents sur la plateforme. Par exemple, l’IA pourrait avoir
censuré une vidéo sur la linguistique des langues juives à cause d’un malencon-
treux amalgame avec des contenus antisémites. Plus généralement, la décision de
censure de l’IA ne dépend souvent pas d’un unique point précis du contenu. Elle
est l’agrégat de nombreux aspects de la vidéo et de l’écosystème de YouTube.
Pour comprendre quelles sortes d’explications des récompenses pourraient être
utiles, il est intéressant d’analyser le cas des réseaux adversariaux génératifs 25 ,
aussi appelés GAN. Dans cette architecture d’apprentissage-machine, une IA
dite adversaire fournit une sorte de récompense à une autre IA dite génératrice.
Cette récompense est la ressemblance entre une donnée fictive créée par l’IA
génératrice et une donnée réelle. Autrement dit, plus l’IA génératrice crée une
donnée réaliste, plus elle recevra une récompense élevée.
Cependant, le vrai génie de l’architecture des réseaux adversariaux génératifs,
c’est que l’IA adversaire ne se contente pas de fournir cette récompense. Elle
donne aussi une information appelée le gradient de la récompense par rapport
à différents aspects de la création de l’IA génératrice 26 . De façon grossière, ceci
revient à dire que l’IA adversaire agit comme une entraîneuse. Non seulement
elle dit à l’IA génératrice si ce qu’elle fait est bien, elle lui dit aussi que faire
pour s’améliorer.
Dans le cas de la censure de YouTube, un tel gradient de la censure reviendrait à
informer le créateur de quels morceaux de sa vidéo sont les plus problématiques,
et comment une modification de ces morceaux affecterait la censure de la vidéo.
Par exemple, l’IA pourrait dire qu’en enlevant trois scènes, le contenu ne serait
plus censuré. Elle pourrait ajouter qu’en insérant une précision en début de
vidéo, le contenu pourrait être publié sans enlever les trois scènes mentionnées
précédemment.
24. En pratique, le sujet plus controversé est celui de la démonétisation par l’IA, qui affecte
alors les recettes du créateur de contenu.
25. Les réseaux adversariaux (GAN) | Science4All | LN Hoang (2018)
26. Typiquement, si la création est une image, pour chaque pixel de l’image, l’adversaire
dira au générateur comment modifier la couleur du pixel pour rendre l’image plus réaliste, et
à quel point cette modification rendra l’image plus réaliste.
LE CONTRÔLE D’ALICE 237
Le contrôle d’Alice
En étant au contrôle des récompenses d’Alice, Bob peut ainsi contrôler Alice
et punir ses mauvais comportements. En particulier, il semble que la littérature
dédiée au contrôle des IA s’applique très naturellement au contrôle d’Alice par
Bob.
Par exemple, de nombreux chercheurs en sécurité en IA attachent beaucoup
d’importance à la corrigibilité des IA. Après tout, il semble improbable que la
première version d’Alice et Bob soit suffisamment bien conçue pour être parfai-
tement sûre. Il est donc indispensable de permettre leur amélioration, y compris
après déploiement. Certains formalismes rigides de conception des IA se prêtent
malheureusement mal à cette corrigibilité des IA après déploiement 27 .
Cependant, en permettant à Bob de modifier sa conception de récompenses, il
sera alors possible pour Bob de corriger le comportement d’Alice, lequel pourra
également corriger le comportement de Bob. À condition bien sûr que Bob
soit conçu dans cette optique, on pourrait ainsi automatiquement programmer
l’auto-correction des IA et de leurs circuits de la récompense !
Par ailleurs, pour bien anticiper la pertinence des récompenses qu’il conçoit, il
sera sans doute utile à Bob de comprendre au moins grossièrement le fonctionne-
ment d’Alice. Pour cela, Bob pourrait exiger d’Alice qu’elle soit interprétable.
Les travaux sur l’interprétabilité des IA pourraient ainsi trouver des applica-
tions cruciales dans le contrôle d’Alice par Bob, lequel permettra à Bob une
conception de récompenses plus adéquate.
Il se pourrait que des systèmes de preuves formelles soient utiles à Bob pour
vérifier qu’Alice se comporte de telle ou telle manière. L’étude de ces preuves
par l’informatique théorique a d’ailleurs conduit à un foisonnement de méthodes
diverses et variées, de la vérification formelle à des systèmes de preuves par in-
teraction. En particulier, des variantes de ces preuves par interaction, sous forme
de sortes de « débats d’IA 28 », pourraient permettre de vérifier efficacement et
avec grande probabilité des propriétés algorithmiques d’Alice. Toutefois, pour
l’instant, il ne semble pas clair de voir comment ces méthodes peuvent être ap-
pliquées pour le contrôle d’Alice par Bob. Il semble que davantage de recherches
dans cette direction soient souhaitables.
27. General AI Won’t Want You To Fix its Code | Computerphile | R Miles & S Riley
(2017)
28. AI safety via debate | G Irving, P Christiano & D Amodei (2018)
238 CHAPITRE 14. PROTÉGER LE CIRCUIT DE LA RÉCOMPENSE
Une dernière remarque à faire sur la relation entre Alice et Bob, c’est que
Bob doit sans doute se prémunir d’éventuelles attaques d’Alice. Après tout,
si Alice peut réécrire Bob en envoyant un unique message, il semble que même
les meilleures conceptions d’incitatifs par Bob seront insuffisants. Pour empêcher
ce cas préoccupant, il semble utile de rendre les modifications de Bob difficiles,
typiquement en s’appuyant sur une architecture cryptographiquement sécurisée
et très décentralisée de Bob. Des idées comme la preuve de travail 29 , utilisée no-
tamment pour la Blockchain, pourraient aussi être utiles pour empêcher Alice de
modifier aisément Bob. Typiquement, Alice pourrait devoir fournir une preuve
de travail pour pouvoir modifier une partie de Bob. Ceci pourrait donner suffi-
samment de temps à Bob pour vérifier si les modifications imposées par Alice
sont bénéfiques, et ainsi récompenser ou punir Alice conformément.
L’un des aspects intéressants de cette démarche, c’est que Bob peut forcer Alice
à prêter attention à son circuit de la récompense en général, et à Bob lui-même
en particulier. Bob peut ainsi récompenser Alice à chaque fois qu’Alice permet
à Bob d’améliorer ses propres performances.
Toutefois, cette observation soulève une dernière question. Comment mesurer
les performances de Bob ? Quel est l’objectif de Bob ? Comment déterminer si
Bob remplit bien sa tâche de conception des récompenses pour Alice ?
Rappelons que le rôle de Bob est de résoudre le compromis entre prendre soin du
circuit de la récompense d’Alice et lui communiquer la désirabilité de l’état de
monde calculée par Charlie. Toutefois, malheureusement, à notre connaissance,
nous ne disposons pas encore de réponse satisfaisante à ce compromis, même si
de plus en plus de travaux cherchent à adresser ce problème. Si vous êtes infor-
maticien, mathématicien ou philosophe, ou bien neuroscientifique, psychologue
ou psychiatre, il semble que votre expertise pourrait être d’une très grande aide
pour mieux comprendre comment les IA et les humains pourraient mieux pro-
téger et améliorer leurs circuits de la récompense. En fait, orienter la recherche
dans cette direction pourrait drastiquement augmenter nos chances d’accomplir
le fabuleux chantier pour rendre les IA robustement bénéfiques.
En effet, il semble possible que résoudre le dilemme de Bob soit la clé pour y
arriver, notamment sur le long terme. Après tout, si Bob est suffisamment bien
conçu, il donnera les incitatifs adéquats à Alice pour prendre soin de tout le
circuit de la récompense. En particulier, Bob peut forcer à Alice à garantir que
tous les éléments de notre décomposition atteignent des performances suffisam-
ment bonnes pour permettre la sécurité et l’alignement d’Alice. La conception
de Bob pourrait donc être l’urgence prioritaire pour rendre les IA robustement
29. Devenir riche grâce au minage des Bitcoins c’est possible ? | String Theory | LN
Hoang (2018)
QUEL OBJECTIF POUR BOB ? 239
Références
Prediction : How to See and Shape the Future with Game Theory | Vintage
Digital | BB de Mesquita (2011)
The Dictator’s Handbook : Why Bad Behavior is Almost Always Good Poli-
tic | PublicAffairs | BB de Mesquita & A Smith (2012)
Towards Safe Artificial General Intelligence | T Everitt (2018)
Décentralisation et heuristiques
15
Robustesse
241
242 CHAPITRE 15. DÉCENTRALISATION ET HEURISTIQUES
Ultra-rapidité
sont envoyées à un serveur. À l’instar d’un humain surmené par une information
entrante qu’il n’arrive plus à gérer, le serveur risque alors de tomber en panne,
et de ne plus être mesure de fournir son service habituel.
Pour se prémunir de telles attaques, les géants du Web démultiplient le nombre
de leurs serveurs capables de répondre à des requêtes des utilisateurs. En ce sens,
l’IA de Google est déjà très décentralisée. Elle est copiée-collée dans différents
serveurs proches des clients, de sorte que deux clients faisant la même requête
seront en fait probablement servis par des serveurs Google différents.
Grâce à ces astuces, les IA peuvent alors être ultra-rapides, en deux sens dif-
férents. En premier lieu, en profitant également de meilleurs canaux de dis-
tribution, les IA sont devenues capables de transmettre une énorme quantité
d’informations à différents utilisateurs. On parle de grands débits. Voilà qui est
particulièrement critique pour des applications comme YouTube, qui inondent
des milliards de smartphones de contenus audiovisuels.
En second lieu, en n’ayant que relativement peu d’utilisateurs à gérer, chaque
serveur Google n’aura pas besoin de créer une trop longue file d’attente. Il
pourra ainsi réagir très rapidement à chaque requête. Le temps d’attente d’un
utilisateur sera alors réduit. On dit qu’il recevra un service à faible latence. En
fait, de nos jours, cette latence est parfois tellement optimisée qu’elle a fini par
se rapprocher des limites physiques — en particulier la vitesse de la lumière qui
nécessite des millisecondes pour parcourir des milliers de kilomètres.
L’importance cruciale des débits et de la latence pour un très grand nombre
d’applications fait de l’algorithmique distribuée un support certainement incon-
tournable pour les IA du futur, comme elle l’est déjà pour les IA d’aujourd’hui.
Il nous faut donc réussir à concevoir et maîtriser des IA distribuées, plutôt que
de restreindre notre réflexion à des agents uniques bien localisés. Voilà qui rend
le contrôle des IA d’autant plus délicat.
qu’elle soit effectuée en même temps que celle d’un autre général byzantin. Ainsi,
si les armées des deux généraux byzantins attaquent, l’attaque de la cité sera
un succès. Si aucune des armées n’attaque, la cité ne sera pas attaquée. Mais
au moins, les deux armées seront préservées. Enfin, et surtout, si une seule des
deux armées attaque, alors elle subira un carnage inutile. Comment coordonner
l’attaque des deux armées ?
Considérons pour commencer que les deux généraux se font parfaitement confiance,
et qu’ils ont raison de se faire confiance ainsi. On pourrait croire que résoudre le
problème de l’attaque coordonnée est facile. Il suffit que les deux généraux s’ac-
cordent à attaquer la cité. Cependant, si les deux armées sont géographiquement
distantes, ce qui est typiquement le cas si elles souhaitent attaquer la cité par
plusieurs fronts, la communication entre les généraux sera rendue difficile. Et il
peut en particulier être délicat de se mettre d’accord sur l’attaque coordonnée
de la cité. Voire impossible.
Pour obtenir cette garantie, le premier général pourrait alors exiger du messager
qu’il revienne le voir pour confirmer la bonne réception du premier message.
Mais ceci ne suffirait en fait pas à coordonner l’attaque. En effet, même si le
premier général reçoit la confirmation de la réception de son message, le second
général demeurera dans le flou quant à la réception par le premier général du
message de confirmation. Et il ne saura pas s’il lui faut attaquer. Il pourrait alors
exiger une confirmation de la confirmation de la réception du premier message.
Mais le premier général pourra alors douter de la réception de la confirmation de
la confirmation de la réception du premier message. Et ainsi de suite à l’infini.
Spécialisation
Une grosse partie de l’algorithmique répartie s’est pour l’instant concentrée sur
la décentralisation d’un calcul sur plusieurs machines aux tâches similaires. Il
s’agit en effet d’une tâche indispensable pour résoudre une tâche plus fiablement
et plus rapidement. Cependant, notamment avec l’avènement de l’IA et des
algorithmes distribués de machine learning, il y aura probablement un gain
majeur à rendre chaque machine spécialisée à des tâches qui lui sont propres.
Typiquement, une IA déployée dans un pays donné pourrait concentrer ses forces
dans l’apprentissage des spécificités culturelles et légales de ce pays, quitte à
oublier partiellement les spécificités d’autres pays.
Cette spécialisation des composants d’un système global est un phénomène déjà
bien connu de nos sociétés. Comme l’illustre Adam Smith, la simple conception
d’une veste de laine est le fruit d’une collaboration d’un nombre gargantuesque
d’individus aux expertises différentes, des agriculteurs qui ont élevé et tondu la
laine des moutons, en passant par les services de distribution et de vente, mais
aussi par les producteurs d’outils indispensables à ces services, qu’il s’agisse
d’ingénieurs en charge de la conception des véhicules de transport, des législa-
teurs en charge de garantir l’absence de contrefaçon ou des ouvriers en charge
de l’exploitation minière pour prélever le fer indispensable à la construction de
ciseaux, eux-mêmes indispensables à l’agriculteur 6 .
Une difficulté additionnelle semble alors être le risque de friction entre IA spé-
cialisées. En effet, même si les IA spécialisées ont des objectifs similaires, la
théorie des jeux montre souvent que les intérêts individuels des IA spécialisées
pourraient entrer en conflit, et nuire à leur objectif commun global 8 . À notre
connaissance, concevoir une décentralisation et une spécialisation adéquates des
récompenses semble être un défi de recherche encore trop peu exploré.
Heuristiques et ignorance
Il y a une autre raison pour laquelle les IA les plus utilisées pourraient devoir
n’être que des heuristiques : ces IA tournent souvent sur des téléphones. Or ces
téléphones pourraient être trop limités dans leurs puissances de calculs et dans
leurs capacités de mémoire. Les algorithmes qui tournent sur ces téléphones
pourraient devoir n’être que des versions très simplifiées d’IA plus puissantes,
qui nécessiteraient par exemple des teraoctets de mémoire pour être stockées.
Le fait que ces IA ne sont que des heuristiques implique alors nécessairement
que leurs performances seront moindres. En particulier, ces IA pourraient avoir
des faiblesses et des angles morts. L’IA pourrait typiquement recommander un
contenu sexiste, non pas parce qu’elle voulait recommander du sexisme, mais
parce qu’elle n’a pas su détecter le sexisme dans la vidéo. Pour combattre ces
vulnérabilités par incompétence, il semble alors souhaitable que les IA heuris-
tiques mesurent l’étendue de leur ignorance. Quand leur incertitude est grande 9 ,
ces IA pourraient alors requérir l’aide de versions plus sophistiquées de ces IA.
De façon plus générale, ces problèmes soulèvent la question de la communication
entre IA. Si plusieurs IA partagent un objectif similaire, mais sont entraînées à
partir de données différentes, il semble désirable de leur permettre de commu-
niquer leur connaissance et leur ignorance, pour améliorer leurs performances.
Une version idéalisée de ce problème a d’ailleurs déjà été étudiée, où les IA sont
supposées être bayésiennes 10 . Davantage de recherche autour de ces questions
fascinantes semble désirable.
Récapitulatif global
Références
Algorithms for Concurrent Systems | EPFL Press | R Guerraoui & P Kuz-
netsov (2018)
Remarques et conclusions
251
Quand je réfléchis à ce que les individus attendent d’un
[jugement*], je m’aperçois qu’il s’agit toujours d’un
nombre.
Muhammad Ibn Musa Al-Khawarizmi (780-850)
16
Scott Aaronson (1981-)
Toutes ces questions fascinent et occupent une grande partie de l’espace public.
Elles donnent envie de disserter longuement sur la nature humaine et la bêtise
algorithmique. Cependant, dans ce livre, nous avons fait un gros effort pour
ne pas en parler. Car quand il s’agit des effets secondaires des algorithmes qui
affectent des milliards d’individus, les réponses philosophiques à ces questions
n’ont qu’une importance limitée. L’IA tue déjà. Qu’elle soit intelligente ou non.
Qu’elle soit consciente ou non.
* : En arabe, « Hissab » veut dire calcul mais peut aussi dire jugement (Yawm al-hissab :
jour du jugement). Nous avons choisi de le traduire par jugement. La deuxième section de ce
chapitre nous montre que l’adoption du même mot pour ces deux concepts n’est finalement
peut-être pas qu’un simple hasard de la langue arabe.
253
254 CHAPITRE 16. PHILOSOPHIE MORALE CALCULABLE
Il nous semble que l’ampleur des effets secondaires des IA est le sujet le plus
pressant d’aujourd’hui. Mais surtout, nous pensons que ces effets secondaires des
IA d’aujourd’hui et de demain sur nos sociétés méritent une part plus grande
dans le débat public. C’est en tout cas de cela dont nous souhaitions parler.
Mais avant d’en arriver là, il serait peut-être bon de justifier davantage le rôle
prépondérant que nous attribuons ici à l’algorithmique.
La thèse de Church-Turing
Au début des années 1930, à une époque où les mathématiques s’étaient envolées
dans des considérations ésotériques très éloignées des calculs réalisables y com-
pris par des mathématiciens, certains logiciens se demandèrent comment carac-
tériser l’ensemble des opérations effectivement calculables. De façon stupéfiante,
en 1936, les travaux de plusieurs d’entre eux, dont Jacques Herbrand, Stephen
Kleene, Kurt Gödel, mais surtout Alonzo Church et Alan Turing, convergèrent
vers une même notion de calculabilité, via des voies pourtant très différentes.
En particulier, Church et Turing prouvèrent que les fonctions généralement ré-
cursives de Gödel, le λ-calcul de Church et les machines de Turing définissaient
en fait un seul et même concept de calcul 1 .
Church et Turing conclurent que cette remarquable coïncidence n’en était pas
une. Cette année-là, ces différents logiciens n’étaient pas tombés par accident
sur une notion de calcul. Ils étaient tous tombés sur la notion ultime du calcul.
Ils conjecturèrent alors leur thèse, dite thèse de Church-Turing. Cette thèse
affirme que toute opération effectivement calculable n’est autre que le calcul
d’une machine de Turing.
En ce sens, la thèse de Church-Turing, ainsi que ses versions plus précises ap-
pelées thèse de Church-Turing physique et thèse de complexité quantique de
Church-Turing, peut être considérée comme l’une des théories les plus défiées
et les plus confirmées de l’histoire des sciences. De façon plus intrigante, si on
l’accepte, on obtient alors des contraintes remarquables sur l’ensemble des pos-
sibles dans notre univers. Et en particulier sur les limites de l’épistémologie,
c’est-à-dire sur l’ensemble des raisonnements possibles et leur degré de validité,
notamment étant donné les données collectées 4 .
Dans ce chapitre, nous proposons d’en faire de même pour la philosophie morale.
À l’instar de Charlie, nous allons considérer que nous devons déterminer ce qui
est désirable et ce qui ne l’est pas. Mais aussi que, pour y arriver, nous devrons
nous appuyer sur des données qui peuvent être représentées comme une suite
binaire, et que le calcul de ce qui est désirable à partir de ces données se doit
d’être réalisable par une machine de Turing. Tel est ce que nous appelons ici la
philosophie morale calculable.
Le mot conscience
« vraiment conscientes ».
En 2004, le neuroscientifique Giulio Tononi a proposé une définition cohérente
extrapolée de la conscience appelée théorie de l’information intégrée, ou integra-
ted information theory (IIT) en anglais 8 , ensuite complétée en 9 2014. Voilà une
initiative intéressante et prometteuse — même si, selon l’informaticien Scott
Aaronson, cette définition cohérente ne semble pas être entièrement adéquate,
notamment car elle en vient à assigner une conscience importante à des construc-
tions mathématiques que très peu de gens qualifieraient de conscientes 10 .
D’ailleurs, à l’instar du problème de la volition cohérente extrapolée, il ne semble
y avoir aucune garantie que la définition cohérente extrapolée d’un individu soit
unique, ni que les définitions cohérentes extrapolées de deux individus distincts
coïncideront. En fait, il semble qu’on puisse déjà approximativement distinguer
plusieurs notions de conscience, comme la conscience d’accès et la conscience
phénoménale. À cela semble aussi s’ajouter la « conscience morale », qui serait la
motivation à suivre des principes moraux. C’est typiquement cette « conscience
morale » qui serait cette petite voix à l’intérieur de nous, cette espèce de Bob,
qui cherche à nous motiver à faire ce qui est moralement préférable. C’est en
particulier cette « conscience morale » qui semble surgir dans des expressions
comme « science sans conscience n’est que ruine de l’âme » de Rabelais ou « se
racheter une conscience ».
Enfin, il semble qu’on puisse également identifier un autre sens encore au mot
« conscience », qu’on pourrait appeler la « conscience empathique ». Il s’agit
de la « conscience » qu’on assigne à autrui en fonction de notre capacité à nous
imaginer être cet autrui. Typiquement, on attribue une conscience à un chat,
car on parvient à imaginer ce que ressent ce chat. Cependant, il est plus rare
d’attribuer une conscience à l’IA de YouTube, car il nous est difficile d’imaginer
l’expérience de vie de l’IA de YouTube. Cette « conscience empathique » semble
peut-être être celle qui importe dans la plupart de nos débats moraux. Elle a
l’avantage d’être probablement formalisable et calculable. Toutefois, elle semble
avoir le défaut de dépendre davantage de l’observateur de la conscience que de
la conscience elle-même.
faisant, elle nous invite aussi à ignorer les considérations dont le statut épisté-
mique ne peut pas être modifié par des données observables. En particulier, pour
déterminer si une chose est souhaitable, elle nous invite à d’abord nous poser
la question de comment mesurer la chose en question. Typiquement, le bonheur
est sans doute souhaitable. Mais avant de le conclure, comment peut-on estimer
le niveau de bonheur d’un individu ? Sur quelles données peut-on s’appuyer ? Et
comment traiter ces données pour avoir une telle estimation ?
En particulier, en pratique, il ne suffit pas qu’une philosophie morale soit calcu-
lable pour qu’elle soit calculée. Par exemple, dans le jeu Universal Paperclips 13 ,
le joueur joue le rôle d’une IA dont l’objectif est de maximiser le nombre de
trombones dans le monde. Cependant, même cet objectif qui semble parfaite-
ment calculable se doit d’être calculé — ce qui devient vite une tâche pharao-
nique quand ces trombones se comptent en milliards de milliards de milliards,
répartis sur plusieurs planètes dans l’univers 14 !
Notez toutefois qu’il faut prêter attention à ne pas rejeter ce qui est difficile à
estimer. Par exemple, le sentiment de plénitude d’un individu peut être plus dif-
ficile à quantifier que la densité de dopamine dans son cerveau. Ce n’est toutefois
pas une raison pour remplacer le premier par le second dans notre philosophie
morale. Comme on l’a vu dans le chapitre 10, se contenter de proxies peut être
très problématique. En particulier, comme le disait John Tukey, « mieux vaut
une réponse approximative à la bonne question, qui est souvent vague, qu’une
réponse exacte à la mauvaise question, qui peut toujours être rendue précise ».
Morale modèle-dépendante
En fait, de nombreuses formulations de philosophie morale ne semblent pas direc-
tement liées à des données observables. Par exemple, au moins dans certaines de
ses variantes, l’utilitarisme affirme qu’il faut maximiser la somme des bonheurs
des individus 15 . Or, il n’est pas clair de savoir comment mesurer le bonheur.
D’ailleurs, les définitions mêmes du bonheur varient grandement. Certaines in-
cluent uniquement le bonheur instantané. D’autres rajoutent le sentiment de
plénitude. Les recherches des psychologues Daniel Kahneman et Amos Tversky
montrent même une distinction entre le bonheur expérimenté et le souvenir du
bonheur. Voilà qui a des conséquences différentes sur ce qu’il est moral d’entre-
prendre, en fonction de l’une ou de l’autre interprétation 16 .
Outre les difficultés de sémantique, il semble y avoir un problème plus fon-
damental sous-jacent, à savoir l’existence même des concepts que l’on utilise
13. des trombones, DES TROMBONES ! ! Science4All | LN Hoang (2019)
14. En fait, le calcul adéquat des récompenses de cette IA (le nombre de trombones) semble
impossible, à moins d’un Bob qui motive Alice à sans cesse améliorer tout le circuit de la
récompense.
15. L’utilitarisme | Science4All | T Giraud & LN Hoang (2017)
16. Plaisir & Coloscopie : la loi de l’apogée/fin | Science étonnante | D Louapre (2018)
260 CHAPITRE 16. PHILOSOPHIE MORALE CALCULABLE
Le réalisme moral
Au delà de la formulation de nos préférences morales, il semble également adé-
quat de se poser la question de la validité de ces préférences morales. Il s’agit là
d’une question épineuse qui semble souvent manquer de fondement. De manière
grossière, il y a deux approches, à savoir le réalisme moral et l’anti-réalisme
moral. Dans ce chapitre, faute de place et d’expertise, nous nous contenterons
de confronter des versions naïves de ces approches 20 .
D’un côté donc, le réalisme moral présuppose l’existence d’une morale univer-
selle, ou du moins d’un certain nombre de principes moraux « vrais ». Les
réalistes moraux vont typiquement souvent prendre l’exemple de la souffrance
inutile. Il semble que l’on puisse dire qu’il est au moins probable que la souffrance
inutile soit objectivement indésirable.
Cependant, une telle affirmation semble difficile à justifier. Pour y arriver, on
a tendance à s’appuyer sur une intuition informée. Typiquement, un argument
grossier consiste à dire que chaque individu trouve sa propre souffrance inutile
indésirable. Ceci semble alors le justifier à croire que la souffrance inutile des
autres est également indésirable — surtout ceux dont le fonctionnement biolo-
gique est similaire.
Cependant, on rétorque parfois à cette proposition qu’elle s’appuie très forte-
ment sur l’intuition originale qui dit qu’un individu trouve sa propre souffrance
inutile indésirable. Or, il s’agit là d’une conséquence de l’évolution — pas d’une
philosophie morale fondamentale miraculeusement gravée dans le cerveau de
l’individu. L’évolution des espèces a favorisé la survie de celles dont les indi-
vidus disposaient de nocicepteurs qui les motivaient à ne pas entreprendre des
actions qui leur étaient néfastes — comme mettre la main sur du feu. Trouver
sa propre souffrance inutile indésirable était ainsi une propriété des individus
utile à leur survie. Elle n’a en particulier pas lieu d’être considérée comme une
vérité morale 21 .
20. Ce chapitre n’a pas vocation à trancher le débat du réalisme moral, mais plus à inviter
le lecteur à questionner son intuition de la morale.
21. Cet argument évolutionniste est toutefois parfois utilisé en faveur du réalisme. Voir :
The Point of View of the Universe : Sidgwick and Contemporary Ethics | K de Lazari-
262 CHAPITRE 16. PHILOSOPHIE MORALE CALCULABLE
Cette remarque renvoie plus généralement à une distinction plus franche encore
entre les théories descriptives de la morale et les théories normatives de la mo-
rale. La morale que les humains ont est une chose que l’on peut inférer à partir
de données observationnelles des humains. Elle correspond à ce qui est. Elle ap-
partient au champ des sciences descriptives et prédictives. Cependant, la morale
que les humains devraient avoir ne semble pas être de la sorte. Les données ob-
servationnelles et les théories descriptives de ces données ne semblent pas devoir
modifier ce qui devrait être. Typiquement, ce n’est pas parce que l’esclavage a
dominé l’histoire de l’humanité, que l’esclavage devrait être.
Ce principe a été formalisé par le philosophe écossais David Hume. Il est aujour-
d’hui connu sous le nom de guillotine de Hume. Il a aussi été discuté par Ludwig
Wittgenstein, à travers l’expérience de pensée du gros livre 22 . Il conclut que rien
dans le monde ne peut nous informer sur ce qui devrait être. Si tel était le cas,
ceci signifierait que toute hypothèse de réalisme moral est en fait inexploitable
par la philosophie morale calculable. Sous l’hypothèse de la guillotine de Hume,
il ne semble pas pouvoir y avoir de philosophie morale calculable réaliste.
Serait-il possible de rejeter la guillotine de Hume ? Est-il possible de néanmoins
inférer quelque chose à propos de la vraie morale à partir de données observa-
tionnelles ? Il semble s’agir là de la question importante à laquelle le réalisme
moral devrait s’atteler. Cependant, pour y arriver, il semble qu’il faudra néces-
sairement ajouter un axiome additionnel à la philosophie morale réaliste, qui
fonderait ainsi une sorte d’épistémologie (calculable) de la morale. Ainsi, nous
n’excluons pas la possibilité d’une philosophie morale calculable réaliste. Mais
il nous semble que celle-ci devra se doter d’un axiome additionnel. C’est de la
nature de cet axiome additionnel que nous vous invitons à débattre.
L’anti-réalisme moral
La complexité de la morale
Que l’on ait une approche réaliste ou anti-réaliste de la morale, l’exigence de
calculabilité semble nous permettre d’invoquer des notions fondamentales de
l’algorithmique pour parler de la morale. En effet, les notions de l’informatique
nous permettent de donner un sens (quasi) formel à la complexité de Solomo-
noff 24 de toute morale satisfaisante. En particulier, ceci nous permet d’énoncer
la thèse suivante.
nous encouragerait à tourner en boucle entre les trois options malgré des effets
secondaires indésirables.
En fait, les trois conditions décrites là ne sont autres que les fondements de la
volition cohérente extrapolée dont on a déjà parlé dans le chapitre 13. Ainsi, il
semble que la volition cohérente extrapolée, ou une variante de celle-ci, soit un
principe utile sur lequel fonder la philosophie morale calculable. Mais qu’il soit
trop difficile pour les humains de l’écrire.
Insistons davantage sur cette conséquence de la thèse 11. Si celle-ci est vraie,
il semble alors qu’il sera extrêmement délicat d’écrire une philosophie morale
calculable satisfaisante. Il nous est souvent difficile d’écrire des textes de loi
satisfaisants relativement succincts et compréhensibles par une fraction non-
négligeable de la population. Écrire un long traité de philosophie morale calcu-
lable de manière collective et consensuelle semble être une tâche virtuellement
irréalisable.
Pire, il se pourrait bien que des versions bien plus forte de la thèse soient vraies.
Par exemple, on pourrait imaginer qu’aucune philosophie morale calculable sa-
tisfaisante ne tienne dans mille livres de 500 pages. Dès lors, la tâche d’écrire
cette philosophie morale serait humainement impossible.
Comme Turing en 1950 au sujet de l’IA de niveau humain, nos remarques sur
la complexité algorithmique de la philosophie morale nous amènent à suggérer
qu’il nous faudra probablement nous tourner vers des algorithmes pour écrire
un code moral satisfaisant. Autrement dit, déterminer une morale satisfaisante
pourrait devoir inévitablement être un problème de machine learning.
D’un point de vue algorithmique, l’ensemble des réflexions, des articles et des
débats de philosophie morale peut être vu comme un calcul collectif effectué par
les humains dans le but d’approcher une version satisfaisante de la philosophie
morale. Cependant, les remarques faites dans la section précédente semblent
s’appliquer à ce calcul, non pas moral, mais de la morale. En particulier, il est
crucial de noter que le temps d’exécution de ce calcul semble déraisonnablement
long — à supposer qu’il terminera un jour. Notre approche actuelle du calcul
de la philosophie morale semble algorithmiquement insatisfaisante.
Bien entendu, la lenteur du calcul de la morale est tout à fait justifiée. Si l’on
admet la thèse 11, il faut s’attendre à ce que tout calcul rapide de la morale,
surtout par des humains, soit voué à aboutir à des conclusions très probléma-
tiques. Cependant, il est crucial de noter que chaque journée passée à disserter
sur la philosophie plutôt qu’à agir est une journée de plus où YouTube polarise,
énerve et diffuse des propagandes meurtrières. Le temps de calcul de la morale
a un grave coût moral 28 .
Cette lenteur du calcul de la morale est d’autant plus grave si l’on admet la
thèse 6 sur les IA de niveau humain, et le fait que, à cause de la convergence
instrumentale, l’émergence d’IA de niveau humain non alignées semble être une
menace sérieuse pour toute l’humanité. Pour reprendre les mots du philosophe
Nick Bostrom, nous semblons contraints de calculer rapidement une philosophie
morale satisfaisante, car nous avons une deadline pour y arriver.
28. The Greater Good — Mind Field S2 (Ep1) | VSauce | M Stevens (2018)
VERS UNE MÉTA-ÉTHIQUE CALCULABLE 267
Références
Les métamorphoses du calcul : une étonnante histoire des mathématiques |
Le Pommier | G Dowek (2007)
268 CHAPITRE 16. PHILOSOPHIE MORALE CALCULABLE
The Metaethics of Joy, Suffering, and Artificial Intelligence with Brian Toma-
sik and David Pearce | AI Alignment | B Tomasik, D Pearce & L Perry (2018)
Épistémologie quantitative | Probablement | EM El Mhamdi & LN Hoang
(2019)
Calcul philosophique | Probablement | G Dowek & LN Hoang (2019)
Que voulez-vous que cela signifie que d’être humain
à l’âge des IA ? S’il vous plaît, discutez de ceci avec
ceux autour de vous — ce n’est pas seulement une
conversation importante, c’est aussi une conversation
fascinante.
Max Tegmark (1967-)
17
lement, le faire.
Peter Singer (1946-)
Sensibilisation
Jusque-là, nous avons vu que rendre les IA robustement bénéfiques était un for-
midable défi technique, digne des plus grands mathématiciens, informaticiens
et ingénieurs du monde, et qu’il nécessitera certainement aussi des contribu-
tions majeures de neuroscientifiques, psychologues, sociologues et philosophes,
voire de physiciens, chimistes, biologistes et économistes. Cependant, même si
ces derniers parvenaient à produire les algorithmes nécessaires pour concevoir
des IA robustement bénéfiques, rien ne dit que ces algorithmes seraient déployés
massivement. En particulier, les IA influentes pourraient néanmoins demeurer
non alignées avec des volitions humaines. Pour rendre les IA robustement béné-
fiques, il est nécessaire de convaincre tout développeur et dirigeant que rendre
les IA bénéfiques est une urgence prioritaire à toute maximisation de vues, de
profits ou de pouvoir. Voilà une tâche bien délicate.
269
270 CHAPITRE 17. VOUS POUVEZ AIDER
La principale brique que vous pourrez apporter à l’édifice est très probablement
de participer à l’effort de sensibilisation aux risques liés aux IA. En effet, jusque-
là, la recherche, le développement et le déploiement des IA ont pu se permettre
d’ignorer ces risques. Cependant, ce refus de méditer sérieusement les enjeux
éthiques des IA semble devenir de plus en plus problématique. Comme on l’a
vu, les systèmes de recommandations influencent déjà des milliards d’individus
tous les jours.
Malheureusement, comme le souligne l’historien Yuval Noah Harari, envisager le
futur des technologies de l’information n’est pas la priorité des politiciens et du
débat public. Dans une conférence 1 à l’EPFL, Harari note : « La plupart de ce
qu’ils offrent n’est finalement qu’un ensemble de fantaisies nostalgiques autour
d’un retour vers un passé imaginaire. Et ceci est une situation très très dan-
gereuse. Parce que ce que cela signifie vraiment, c’est que les plus importantes
décisions de l’histoire de l’humanité seront prises, soit par un petit groupe de
spécialistes qui ne représentent personne, soit par personne du tout. Ces déci-
sions auront juste lieu. Et ce phénomène sera peut-être dû à la transition de
l’autorité des humains vers celle des machines [...] Voilà pourquoi la question de
qui conçoit ces algorithmes et à partir de quels fondements éthiques est extrê-
mement cruciale. »
Ce qui est vrai des politiciens semble malheureusement également vrai de nom-
breux dirigeants, dont les préoccupations du quotidien prennent parfois le pas
sur l’anticipation des problèmes futurs. À cela s’ajoute l’inévitable diffusion de
la responsabilité, qui encourage tout employé d’une énorme structure à ne se
concentrer que sur la tâche qui lui est assignée, sans sentir de pression morale
à dépasser ses fonctions 2 . Dans un monde où aucun humain influent ne fait
d’effort pour être robustement bénéfique, il semble improbable que les IA que
ces humains conçoivent soient robustement bénéfiques. Les IA ne s’aligneront
pas d’elles-mêmes. Or, comme on l’a vu notamment dans les chapitres 3 et 10,
une IA puissante et non alignée est très probablement une menace sérieuse pour
le bien de l’humanité.
Pour éviter une prolifération de telles IA, il semble indispensable d’engager ré-
gulièrement des discussions autour du rôle des IA d’aujourd’hui, et des rôles
probables qu’elles auront à l’avenir. Il semble important de souligner les nom-
breux problèmes que posent ces IA, que ce soit en termes de confidentialité, de
biais, d’addiction, de polarisation, d’instabilité du marché du travail ou encore
d’armes autonomes. Et il semble désirable d’insister sur l’extrême incertitude
quant à leurs développements dans le futur. Autrement dit, il semble crucial
d’insister sur la première thèse de ce livre. Rendre les IA bénéfiques semble être
devenu une urgence.
Si vous acceptez d’aider le fabuleux chantier en sensibilisant votre entourage
aux enjeux de ce chantier, nous vous supplions toutefois de faire d’énormes
Respectabilité
pourrait penser qu’il gagnera en crédibilité en cachant ses doutes et ses incerti-
tudes. Voilà qui expliquerait pourquoi certains intervenants cherchent à donner
l’impression que le progrès des IA est sous contrôle. Ils masquent leur éton-
nement vis-à-vis des nombreuses avancées spectaculaires des IA au cours des
quelques dernières années, la difficulté de la surveillance des IA comme celle de
YouTube, et leur ignorance de comment rendre ces IA robustement bénéfiques.
La moquerie de la spéculation, la défense de la légitimité des sciences et la
valorisation de la confiance en soi semblent alors causer un biais dans les discus-
sions publiques autour des IA. Non seulement elles mettent en avant un certain
profil d’experts, elles risquent aussi de décourager la prise de parole publique
d’autres experts en IA. En particulier, on peut imaginer que beaucoup d’experts
craignent de perdre leur respectabilité en suggérant des risques catastrophiques
posés par les IA. Ces experts éviteraient alors de mentionner leurs inquiétudes,
par souci de respectabilité.
Dans ce contexte, nous vous supplions de prêter attention à la respectabilité
des propos que vous tiendrez. Plutôt que d’invoquer des sujets controversés et
aisément moquables, dans des environnements potentiellement malveillants, il
semble souhaitable de davantage défendre des positions robustes à la moquerie,
même si ces positions vous semblent moins importantes que celles que vous avez
concernant des sujets plus controversés.
Mieux débattre
Pour éviter des phénomènes gênants comme le biais de respectabilité qui dis-
tordent l’avis de la communauté des chercheurs, il semble indispensable de ré-
fléchir à des manières de mieux débattre de sujets qui suscitent des réactions
vives, émotionnelles et parfois insultantes. En particulier, il semble désirable
de créer des environnements de discussion où l’expertise est davantage mise en
avant que l’impression d’expertise, et où l’avis de chacun sera accueilli avec
calme et bienveillance.
Étrangement, cependant, la réflexion autour de comment mieux débattre semble
très négligée. Nous avons tendance à imaginer qu’une opposition d’idées entre
deux porte-paroles véhéments qui cherchent chacun à « vaincre » est une façon
constructive de faire avancer un débat, à l’instar de ce qui est souvent proposé
dans les débats politiques 7 . Malheureusement, ces mises en scène semblent gran-
dement favoriser le charisme, la rhétorique et la répartie, voire l’autopromotion,
le sarcasme et la virulence, plutôt que la mise en avant de données empiriques
pertinentes, l’argumentation logiquement valide et la multiplicité des préférences
morales.
Dans l’optique de mieux adresser collectivement les nombreux défis monumen-
taux que le XXIe siècle semble proposer à l’humanité, il semble être devenu
7. Contre les débats télé | Alexandre Technoprog (2019)
MIEUX DÉBATTRE 273
une urgence morale que de mieux réfléchir collectivement à comment mieux ré-
fléchir collectivement. Autrement dit, il semble désirable de prendre le temps
de débattre correctement de comment débattre correctement. C’est pour cette
raison que l’un des auteurs de ce livre a lancé le mouvement #DébattonsMieux,
notamment sur les réseaux sociaux YouTube et Twitter, avec un succès qui lui
semble encore mitigé 8 .
En pratique, il semble que l’une des principales barrières à un débat sain réside
dans la motivation des parties prenantes. Il arrive ainsi si souvent qu’un débat
soit détourné par des individus souhaitant triompher de tous les autres, asseoir
leur autorité ou leur légitimité, ou juste gagner le support d’une communauté 9 .
Par exemple, de nombreux messages sur Twitter semblent davantage motivés par
l’intention de collecter les likes et les partages, plutôt que par l’intention d’aider
les personnes exposées aux messages à mieux réfléchir. Quand vous prendrez
la parole dans un débat, nous vous invitons à vous demander si tel est votre
objectif 10 .
Une autre faille de nombreux débats semble être le manque de bienveillance. Il
semble ainsi fréquent que les parties prenantes du débat identifient des ennemis
qu’il leur faut combattre, en considérant typiquement que ces ennemis sont
méchants ou mauvais. Malheureusement, les études en psychologie 11 suggèrent
que ceci favorise la polarisation de groupe. À l’instar d’un supporter hooligan
d’une équipe de football, chaque individu risque alors de s’identifier à un groupe,
et de faire de la défense du groupe sa priorité, aux dépens souvent de la rigueur
intellectuelle et de la bienveillance 12 .
Pire encore, ce genre de comportement tribal peut amener les personnes offensées
à se mettre en mode « défense », et à devenir moins réceptives encore aux
arguments des personnes qui semblent les offenser. L’éveil de l’hooliganisme
des parties prenantes d’un débat semble alors gravement nuire à la qualité du
débat. Pour éviter de telles dérives, il semble utile d’encourager la bienveillance
dans tout débat, surtout envers ceux qui peuvent sembler appartenir au « camp
opposé ». En particulier, plutôt que de voir l’interlocuteur comme un rival, ne
semble-t-il pas préférable d’y voir un humain dont on souhaite avant tout le bien,
même si ce qu’il dit n’est pas en accord avec nos croyances ou nos convictions ?
L’un des aspects les plus importants de cette bienveillance est probablement
la tolérance à l’erreur 13 . En effet, c’est souvent au moment où l’on stigmatise
une erreur d’un camp, que les individus de ce camp auront le plus de chance de
perdre leur faculté à bien débattre. Pour tolérer l’erreur, il semble utile d’insister
sur le fait qu’il nous est tous très difficile de ne pas commettre d’erreur. Nos
8. Ce qui ne va pas avec #DébattonsMieux | Probablement ? | LN Hoang (2019)
9. L’appel à la meute #DébattonsMieux | LN Hoang (2019)
10. Pourquoi débattre ? #DébattonsMieux | LN Hoang (2019)
11. The Righteous Mind : Why Good People are Divided by Politics and Religion | Vin-
tage | J Haidt (2013)
12. La morale des hooligans (la nôtre ! !) | Science4All | LN Hoang (2017)
13. Le bonheur de faire des erreurs | LN Hoang (2016)
274 CHAPITRE 17. VOUS POUVEZ AIDER
raisonnements ont typiquement un mal fou à se conformer aux lois des proba-
bilités 14 . Il faut s’attendre à faire des erreurs. C’est pourquoi l’utilisation des
marqueurs de modestie épistémique, comme les mots « peut-être », « possible-
ment » ou comme l’utilisation du conditionnel, semblent très désirables dans les
débats 15 .
En particulier, il est important de ne pas perdre de vue qu’un débat ne sera
qu’une étape parmi d’autres dans la réflexion des participants du débat. L’une
des pires issues possibles d’un débat, c’est que les participants en viennent à
conclure que la réflexion autour du sujet du débat n’est pas souhaitable — par
exemple parce qu’elle augmente la polarisation de chacun. Plutôt qu’une fin
en soi, il semble utile de considérer qu’un débat est davantage une initiation,
voire une invitation, à d’autres débats. Or pour en arriver à cette conclusion, il
semble crucial que tout participant trouve le débat plaisant 16 — ou, au moins
si possible, pas déplaisant !
Sachant cela, relever une erreur importante commise par un interlocuteur sans
envenimer le débat paraît tout à coup être une tâche extrêmement complexe.
C’est entre autres pour cette raison que débattre avec efficacité est un art délicat.
Voilà qui vous donne peut-être envie de renoncer à engager des débats 17 .
Malheureusement, il semble probable que l’humanité aura d’énormes enjeux à
relever au XXIe siècle, et qu’on ne saura pas les relever à moins de se coordonner
mondialement. Pour y arriver, mieux débattre semble incontournable. Il semble
donc indispensable de concevoir et maîtriser l’art d’amener d’autres à mieux
réfléchir. Pour y arriver, il semble crucial d’aspirer à mieux débattre, mais aussi
de trouver du plaisir à avoir bien réfléchi collectivement. Voilà un autre défi
fabuleux qui nous attend !
18. Le putaclic académique | Mr. Sam - Point d’Interrogation | LN Hoang & S Buisseret
(2019)
19. Action Items From the Next Generation of Researchers| D Hadfield-Menell,
EM El Mhamdi, S Milli, W Saunders & J Fisac (2019)
20. Logical induction | S Garrabrant, T Benson-Tilsen, A Critch, N Soares & J Taylor
(2016)
21. Universal artificial intelligence : Sequential decisions based on algorithmic probabi-
lity | Springer | M Hutter (2005)
22. A collection of definitions of intelligence | FAIA | S Legg & M Hutter (2007)
On the Computability of AIXI | J Leike & M Hutter (2015)
276 CHAPITRE 17. VOUS POUVEZ AIDER
de défis plutôt que d’autres. Dans ce livre, nous avons présenté beaucoup de
défis majeurs du fabuleux chantier pour rendre les IA robustement bénéfiques.
Nous espérons que chaque talent aura trouvé un défi qui le motive et auquel il
souhaiterait consacrer une partie de son temps.
Par ailleurs, au-delà de l’attractivité des défis, il semble utile de proposer aux
talents susceptibles de contribuer significativement à l’alignement des IA des
conditions financières et professionnelles satisfaisantes. Voilà qui soulève non
seulement la question du financement de la recherche en alignement des IA,
mais aussi, et peut-être surtout, celle de la stabilité des offres d’emploi dans
ce domaine. En effet, le monde de la recherche est malheureusement souvent
critiqué pour sa précarité, la lourdeur de ses exigences administratives comme
les demandes de financement et la pression pour publier. Ces conditions de
travail semblent fortement limiter la productivité des talents.
Il nous semble que le fabuleux chantier pour rendre les IA robustement béné-
fiques est un enjeu planétaire qui justifierait pleinement de telles conditions de
travail. En fait, l’idéal serait sans doute la création d’un institut international
de collaboration interdisciplinaire de très grande ampleur, à l’instar du CERN,
du projet ITER ou de la station spatiale internationale. Bien entendu, la simple
mise en place d’un tel chantier représente elle-même un défi monumental. Ainsi,
même si vous ne souhaitez pas fournir des contributions techniques, vous pour-
riez néanmoins apporter une contribution extrêmement précieuse, par exemple
en coordonnant de telles propositions de projet.
Enfin, il semble primordial de prendre soin des talents potentiels en leur propo-
sant des formations adéquates aux problèmes de l’alignement des IA. D’ailleurs,
même si, à l’heure actuelle, vous ne maîtrisez pas encore les fondements tech-
niques de l’IA, n’oubliez pas que cela s’apprend. Ces dernières années, des cen-
taines de milliers de chercheurs, d’étudiants et d’ingénieurs se sont mis à l’IA
et ont appris le deep learning. Quelques ressources existent déjà pour y arri-
ver, à travers des articles de recherche, des livres de cours, des billets de blogs,
des MOOCs, des vidéos de vulgarisation ou des podcasts audios. Cependant, il
semble qu’il persiste un manque de contenu éducatif, notamment sur le sujet
plus spécifique de l’alignement des IA. Le financement de la production de ce
contenu semble désirable.
Pour garantir la sécurité des IA, il ne suffit bien sûr pas de proposer des solutions
techniques. Il faut aussi et surtout que ces solutions techniques soient effective-
ment appliquées par les IA les plus influentes. Pour cela, il semble primordial
que toute entreprise du numérique attribue une grande importance à la sécurité
de ses produits, voire aussi et surtout aux considérations éthiques que pose le
déploiement de ces produits. En particulier, il semble crucial que tout manager
VALORISER L’ÉTHIQUE ET LA SÉCURITÉ 277
Malheureusement, de nos jours, ceci ne semble pas être la priorité des action-
naires, des dirigeants et des employés des entreprises. Ni celle des politiciens, des
médias et des acteurs académiques. Notamment dans le monde du numérique, on
a tendance à valoriser les performances des derniers produits sur des métriques
usuelles comme la précision sur un jeu de données standard. Chaque gouver-
nement, chaque université et chaque entreprise prendra davantage de temps à
vanter avoir battu l’état de l’art dans tel ou tel domaine, plutôt que ses consi-
dérations éthiques ou ses solutions pour la sécurité numérique. Il semble crucial
que cela change.
Bien entendu, ce qui est dit ici des entreprises s’applique à toutes sortes d’or-
ganisation, familiale, associative, académique, publique et politique. Il semble
utile d’encourager toutes ces organisations à davantage valoriser l’éthique et
la sécurité. Nous considérons par exemple que ce fut une excellente nouvelle
que des conférences majeures en IA comme NeurIPS et ICML aient récemment
introduit un code de conduite pour leurs participants.
Le livre que vous lisez aurait été impossible à écrire sans l’énorme travail colla-
boratif de nombreuses organisations qui œuvrent déjà à rendre les IA bénéfiques.
Pour que les IA du futur soient davantage bénéfiques, il semble utile de s’ap-
puyer sur ces organisations. On peut aussi faire le choix de diversifier le paysage
en montant sa propre organisation, si par exemple on ne se retrouve pas dans
celles déjà existantes.
On trouve ainsi de nombreuses organisations, comme le Future of Life Institute,
le Future of Humanity Institute, le Center for the Study of Existential Risks,
le Center for Effective Altruism, le Center for Applied Rationality, le Partner-
ship for AI, le Machine Intelligence Research Institute (MIRI), le Center for
Human-compatible AI (CHAI), l’Australian National University (équipe Mar-
cus Hutter), Google Brain (Ethical Artificial Intelligence Team, équipe Timnit
Gebru), The AI Now Institute, The Algorithmic Justice League, The Mozilla
Foundation, Algotransparency.org, The Berkman Klein Center, Harvard Uni-
versity (Ethics and Governance of AI), ELLIS Society, OpenAI (équipe AI sa-
fety), Google DeepMind (équipe AI safety), AI Impact, ou encore le Center for
Humane Technology. D’autres organisations semblent être sur la même lignée,
comme le sommet mondial AI for Good, l’initiative européenne AI Alliance, le
Center for Security and Emerging Technology, l’Empowerment foundation ou le
Common AI voice for Switzerland. L’un des auteurs de ce livre a d’ailleurs été
invité à la conférence Beneficial AGI, organisée par le Future of Life Institute,
qui réunit des acteurs académiques et économiques majeurs de l’IA, tels que
Yoshua Bengio, Gillian Hadfield, Joshua Tenenbaum, Francesca Rossi, Stuart
Russell, ou encore Elon Musk, Larry Page et Eric Schmidt.
Au-delà des instituts physiques, il y a également énormément d’activités sur
les réseaux sociaux, comme les forums LessWrong, Effective Altruism Forum,
AI Alignment Forum, ou les chaînes YouTube Robert Miles, Computerphile, Up
and Atom, Smarter Every Day, Tom Scott ou encore Looking Glass Universe côté
anglophone, qui abordent de près ou de loin des thématiques proches de celles
du livre. Côté francophone, citons les chaînes YouTube Alexandre Technoprog,
The Flares ou encore Monsieur Phi, ainsi que des chaînes des auteurs de ce livre,
comme Science4All et ZettaBytes, EPFL.
Il y a également énormément de podcasts autour de sujets reliés aux thèmes
MÉDITEZ, DÉBATEZ ET EXPLIQUEZ LES THÈSES DU LIVRE 279
abordés dans ce livre, comme Your Undivided Attention, 80,000 Hours Podcast,
Rationally Speaking, MIT Artificial Intelligence, DeepMind : the podcast, Expo-
nential View, Mindscape ou Flashforward côté anglophone, The Flares, Axiome
et Probablement côté francophone.
Cependant, tous ces mouvements sont encore jeunes et ont besoin de grandir. Et
vous pouvez contribuer. Soit en participant à des plateformes de discussions pré-
existantes, soit en lançant vos propres plateformes de discussions, qu’il s’agisse
de plateformes sur le Web ou en présentiel. En particulier, le mouvement al-
truisme efficace organise régulièrement des rencontres et des discussions autour
de ces nombreux sujets, aux quatre coins de la France, en Suisse, au Québec,
ainsi que dans bien d’autres lieux non francophones 24 .
Il semble indispensable de réfléchir collectivement à tous les sujets de ce livre.
C’est pourquoi nous vous encourageons à organiser vos propres groupes de dis-
cussion, au sein de vos associations, de vos universités ou de vos entreprises, ou
à rejoindre des groupes de discussion préexistants. En effet, les nombreuses idées
de ce livre ont besoin de temps et de réflexion pour être éclaircies et améliorées.
C’est sans doute en prenant part activement à des discussions que vous aurez le
plus de chance d’y arriver.
Nous vous suggérons d’organiser, par exemple, des rencontres hebdomadaires sur
les différents chapitres de ce livre. L’objectif de ces groupes de lecture n’est pas
nécessairement de tomber d’accord avec les propos de ce livre, ni de souligner vos
désaccords avec des points de ce livre. L’objectif principal pourrait davantage
être de vous habituer, vous et vos amis, à réfléchir collectivement aux sujets
les plus importants pour l’avenir de l’humanité — et de vous exercer à mieux
débattre. Ce serait aussi l’occasion de remuer vos méninges pour identifier ce
qui peut être fait pour que le futur aille dans la bonne direction, si possible dans
la joie et la bonne humeur. Et si vous cherchez d’autres lecteurs de ce livre avec
qui échanger, nous vous suggérons de contacter l’association Altruisme Efficace
France (ou Québec ou Genève), pour trouver des compagnons de lecture.
De façon plus générale, ce livre ne doit absolument pas être vu comme une
solution à un problème. Il doit encore moins être compris comme la conclusion
ou l’aboutissement d’une réflexion. En particulier, les thèses de ce livre sont très
critiquables. Et nous espérons qu’elles seront critiquées et débattues pour que
nous progressions tous dans notre compréhension des enjeux et des défis posés
par l’avènement d’IA de plus en plus puissantes.
Rappelons ci-dessous les 11 thèses défendues par le livre.
Thèse 3. Il est urgent que tous toutes sortes de talents soient mis dans les
meilleures dispositions pour contribuer à rendre les IA bénéfiques.
Toutes ces thèses n’ont pas la même importance. Comme on l’a vu en intro-
duction, la principale thèse de ce livre est la thèse 3. Nous espérons avant tout
vous avoir convaincu qu’il est urgent de mettre toutes sortes de talents dans les
meilleures dispositions pour contribuer à rendre les IA bénéfiques.
Bien entendu, parmi ces talents, nous pensons aux mathématiciens, informa-
ticiens et autres scientifiques capables de fournir des solutions techniques. Ce-
pendant, nous ne pensons pas qu’à eux. Il nous semble que de nombreux autres
talents de nombreux autres domaines ont eux aussi un rôle crucial à jouer dans le
fabuleux chantier pour rendre les IA robustement bénéfiques : philosophes, phy-
siciens, biologistes, médecins, psychologues, sociologues, économistes, financiers,
investisseurs, entrepreneurs, chefs de projet, managers, dirigeants, politiciens, lé-
gislateurs, juristes, assureurs, activistes, enseignants, vulgarisateurs mais aussi
artistes, parents et citoyens. Il semble urgent qu’un maximum de ces talents
œuvre au moins partiellement à contribuer à rendre les IA bénéfiques.
Pour défendre la thèse 3, nous avons d’abord défendu la thèse 1, qui insiste
sur l’urgence à rendre les IA bénéfiques. En particulier, nous avons vu que les
IA traitent de l’information. Or l’information est critique à toutes sortes de
problèmes, des sciences au managérat, en passant par la médecine, l’énergie, la
justice sociale, la philanthropie et la protection de l’environnement. Les IA nous
MÉDITEZ, DÉBATEZ ET EXPLIQUEZ LES THÈSES DU LIVRE 281
Pour conclure ce livre, il semble utile de revenir sur un dernier point important.
Certes, rendre les IA bénéfiques est un défi monumental. Le futur des IA est plein
d’incertitudes et plein de risques. La compréhension de ces enjeux est extrême-
ment complexe. Le fonctionnement même des IA et leurs failles potentielles sont
délicats à comprendre. Les effets secondaires des IA dans des environnements
complexes comme les civilisations humaines le sont encore plus. Celles des IA
du futur plus encore.
Pour garantir que les IA du futur seront bénéfiques, il va nous falloir absolu-
ment prendre le temps de la réflexion. Il nous faut considérer plusieurs futurs
plausibles. Il nous faut anticiper d’innombrables éventuels dysfonctionnements
des IA. Il nous faut organiser la recherche sur la sécurité des IA. Il nous faut
nous mettre d’accord sur la morale à programmer dans ces IA, ou du moins sur
la manière dont la morale des IA sera calculée. Et il nous faut promouvoir le
déploiement de ces solutions en pratique. Rendre les IA robustement bénéfiques
est un chantier monumental.
Cependant, il s’agit aussi et surtout, il nous semble, d’un fabuleux chantier. Il
JOIGNEZ-VOUS AU FABULEUX CHANTIER ! 283
25. Your career can help solve the world’s most pressing problems | 80,000 Hours
26. Guide to working in AI policy and strategy | 80,000 Hours | M Brundage (2017)
27. AI/ML safety research | 80,000 Hours
284 CHAPITRE 17. VOUS POUVEZ AIDER
Nous espérons que la lecture de ce livre fut, pour vous, un premier pas initia-
tique à l’intérieur d’un fabuleux chantier. Et nous espérons qu’après moultes
réflexions, en solitaire ou en groupe, vous trouverez la motivation et l’enthou-
siasme d’apporter à votre tour une pierre au merveilleux édifice qui est en train
d’être bâti.
Les IA vont bouleverser notre monde. Aidez-nous à faire en sorte que ce boule-
versement soit fabuleux.
Références
Super intelligence : le grand défi de l’humanité | Dunod | N Bostrom (2017)
Rationality : From AI to Zombies | Machine Intelligence Research Institute |
E Yudkowsky (2015)
La vie 3.0 - Etre humain à l’ère de l’intelligence artificielle | Dunod | M Teg-
mark (2017)
Le temps des algorithmes | Le Pommier | G Dowek & S Abiteboul (2017)
21 Leçons pour le XXIe siècle | Albin Michel | YN Harari (2018)
AI Superpowers : China, Silicon Valley, and the New World Order | Albin
Michel | KF Lee (2018)
Algorithmes : la bombe à retardement | Les Arènes | C O’Neil (2018)
Universal artificial intelligence : Sequential decisions based on algorithmic
probability | Springer | M Hutter (2005)
Towards Safe Artificial General Intelligence | T Everitt (2018)
Restez informés
Less Wrong
Effective Altruism Forum
AI Alignment Forum
Robert Miles
Computerphile, par Sean Riley
Up and Atom, par Jade Tan-Holmes
Two Minute Papers, par K Zsolnai-Fehér
Smarter Every Day, par Destin Sandler
Tom Scott
Julia Galef
ZettaBytes, par EPFL et Lê Nguyên Hoang
The Flares, par Gaetan Selle et Marc Durand
Alexandre Technoprog
Monsieur Phi, par Thibaut Giraud
Homo Fabulus, par Stéphane Debove
Thibault Neveu
286 CHAPITRE 17. VOUS POUVEZ AIDER
Écrire ce livre a été un périple incroyable, au cours duquel nous aurons appris
une quantité phénoménale de choses. Nous n’y serions pas parvenus sans l’aide,
le support et la critique bienveillante d’un très grand nombre de personnes. Nous
avons en effet eu la chance inouïe de passer l’année 2019 à débattre des risques
des IA, des meilleures solutions pour rendre les IA bénéfiques et de la pédagogie
optimale pour en parler, avec plusieurs communautés fantastiques. Ce livre est le
fruit de ces interactions, parfois interminables, mais toujours savoureuses. Elles
ont nourri notre réflexion, mais aussi et surtout notre motivation à contribuer
au fabuleux chantier pour rendre les IA bénéfiques. Nous sommes infiniment
redevables à tous ceux qui ont participé, de près ou de loin, à ces très nombreux
échanges passionnants.
Nous tenons à remercier particulièrement Alexandre Maurer, Mariame Tigha-
nimine, Jérémy Perret, Laura Green, Louis Faucon, Henrik Åslund, Andrei
Kucharavy, Omar Layachi, Stéphane Debove, Émile Émery, Thibaut Giraud,
Yoann Marquer, Julien Fageot, Valentin Sanchez, Sébastien Rouault, Sergei Vo-
lodin, Clément Hongler, Gloria Capano, Laurène Donati, Isadora Hongler, Kon-
rad Seiffert, Nora Ammann, Janique Behman, Élouan Abgrall, Manuel Bimich,
Quentin Le Merle D’eau, Émilien Cornillon, Pleen le Jeune, Valentine Delattre,
Michael Witrant, Hamza Kebiri, parmi tant d’autres, et bien entendu, nos pa-
rents Ly An Hoang, Hong Minh Hoang, Fatima Razem et El Maâti El Mhamdi.
Nous sommes particulièrement redevable envers les diverses institutions qui ont
permis, encouragé et facilité nos réflexions à ce sujet. Nous remercions vivement
notre université, l’École Polytechnique Fédérale de Lausanne (EPFL), et en
particulier la faculté d’informatique et de communication. Nous avons également
eu la chance d’avoir été accompagnés par des amis du Café des sciences.
Enfin, nous remercions tous les créateurs des contenus sur lesquels s’appuie ce
livre, des articles de la recherche aux livres de vulgarisation, en passant par
les vidéos YouTube et les podcasts d’interviews. Ces nombreuses contributions
sont les fondations actuelles du fabuleux chantier pour rendre les IA robustement
bénéfiques.
287
À propos des auteurs
Les deux auteurs de ce livre ont la particularité d’avoir à la fois une certaine
expertise en IA, mais aussi des intérêts extrêmement transdisciplinaires. Tout
deux diplômés de l’École polytechnique (X2007), docteurs en sciences et colla-
borateurs scientifiques à l’École Polytechnique Fédérale de Lausanne.
Lê Nguyên Hoang
Lê Nguyên Hoang est diplômé de l’École polytechnique (X2007). Il a ensuite
obtenu son doctorat en mathématiques de l’École Polytechnique de Montréal.
Sa thèse 28 étudiait la théorie de la conception de mécanismes (mechanism de-
sign) sous un angle bayésien, ainsi que des définitions quantitatives de la notion
d’équité 29 . Il a ensuite enchaîné avec un poste de recherche postdoctorale au
Massachusetts Institute of Technology (MIT), où il a notamment travaillé sur
le scrutin de Condorcet randomisé 30 et l’optimisation en temps réel.
En 2016, il a rejoint l’École Polytechnique Fédérale de Lausanne (EPFL), en
tant de communicateur scientifique pour la faculté d’informatique et de commu-
nication. Il y produit notamment des vidéos d’enseignement et de vulgarisation
des mathématiques, de la physique et de l’informatique. Vous pouvez retrouver
ces vidéos sur les chaînes YouTube Wandida, ZettaBytes et String Theory.
Parallèlement à cela, depuis 2012, Lê Nguyên Hoang s’est lancé dans la vulga-
risation des mathématiques, de l’informatique et des sciences, sur Internet. Il a
d’abord lancé le blog anglophone Science4All, puis la chaîne YouTube du même
nom. Cette chaîne a désormais plus de 160 000 abonnés. Elle aborde en profon-
deur des sujets comme la relativité générale, l’infini, la démocratie, l’intelligence
artificielle et le bayésianisme.
En 2017, Lê Nguyên Hoang a aussi co-fondé le podcast philosophico-mathématique
Axiome avec le philosophe Thibaut Giraud, où de nombreux sujets connexes à ce
28. Conception bayésienne de mécanismes et quantification de l’équité appliquées à la
construction d’horaires personnalisés | PhD Thesis | LN Hoang (2014)
29. Measuring unfairness feeling in allocation problems | Omega | LN Hoang, F Soumis
& G Zaccour (2016)
30. Strategy-proofness of the randomized Condorcet voting system | Social Choice and
Welfare | LN Hoang (2017)
289
290 CHAPITRE 17. À PROPOS DES AUTEURS
Lê Nguyên Hoang est aussi très actif dans de différentes associations et sur les
réseaux sociaux. Il est ainsi membre du café des sciences, qui regroupe les ac-
teurs de la médiation scientifique sur Internet. Il est aussi membre de l’altruisme
efficace, en France, à Genève et à Lausanne. Cette association et ce mouvement
consistent à promouvoir et entreprendre les actions altruistes à forts impacts
bénéfiques. Pour y arriver, ce mouvement philosophique et social propose de
longuement s’attarder sur la réflexion autour de l’altruisme, et en particulier
autour de la priorisation de différentes causes et actions. Parmi les causes ré-
gulièrement identifiées par l’altruisme efficace, on retrouve ainsi l’urgence de
rendre les IA bénéfiques, surtout à terme.
36. RBForum Paris 2018 : The next Technology. Artificial and Market Intelligence |
Racing & Betting Forum Paris | LN Hoang (2018)
37. AAAI : l’une des plus grosses confs en IA ! ! LN Hoang (2019)
38. Effective Altruism, YouTube and AI | LN Hoang (2019)
39. Graph Alpes | LN Hoang (2019)
40. CRACS 2019 : Comment mieux débattre ? #DébattonsMieux animé par Science4All
avec Mr Sam... | ljArlon (2019)
41. Faut-il être "perché" pour apprécier la science ? | 50 ans de l’EPFL | L’esprit sorcier
(2019)
42. Science4All explique l’urgence et la complexité de rendre les IA bénéfiques ! Octo-
Technology (2019)
43. « Il faut nous préparer au possible avènement d’une intelligence artificielle de niveau
humain » | Le Monde | LN Hoang (2018)
44. La démocratie vue par les mathématiques | RTS | LN Hoang (2017)
45. Science4All (Lê Nguyên Hoang) en 12 questions | Absol Vidéos (2019)
46. Lê Nguyên Hoang : Une philosophie bayésienne des sciences | Liberté Académique
(2019)
47. Livre : plongée dans le monde de la formule de bayes | Science et Vie | LN Hoang
(2018)
48. La formule du savoir | La Recherche | LN Hoang (2018)
49. Révision du système des unités de mesure / Homéopathie / Algorithmes | La méthode
scientifique | LN Hoang (2019)
50. L’IA, pas intelligente ? Interview de Science4All | Alexandre Technoprog (2019)
51. Episode 4 – Le Nguyen Hoang | MIT Glimpse (2015)
52. Les algorithmes du vivant | The Conversation (2017)
53. Le théorème du carreleur - Feat. Lê | Zeste de Science / Les séries originales du
CNRS (2018)
54. Lê Nguyên Hoang : l’interview hors norme | Hors norme et accompli (2018)
55. Lê Nguyên Hoang / Nos choix sont-ils solubles dans les maths ? Docteo (2018)
56. 697IA TV émission #2 L’invité Lê Nguyên HOANG | Le 697 IA (2019)
57. « L’attention est le nouveau pétrole » | Usbek & Rica | LN Hoang & P Maillé (2019)
292 CHAPITRE 17. À PROPOS DES AUTEURS
El Mahdi El Mhamdi
67. Des modèles aux pratiques : le machine learnint à l’épreuve des échelles de complexité
algorithmique | Revue d’anthropologie des connaissances | D Boullier & E.M. El Mhamdi
(2019)