Le Cygne Noir n'est pas un livre sur le risque
Il y a une façon confortable de lire Le Cygne Noir de Nassim Taleb : comme un livre sur les événements rares et imprévisibles. On note la dinde, on note le 11 septembre, on retient que "l'avenir est imprévisible" et on referme le livre avec l'impression rassurante d'avoir appris quelque chose.
C'est passer à côté.
Ce que Taleb dit, dans le fond, est plus inconfortable : le problème n'est pas que certains événements sont imprévisibles. Le problème, c'est que nos outils pour penser la probabilité sont structurellement inadaptés à la réalité. Ce n'est pas un bug. C'est une architecture cognitive que nous partageons tous — et qu'on retrouve partout où des gens construisent quelque chose sur des hypothèses.
Le piège de la narration
Le premier concept que Taleb développe est l'erreur de narration. Notre cerveau ne stocke pas les événements bruts. Il les transforme en histoires cohérentes — avec un début, des causes, une logique apparente.
Ce n'est pas une faiblesse. C'est ce qui nous permet de décider vite, d'apprendre de l'expérience, de transmettre de la connaissance. Mais dans un contexte où on construit quelque chose, ça devient un piège précis.
Quand on lance un projet, on raconte une histoire : "ce marché a ce problème, mon offre y répond, les gens sont prêts." Quand on projette sa croissance, on extrapole une courbe passée comme si elle contenait la vérité du futur. Quand on échoue, on reconstruit immédiatement un récit causal — "j'ai échoué parce que" — pour donner du sens, même si la réalité était plus chaotique.
Ce ne sont pas des stratégies. Ce sont des narrations. Et la différence entre les deux, c'est que la narration sélectionne les données qui confirment son arc.
Taleb illustre ça avec la dinde. La dinde qui vit dans une ferme accumule 1000 jours de données cohérentes : elle est nourrie, protégée, en sécurité. Son modèle est parfait. Jusqu'au jour de Thanksgiving, qui n'apparaît nulle part dans ses 1000 jours de données. La qualité de la prédiction n'était pas nulle — elle était inversement proportionnelle à la durée de l'observation rassurante.
On sourit. Et puis on rouvre son propre plan pour l'année.
Ce que nous croyons savoir
Taleb introduit l'arrogance épistémique : la tendance à surestimer ce qu'on sait en sous-estimant systématiquement ce qu'on ignore.
Il y a une forme de cette arrogance particulièrement visible dans les projets. Elle se manifeste moins dans les mauvaises estimations — ça, tout le monde le sait — que dans le niveau de confiance qu'on leur accorde.
Quand quelqu'un dit "mon offre sera prête dans deux mois", il dit en réalité : "dans le modèle que j'ai en tête, avec les variables que je connais, en supposant que rien d'imprévu ne surgisse, ce sera prêt dans deux mois." C'est une phrase très longue, réduite à un chiffre. La compression n'est pas le problème. Le problème, c'est qu'on finit par oublier tout ce qui a été effacé dedans.
La précision crée l'illusion du contrôle. Et c'est précisément cette illusion qui nous rend aveugles aux Cygnes Noirs — pas parce qu'ils arrivent rarement, mais parce qu'ils n'entrent pas dans la catégorie des variables qu'on surveille.
Pourquoi nos plans de gestion de risque sont des fictions
Taleb nomme un troisième piège : le sophisme ludique. Le fait de gérer le risque comme un jeu, avec des règles et des probabilités qu'on peut déterminer avant de commencer.
C'est exactement ce que font la plupart des exercices de planification. On liste les obstacles connus, on anticipe les scénarios possibles, on prévoit des solutions de repli. Ce n'est pas inutile — ça couvre les risques qui existent déjà dans notre espace de pensée. Le problème, c'est que cet exercice donne confiance sur le périmètre couvert, sans rien dire sur ce qui se passe en dehors.
Un Cygne Noir n'est pas un risque avec une probabilité faible. C'est un risque qui n'apparaît pas dans votre liste parce que vous n'aviez pas de catégorie pour le contenir.
Le Covid n'était dans le plan de personne. Le fait qu'une app gratuite puisse tuer un modèle d'abonnement en quelques mois ne rentrait dans aucune analyse concurrentielle standard. Ces événements n'étaient pas improbables au sens strict — ils étaient hors modèle.
Ce que ça change concrètement
Taleb ne donne pas de recette. C'est un choix délibéré et cohérent avec son argument : si les recettes fonctionnaient face à l'imprévisible, les Cygnes Noirs n'existeraient pas.
Mais il esquisse des orientations. Deux m'ont semblé particulièrement utiles.
La première : distinguer les domaines où l'extrapolation du passé est raisonnablement fiable (les habitudes humaines, les durées de tâches maîtrisées, les coûts fixes) de ceux où les extrêmes existent et changent tout (les succès de contenu, les réactions de marché, les dynamiques d'adoption). La plupart de ce qu'on construit quand on lance quelque chose vit dans la deuxième catégorie. On a souvent les outils de la première.
La deuxième : se rendre robuste aux Cygnes Noirs négatifs, tout en restant exposé aux positifs. Concrètement, ça ressemble à préserver des marges — temps, énergie, trésorerie — plutôt qu'optimiser jusqu'à l'os. Ça ressemble à tester vite plutôt qu'attendre d'avoir tout parfaitement cadré. Ça ressemble à lancer une version simple qui révèle quelque chose de réel, plutôt qu'une version idéale qui confirme une hypothèse.
Le Cygne Noir positif existe aussi. La découverte de l'Amérique par Colomb en était un. Le succès inattendu d'un projet lancé sans conviction en est souvent un. La question n'est pas d'éliminer l'imprévisible — c'est de se positionner pour qu'il puisse arriver.
Un livre inconfortable pour les gens qui construisent
Je ne pense pas que Le Cygne Noir doive rendre fataliste ou pousser à ne plus planifier. Ce serait une mauvaise lecture.
C'est plutôt un livre qui invite à tenir deux choses simultanément : la rigueur de la construction — cadrer, tester, itérer, mesurer — et la lucidité sur les limites de cette rigueur. Pas pour abandonner les plans, mais pour les tenir avec un peu moins de certitude et un peu plus d'ouverture à ce qui n'est pas encore dans notre modèle.
Ce que Taleb dit, finalement, c'est que l'ignorance a une structure. Elle n'est pas aléatoire. Elle se concentre précisément là où nos modèles sont les plus confiants, là où nos narrations sont les plus cohérentes, là où nos plans sont les plus propres.
C'est une information utilisable. Encore faut-il ne pas l'oublier dès qu'on rouvre son propre document de projection.
D'autres articles.
Growth hacking : définition et ce que les exemples révèlent vraiment
Le growth hacking est souvent réduit à des tactiques à copier. Ce que Dropbox et Airbnb révèlent vraiment : l'insight précède toujours le hack.
articleUtiliser l'IA pour écrire : pourquoi l'architecture compte plus que le prompt
Séparer rédaction et SEO, donner un rôle précis à chaque étape : les décisions qui changent ce qu'un workflow IA produit vraiment.
RessourceLes meilleures newsletters pour les product managers et les builders (US + FR)
Dix newsletters PM et product avec un vrai point de vue, pas du contenu interchangeable : anglophones et francophones pour PMs en entreprise et builders