jeudi 28 janvier 2010

Etrange perspicacité collective (2)

Part2: crowdsourcing ou la clairvoyance collective en action

Passons aux travaux pratiques du billet précédent. En économie, le crowdsourcing désigne la mise à contribution de la clairvoyance collective, que ce soit pour reconnaître des caractères manuscrits, tel le système ReCaptcha qui sert en même à éviter le spam comme l'explique très bien le Dr Goulu, pour faire un traducteur collectif ou pour labelliser des images sur Flickr. Les 80 000 "clickworkers" inscrits volontairement sur le site de la NASA ont ainsi classifié tous les cratères visibles sur Mars et le leur effort collectif donne des résultats dont la qualité est très proche de celle des meilleurs géologues (malheureusement le lien de la NASA est manifestement HS).

L'application la plus fascinante du crowdsourcing est sans aucun doute le système PageRankde Google qui estime la popularité d'une page Web en fonction du nombre de liens qui pointent vers cette page, comme si chaque lien était un vote. Mais -c'est là toute l'astuce- tous les liens ne se valent pas! Un lien de A vers B a d'autant plus de poids que que sa page d'origine (A) est ele-même populaire. A partir de ce système de votes pondérés Google calcule le score de toutes les pages du Web. Plus une page est populaire, meilleur est son classement dans les résultats du moteur de recherche. Ce système très simple a fait l'efficacité légendaire du moteur de Google. Evidemment ce système n'est pas parfait: puisque la popularité d'une page est boostée lorsqu'elle est pointée depuis un site très populaire, les petits malins postent souvent de tels liens en commentaires des blogs prestigieux. Même si personne ne clique sur ces liens auto-promotionnels, la popularité PageRank de leur site est automatiquement améliorée.

Lire l'avenir grâce aux paris?
Peut-on gagner au tiercé grâce au théorème de la prédiction par la diversité? Bon, à vrai dire la théorie ne casse pas des briques au turf. Certes, un cheval qui est misé "à trois contre un" n'a pas loin d'une chance sur 4 de gagner. Mais la spéculation biaise pas mal la précision de ces prédictions car on mise moins qu'on le devrait sur les favoris (parce que c'est moins drôle?) et trop sur les outsiders (à cause du jack-pot qu'on touche s'il gagne?).
En revanche, les résultats sont assez spectaculaires sur les services de pari en ligne aux Etats-Unis notamment. Sur le site TradeSports.com, par exemple, on peut parier sur n'importe quoi en lien avec le sport: le vainqueur d'un match de baseball, ou le score d'une partie de football américain. Comme pour le tiercé, le prix d'une option est directement proportionnel au niveau de confiance collectif pour que cette option se réalise. Pour savoir si le marché prédit correctement, il suffit de compter pour chaque niveau de prix, la probabilité qu'un option soit gagnante. Il ne reste plus qu'à comparer le nuage de points ainsi obtenu avec ce qui serait une prédiction parfaite (la ligne en pointillé). Le résultat parle de lui-même:

(source: ici)

De tels systèmes de paris en ligne ont fleuri sur tous les sujets, que ce soit avec de l'argent réel ou de la monnaie de singe. Le Hollywood Stock Exchange permet ainsi de parier sur le succès au box-office des films qui vont sortir en salle, ou sur les vainqueurs aux prochains Oscars.

(Source: ici)
Dans le domaine de la politique, le marché électronique de l'Université de l'Iowa (IEM) est devenu une référence pour prédire l'issue des élections présidentielles américaines. Il faut dire que là encore, son pouvoir prédictif est impressionnant:
(source: ici)
Plus besoin de sondages?
Une étude récente a comparé la précision de 964 sondages électoraux depuis 1988 avec les prédictions de l'IEM aux mêmes dates. L'IEM est plus fiable dans les 3/4 des cas, et la différence est encore plus net dans les trois mois précédents le scrutin. Plusieurs explications sont avancées pour expliquer cette performance:
- Contrairement aux sondés qui répondent sans s'engager, les parieurs prennent un risque réel en misant de l'argent sur un candidat. Ils sont donc incités à estimer le mieux possible l'issue du scrutin, en mettant à profit toute l'information à leur disposition.
- Alors que les sondés se valent tous, les parieurs pondèrent naturellement leur pari en misant plus ou moins, en fonction de leur (in)certitude; ceux qui sont sûrs de leur prédiction misent plus et donc pèsent davantage sur le marché que les incertains qui ont misé trois clopinettes;
- Enfin, les parieurs prédisent un événement réel (le résultat d'une élection), tandis que les sondés répondent souvent à une question irréaliste du type "si vous deviez aujourd'hui voter, quel candidat aurait votre préférence?". Cette différence pourrait expliquer pourquoi les prédictions du marché "sur-réagissent" beaucoup moins que les sondages aux événements de la campagne, tel que les cérémonies d'investiture des candidats.

Reste que les marchés peuvent aussi être victimes de la "hype" du moment. Lors de la dernière élection, ils se sont par exemple complètement plantés pour les primaires du New Hampshire, pronostiquant à tort une victoire assurée à 95% pour Obama. En restreignant la diversité d'opinion, l'Obamania a eu raison de la légendaire clairvoyance de l'IEM.

Dans les entreprises: boule de cristal ou lunettes du prince?
Bref, toujours est-il qu'ils ne sont pas bien malins, à l'Elysée: au lieu de dépenser des fortunes dans des sondages pas précis, ils feraient mieux d'organiser gratuitement des paris en ligne! C'est ce que font des entreprises astucieuses, comme HP, Microsoft, Mittal ou Google, en invitant leurs salariés à parier sur l'actualité future de leur société. Pour Google par exemple, on parie par exemple sur l'ouverture prochaine d'un bureau en Russie, ou sur le nombre d'utilisateurs de Gmail à la fin du trimestre. On y gagne des Roobles (jeu de mots!) convertibles en primes. Je n'ai pas réussi à savoir à quel point les prédictions sont correctes, mais des chercheurs ont déjà constaté des biais dans le système:
- les jeunes recrues sont beaucoup trop optimistes sur les performances de leur entreprise dont ils connaissent encore mal les limites;
- les parieurs s'influencent lorsqu'ils sont voisins de bureau (un comble pour une société où on ne jure que par l'email et l'IM!). Or l'indépendance des paris est garante d'un résultat collectif pertinent...

En tous cas, lorsque la question porte sur le respect de l'échéance d'un projet, ce système constitue un thermomètre idéal pour le management. Et dans le fond, n'est-ce pas l'essentiel? L'intérêt de ce type de marché est peut-être moins de prédire l'avenir que de permettre au management de saisir enfin le fond de la pensée des employés, dépouillée de tout "politiquement correct". Une information devenue vitale tant les conseils d'administrations sont parfois adeptes de la pensée unique et frappés dès lors de cécité stratégique. Comme disait Tocqueville
"Lorsqu'une opinion (...) s'est établie dans l'esprit du plus grand nombre elle subsiste ensuite d'elle-même et se perpétue sans efforts, parce que personne ne l'attaque(...) Il arrive quelquefois que le temps, les événements ou l'effort individuel et solitaire des intelligences, finissent par ébranler ou par détruire peu à peu une croyance sans qu'il en paraisse au dehors. (...) Ses sectateurs la quittent un à un sans bruit; mais chaque jour quelques-uns l'abandonnent jusqu'à ce qu'enfin elle ne soit plus partagée que par le petit nombre. En cet état elle règne encore.(...) La majorité ne croit plus; mais elle a encore l'aire de croire et ce vain fantôme d'une opinion publique suffit pour glacer les novateurs, et les tenir dans le silence et le respect."
Robert Burgelman, professeur de stratégie d'entreprise à Stanford, décrit ainsi l'aveuglement d'Intel dans les années 1980:
"La sortie de Intel du marché des mémoires, leur cœur de métier, a été le résultat, non pas d'une décision stratégique de la direction générale après analyse du marché, mais d'une série de décisions et d'actions à des niveaux "inférieurs" de l'entreprise. La direction générale n'a fait que prendre acte, en 1986, que l'entreprise n'était plus une entreprise de mémoires, mais de microprocesseurs, et ce alors que les mémoires représentaient moins de 50% de leur chiffre d'affaire depuis 1982 déjà" (d'après le compte-rendu qu'en fait Philippe Silberzahn raconte dans son blog).

Pour éviter d'en arriver là, le verdict des paris en ligne constituent un bon indicateur du niveau de confiance des salariés dans la stratégie et les produits de leur entreprise. De nouvelles lunettes pour le prince en quelque sorte.

Eloge de la diversité en management
Ces réflexions sur les liens étroits entre diversité et perspicacité collective jettent finalement un drôle d'éclairage sur la "chasse aux talents" déployée pour doter les comités exécutifs des meilleurs experts. Les critères d'excellence étant peu nombreux, les "meilleurs" ont tendance à se ressembler tous, surtout quand ils ont suivi le même type de formation (grandes écoles par exemple) et plus ou moins le même cursus professionnel. Or l'excellence individuelle est synonyme de médiocrité collective quand elle appauvrit la diversité du groupe, car un groupe trop homogène a plus de mal à se remettre en cause en cas de coup dur. Pour améliorer les performances d'un comité de direction déjà composé d'excellents professionnels, Scott Page -le chercheur de l'Université de Michigan dont on a parlé dans le dernier billet- suggère qu'il est probablement plus efficace de recruter quelqu'un d'un peu éclectique, avec des compétences très différentes qui apportera sa touche de diversité à la pensée commune. Voilà qui devrait combler les partisans de la discrimination positive en faveur des minorités de toutes sortes...

Sources:
Pennock et al., The Power Of Play, efficiency and forecast accuracy in Web Market Games, 2001.
Berg, Nelson, Rietz, Prediction market accuracy in the long run, 2008
L'article de Business Week d'août 2006 sur les entreprises utilisant les paris en ligne internes
Les applications du crowdsourcing ici
Toqueville "De la démocratie en Amérique" (la citation est tirée du chapitre XXI)

Billets connexes:
Etrange perspicacité collective (1)

vendredi 22 janvier 2010

Etrange perspicacité collective (1)

Part1: dans les entrailles du phénomène
On ne choisit pas sa famille. En inventant le concept d'eugénisme, Francis Galton reste aux yeux de l'histoire le symbole du mauvais génie, le côté obscur de la science dont son cousin Charles Darwin serait la face lumineuse. Ce passionné des statistiques et des mesures en tout genre a pourtant fait des découvertes très intéressantes. Il observa par exemple l'incroyable capacité d'une foule à faire collectivement des prédictions d'une exactitude confondante, bien meilleure que celle de chacun des individus qui la composent...

Trop fort le groupe!
En visitant une foire agricole à Plymouth en 1906, Galton assista à un concours dont l'objet était de deviner le plus précisément possible le poids d'un boeuf. A l'issue du jeu, Galton se fit remettre les 787 estimations recueillies et s'amusa à en faire les statistiques. A son grand étonnement, la valeur médiane de ces estimations (le poids pour lequel 50% des participants trouvent qu'il est surestimé et 50% qu'il est sous-estimé) s'avéra étonnamment proche de la valeur réelle du bœuf -543 kilos pour un poids réel de 545, soit moins de 1% d'erreur.

Vous pensez bien que depuis 1906 on a fait et re-refait cette expérience à de nombreuses reprises. On n'avait pas forcément un bœuf sous la main, alors on a tenté avec d'autres trucs:
- la température d'une pièce (22.2°C, estimée collectivement par une classe à 22.4°C);
- le classement d'objets par ordre de poids croissant (94% d'exactitude collective);
- le nombre de bonbons dans un bocal (850 dragibus pour une estimation collective médiane de 871);
- les Oscars 2007, pour lesquels 57 étudiants de l'Université de Columbia ont collectivement deviné 11 vainqueurs sur 12.

Les limites de la clairvoyance
A chaque fois, les chercheurs ont été bluffés: non seulement l'estimation collective était incroyablement précise, mais surtout elle s'avérait toujours meilleure que les meilleures prédictions individuelles, à de très rares exceptions près. Dans l'expérience du bocal, une seule personne sur les 56 estima plus précisément le nombre de bonbons. Dans la prédiction des Oscars, aucun étudiant ne prédit plus de 9 vainqueurs sur les 12.

Bien entendu ça ne marche pas pour tout. Si vous avez un calcul de maths à faire vous avez plus vite fait de demander à un matheux de trouver tout seul la solution qu'à un groupe de donner son avis. Les problèmes les plus adaptés à la perspicacité collective sont ceux pour lesquels il n'existe pas une seule bonne méthode de résolution mais au contraire plusieurs approches, plus ou moins bonnes, que chacun explore avec plus ou moins de succès.

Ca ne suffit évidemment pas: si l'on demandait à une classe de primaire d'estimer combien le bocal contient d'atomes on obtiendrait n'importe quoi. Les participants doivent avoir une idée -plus ou moins bonne- sur la question posée. Dans le concours agricole de Galton, l'exceptionnelle précision obtenue (moins de 1% d'erreur) vient sans doute de la familiarité des participants avec ce genre de problème. D'ailleurs faire payer la participation permet de garantir un minimum d'expertise.
Par ailleurs, le pronostic d'un groupe est facilement manipulable. Dans l'une des expériences avec le bocal de bonbons, on a demandé aux participants de refaire une seconde estimation après leur avoir fait remarqué que le récipient en plastique avait des parois plus fines qu'un bocal en verre (donc une plus grande contenance). Le second vote a été cinq fois moins précis que le premier, sans doute parce que les participants ont tous biaisé de la même manière leur première estimation. Non pas que l'information sur la capacité du bocal ait été fausse, mais le fait d'attirer l'attention sur ce point les a induit en erreur lors de leur second vote. Le groupe, manipulé, a collectivement perdu un peu de clairvoyance.

Indépendance et diversité
Dans son bouquin 'The Wisdom of Crowds' (la sagesse des foules), James Surowiecki observe que tous les cas qui "marchent" réunissent trois conditions:
- Il faut bien sûr un système simple d'agrégation qui résume en un nombre toutes les opinions individuelles (typiquement un vote, un pari, un prix etc.);
- L'indépendance des opinions les unes par rapport aux autres est un ingrédient essentiel. Faute de quoi il risque de se former des bulles spéculatives, comme en Bourse où chacun décide aussi en fonction de l'idée qu'il se fait de l'opinion collective. La meilleure "clairvoyance collective" s'obtient quand chacun estime dans son coin, sans prêter attention à ce que pensent les autres.
- Enfin, et c'est le plus étonnant, une grande diversité d'opinions améliore considérablement la performance du groupe. Surowiecki donne pas mal d'exemples où la trop grande homogénéité des individus affecte la "perspicacité collective". Quand tout le monde raisonne de la même manière, le résultat est nécessairement biaisé. C'est typiquement le cas des marchés boursiers (en plus de l'effet spéculatif) où tous les porteurs fondent leur opinion sur les mêmes sources d'informations financières.

Bizarrement le groupe le plus performant n'est pas le petit cercle des meilleurs experts, mais un mélange assez large d'experts et d'amateurs ayant des points de vue très différents y compris les plus excentriques. En lisant le bouquin de Surowiecki et les articles autour de ce thème, on sent le phénomène sans vraiment le démontrer. J'ai raconté dans un billet précédent l'exemple de "Qui veut gagner des millions" où le joker "demander l'avis au public" est bien plus efficace que celui qui consiste à "appeler un expert". Sauf que l'explication proposée repose sur un cas de figure bien précis et l'on pourrait imaginer beaucoup d'autres circonstances où le public se tromperait plus que les experts.

Une explication souvent avancée fait appel à la distribution "en cloche" des prévisions individuelles autour d'une moyenne. La loi des grands nombres veut que cette moyenne est d'autant plus proche de la valeur exacte que le groupe est grand. Le problème c'est que l'analyse des statistiques contredit complètement cette interprétation. La preuve en est que l'estimation collective est bien plus précise que l'estimation d'un individu moyen, même et surtout dans les grands groupes. Scott Page, chercheur en sciences sociales de l'Université de Columbia, a une explication plus subtile...

Le théorème de la prédiction par la diversité
Prenons un exemple. Page a compilé les pronostics de 7 journalistes sportifs sur le classement final des douze meilleurs joueurs de football américain au NFL (National Football League) pour la saison 2005. Par exemple Wright a prédit que le joueur Smith terminerait 1er, Brown 2eme, etc. Il s'est trompé pour Williams qu'il voyait en 8eme place alors qu'il a fini 5eme, etc. Comme d'habitude on prend comme "pronostic collectif" la moyenne des pronostics individuels (dernière colonne) et on compare ces pronostics au classement final -la première colonne (cliquez pour aggrandir le tableau).


Pour mesurer l'acuité des pronostics d'un pronostiqueur, on additionne les carrés de ses erreurs de pronostic (en stat on appelle ça la variance). Cette méthode permet de compter de la même façon les surestimations et les sous-estimations. L'erreur "moyenne" de Wright vaut ainsi 0+0+0+0+(8-5)² + (16-6)² + (13-7)² etc. = 158. Nos sept pronostiqueurs font en moyenne une erreur individuelle de 132. Et comme d'habitude le pronostic collectif est bien plus précis, avec une erreur de seulement 50. On n'est pas non plus surpris de constater qu'un seul parieur fait mieux que le pronostic collectif. C'est Judge -qui porte bien son nom- avec une erreur de 39 seulement.

L'astuce de Page pour comprendre ce qui se passe, a été d'imaginer une seconde variable, celle de la "disparité de la prédiction", l'écart de son pronostic par rapport au pronostic moyen de ses collègues. La disparité d'un pronostiqueur se calcule en additionnant les carrés des écarts entre ses pronostics et le pronostic moyen.
La disparité de prédiction de Wright vaut: 0+ (2-2.7)²+(3-3.3)²+(4-6.4)² etc. = 87
La moyenne de ces disparités individuelles mesure donc l'hétérogénéité des prédictions au sein du groupe. Elle vaut 82 dans notre exemple:


On constate que l'erreur du pronostic collectif (50) vaut la moyenne des erreurs individuelles (132) moins cette moyenne des disparités (82).
A coups de formules un peu barbares, Page montre que ce résultat n'est pas statistiquement vrai mais toujours vrai. Son "théorème de la prédiction par la diversité" (Diversity Prediction Theorem) a des conséquences très intéressantes:
1) la prédiction d'un groupe est toujours meilleure que celle d'un individu moyen (car la moyenne des disparités de prédiction est positive)
2) Si le groupe est à la fois disparate et composé de gens qui s'y connaissent un peu, l'erreur collective devient toute petite. Et on comprend pourquoi il est si difficile de prédire mieux que le groupe.
3) Pour améliorer la clairvoyance d'un groupe, il revient au même d'améliorer la qualité moyenne des pronostics individuels (avec de l'entrainement, des formations etc.) ou d'augmenter sa disparité, en introduisant des profils exotiques, des raisonnements très différents etc. Bref, un oeil neuf sur un problème difficile au moins autant qu'une expertise très poussée. Il y a bien entendu une limite à cette augmentation de la "disparité collective", puisqu'à un certain moment, trop de disparité impacte la moyenne des erreurs individuelles.

Globalement je trouve plutôt cocasse que ce soit l'inventeur de l'eugénisme qui nous ait permis de démontrer toutes les vertus de la diversité en termes de clairvoyance collective. La prochaine fois, je vous emmènerai faire un tour du côté des applications de cette curieuse loi...


Références:
L'article original de Galton (1907) est disponible ici
James Surowiecki, The Wisdom of Crowds (2004)
M. Maubussin, Explaining the wisdom of crowds
Scott Page, The Difference (2008) avec un extrait de son bouquin ici

Billets connexes:
Bancs et nuées sur d'autres phénomènes collectifs
Foule paradoxale

samedi 9 janvier 2010

La Reine, le Fou et l'Arbre (2)

Part 2: Innovation et évolution: une histoire de lapins-sauteurs?

Previously on "La Reine, le Fou et l'Arbre": il y a 500 millions d'années, à l'époque du Cambrien, une invraisemblable explosion de formes vivantes crée d'un seul coup (à l'échelle géologique, n'exagérons rien) toutes les branches du vivant et plein d'autres encore qui n'ont pas survécu. Pourquoi une telle fulgurance de créativité, jamais répétée ensuite? Stuart Kauffman, un biologiste américain spécialiste de l'auto-organisation, avance l'explication que je trouve la plus limpide. Imaginez un paysage très accidenté, représentant les différentes morphologies que peut prendre un organisme très simple par mutations. Chaque endroit de ce paysage correspond à une mutation particulière de cet organisme et son altitude à sa "fitness" (sa viabilité). Un organisme qui mute saute d'un endroit à l'autre. Si l'altitude d'arrivée est plus grande que celle du départ, la mutation est avantageuse et si l'endroit n'est pas déjà pris, l'organisme pourra s'y maintenir jusqu'à la prochaine mutation avantageuse.

Comme un lapin qui sauterait partout (source de la photo ici) en espérant se percher le plus haut possible, notre organisme mutant a deux stratégies possibles:
- soit il la joue "prudent" en bougeant un tout petit peu autour de lui (ce qui correspond à une micro-mutation). Il a alors de bonnes chances de grimper, mais pas très vite.
- soit il la joue "Banzaï" et fait un saut de la mort au hasard dans le paysage. C'est risqué, mais il a une petite chance de tomber pas loin d'un pic et de gagner le jackpot en termes d'évolution.

Au moment du Cambrien, c'est le bonheur pour les rares organismes multicellulaires qui apparaissent par mutation: ils n'ont pas de prédateurs et se prélassent dans un océan de nourriture sans défense. Les anatomies complexes ont donc une "fitness" énorme pour peu qu'elles soient viables, ce qui correspond à des pics très escarpés dans le paysage de Kauffman. La stratégie "Banzaï" est du coup très payante car en faisant de grands bonds, nos lapins ont une certaine chance pas complètement nulle de tomber sur une anatomie hyper avantageuse. Avec cette tactique tous les plans d'organisation viables sont très vite explorés par nos lapins: c'est la phase d'explosion créatrice du Fou où dominent les macromutations.

Au fil du temps, la situation se complique: Kaufman a montré sur un petit modèle que chaque fois qu'un lapin-organisme réussit par hasard une macro-mutation avantageuse, ses chances d'en réussir une seconde sont diminuées par deux. Autrement dit, le temps entre deux macro-mutations double à chaque fois. Et assez rapidement, plus aucune macro-mutation viable n'est statistiquement possible. Vient alors le temps des évolutions graduelles -les petites mutations qui conservent le plan d'organisation d'origine- qui font grimper le lapin doucement sur son pic en adaptant finement sa morphologie au nouvel environnement. A mesure que le temps passe, les évolutions se font de plus en plus mineures et la Reine Rouge reprend ses droits.

Un arbre fractal?
Sur la base de ce raisonnement, certains paléontologues comme Jean Chaline généralisent la statistique de ce modèle: selon eux le rythme d'apparition d'un niveau supplémentaire de ramification dans l'arbre du vivant augmenterait de manière proportionnelle dans le temps. Et comme vous êtes maintenant familiers avec les logarithmes, vous savez qu'une telle périodicité logarithmique traduit une invariance d'échelle dans la géométrie de l'arbre, autrement dit sa structure fractale!



Source: Chaline, Nottale et Grou (ici)

C'est rigolo non? D'autant qu'on a souvent remarqué l'aspect fractal de certains arbres en vrai dans la nature.

Images du site mathcurve.com (à droite c'est un vrai arbre!)

Bien entendu cette théorie est très contestée car comment s'assurer, par exemple, que les étapes évolutives retenues sont les "bonnes"? Vous me direz ce que vous en pensez.

Application aux progrès technologiques?
En tous cas, on a souvent relevé le parallèle entre les bizarreries de l'explosion Cambrienne et celle du progrès technologique. Lorsque la bicyclette a été inventée, on a vu apparaître sur le marché toutes les formes possibles et imaginables de vélo, avant que le marché ne porte finalement son choix sur un modèle qui n'a plus beaucoup varié depuis 1880!


Idem pour l'invention de l'automobile: on a oublié que la lutte a été rude au départ entre les partisans de la propulsion à vapeur (les machines de Bollée ci-dessous) et les moteurs à gaz naturel ou à essence, avant que ces derniers ne s'imposent définitivement.



Pareil pour l'invention du Web: souvenez-vous de l'explosion des start-up de tous poils qui n'ont pas résisté à l'explosion de la bulle internet en 2000. Dix ans après, ce sont souvent les mêmes business modèles qu'au départ, même si les acteurs ont changé. Exit les Netscape, Altavista, et autres Degriftour: pour survivre il faut innover mais ça ne suffit pas! L'innovation échevelée cède progressivement la place à une recherche plus méthodique d'une meilleure efficacité. Comme dans l'évolution, après le Fou, la Reine Rouge reprend du service.

L'analogie a été poussée à tel point que l'on a été jusqu'à rechercher la structure log-périodique de ces révolutions technologiques. Avec des variantes, car comme l'a remarqué Roland Moreno: « Dans les secteurs classiques (bâtiment, automobile…) le progrès évolue de façon logarithmique : il tend vers l'infini mais de plus en plus lentement. Dans les sciences de l'information au contraire, il donne l'impression d'être exponentiel ». Et quand on cherche des structures étranges, on les trouve. Même l'histoire du jazz n'y couperait pas, regardez:

Source: article d'Ivan Brissaud (ici)

La différence entre biologie et technologie
Plaisanterie à part, il y a quand même une vraie différence entre biologie et révolution technologique. La biologie, c'est hiérarchique! Dans le domaine du vivant les mutations les plus radicales - celles qui déterminent les classifications taxonomiques supérieures (règne, ordre, famille etc)- sont aussi celles qui affectent les stades précoces du développement embryonnaire. Une mutation touchant la formation de la colonne vertébrale est bien plus pathogène qu'une mutation plus tardive correspondant à la formation des doigts par exemple. Mais on a vu que ces mutations radicales n'avaient de chance d'être viables qu'aux premières périodes de l'évolution. Il parait donc logique de trouver des mutations développementales de plus en plus tardives à mesure que l'on avance dans l'histoire du vivant. Plus le temps passe, plus les formes initiales du développement embryonnaire sont "figées". Au point qu'à la fin (actuellement?) seules les mutations intervenant en toute fin de développement embryonnaire sont (éventuellement) viables, autorisant de temps en temps la formation d'une nouvelle espèce. On justifierait ainsi l'ordre implacable dans lequel seraient apparus d'abord les règnes, puis les ordres, puis les familles, etc. jusqu'aux espèces, de manière non réversible.

Il n'y a, me semble-t-il, rien de tel dans l'histoire du progrès technologique, car je ne lui connais aucune contrainte équivalente à celles du développement embryonnaire. N'importe quelle révolution technologique est susceptible d'engendrer l'équivalent de nouveaux "plans d'organisation": les motos à trois roues par exemple (source ici) . Il n'est même pas besoin d'une nouvelle technologie pour bouleverser un secteur:traditionnel: les compagnies "low cost" dans la distribution ou les transports, les Kapla dans le secteur des jouets en bois par exemple. Bref, l'innovation technologique me semble diablement plus anarchique que l'évolution naturelle...


PS du 10 janvier: A l'occasion d'un nouveau record dans le calcul des décimales de pi, El Jj vient de publier une très bonne chronologie des découvertes de ces décimales. Pour le plaisir, je me suis amusé à regarder si par hasard elle suivait une certaine régularité logarithmique (comme l'histoire du jazz). Voici ce que ça donne (cliquez pour aggrandir l'image):

Ca marche... presque. On voit une bonne régularité jusque vers 1950, mais avec l'invention de l'informatique on change de braquet. Le dernier point (celui de 2010) est totalement à côté de la plaque, mais on sait que les logarithmes n'aiment pas trop les petits nombres. Patience, donc jusqu'à la prochaine découverte pour savoir si ça se confirme ou si l'on a changé de vitesse une seconde fois...

Source et articles intéressants pour aller plus loin:
Un modèle plus sophistiqué de Kauffman (2003)
L'arbre de la vie a-t-il une structure fractale de Chaline, Nottale et Grou (1989)
A noter que Laurent Nottale tente à présent de faire de sa théorie de l'invariance d'échelle une théorie universelle, unifiant la mécanique quantique, la relativité, la cosmologie, la biologie etc. C'est... original!

Billets connexes:
Le Fou, la Reine et l'arbre (part 1), le billet précédent sur les surprise de l'explosion Cambrienne.
Logarithmes: again?! pour comprendre le lien entre invariance d'échelle et log-périodicité.

mercredi 6 janvier 2010

La Reine, le Fou et l'Arbre (1)

Partie 1: à quoi ressemble l'arbre de la vie
Les images qu'on utilise pour expliquer un concept reflètent forcément et à notre insu une part de nos présupposés. "L'arbre de l'évolution" n'échappe pas à la règle: son tronc unique dont sont issues toutes les branches illustre l'idée d'
un ancêtre commun dont descendent tous les êtres vivants. Mais l'image d'un arbre véhicule d'autres suppositions, moins explicites:
- l'idée d'un "aboutissement" de l'évolution: les dernières branches qui représentent les dernières espèces apparues (dont la nôtre!) sont au sommet de l'arbre.
- l'idée d'une diversification régulière des espèces: les ramifications sont régulières et il pousse régulièrement de nouvelles branches directement sur le tronc;
- l'idée d'une biodiversité croissante: comme on pense plus spontanément à un chêne qu'à un sapin, on imagine plus volontiers que la ramification croit régulièrement dans le temps;
On retrouve ces a-priori dans toutes l'iconographie traditionnelle de l'évolution. Entre les microbes (en bas) et les mammifères (en haut) se déroule une gentille ramification régulière (cliquez sur les images pour aggrandir,
sources ici et ):


Bon je vous fais grâce du premier préjugé, celui de "l'homme au sommet de l'évolution". Il est suffisamment connu pour qu'on ne s'y étende pas, même s'il continue à imprégner nos modes de pensées. Ce sont plutôt les deux dernières hypothèses qui m'intéressent parce qu'elles semblent tout à fait naturelles. Les espèces ne sont-elles pas contraintes d'évoluer en permanence pour ne pas disparaître? Comme dans la fameuse course de la Reine Rouge de Lewis Carroll, où il faut courir toujours plus vite pour rester à la même place. Face à la pression permanente de l'environnement hostile la biodiversité ne peut que s'accroître régulièrement donnant un arbre "en boule", taillé de temps en temps par quelques extinctions massives.

Vu du Cambrien, qu'il est moche cet arbre!

Stephen Jay Gould a magnifiquement expliqué dans "La vie est belle", comment les premiers doutes sont nés à ce sujet. Tout à commencé dans les années 1970, lorsqu'on étudia dans les schistes de Burgess des fossiles datant du Cambrien (550 millions d'années). Le Cambrien est une ère géologique pas comme les autres, car elle marque l'apparition des premiers invertébrés dignes de ce nom. Avant, la vie se résumait à des colonies de bactéries ou de cellules, isolés ou rassemblés en boules ou en filaments. Dans les 120 espèces de fossiles retrouvées à Burgess, on s'attendait donc à découvrir une palette extrêmement réduite de morphologies. Or on a découvert exactement l'inverse. Les schistes ont révélé non seulement tous les plans anatomiques des embranchements actuels -des éponges à symétrie radiale aux vertébrés à symétrie bilatérale- mais également d'autres embranchements beaucoup plus bizarroïdes qui (trop audacieux?) n'ont pas survécu par la suite:


La drôle de faune des schistes de Burgess (source: ici)


Hallucigenia, Opabinia et Pikaia, trois des héros parmi les 120 espèces retrouvées dans les schistes de Burgess
(crédit photo: Mary Parrish, Smithsonian Institute)

Bien sûr, à l'intérieur de chacun des embranchements il manquait de nombreuses classes qui n'apparurent que plus tard. Mais on a mis du temps à admettre que toutes les branches actuelles du vivant étaient déjà là, apparus simultanément (à l'échelle géologique). Il faut imaginer le Cambrien comme une période d'effervescence extraordinaire du vivant. A cause d'un bouleversement radical des conditions climatiques ou chimiques sur Terre, la vie a littéralement "exploré" toutes les formes anatomiques possibles avant qu'un extinction massive n'en décime la plupart quelques millions d'années plus tard. Plus jamais la Nature n'a inventé d'autres anatomies par la suite. Autrement dit, depuis cette époque, la disparité des plans d'organisation du vivant n'a cessé de diminuer! Certes, il y eut d'autres innovations évolutives, mais celles-ci se sont toujours faites à l'intérieur des plans d'organisation inventés au Cambrien. Autrement dit, l'explosion du Cambrien a été à la fois un foisonnement d'innovation et de contraintes sur la suite de l'histoire du vivant. Pour reprendre l'image de l'arbre, plus aucune branche principale n'a jamais poussé sur le tronc depuis cette époque.

Cette largeur maximale à la base de l'arbre semble se retrouver à tous les niveaux des ramifications apparus par la suite: une fois que le niveau N a foisonné en donnant une myriade de niveaux N-1, pratiquement plus aucune nouvelle ramification N-1 n'apparaît par la suite. Par contre, certains niveaux N-1 ayant survécu à l'extinction massive suivante donneront d'autres niveaux N-2 etc.
Notre arbre du vivant a donc une drôle de couenne, puisqu'à chaque embranchement la ramification est maximale à la base et diminue ensuite à coups d'extinctions massives. Stephen Jay Gould propose un arbre qui ressemble plutôt à ça:

L'évolution de la diversité anatomique, selon SJ Gould (source: ici)

Entre Reine Rouge et Fou du Roi
Avouez que ça n'a pas grand chose à voir avec l'image d'un arbre traditionnel! Pour garder un peu de suspense, je vous réserve l'explication de ce phénomène pour le prochain billet. Toujours est-il que cette constatation a convaincu Gould que l'histoire de l'évolution se présente sous forme d'une série "d'équilibres ponctués", alternant deux modes très différents:
- Durant de longues périodes de calme relatif, de nouvelles espèces apparaissent graduellement sous le seul effet de la pression sélective. C'est l'image que l'on se fait intuitivement de l'évolution, et qui correspond à la course de la Reine Rouge avec son accumulation progressive de biodiversité;
- A ces périodes succèdent des bouleversements climatiques, décimant les espèces existantes et provoquant de brutales explosions de formes très nouvelles dont seule une faible proportion survivra. C'est ce que les paléontologues ont baptisé
le modèle du "Fou du Roi" (Court Jester theory), en référence aux réactions imprévisibles du Bouffon. Les à-coups évolutifs se mesurent cette fois à l'échelle géologique, et plutôt au niveau des familles ou des genres qu'au niveau des espèces.

source: Michael Benton, 2009

Quand on fait le bilan, qui l'emporte au final de la Reine et du Fou? Pas évident quand on fait les statistiques des fossiles de la faune marine à l'échelle géologique. Une fois qu'on a éliminé les doublons (courbe bleue ci-dessous), le nombre de genres ne semble pas avoir beaucoup bougé depuis 500 millions d'années. Et les à-coups du Fou du Roi (les grands pics de la courbe) semblent avoir au moins autant d'impact sur la biodiversité que les périodes de lente accumulation de la Reine Rouge.


Un aboutissement? Quel aboutissement?

Ces mécanismes évolutifs à grande échelle éclairent aussi me semble-t-il le débat sur "l'inexorabilité" des formes de vie telles que nous les connaissons actuellement. Au vu des extraordinaires convergences évolutives qui nous entourent (à voir sur le non moins extraordinaire blog de SSAFT) il est tentant d'imaginer que si l'on rembobinait dans le temps le film de l'évolution et qu'on le laissait se dérouler à nouveau librement, on obtiendrait fatalement les mêmes morphologies qu'aujourd'hui, les mêmes mécanismes servant à la vision, la prédation, la fuite etc. C'est possible. Mais une telle intuition se fonde finalement sur notre vision très contemporaine de la vie sur Terre. Beaucoup de ressemblances
(pas toutes j'en conviens) entre les morphologies ou les comportements correspondent à des lignées très proches sur l'arbre du vivant -marsupiaux et mammifères par exemple. Elles peuvent donc s'expliquer par la sélection naturelle à l'échelle de la Reine Rouge.
Mais c'est oublier que la vie sur Terre est actuellement très "stéréotypée" com
me le disait Gould. N'a survécu qu'une infime partie des lignées et des ordres d'êtres vivants ayant tenté leur chance. Leur disparition ne doit pas grand chose à la sélection naturelle, car à l'échelle du Fou du Roi, ce sont plutôt les catastrophes naturelles qui dictent leur loi: bien malin celui qui aurait pu prédire il y a 500 millions d'années. Pourquoi Hallucigenia et Opabinia n'ont-ils pas survécu, alors que Aysheaia (sur la photo de source Wikipedia) est le grand-père de tous les les insectes de notre planète? La survie de certaines morphologies a sans doute été le fruit d'un extraordinaire concours de circonstances. Dans ces conditions, si l'on rembobinait le film de l'évolution de quelques centaines de milliers d'années et qu'on le laissait se redérouler, on obtiendrait probablement la même chose qu'aujourd'hui, car on resterait dans le monde réversible de la Reine Rouge. Mais si on refaisait le film depuis plusieurs centaines de millions d'années, on tomberait alors dans le monde chaotique du Fou du Roi. Il est alors tout à fait possible qu'on ne retrouve plus aucun mammifère sur Terre!

A suivre...

Sources:
Stephen Jay Gould, La vie est belle (1991)
Stuart Kauffman, At home in the Universe (1995)
Michael Benton, Red Queen and the Court Jester... (2009)

Billets connexes:
L'évolution c'est de la dynamique!

Darwin reloaded part 1, 2 et 3,