Les lois empiriques de la tech

Récemment, la plateforme CB Insights publiait un article sur les huit “lois empiriques” que les années de développement technologique ont confirmées et qui, par voie de conséquence, ont donné les lettres de noblesse aux personnes qui ont repéré ces tendances. Retour sur celles qui ont façonné le domaine de la tech depuis plusieurs décennies.

  • Loi de Moore

Peut-être la plus connue, elle date de 1965 lorsque le co-fondateur d’Intel, Gordon Moore, prédit que chaque année, les fabricants de semi-conducteurs sont capables de doubler le nombre de transistors sur les puces électroniques alors que leur prix est divisé par deux. Cette observation se confirma à tel point qu’elle fût apparentée à une sorte de “prophétie auto-réalisatrice” dans l’industrie, permettant aux industriels de planifier leurs chiffres ventes, stratégies et ressources nécessaires. En 1975, Moore ajuste sa prédiction exponentielle en précisant que la puissance des circuits intégrés double chaque deux ans, ce qui s’avèrera correct jusqu’à il y a peu à cause de la complexité de réduire encore plus la taille des transistors de façon économiquement viable. Avec l’avènement des ordinateurs quantiques, Neven pourrait détrôner Moore.

  • Loi de Metcalfe

En 1980, un des pères de la technologie Ethernet, Robert Metcalfe, observe que l’augmentation de la valeur des réseaux de communication est proportionnelle au nombre de leurs utilisateurs. En effet, à l’instar des premières installations de téléphones, le coûts initial de connexion au réseau excède généralement la valeur qui en résulte. Cependant, à un certain moment, une masse critique d’utilisateurs connectés est atteinte: les coûts initiaux deviennent alors inférieurs aux bénéfices dus aux connexions supplémentaires. Facebook, Twitter et Snap sont trois exemples suivant cette logique: plus les gens s’inscrivent sur les réseaux sociaux, plus il devient intéressant de les rejoindre. Le but est d’ensuite de réussir à fidéliser les utilisateurs pour qu’ils restent, sinon gare à la chute.

  • Loi de Gall

En 1975, Robert Gall écrit: “Un système complexe qui fonctionne se trouve invariablement avoir évolué depuis un système simple qui fonctionnait. La proposition inverse se révèle également exacte: un système complexe développé de A à Z ne fonctionne jamais et vous n’arriverez jamais à le faire fonctionner. Vous devez recommencer depuis le début, en commençant par un système simple.” Ce principe deviendra une pierre angulaire du développement de nouveaux produits afin que leur finalité devienne la priorité, à savoir faire en sorte que les gens veulent utiliser ces produits. On pensera donc par exemple au concept de “minimum viable product” lors de l’élaboration de nouveaux produits et services, pratique largement répandue dans les startups: on vise d’abord un produit sans trop de fonctionnalités et on l’améliore au fur et à mesure grâce aux feedbacks des utilisateurs.

  • Règle des deux pizzas (Amazon)

Début 2002, Jeff Bezos décide de s’attaquer à la surabondance de communication interne afin d’augmenter la productivité. Il réorganise donc toutes ses équipes en suivant la règle des deux pizzas: les d’employés sont réunis en groupes assez petits afin de se sustenter de seulement deux pizzas lors des tardives sessions au bureau. Cette volonté de limiter la taille de groupes de travail garantit une forme d’agilité alors même que l’entreprise est très large et compte de nombreux départements. Elle encourage également une certaine dépendance dans la prise de décision au lieu de trop dépendre de la hiérarchie. Résultat: une croissance moins coûteuse, une facilitation d’expérimentation et, au final, plus d’innovations proposées aux utilisateurs. Bezos l’exprime en 2013: “La distribution [décentralisée] des inventions dans toute l’entreprise […] est le seul moyen d’obtenir une innovation robuste et à haut débit.” Chez Spotify, les squads de maximum huit personnes s’inspirent de la même logique générale.

  • Loi de Conway

En 1967, Melvin Conway remarque que “les organisations qui conçoivent des systèmes […] sont contraintes de produire des designs qui sont des copies de la structure de communication de leur organisation.” Autrement dit: si par exemple deux développeurs n’échangent pas souvent ni librement, l’intégration d’un logiciel se fera difficilement; si au contraire leur communication est ouverte et fréquente, les chances que l’expérience utilisateur soit fluide sont bien plus grandes. Un exemple: Apple qui organise ses équipes non pas autour d’un produit mais en assemblant diverses expertises fonctionnelles (p.ex. design, marketing, etc.) afin d’unifier les expériences à travers tous les produits et services de la marque. Un autre: la manière de fonctionner de la plateforme GitHub reflète la nature décentralisée et asynchrone de la collaboration entre leurs programmeurs-contributeurs.

  • Loi des “clics de m*”

Attribuée à Andrew Chen, associé dans le bureau de capital risque Andreessen Horowitz, elle stipule que tout nouveau canal marketing, aussi utile soit-il initialement, perd peu à peu son efficacité avec le temps. L’investisseur attribue trois raisons à cela: i) la nouveauté: les gens y répondent par la curiosité mais reconnaissent vite des habitudes, ii) les fast followers: l’efficacité d’un canal se répand comme traînée de poudre et une certain fatigue s’installe chez les personnes, iii) l’échelle: si des early adopters répondent positivement à des nouveaux outils marketing, le grand public sera plus hésitant. Cela pose également la question centrale des métriques afin de mesurer l’efficacité d’une campagne marketing (p.ex. le taux d’ouverture d’une newsletter envoyée par email).

  • Loi de Zimmermann

En 2013, le pionnier de l’encryption d’emails Phil Zimmermann affirme que de nos jours, la trajectoire naturelle d’une technologie est de rendre la surveillance (de masse) plus facile, de telle sorte à ce que la capacité des ordinateurs à collecter des données d’utilisateurs double chaque deux ans (vous avez dit Moore?). Ce n’est plus un secret que les données sont le bien le plus précieux de notre époque et qu’il est donc naturel d’offrir des services gratuits en échange de données d’utilisateurs. Facebook, Google et tant d’autres en sont les fers de lance afin de mieux connaître leurs utilisateurs et donc offrir des publicités encore plus ciblées à de potentiels clients. Avec l’avènement de l’Internet of Things (IoT), le débat continuera de faire rage: avantages et utilités versus effritement de la sphère privée.

  • Principe de Pareto

Vers la fin du 19ème siècle, l’économiste italien Vilfredo Pareto consigne une observation: 80% des terres du pays sont entre les mains de seulement 20% de la population. En étudiant d’autres contrées, il y découvre les mêmes proportions. Dès ce moment, cette règle générale trouve un magnifique écho dans une multitude de situations, allant du sport aux assurances qualité. Ce principe s’illustre particulièrement bien dans le monde du capital risques où la majorité des investissements dans des jeunes pousses ne rapportent que peu ou pas alors qu’une minorité surpasse de loin le retour sur investissement moyen.

(source CB Insights)