La Suisse entre le marteau chinois et l’enclume américaine

Le Temps consacrait récemment un paragraphe sur le féroce affrontement entre Washington et Pékin sur le plan technologique. Avec Xavier Comtesse, nous y consacrions également un article dans l’Agefi pour souligner les efforts scientifiques (brevets, nombre de chercheurs, etc.), dépenses militaires (778 milliards de dollars au pays de l’Oncle Sam contre 252.3 milliards au pays de Mao) et dispositions politiques (p.ex. la loi sur la réduction de l’inflation ou Inflation Reduction Act IRA en anglais aux États-Unis et le capitalisme d’État en Chine) des deux puissances. Sur ce thème encore, des chercheurs de l’Institut Jacques Delors ont publié un excellent travail qui traite de cette nouvelle rivalité entre les deux premières économies mondiales.

 

En guise d’introduction, ces derniers écrivent: “Les distorsions de concurrence du capitalisme d’État chinois provoquent de tels déséquilibres systémiques au sein du système libéral d’économie de marché que les États-Unis ont décidé de s’affranchir de certaines règles multilatérales au nom de la sécurité nationale. À leur tour, ils adoptent des mesures coercitives et une stratégie industrielle aux caractéristiques chinoises qui s’appuie sur des subventions massives et des clauses de contenu local. Les annonces agressives se multiplient du côté de Washington et de Pékin. La course au leadership technologique s’accélère en même temps qu’une réorganisation de la mondialisation qui peut aussi bien conduire à la coexistence de blocs rivaux qu’à une escalade de mesures de rétorsion et une fragmentation des chaînes de valeur mondiales.

 

Outre les aides d’État et son régime communiste qui promet la croissance, la République Populaire de Chine a, au tournant du millénaire, mis l’accent sur sa politique expansionniste qui incitait ses entreprises à investir à l’étranger. Mieux connue en anglais en tant que Go Out Policy (ou Going Global Policy), elle a permis à des nombreux acteurs chinois d’acquérir des sociétés internationales, notamment européennes, et ce très activement avec la crise de la dette européenne à la fin des années 2000 (possibilité pour la Chine de racheter la dette sous forme d’obligations et de participer à des projets d’infrastructures). Dès lors, de l’autre côté de nos frontières, la gourmande Chine en plein essor a pris des participations dans des infrastructures clés telles que l’entreprise d’énergie portugaise Energias de Portugal EDP (21% détenus par Three Gorges, 2011), l’aéroport de Heathrow à Londres (10%, 2012), le port du Pirée à Athènes (rachat par Cosco, 2016), etc. En outre, les exemples d’acquisition de fleurons européens par des groupes chinois sont légion: le constructeur automobile suédois Volvo (Zhejiang Geely, 2010), le fabricant de pneus italiens Pirelli (ChemChina, 2015), l’entreprise de robots industriels allemande Kuka (Mideas, 2015), etc.

 

Ces participations et main-mises sur des entreprises sont des exemples concrets de la volonté tentaculaire de la Chine à s’étendre dans des secteurs qui contribuent à son propre développement. La pays chérit également des secteurs tels que l’intelligence artificielle (IA), les télécommunications 5G, l’informatique quantique, l’agriculture, les transports, etc. où elle investit massivement aussi bien à l’interne qu’à l’externe, directement ou indirectement (p.ex. Huawei et le réseau 5G en Allemagne). En parallèle, les États-Unis renforcent leur capacités en aérospatiale, défense, semi-conducteurs ou encore des techniques de fabrication de pointe pour n’en citer que quelques uns. En outre, la robotique, la biotech et bien d’autres sont des domaines d’importance nationale pour maintenir une dominance à l’échelle du globe. America First ou Make China Great Again: des slogans qui justifient le contournement des règles du libéralisme économique afin de renforcer leurs capacités d’innovation, de production, d’approvisionnement, etc. qui répondent aux enjeux nationaux.

 

“Les bénéfices que tirent les États-Unis de cette intégration économique avec la Chine s’arrêtent là où leur leadership économique mondial est remis en cause par le rapide essor économique de la Chine.”

 

Dans ce contexte géopolitique tendu aux budgets pharaoniques, comment la Suisse se positionne-t-elle?

 

Le Temps relayait déjà la question en 2018 lors de la publication de chiffres relatifs aux investissements chinois en Europe: faut-il y voir une apologie libéralisme, garanti par le maintien d’emplois et d’investissements, ou au contraire y déceler une menace pour nos intérêts stratégiques (transfert de savoir-faire, accès privilégié à des technologies, contrôle d’entreprises, sécurisation de chaînes d’approvisionnement, etc.)? L’annonce du rachat en 2016 de Syngenta par le groupe chinois ChemChina pour 42 milliards de francs n’a pas laissé pas de doutes quant à la volonté de l’Empire du Milieu de garantir son accès à un portefeuille de produits chimiques de premier ordre et de semences protégées par des brevets pour améliorer la production agricole nationale. Un an auparavant, Swissport était cédée au groupe HNA pour renforcer ses activités dans le secteur aérien en forte expansion au niveau national (2.73 milliards de francs). Pour sécuriser des approvisionnements en énergie, on peut encore citer les cas d’Addax (7.24 milliards de dollars par Sinopec en 2009) et de WinGD (CSSC en 2016).

 

Les Etats-Unis ne sont pas en reste au niveau des acquisitions, notamment en ce qui concerne les start-ups helvètes. En 2022, selon le Swiss VC report, 22 jeunes pousses ont été acquises par des entreprises américaines, soit presque un tiers de toutes les ventes de sociétés (type start-ups). Deloitte rapporte également qu’en 2022, le nombre d’acquisitions réalisées par des entreprises étrangères est resté plus ou moins inchangé à un niveau élevé de 58% (98 sur 169), et que pas moins de 65% des acquéreurs de PME suisses étaient des entreprises européennes, les autres venant principalement des États-Unis (23%).

 

Exclue du programme de recherche européen Horizon2020 (plus de 95 milliards d’euros pour la période 2021-2027) suite à sa décision unilatérale d’arrêter les négociations sur l’accord cadre avec l’Union Européenne en 2021, la Suisse tente de se maintenir aux premières places auxquelles elle est habituée dans des classements d’innovation, de compétitivité, de R&D, etc. S’étant forgée vers et par l’extérieur, la Suisse isolée semble continuer dans une voie où elle subit plus qu’elle ne définit sa propre destinée. Trop petite et prônant un dialogue qui n’est plus vue comme une réponse appropriée à des guerres en tout genre, elle joue maladroitement des coudes mais cela ne l’empêche pas d’avoir les pattes engluées, voire piétinées par des ogres qui contrôlent l’ordre mondial, sans parler des ressources (p.ex. gaz, pétrole, terres rares).

 

Le multilatéralisme et le libre-échange ont du plomb dans l’aile, victimes d’une modulation des règles en fonction des intérêts des géants de ce monde. La concurrence devient de moins en moins équitable en considérant d’une part les aides d’états et d’autre par les restrictions aux exportations qui obéissent toutes deux à des considérations géopolitiques. Le drapeau du parti communiste chinois prend un sens bien métaphorique: la faucille prélève les avancées technologiques pour mieux frapper avec le marteau dans la foulée? L’enclume nord américaine met décidément la Suisse à rude épreuve… Au nom de l’ordre mondial et des sécurités nationales, suivez les guides!

 

L’Europe s’exporte en grande meneuse de la réglementation

La Silicon Valley, la Californie ou les Etats-Unis en général sont souvent cités comme les exemples lorsque l’on parle d’innovation et d’entrepreneuriat. Pour saisir les opportunités qui s’y créent, la Suisse a été pionnière lors de la création du réseau swissnex au tournant des années 2000, d’abord à Boston, puis à San Francisco, avant de s’implanter dans d’autres hubs tels que Bangalore, Shanghaï, Rio de Janeiro et récemment Osaka.

 

Une vingtaine d’années après cette subtile initiative helvétique, l’administration européenne a dernièrement dévoilé son intention d’ouvrir un bureau dans l’épicentre qu’est San Francisco; jusque là, louons le projet. Mais à y regarder de plus prêt, la mégalomanie fonctionnaire de la Commission vise à collaborer avec les entreprises qui sont notamment régulées par les lois européennes liées à la technologie. Pour une vitrine de l’UE, c’est une réussite. Régenter avant d’attirer, on s’assied volontairement sur une branche à moitié sciée. Que l’on ne s’inquiète, l’initiative vise à améliorer les relations entre l’UE et les États-Unis en matière de politiques technologiques, rien que cela.

 

Citons Christian Borggreen, Vice-Président et responsable du bureau Computer & Communications Industry Association (CCIA Europe): “L’Europe met l’accent sur la réglementation des technologies. C’est là que l’Europe veut se démarquer et être un leader.” C’est exquis, on en redemande. Le future directeur du bureau, Gerard de Graaf, poursuit: “La relation entre le régulateur et le régulé est toujours un peu compliquée. Un régulateur est toujours un peu comme un policier.” Les discussions entre avocats risquent d’être délicieuses, pour aboutir, l’espoir fait vivre, sur des résolutions communes aux deux blocs.

 

Dans l’intervalle, souriez, et veuillez accepter les conditions générales d’utilisation.

 

Captage du carbone atmosphérique: la grande inspiration

“L’appel à une sortie de crise sanitaire climato-compatible n’a pas été entendu.”

C’est par cette affirmation, découlant notamment des conclusions du dernier rapport du GIEC, que commence le dernier blog post de Sylvestre Huet, journaliste scientifique indépendant. Les preuves sont irréfutables, comme le démontrent les deux graphiques ci-dessous:

 

Émissions de CO2 dues à la combustion d’énergie et aux processus industriels, 1900-2021

Les émissions mondiales de CO2 provenant de la combustion d’énergie et des processus industriels ont rebondi en 2021 pour atteindre le niveau annuel le plus élevé jamais enregistré (+6% par rapport à 2020 alors que celle-ci enregistrait une baisse de plus de 5% en comparaison à 2019). A noter qu’une baisse équivalente – et par an – pendant trente ans serait nécessaire pour respecter l’accord de Paris sur le climat selon une interview de Jancovici (“Il nous faudrait un Covid tous les ans.“).

 

Variation annuelle des émissions de CO2 dues à la combustion d’énergie et aux processus industriels, 1900-2021

 

La guerre en Ukraine rajoute une pression supplémentaire sur le prix du gaz qui avait déjà commencé à exploser. Conséquence: un report de la production d’électricité vers du charbon, encore plus émissif en CO2, notamment aux Etats-Unis et en Europe.

 

Pour rajouter une énième “première” ou “record” (selon), l’Antarctique est également passée en mode printemps à la vitesse grand V avec des températures enregistrées de +38°C par rapport à la moyenne…

 

 

Alors malgré ces nouvelles alarmistes, intéressons-nous aujourd’hui à une technologie en plein essor, à savoir le captage direct de CO2 atmosphérique. La société suisse Climeworks faisait notamment la une de WIRED avec l’inauguration de son usine Orca en Islande. Les chiffres ne font cependant pas encore rêver: une belle dépense énergétique pour retirer l’équivalent de 4’000 tones de CO2 présent dans l’air, soit l’équivalent de moins de 1’000 voitures par an. Une broutille, mais l’entreprise promet évidemment des progrès futurs, pendant que les journalistes du monde entier prennent l’avion pour aller voir cette première usine.

 

Moins médiatisée mais innovante à souhait, l’américaine Verdox annonçait un tour de financement de $80mio pour développer son système de capture électrochimique pour éliminer le CO2 de l’atmosphère ainsi que des sources d’émissions industrielles. Affaire à suivre.

 

Récemment, The Conversation publiait un entretien de l’un des pères du mouvement de captage de CO2 atmosphérique, le Prof. Klaus Lackner, Directeur du Centre pour les Emissions Négatives de l’Université de l’Etat de l’Arizona.

 

“Il y a tellement de CO2 dans l’atmosphère aujourd’hui que la plupart des scénarios montrent que l’arrêt des émissions ne suffira pas à stabiliser le climat – l’humanité devra également éliminer le CO2 présent dans l’air.”

 

Comme il le souligne, toutes les émissions ne proviennent pas de sources importantes telles que les centrales électriques ou les usines (où le CO2 peut être directement capté à la sortie). L’autre moitié des émissions, celles des voitures, des avions, de l’agriculture, des systèmes de chauffage, etc. doit aussi être prise en compte. Cela signifie qu’il faut extraire le CO2 de l’air et cela n’est pas chose facile car les molécule sont très diluées dans l’air bien que leur concentration augmente depuis de nombreuses années. Cependant, comme ce gaz se mélange rapidement dans l’air, peu importe depuis où on le retire.

 

Ce qui est une bonne nouvelle: on peut l’extraire près de là où on compte le stocker. Par contre, il est nécessaire de réfléchir à une solution à long terme pour éviter de cacher cela au chat pendant seulement quelques dizaines d’années et laisser un cadeau empoisonné aux prochaines générations (si le gaz venait à se désorber des roches dans cinquante ans p.ex.).

 

National Academy of Sciences

 

Les défis de la recherche se portent principalement sur deux gros postes énergivores, à savoir le fonctionnement des ventilateurs (pour aspirer l’air) ainsi que le chauffage pour extraire le CO2. De plus, quid du stockage? L’attention se porte sur une forme de séquestration sous forme de roche. En effet, le CO2 est un acide et certaines roches sont basiques. Lorsque le CO2 réagit avec des minéraux riches en calcium, il forme des carbonates solides. En minéralisant le CO2 de cette manière, il est possible de le stocker de façon permanente et en quantité quasi illimitée. Il faut également considérer d’utiliser le CO2 pour “boucler la boucle” du cycle carbone, ce qui signifie que le CO2 est capturé et réutilisé à nouveau pour éviter de produire davantage de “nouveau” CO2 (comme p.ex. produire des carburant synthétiques).

 

Prof. Lackner aborde aussi brièvement les dynamiques du marché:

 

“Ce dont vous avez vraiment besoin, c’est d’un cadre réglementaire qui stipule que nous exigeons que le CO2 soit éliminé, et alors le marché passera de la capture de kilotonnes de CO2 aujourd’hui à la capture de gigatonnes de CO2.”

 

Il suggère entre l’autre l’idée de compensation 1:1 entre ce qui est extrait et ce qui est séquestré: pourquoi ne pas s’assurer que la balance soit respectée? Si tout le carbone est certifié dès qu’il sort du sol, il est plus difficile de tricher et chaque entreprise extractrice est tenue de rendre des comptes. Autre signal encourageant est que certaines entreprises telles que Microsoft ou Stripe sont disposées à acheter des crédits carbone et des certificats pour éliminer le CO2 à des prix assez élevés (ou serait-ce du greenwashing pure et simple?).

 

D’ici-là, polluons! Nous savons si bien le faire.

 

 

Quand le capital risque est en crise et le système des start-ups dysfonctionnel

Cette semaine, le responsable de l’incubateur technologique Fongit basé à Genève, James Miners, publiait un article sur Linkedin pour faire l’apologie des start-ups “deep tech“. Pour mieux comprendre ce domaine, citons l’exemple de The Engine sis à Boston aux Etats-Unis qui se présente comme une organisation qui “soutient les fondateurs qui résolvent les plus grands problèmes du monde grâce à la convergence de la science de pointe, de l’ingénierie et du leadership.” En gros: des problèmes durs à résoudre qui nécessitent de gros efforts de recherche, d’importants moyens financiers et un de longues et fastidieuses années de développement avant une potentielle commercialisation. Les exemples dans les secteurs de l’énergie, du médical, de la construction, etc. sont légion.

 

L’auteur de l’article Jeffrey Funk s’intéresse néanmoins plus aux investissements dans certaines jeunes pousses et commence par un constat flagrant: malgré l’énorme attention et les colossaux investissements dont ont bénéficié des start-ups de la Silicon Valley, celles-ci n’ont fait que perdre de l’argent. Prenons Uber qui n’a jamais réussi à faire des bénéfices et dont les pertes cumulées dépassent les 25 milliards de dollars. Que se passe-t-il? Quelles sont les raisons derrière ces désastres financiers? Les avancées technologiques telles que l’IA, l’IoT, la blockchain, etc. ne devaient-elles pas occasionner une création de richesses si importante que nous serions même en mesure de soutenir les chômeurs avec un revenu de base universel?

 

A y regarder de plus près, le comportement des VCs américains semble conforter le constat que nous serions en train de vivre une période extrêmement innovante: leur financement a établi un record sur cinq ans entre 2015 et 2019, avec des investissements dans une grande variété de secteurs, et 2020 a établi un nouveau record sur une seule année.

 

L’analyse de l’auteur paraît sans appel: les énormes pertes subies par Uber, Lyft, WeWork, Pinterest et Snapchat (plus de 50% des revenus annuels!) ne sont que la partie émergée de l’iceberg. En effet, plus de 90% des “licornes” américaines, c’est-à-dire des start-ups évaluées à un milliard de dollars ou plus et détenues à titre privé (avant leur introduction en bourse), ont perdu de l’argent en 2019 ou 2020, alors que plus de la moitié d’entre elles ont été fondées il y a plus de dix ans. A noter qu’une tendance similaire s’observe pour les start-ups européennes, indiennes et chinoises.

 

De même, des analyses récentes des sociétés VC montrent que les rendements des investissements de capital risque ont à peine dépassé ceux des marchés boursiers publics au cours des 25 dernières années, et leurs pertes actuelles laissent penser que les rendements vont encore baisser. La faible rentabilité des start-ups semble être le reflet de tendances plus larges dans l’économie: ralentissement de la croissance de la productivité documenté par Robert Gordon, stagnation de l’innovation observée par Tyler Cowen, baisse de la productivité de la recherche notamment discutée par Anne Marie Knott, baisse de l’impact de la recherche des prix Nobel récemment constatée par Patrick Collinson et Michael Nielsen.

 

L’article est constitué en 5 parties dont les messages sont les suivants:

  • Les preuves de la faiblesse des rendements des investissements en capital-risque sur le marché actuel sont nombreuses (pour les sociétés créées entre 2000 et 2020). Malgré le risque associés à ces investissements, les retours excèdent rarement ceux des indices boursiers (sauf pour une poignée de VCs). Ceci peut s’expliquer de plusieurs façons: 1) on assiste à plus d’acquisitions que d’entrées en bourse et 2) une grande majorité des entreprises n’est pas profitable lors de leurs entrée en bourse. Un cercle vicieux se met en place et les prix de rachat de sociétés baissent. Des investissements “arrosoirs” qui rappellent une forme de loterie…

 

  • Les performances des start-ups fondées il y a vingt à cinquante ans (pre 2000), à une époque où la plupart des start-ups devenaient rapidement rentables et où les plus prospères atteignaient rapidement les cent premières capitalisations boursières, ne se maintiennent pas pour celles des cadettes plus récentes.

 

 

  • En comparant ces start-ups plus anciennes et plus prospères à l’ensemble actuel des licornes de la Silicon Valley, les start-ups les plus prospères d’aujourd’hui n’arrivent pas à la cheville de leurs aînées. Les performances réelles de ces licornes, tant avant qu’après l’étape de sortie du capital risque, contrastent fortement avec les succès financiers de la période précédente. En 2019, seules 6/73 licornes étaient rentables, tandis que pour 2020, 7/70 l’étaient et celles qui perdent de l’argent perdent un gros pourcentage de leurs revenus. De plus, il semble qu’il y ait peu de raisons de croire que ces jeunes pousses non rentables seront un jour en mesure de surmonter leurs pertes. Ce constat de répète dans d’autres pays comme l’Inde ou la Chine.

 

  • Les raisons pour lesquelles les start-ups d’aujourd’hui réussissent moins bien que celles des générations précédentes:
    1. Loi des rendements décroissants: à mesure que le montant des investissements de capital risque sur le marché des start-ups a augmenté, une plus grande proportion de ces fonds a nécessairement été consacrée à des opportunités plus faibles; la rentabilité moyenne de ces investissements a donc diminué.
    2. Diminution du nombre de start-ups fondées après 2004 qui ont atteint une capitalisation boursière élevée (depuis 2000, seules Facebook et Tesla figurent parmi les cent entreprises les mieux valorisées de 2020; précisons au passage que Tesla ne représentait que 2% du marché automobile US en 2019 et qu’elle a atteint son seuil de rentabilité cette même année en profitant largement de subsides).
    3. Tendance à l’acquisition par les géants du numériques (“FAAMNG” Facebook, Amazon, Apple, Microsoft, Netflix, Google), ce qui pointe du doigt la relative proximité des start-ups avec une forme ou une autre des réseaux sociaux, à défaut d’impliquer des concepts, clients et applications véritablement nouveaux.
    4. Fondamentalement, il y a moins de technologies radicalement nouvelles à exploiter. La croissance exponentielle de la technologie informatique à la fin du XXe siècle a permis aux start-ups de l’époque de fixer des prix élevés et de s’assurer ainsi des bénéfices importants; cependant, les start-ups d’aujourd’hui ne peuvent pas compter sur des circonstances technologiques aussi favorables, notamment parce que le coût par transistor n’a pas sensiblement diminué depuis 2014 (voir la loi de Moore).

En bref, les jeunes entreprises d’aujourd’hui ont ciblé des industries à faible valeur ajoutée technologique et hautement réglementées avec une stratégie commerciale qui, en fin de compte, va à l’encontre du but recherché: lever des capitaux pour subventionner une croissance rapide et s’assurer une position concurrentielle sur le marché en sous-facturant les consommateurs.

 

  • Propositions sur ce qui peut être fait pour régler cette situation. Des changements majeurs sont nécessaires non seulement de la part des investisseurs en capital risque (souvent assimilés à des chasseurs de tendances mal informés), mais aussi dans les universités et écoles de commerce américaines (l’une des grandes erreurs des écoles de commerce serait de privilégier le modèle économique à la technologie). Blamer “l’uberisation” du monde du travail est un peu vain: si les gens travaillent encore pour ce genre de services, c’est aussi car il n’existe pas forcément d’alternatives. Les grands avantages de productivité nécessaires ne peuvent être obtenus qu’en développant des technologies de pointe, comme les circuits intégrés, les lasers, le stockage magnétique et les fibres optiques des époques précédentes.

 

En guise de conclusion, Funk déplore le manque d’accent mis sur le développement de technologies dites révolutionnaires qui permettraient une vraie création de valeur afin d’assurer une prospérité basée sur la science et non un modèle d’affaire (less hype!). Il déplore le chemin que la science a pris, en valorisant plus le nombre de citations que les avancées des sciences fondamentales et s’en enfermant dans une sur-spécialisation. L’aveuglement et le manque d’expertise des VCs est également mis en lumière. L’appel est lancé: revenir à une valorisation des sciences de base et appliquées et à leur commercialisation, surtout aux Etats-Unis.

 

Traditionnellement, la Suisse a toujours favorisé cette approche. Cela lui a valu des critiques car elle n’est pas le berceau de nombreuses licornes. Mais est-ce la voie qu’elle doit suivre? Cela contribuera-t-il à une création de valeur (connaissances, emplois, etc.) qui garantira sa réussite et, comme aime à le souligner Xavier Comtesse, sa résilience?

 

 

Source: American Affairs Journal

 

 

Les secrets cachés du microbiote

Récemment, à Boston, une organisation à but non lucratif annonçait l’ouverture d’un centre dédié à la collecte de selles de personne en bonne santé. Pardon? Tout à fait, (vous avez bien lu), OpenBiome transforme, congèle, puis envoie ces excréments à des hôpitaux à travers le monde pour des transplantations fécales. Ces bactériothérapies visent à restaurer l’écologie microbienne du côlon d’un patient en y réintroduisant une flore bactérienne saine. A ce jour, plus de six mille échantillons ont déjà été envoyés obtenant un taux de guérison de 85% pour certaines maladies. Une façon de catalyser la recherche sur le microbiote humain…

Le microbiote? Reprenons tout d’abord la définition que nous offre Wikipedia:

Le microbiote est l’ensemble des micro-organismes (bactéries, levures, champignons, protistes, virus) vivant dans un environnement spécifique (appelé microbiome) chez un hôte (animal ou végétal) ou une matière (d’origine animale ou végétale). Par exemple, le microbiote intestinal, couramment appelé «flore intestinale», est constitué de l’ensemble des micro-organismes vivant dans l’intestin, soit, chez l’Humain, environ 100 000 milliards. Chaque humain abrite 200 à 250 espèces.

Quand on pense que les microbes constituent entre 1 et 3% de notre poids total, il y a de quoi y porter plus d’attention. Nos parents sont à l’origine de la plupart des microbes que nous abritons, le reste provenant de l’environnement. En moyenne, notre microbiote est mature à l’âge de trois ans, et comme tout autre écosystèmes matures, celui de notre intestin tend à résister à toute invasion par des nouveaux arrivants.

Une certaine diversité est souvent favorisée car un écosystème diversifié permet généralement une plus grande résilience. Il s’avère que les civilisations occidentales ont appauvri celle de leur microbiote, par rapport à des sociétés moins industrialisées. Par quels biais? On peut notamment mentionner les antibiotiques, un régime de nourriture transformée, des toxines environnementales ainsi qu’une moindre pression microbienne dans la vie de tous les jours, ce qui pourrait expliquer une proportion plus importante de maladies chroniques comme les allergies, l’asthme, le diabète ou encore les complications cardiovasculaires.

Dans le podcast Signal, Dr. Martin Blaser, directeur du programme dédié au microbiote à l’Université de New York décrit l’humain de la façon suivante: «nous sommes une constellation de nos microbes […]; ils nous aident à la digestion, produisent des vitamines, entraînent notre système immunitaire.» En résumé, ils influencent notre organisme et notre santé au-delà de ce nous pouvons à l’heure expliquer.

L’intérêt des spécialistes est renouvelé depuis le succès de ce type de traitement chez des patients souffrant de problèmes internes suite à une surexposition aux antibiotiques, qui agissent comme un perturbateur de flore intestinal. Pour reprendre les termes du Professeur Lu du MIT, l’utilisation des antibiotiques «équivaut à un bombardement des bactéries qui vivent en nous». A titre d’exemple, une maladie de l’appareil digestif communément appelé C.diff. (Clostridium difficile), qui provoque la mort de 30 000 personnes chaque année aux Etats-Unis, survient souvent après une forte dose prolongée d’antibiotiques.

L’American Gut Project, qui vise à séquencer des communautés de dizaines de milliers d’Américains, représente l’effort le plus ambitieux jamais entrepris afin d’aider les chercheurs à dévoiler des corrélations entre les styles de vie des populations, leur régime, leur situation de santé ainsi que la composition microbienne de leur communauté. On citera également le Human Microbiome Project, qui s’efforce d’appliquer les dernière avancées technologiques afin d’analyser du matériel génétique pour identifier les organismes présents dans les tissus humains. Le défi est de taille: déterminer quels sont les organismes microscopiques vivant dans chaque organe et apprendre comment rééquilibrer leur population quand cette dernière est perturbée.

Quant aux recherches médicales, de récentes études ont démontré un rapport entre des bactéries intestinales et la sclérose en plaques (elle joueraient un rôle déterminant en détournant notre système immunitaires contre nos cellules nerveuses). D’autres publications ont également établi des corrélations entre la composition de notre flore intestinale et l’efficacité d’immunothérapies contre le cancer (les patients qui ont «mieux» répondu aux traitements avaient une plus grande diversité microbienne). Par ailleurs, l’Université du Texas a récemment publié une étude sur les effets bénéfiques de traitements très ciblés lors d’inflammation de la paroi intestinale: une alternative aux antibiotiques qui annihilent massivement toutes bactéries. Enfin, à quand une transplantation fécale comme certains l’ont tenté chez eux? Certaines entreprises se spécialisent déjà dans ce créneau grâce à des gellules (en lieu et place d’une transplantation par colonoscopie), alors que d’autres proposent des thérapies de restauration du microbiote ou encore la jeune pousse GNUbiotics qui s’inspire des bienfaits du lait maternel sur le développement de la flore intestinale des nouveaux nés.

On l’aura compris, notre corps fourmille d’organismes dont l’importance est peu à peu démontrée par une multitude d’études cliniques. Plusieurs géants ne s’y sont pas trompés, comme l’atteste le récent partenariat entre Entérome et Nestlé. Et pléthore d’entreprises proposent désormais des produits plus connus sous les noms de prébiotiques (nourriture à même d’encourager la croissance de «bonnes» bactéries déjà présentes) ou encore probiotiques (population de microbes bénéfiques au corps humain). Affaire à suivre!

Attirer et promouvoir l’innovation: l’exemple du District de Seaport à Boston

The Hub. De l’autre côté de l’Atlantique, seule une poignée d’initiés connaît ce surnom de Boston. Pourtant, la ville a fait sien cet état d’esprit qui vise à créer un centre où «cela se passe».

Qu’est-ce que cela signifie? A l’instar des idées qui ne se commandent pas mais se provoquent, les collaborations sont le fruit de rencontres dans des lieux où bouillonne un certain esprit de l’innovation. Les cadors de cette dernière ont bien cerné leur nécessité et ont favorisé l’émergence et la consolidation de communautés qui partagent un but commun: avancer, innover et trouver l’inspiration dans les projets ayant vu le jour à proximité. Il faut d’abord commencer local pour cultiver le côté humain.

A Boston, le District de l’Innovation de Seaport est l’exemple flamboyant d’un succès made in USA. Cette ancienne zone portuaire a transformé son épicentre: la Ville a converti un ancien bâtiment des docks voisins, une impressionnante bâtisse de plusieurs centaines de mètres de long, en un centre qui vibre au rythme d’une ruche humaine. Des poids lourds passent toujours sur la route, mais pour combien de temps encore? Un terrain vague adjacent est déjà entouré de barrières annonçant la construction imminente de laboratoires de recherche et de parcelles dédiées aux entreprises. La mue est en cours, et au pas de course!

A l’occasion d’un récent sommet à propos des défis posés par la transformation numérique, John Barros, qui supervise le développement économique de la ville de Boston, énumère certaines priorités afin de construire de telles plaques tournantes:

  1. Trouver de la place – comprendre: repenser la ville afin d’assigner des lieux spécifiques à un but précis.
  2. Investir dans les infrastructures, par exemple en connectant certains quartiers avec l’aéroport, les gares, downtown, les principales voies de transport, etc. Ce master planning de la ville est capital.
  3. Assurer une visibilité et une prédictibilité pour les investisseurs qui demandent une vision à long terme afin de garantir leurs placements et minimiser leur prise de risques.

Une des entreprises sises dans le quartier, Autodesk, société d’édition de logiciels de création et de contenu numérique, participe activement au renforcement des activités de la communauté. Une de ses responsables, Sarah Hodges, souligne plusieurs points, dont la nécessité d’être proche des designers, des programmeurs et des pôles de formation. «More than ever, we have to “go local”» affirme-t-elle. «Nous devons cultiver le plus de relations possibles, nous connecter à l’écosystème environnant afin de participer activement à l’essor de la communauté.» Entretenir une certaine diversité est un élément clé afin de favoriser des partenariats à valeur ajoutée. Le but à court terme est simple: apprendre, observer, écouter pour mieux comprendre. A plus long terme, l’objectif est d’entretenir les relations et de mieux identifier quelles sont les pistes à privilégier pour le développement des produits et services. Des symbioses qui ont également poussé le fameux accélérateur MassChallenge à y installer ses locaux, tout comme General Electrics qui y a déplacé ses quartiers généraux.

En plus des initiatives mentionnées plus haut, la Ville a également participé au lancement d’un startup escalator en robotique, MassRobotics. Conscient des lourds besoins financiers de startups dans le domaine, un outillage et des équipements importants étant nécessaires pour créer un produit fini (à l’inverse des logiciels, qui peuvent constamment être modifiés et mis à jour), ce centre a bénéficié d’un arrangement attractif en termes d’espaces locatifs: la Ville leur a alloué d’importantes surfaces industrielles pour grandir et se développer à des conditions adaptées au niveau des loyers et de l’accessibilité des lieux. La mise en commun du matériel et la mutualisation des ressources réduisent les coûts. Cela contribue à attirer encore plus d’acteurs et permet la naissance d’un pôle de compétitivité.

Cette intense activité démontre une fois encore l’engagement des autorités et renforce son positionnement en tant que cité tournée vers l’avenir. La Ville permet à l’innovation d’avoir lieu : elle la supervise sans pour autant la contrôler au point de l’étouffer. Pour faire simple, elle lui fait confiance et garde les canaux ouverts afin que l’information circule. Toutefois, et cela est compréhensible, le bureau du maire exige un certain niveau de responsabilité et de transparence: utilisation efficace de l’énergie, incitation des acteurs à être pro-actif au sein de la communauté, à participer, à contribuer à son essor, etc. Citons aussi la mise à niveau assez spectaculaire des politiques, qui ont légiféré sur les tests de voitures autonomes dans le quartier, une quasi exception au niveau national. La municipalité saisit aussi l’opportunité d’intégrer les innovations dans ses propres projets, comme dans les écoles par exemple, avec 2 milliards de dollars qui serviront à leur rénovation avec des technologies dernier cri. Enfin, Boston met en place des conditions cadre favorables à la transition lab-to-market des brevets générés dans les institutions académiques.

Plus que jamais, l’émergence de «hot spots» de l’innovation est un merveilleux exemple de mise en commun des forces politiques et entrepreneuriales. Créatrices d’emplois et génératrices de deniers publics, ces villes américaines ne s’y trompent pas. Pour répondre à Tom Ryden de MassRobotics, qui soutient que «l’innovation ne commence pas à la frontière, [et qu’] il est ardu de la contenir», ces districts de l’innovation sont un fabuleux noyau ardent de création de valeur au sens large.

Intelligence artificielle: Hype, Trend ou Game Changer? (partie 4)

Le 17 novembre dernier à Zurich, une conférence de presse annonçait le lancement de la Fondation MindFire. Son but: «free the brain code» comme l’annonçait son président Pascal Kaufmann. Alors, à quand un organisme intelligent qui saura allier corps, esprit et cerveau en une seule et unique entité?

C’est un mariage qui prend de plus en plus forme. Après des débuts collaboratifs, la neuroscience et le monde de l’intelligence artificielle (IA) se sont graduellement séparés, pour mieux se retrouver 30 ans plus tard. Un récent rapport rédigé par Demis Hassabis, le fondateur de DeepMind, explique que les deux domaines se doivent de collaborer plus étroitement afin de de favoriser l’émergence d’avancées décisives. Il cite deux raisons principales. La première: les neurosciences sont une riche source d’inspiration pour de nouveaux types d’algorithmes et d’architectures de réseaux qui peuvent être indépendants ou complémentaires aux méthodes basées sur les mathématiques et la logique qui ont dominé l’approche traditionnelle de l’IA. La seconde: les neurosciences peuvent apporter une validation des techniques IA existantes en confirmant si celles-ci reproduisent correctement des fonctionnements propres à ceux du cerveau. A l’inverse, la recherche en IA peut apporter sa pierre à l’édifice des neurosciences en formalisant des concepts en un langage qui offriront ensuite la possibilité de tester l’intelligence d’un système. On le comprend donc bien: ces champs de recherche ont beaucoup à s’apporter l’un à l’autre.

Dans un entretien avec la revue The Verge, Hassabis s’étend également sur le concept d’«embodied cognition», qui est la base des travaux de DeepMind. Selon lui, cela signifie «qu’un système doit être en mesure de construire sa propre connaissance à partir de principes premiers, tels que ses flux sensoriels et moteurs, et ensuite de créer une connaissance abstraite.» Toutefois, la majeure partie des algorithmes ont suivi la voie de la logique, à savoir que l’IA classique a bien fonctionnée et fait toujours ses preuves lorsque les conditions sont bien définies et que l’algorithme peut se baser sur une marche à suivre précise. Naturellement, ces systèmes spécialisés sont plus faciles à coder. Et la puissance de calcul, combinée à la résilience de la répétition des ordinateurs, sera toujours supérieure aux capacités des êtres humains. Malgré tout, lorsque l’on se penche sur leur habileté à créer des connexions entre différents domaine, ou encore à découvrir de nouvelles choses, innover, créer, seul un système avec une approche plus générale pourra briller à ces exercices en question.

Poursuivant cette réflexion, Pulkit Arawal, informaticien à l’Université de Californie à Berkeley traite dans un article de Quanta Magazine de la notion de curiosité. Il s’y réfère comme «une récompense définie par un agent lui-même afin que ce dernier puisse explorer le monde qui l’entoure.» En psychologie cognitive, il s’agit d’une curiosité dite intrinsèque, par rapport à une motivation externe. Par exemple, en reinforcement learning, une fonction dite de récompense permet d’optimiser une stratégie grâce à la répétition; les bonus et malus de la fonction sont des motivations externes. Pour tout un chacun, c’est cette envie qui pousse à découvrir ce qui n’a pas encore été dévoilé, ce qui est juste hors de portée, afin de savoir ce qui va se passer. Le co-directeur du laboratoire d’IA de Berkeley, Trevor Darrell, insiste sur l’importance d’inculquer cette composante aux algorithmes de machine learning en posant la question suivante: «comment construire une machine qui saura résoudre des tâches indépendamment?» Idéalement, elle n’aura pas besoin d’agent extérieur pour lui dire si telle action est bonne ou mauvaise. Les chercheurs se sont notamment inspirés des comportements d’enfants, dont la curiosité est motivée par ce qu’il ne connaissent pas et qui les surprend.

Toutes ces avancées le démontrent bien: la collaboration entre ces deux spécialités est un cercle vertueux. Aux chercheurs désormais de la faire briller!

Intelligence artificielle: Hype, Trend ou Game Changer? (partie 3)

Rassurons-nous, les robots ne sont pas encore en mesure de rivaliser avec l’humain, du moins pour voir, écouter, sentir, parler, apprendre, ecrire, lire, trouver, découvrir, interpréter. Toutefois, les algorithmes sont d’excellents cerveaux: quand l’élève dépassera-t-il le maître?

A ce jour, une des fonctions les plus humaines, et des plus nécessaires à notre développement, est le sommeil. Parfois cryptiques, les spécialistes s’entendent sur le fait que celui-ci est d’une importance capitale afin de faire le tri dans les informations enregistrées en phase d’éveil: on laisse les événements de moindre intérêt de côté et on construit ses expériences et la compréhension du monde sur le renforcement d’autres de plus grande ampleur. Cela permet notamment de «faire de la place». Aussi, il est encore ardu d’expliquer pourquoi un expert des techniques de mnémotechnique arrive à oublier où il a mis ses clés.

L’approche de la mémoire et de l’oubli est traitée très différemment lorsque l’on considère les robots. En effet, les algorithmes de machine learning (ML) ont encore passablement de mal à déterminer quand garder une vieille information ou quand s’en débarrasser si elle n’est plus d’actualité. Comme le montre cet article de Futurism.com, comprendre comment nos cerveaux décident quelles informations valent la peine d’être retenues et quelles autres sont bonnes à être oubliées est important afin de créer une meilleure intelligence artificielle (IA). Naftali Tishby, informaticien et neuroscientifique à l’Université Hébraïque de Jérusalem insiste que «la part la plus importante de l’apprentissage est l’oubli.» Tout comme les humains, l’IA devrait idéalement se souvenir en premier lieu d’informations importantes et utiles, tout en oubliant les connaissances de moindre importance et tout simplement non pertinentes. Mais comment différencier les bons signaux des mauvais? Les cerveaux adultes, avec les trilliards de connexions reliant leurs 80 à 90 milliards de neurones, s’acharne à cette tâche à chaque instant, alors que les réseaux neuronaux sont sujets à «’oubli catastrophique» en effaçant une ancienne configuration au profit d’une nouvelle qui accomplit une nouvelle tâche.

Avec le progrès technologique galopant, on se rapproche de plus en plus de ces interrogations fondamentales qui apporteront peut-être un jour des éléments de réponses quant aux mécanismes d’apprentissage et d’intelligence. Pour une machine, rappelons-le, déterminer ce qui est pertinent de ce qui ne l’est pas devra également inclure des facteurs liés à l’éthique, au droit et à la vie privée. Lui enseigner cette forme d’humanité anime de nombreux chercheurs et entrepreneurs, dont la startup du MIT iSee qui s’inspire de la science cognitive pour donner aux machines une forme de bon sens ainsi que la capacité de rapidement gérer de nouvelles situations. En effet, leur co-fondateur explique «qu’actuellement, l’IA est principalement guidée par les données et rencontre donc des difficultés à comprendre le bon sens; […] mais on ne peut pas avoir un set de données qui inclut le monde dans son entièreté.»

Alors qu’on tente d’inculquer une forme d’oubli aux algorithmes, Google se focalise déjà sur la prochaine étape qui a pour but d’apprendre aux algorithmes de ML à créer d’autres algorithmes de ML. Il s’agit du projet AutoML qui s’inscrit dans une plus vaste vision de démocratisation de l’utilisation des techniques de l’IA. Comme le souligne Remo Storni de Facebook: «l’ancien paradigme était: ‘ML + données + calcul; le nouveau est plutôt ‘données + 100  x calcul». Ce qui revient à dire que l’on se base moins sur l’expertise des ingénieurs que sur la force brute des ordinateurs en termes de puissance de calcul. En facilitant l’accès à ces techniques computationnelles et en multipliant les utilisations possibles, le monde de l’IA profitera à terme de ces efforts. En effet, plus de projets généreront plus de données qui permettront d’optimiser encore davantage les algorithmes et les rendront encore plus intelligents. On comprend dès lors l’intérêt des géants du secteur à offrir des offres de services dans le «cloud» où tous ces algorithmes traitent de faramineux amas de données. A quand le moment où les ordinateurs proposeront eux-mêmes des algorithmes aux humains? Selon le chercheur Renato Negrinho de l’Université Carnegie Mellon: «il s’agit juste d’une question de quand».

Intelligence artificielle: Hype, Trend ou Game Changer? (partie 2)

Au cours de l’année 2016, la plateforme CB Insights indique 658 transactions dans le domaine de l’intelligence artificielle (IA) pour des montants totaux de plus de 5 milliards de dollars. De quoi donner le vertige et confirmer les ambitions du secteur: innovation, exponentielle, disruption. Toutefois, où se situe-t-on dans la transition et l’implémentation de l’IA?

Pour ne citer que ce géant, Google annonçait dernièrement le déploiement de l’IA dans une armada de gadgets: smartphone, écouteurs pour la traduction instantanée ou encore appareil photo qui se déclenche s’il détecte un visage familier. Ces avancées ancrent dans le réel l’utilisation de cette technologie «plateforme», qui peut être appliquée dans quasiment n’importe quel domaine. Un récent rapport publié par McKinsey propose six caractéristiques définissant les «early AI adopters»:

Une maturité digitale: les entreprises qui sont montées tôt dans le train de l’IA se situent sur le devant de la scène et ont développé une large expertise dans ce domaine, leur conférant ainsi un avantage certain sur leurs concurrents.

Un déploiement au cœur: l’IA est mise en pratique au centre des activités de l’entreprise et de ses compétences intrinsèques (développement de produits, service client, etc.).

Une technologie plateforme: l’IA est déployée sous de nombreuses formes et concerne tout les aspects de l’organisation.

Une perception positive: les innovations liées à l’IA sont sources de revenus, accroissent la productivité et ne sont pas seulement perçues comme une manière de réduire les coûts.

Une taille suffisante: les entreprises plus grandes peuvent se permettre d’investir plus massivement que les plus modestes, ce qui renforce le fossé qui les sépare.

Le soutien des dirigeants: l’adoption de l’IA est défendue aux plus haut niveaux de management de l’entreprise.

Pour donner une perspective plus large, on se plaît à rappeler la loi d’Amara: «on tend à surestimer l’effet d’une technologie à court terme et à sous-estimer ses effets à long terme.» Il faut cependant se souvenir que, comme le rappelle Rodney Brooks du MIT, «quasiment toutes les innovations en robotique et en IA prennent bien plus de temps à être véritablement mises en pratique que ce que les personnes extérieurs à ce milieu ne l’imaginent.»

Les données, un enjeu majeur

Quelques exemples permettent d’illustrer les points ci-dessus: ces cinq dernières années, les dix plus grandes groupes de la tech ont acquis cinquante entreprises d’IA. Google a été parmi les premiers à racheter des jeunes pousses, par exemple DeepMind – 500 millions de dollars en 2014 – pour accélérer ses propres recherches. C’est désormais un des principaux acteurs dans le secteur. En parallèle de ces activités, Google a également lancé une nouvelle unité d’éthique chargée de fera de la recherche autour de six thèmes clé, dont la protection des données, la transparence, l’inclusion ou encore l’égalité face à l’impact économique engendré. Par ailleurs, en s’offrant Evi Technologies en 2013, Amazon a grandement contribué au développement de son assistante virtuelle Alexa. De son côté, Apple a récemment mis le turbo dans ses activités de fusion et acquisition, ce qui n’est pas passé inaperçu. Et Intel, qui a repris des entreprises AI dans le hardware telles que Movidius ou encore Nervana Systems, n’est pas en reste.

Avec l’accroissement des données disponibles – une voiture connectée en génère 25 gigabytes par heure, et 90% des véhicules seront connectés d’ici 2020–, des systèmes plus performants et plus efficaces sont nécessaires pour faire face à «l’amnésie» actuelle des entreprises. En effet, l’écart entre les données recueillies et celles qui sont traitées ne fait que s’accroître. L’interprétation de cette masse sera la clé du succès des entreprises de demain.

Intelligence artificielle: Hype, Trend ou Game Changer? (partie 1)

On excusera ces anglicismes, qui sont inhérents au domaine. Ils ont d’ailleurs été partagés par les co-fondateurs de SwissCognitive lors d’une récente table ronde. Ce «WEF de l’intelligence artificielle» était de passage à Boston afin de promouvoir l’excellence de la Suisse dans ce domaine.

Puisque la puissance de calcul de nos ordinateurs a été démultipliée, notamment grâce à la loi de Moore et aux fameux processeurs NVIDIA, on lit désormais que les Google, Facebook, Microsoft, IBM ou encore Amazon de ce monde s’aguerrissent au machine learning. Malgré la fréquence d’utilisation de ce mot à la mode, reprenons les définitions que d’aucuns qualifieront de trop simplistes.

Avec le machine learning, il s’agit, d’une certaine façon, d’enseigner aux ordinateurs à apprendre, voire de leur montrer comment apprendre par eux-mêmes. Descendant dans les catégories, vient ensuite le supervised learning, qui s’applique à un ensemble de données labelisées, par différenciation au unsupervised learning. Une autre technique computationnelle, appelée deep learning, implique l’utilisation d’un très large réseau neuronal («neuron») afin de reconnaître des structures dans un grand nombre de données. De temps à autre, surtout dans le milieu des véhicules autonomes, on mentionne aussi le reinforcement learning: pendant la phase d’entraînement, un logiciel de contrôle répète une tâche un très grand nombre de fois et modifie légèrement ses instructions à chaque essai; il met à jour ses valeurs à mesure que le système apprend.

Ces avancées représentent un pas de géant par rapport aux désavantages d’une intelligence artificielle (IA) «basique» qui requiert un nombre important de règles à implémenter dans le code informatique et «qui montre rapidement des faiblesses lorsque l’on travaille avec des cas aux limites», comme le rappelle Phil Greenwald des Laboratoires de l’Innovation d’Harvard.

Vers une intelligence inexplicable

On comprendra que l’on est entré dans une phase où la machine se programme par elle-même: on pourrait donc parler d’une intelligence augmentée! Et cela peut donner quelques frissons, d’excitation quand on pense aux fantastiques opportunités que cela offre, mais aussi de peur si l’on pense à des scénarios post-apocalyptiques robocopiens. Une des facettes intrigantes du fonctionnement de tels systèmes est qu’il n’y a pas de moyen clair pour les designer afin qu’ils puissent toujours expliquer la logique qui les a mené aux résultats. A l’instar des comportements humains, qui sont souvent impossibles à expliquer en détails, il ne sera peut-être pas possible de comprendre pleinement le fonctionnement de cette forme d’intelligence computationnelle. Comme le souligne le Prof. Clune de l’Université du Wyoming: «c’est peut-être la part ‘naturelle’ de l’intelligence. Si seulement une partie est sujette à une explication rationnelle, une partie est peut-être uniquement instinctive, ou subconsciente, ou insondable.» Certains experts pensent même que l’intelligence pourrait plus facilement émerger si les machines s’inspiraient de la biologie et apprenaient par le biais de l’observation et de l’expérience. D’autres, comme les chercheurs du MIT derrière l’idée de la «Machine Morale», pensent qu’un système qui agrège des points de vue moraux de différentes personnes «pourrait déboucher sur un système moralement meilleur que celui d’un seul individu.» Le professeur de droit James Grimmelmann de Cornell suggère même que «cela rend l’IA plus ou moins éthique, au même titre qu’un grand nombre de personne est éthique ou ne l’est pas».

Mais revenons à des considérations plus pratiques. Alors qu’IBM vient d’investir 240 millions de dollars dans un partenariat avec le MIT pour continuer ses recherches en IA, les récentes critiques à l’encontre de son outil Watson offrent un exemple criant de la difficulté à mettre l’IA au service de la santé. Dans une profonde analyse, le projet STAT du Boston Globe relève le côté boîte noire de la technologie: «actuellement, IBM Watson fournit des preuves à l’appui des recommandations qu’il suggère, mais n’explique aucunement de quelle manière il en est venu à proposer un traitement spécifique pour un patient donné.» Des spécialistes s’insurgent contre la confiance aveugle placée dans des résultats dont les données de base n’ont pas été comprises. Dans le monde de la santé, c’est un risque tentant: gain de temps, accès à des très larges bases de données, etc. Cependant, le monde est encore à un stade où la responsabilité personnelle prime, ce qui explique pourquoi le machine learning est encore utilisé de concert avec un médecin. Mark Michalski du MGH&BWH Center for Data Science relève qu’ «il est nécessaire d’établir une relation de confiance avec cette technologie disruptive dans une industrie très conservatrice.» Katherine Andriole, professeur en radiologie à la Harvard Medical School, pose la situation: «Il se passe beaucoup plus qu’une simple perception, qu’une reconnaissance de motifs: les radiologues font appel à leurs capacités cognitives.» Cela pourrait rapidement changer. Que l’on soit averti. Un exemple helvète: retinAI qui permet d’atteindre, grâce à l’IA, le niveau de professionnalisme d’un ophtalmologue pour la détection de glaucomes ou de dégénérescence maculaire liée à l’âge.

On retiendra un énorme point positif: l’IA nous fait entrer dans une ère «orientée vers les données», ce qui, à terme, nous permettra de prendre des décisions éclairées par la forces des faits.