Les superpouvoirs de l’intelligence artificielle

Fruits d’une logique d’optimisation et de rationalisation économique, inscrits dans une approche néolibérale, les dispositifs d’intelligence artificielle sont déterminés par ceux qui savent capter et exploiter les données, c’est à dire les acteurs hégémoniques de l’informatique et de l’Internet. L’intelligence artificielle est révélatrice d’un modèle de société imposé par les acteurs les plus forts. Elle est en passe de devenir le principal déterminant de l’organisation et de la gouvernance algorithmique du monde. La possibilité de bénéficier de certaines de ses applications ne devrait pas occulter les menaces et défis liés aux nouvelles formes de pouvoirs que l’intelligence artificielle procure à ceux qui la maîtrisent et qui imposent son usage, comme l’a très bien analysé le philosophe Eric Sadin dans son ouvrage “L’ Intelligence artificielle ou l’enjeu du siècle”.*

Les capacités de l’intelligence se déclinent en différents types de pouvoirs dont le trait commun est la surveillance informatisée des personnes.

Le pouvoir prédictif qui suggère et propose, ce qui permet d’influencer et de manipuler des individus.

Le pouvoir d’énoncer la vérité et de l’imposer, ce qui exclut toute réalité autre que celle captée et déterminée par l’intelligence artificielle ainsi que toute prise en compte de ce qui n’est pas programmé.

Le pouvoir injonctif qui ordonne de faire, qui oriente les actions et comportements des individus et qui les contrôle en temps réel. Dépossédées de leur libre arbitre, les personnes sont tenues en laisse électronique et pilotées à distance. Elles deviennent les marionnettes de chair et de sang des robots informatiques.

Le pouvoir coercitif contraint et pénalise les comportements déviants par rapport à une normalité imposée par les concepteurs des dispositifs d’intelligence artificielle.

Quelle utilité sociale ?

Bien que l’intelligence artificielle s’immisce dans toutes les activités humaines, l’utilité sociale de tels systèmes est peu questionnée ou démontrée. Par ailleurs, plusieurs problèmes, qui commencent à être bien documentés existent. Ils sont essentiellement relatifs aux données et aux algorithmes utilisés. Ainsi, la perte de contrôle par l’humain de la manière dont les données sont collectées et utilisées pour les apprentissages automatiques (machine learning) introduit des biais. De plus, la non transparence des algorithmes (l’opacité des mécanismes de deep learning), l’impossibilité de les vérifier, de certifier leur innocuité, sécurité et qualité, sont des facteurs de risques. L’opacité des algorithmes est renforcée par l’impossibilité pour l’humain d’interpréter et d’expliquer ce qu’ils font et de justifier la pertinence des résultats.

La boite noire au cœur de l’impossible confiance

Les algorithmes mise en œuvre par des dispositifs d’intelligence artificielle sont développés sous forme de boite noire (secret de fabrication de leurs propriétaires), excluant de facto la possibilité pour des acteurs externes indépendants, de pouvoir vérifier et valider leur qualité et leur sécurité. Dès lors, comment éviter que de tels systèmes soient inexplicables ou incompréhensibles pour les humains ?

Comment comprendre pourquoi et comment un algorithme d’intelligence artificielle se comporte comme il le fait, prend une décision et arrive à ses résultats ? Comment éviter des prises de décisions algorithmiques automatisées non transparentes ? Comment rendre transparents les raisonnements quand les propriétés sont cachées et résultent de choix opaques ?

En fait, sans être en mesure de comprendre les logiques internes des systèmes d’intelligence artificielle, sans pouvoir vérifier et expliquer leur mode de fonctionnement, comment faire confiance aux décisions prises par de tels systèmes ?

Supprimer l’obscurité de leurs comportements internes, assurer la transparence des données et des algorithmes devrait être une condition préalable à leur usage.

Une question de responsabilité et d’engagement contraignant

Les valeurs promues par l’UNESCO sont relatives au respect, à la protection et à la promotion de la dignité humaine, des droits de l’homme et des libertés fondamentales. Elles sont également liées aux besoins de protection de l’environnement et des écosystèmes, de diversité et d’inclusion, de vivre en harmonie et en paix.

S’il est aisé d’être en faveur de tels principes fondamentaux, alors les systèmes d’intelligence artificielle devraient être conçus afin de les respecter et de les rendre effectifs. Ainsi, les concepteurs, fabricants, distributeurs de dispositifs d’intelligence artificielle, doivent s’assurer, avant leur mise à disposition et leur utilisation, qu’ils ne portent pas atteinte aux valeurs fondamentales. Ils devraient être responsables de l’innocuité, de la sûreté, de la fiabilité et de la sécurité de leurs dispositifs.

Pour qu’un développement responsable de l’intelligence artificielle soit envisageable, il faudrait qu’il existe aux niveau national et international des mécanismes qui permettent de refuser l’usage de dispositifs d’intelligence artificielle qui portent atteintes aux valeurs énoncées par l’UNESCO, de dénoncer les dérives et les préjudices engendrés et de poursuivre en justice les entités responsables.

L’impérieuse nécessité de nouveaux droits fondamentaux

Des gardes fous sont nécessaires afin de garantir :

  1. Le droit des individus à avoir des opinions et des comportements différents de ceux énoncés par une IA.
  2. La tolérance des dispositifs d’IA envers ceux et celles dont les particularités (à la marge de ce qui est défini comme normal par les concepteurs d’IA).
  3. Le droit de la liberté de l’humain de pouvoir se soustraire au pouvoir d’influence, d’orientation et de coercition de IA.
  4. Le droit à la déconnexion.
  5. Le droit de ne pas vivre sous surveillance informatisée.
  6. Le droit de la personne à savoir si elle interagit avec une intelligence artificielle (qui simule l’humain).
  7. Le droit à la transparence des prises de décisions effectuées par une intelligence artificielle.
  8. Le droit de pouvoir recourir contre une décision prise par une intelligence artificielle.

Un récit commun préfabriqué par les promoteurs et vendeurs de systèmes d’intelligence artificielle et qui promeuvent leur adoption massive pour « résoudre tous les problèmes du monde » se développe. Il est élaboré dans la continuité de l’évolution du numérique et de la plateformatisation du monde. Taillé sur mesure pour l’optimisation des intérêts de certains acteurs qui tentent de persuader qu’il n’existe pas d’autres alternatives (TINA – There is No Alternative). Toutefois, la banalisation de l’intelligence artificielle n’est pas une fatalité, la manière dont elle est conçue et utilisée non plus.

Des limites sont à poser au développement sans limite des dispositifs d’intelligence artificielle. Des contre-discours sont à opposer aux récits évoquant une « intelligence artificielle bienfaisante » et des modèles technico-économiques sont à faire vivre.

Au delà de l’espoir, un horizon, une nécessité, celle de contribuer à l’origine du futur, de participer au pouvoir de création de la Technologie et d’être acteur de la métamorphose en cours.

L’aventure ne fait que commencer …

* Eric Sadin, “L’ Intelligence artificielle ou l’enjeu du siècle”, L’échappée 2018.

 

Solange Ghernaouti

Docteur en informatique, la professeure Solange Ghernaouti dirige le Swiss Cybersecurity Advisory & Research Group (UNIL) est pionnière de l’interdisciplinarité de la sécurité numérique, experte internationale en cybersécurité et cyberdéfense. Auteure de nombreux livres et publications, elle est membre de l’Académie suisse des sciences techniques, de la Commission suisse de l’Unesco, Chevalier de la Légion d'honneur. Médaille d'or du Progrès

29 réponses à “Les superpouvoirs de l’intelligence artificielle

  1. Merci! Comme d’habitude, vous êtes totalement lucide, mais qui a encore assez de pouvoir financier et technique pour imposer le respect des droits fondamentaux des personnes humaines aux créateurs actuels de ces empires technologiques?
    Suzette Sandoz

    1. To big to fail? peut être pas… Il ne faut jamais sous-estimer le pouvoir du consommateur et le courage de certains à dire NON…
      SGH

      1. Merci pour cet article. Concernant les gardes fous? il reste encore beaucoup de travail à faire.
        Seuls quelques rares consomateurs savent réellement ce que sont les biais: c’est qu’ils y on été confrontés. Trouver l’algorithme et meme présenter sesfailles dans un programme qui n’a jamais été implémentée est possible, surtout lorsque l’on est seul face à ce grand monstre froid!
        Il n’existe qu’une seule méthode pour renverser la table de calcul biaisée.
        Bien à vous.
        NB

  2. «L’aventure ne fait que commencer …»

    Je crois au contraire qu’elle se termine.

    Les mouvements contre-culturels des années 60-70 en Californie ont déjà tenté de démocratiser la technologie. Le but était de rendre accessible au peuple les technologies réservées aux gouvernements et à l’élite de l’époque. De ces mouvements sont nées des inventions plus formidables les unes que les autres : l’ordinateur personnel, la souris, la création graphique 2D et 3D, la vidéo et l’audio numérique, les jeux électroniques, les interfaces simplifiées par système de fenêtres, la réalité virtuelle, le World Wide Web, les réseaux sociaux, le commerce en ligne, les Smart Phones et bien d’autres.

    Hors que constatons-nous après 50 ans ? Toutes ces créations, à l’origine destinées à libérer l’être humain de l’oppression technologique, sont en train de se retourner contre lui, reprises en main par les gouvernements et les élites technologiques.

    La boucle est bouclées et le grand mouvement émancipateur du début est en train de se refermer comme un piège sur ceux-là même qu’il voulait libérer.

    1. Des utopies qui se transforment en dystopies …
      Une aventure se termine, une autre commence, nous sommes en train de construire le futur, à nous de faire en sorte que les générations futures ne nous bannissent pas …
      SGH

    2. Au milieu des années soixante – la période que vous évoquez -, comme j’ai déjà pu en faire part sur d’autres blogs, j’étais étudiant et journaliste stagiaire en Californie. C’est en effet là qu’il fallait être à cette époque. J’y ai connu les manifestations estudiantines depuis leur début, le 2 décembre 1964, lorsque l’étudiant en philosophie Mario Savio, chef charismatique du “Free Speech Movement” et de la contre-culture émergente, avait accusé devant quelques trois mille étudiants réunis à Sproul Plaza, au campus de Berkeley de l’Université de Californie (UC), le président de cette prestigieuse institution, l’économiste de renommée mondiale Clark Kerr, d’avoir transformé celle-ci, par ses réformes de démocratisation, en fabrique du savoir (knowledge factory) dont il était devenu le PDG, fait du Conseil des Régents, véritable propriétaire de l’UC, son Conseil d’administration, des professeurs ses administrés et des étudiants la simple matière première facile à revendre à ses principaux bailleurs de fonds, l’administration, les syndicats et l’industrie – surtout l’industrie militaire avec laquelle Berkeley a toujours entretenu des liens étroits par ses trois laboratoires nationaux de recherche attachés au Département américain de la Défense.

      Kerr était en effet le principal architecte d’un plan de réforme du système universitaire californien, le “Master Plan”, introduit en 1960. Ce plan avait pour but louable de faire face à la montée des “baby-boomers” arrivés en âge d’accéder aux études supérieures en les rendant gratuites et accessibles à tous, quelle que soit leur situation économique et sociale. Or, selon Savio et ses suiveurs, qui appartenaient dans leur grande majorité aux facultés des lettres et des sciences humaines et devaient être les premiers bénéficiaires des réformes, celles-ci n’étaient qu’un leurre destiné à masquer la reconversion de l’université en privilégiant les filières technologiques, industrielles et commerciales, au détriment des disciplines traditionnelles en lettres, en droit et sciences humaines.

      Kerr admettait que celles-ci étaient les grandes perdantes de ses réformes et que la nouvelle université, éclatée en une multiplicité de modules autonomes, qu’il appelait “multiversité”, avait fait d’elle une “industrie du savoir” (il n’utilisait pas le terme de “fabrique”). Manière élégante pour lui de se laver les mains du monstre qu’il avait, le premier, contribué à faire naître.

      C’est de cette “multiversité” que sont sortis les futurs cadres et employés de la Silicon Valley, au moins autant que de la principale concurrente de l’UC Berkeley, sa voisine l’université privée de Stanford. Les révoltés et les mouvements contre-culturels de 1964 et après, auxquels vous attribuez les “inventions plus formidables les unes que les autres” de cette époque, ont vite été récupérés par le pouvoir et, à de rares exceptions près, n’ont jamais pris une part active de quelque importance dans leur mise en oeuvre. Ils ont réintégré le système, passé leurs examens et n’ont été que les agents passifs et le plus souvent impuissants de la “démocratisation” des technologies, que seules les grandes industries et l’Etat avaient les moyens de réaliser. Je puis vous en parler d’expérience puisque j’étais l’un d’eux.

      En toute bonne logique académique, les principaux gagnants des révoltes estudiantines étaient en effet les professeurs, que les révoltes avaient eu pour but de déboulonner de leur piedestal. Constatant la brèche qu’elles avaient ouvertes, ils s’étaient empressés de s’y engouffrer et se décharger de leurs responsabilités d’enseignement envers les “undergraduates” sur des assistants mal formés, souvent de langue maternelle étrangère et maîtrisant mal l’anglais, confrontés aux auditoires bondés que les professeurs leur avaient abandonnés pour s’accaparer les privilèges de la seule recherche. Les mandarins allaient s’y incruster pour de bon. Ils y sont toujours, et même plus que jamais.

      Quant au Web, souvent confondu avec Internet, il n’est qu’une des applications de ce dernier. L’article “World Wide Web” de Wikipedia indique qu’il a été Inventé en 1989-1990 (et non dans les années 60-70) par Tim Berners-Lee suivi de Robert Cailliau. Selon cet article, c’est le Web qui a rendu les médias grand public attentifs à Internet: “Berners-Lee est devenu de plus en plus consterné de voir son invention utilisée abusivement, comme lorsque des pirates russes se seraient prétendument immiscés dans les élections américaines de 2016, quand le Scandale Facebook-Cambridge Analytica est devenu public, quand Facebook a effectué des expériences psychologiques sur près de 700 000 utilisateurs en secret en 2012, et quand Google et Amazon ont déposé des demandes de brevets pour des appareils qui écoutent les voix humaines afin de déterminer des changements émotionnels.”

      Toujours selon Wikipedia, “Berners-Lee a estimé que l’Internet avait besoin d’être réparé et a conçu le projet “Solid” comme une première étape pour le réparer, c’est-à-dire un moyen de donner un contrôle total sur l’utilisation de leurs données aux utilisateurs individuels. Le projet “Solid” est à la disposition de tous, toute personne peut le rejoindre pour y participer et contribuer à celui-ci, bien que Berners-Lee conseille aux personnes sans compétences de développement ou codage qu’elles devraient plutôt plaider publiquement pour le changement de l’Internet.” Celui-ci était à ses débuts en 1961 et 1962 un projet de communications entre chercheurs de la Defense Advanced Research Projects Agency (DARPA) et n’est devenu public que dans la seconde moitié des années 1990.

      Enfin, les premiers ordinateurs personnels grand public ne sont apparus qu’à la fin des années 1970 et les premiers ayant fait l’objet d’une certaine popularité ont été mis en marché en 1977.

      Ceci pour remettre un certain nombre d’idées reçues sur cette période dans leur contexte.

      1. Puisqu’on en est aux témoignages, je tiens à préciser que j’ai travaillé au début des années 90 pour une entreprise de la Silicon Valley, fondée par un professeur de Stanford, Jim Clark, également créateur quelques années plus tard de la société Netscape. C’était juste après la chute du mur de Berlin et l’esprit libertaire hérité des 70’, qui imprégnait ce type d’entreprise, était porté à son maximum par le sentiment de liberté de cette époque historique particulière. Je découvrais alors le e-mail et les prémisses de l’Internet grand public.

        Lors des nombreux déplacements à travers le monde que j’ai effectués pour cette compagnie, j’ai eu l’occasion de discuter avec des personnes chargées des relations avec le gouvernement américain. J’ai découvert les méthodes de pression technologique exercées sur des pays un peu rétifs à appliquer les directives américaines (blocages de livraisons de super calculateurs avant la signature d’un accord en Israël, demandes à des universités étrangères de limitation d’accès à certaines technologies par les étudiants de certaines nationalités sous peine de non livraison, acrobaties comptables à Taiwan pour ne pas déplaire au gouvernement chinois, etc.).

        Certains laboratoires de l’entreprise à Montain View n’étaient accessibles qu’à un nombre limité de personnes car leurs activités, hautement confidentielles, étaient destinées à l’armée américaine, Je doute fort que ce type de labo ait disparu depuis … bien au contraire !

        Bref, derrière la coolitude et le non-conformisme des ingénieurs à queues de cheval et birkenstocks de l’époque, pétris de certitudes sur la marche du monde alors qu’ils n’étaient souvent jamais sortis de leur labo, je découvrais un face plus inquiétante de la Silicon Valley. Les décennies qui suivront ne feront que confirmer, malheureusement, mes pressentiments de l’époque.

        Quant au World Wide Web, comme employé puis partenaire de l’entreprise, j’ai découvert les tout premiers prototypes du navigateur qui s’appelait encore Mosaic et qui allait devenir Netscape pour des questions de droits. En effet, le fondateur de Netscape avait utilisé les ordinateurs de sa précédente entreprise pour développer le premier navigateur Internet grand public.

        Tout ça pour préciser que l’esprit contre-culturel des 60’-70’ n’a pas été cantonné à ces année-là et inspire toujours les géants de la Silicon Valley.
        Son côté sombre aussi.

        1. A mon tour de vous remercier pour votre compte-rendu. Je confirme: il est passionnant et pourrait apporter une vive lumière sur cette période, que vous qualifiez à juste titre d’historique. Ne pensez-vous pas faire part de vos expériences dans un livre, en particulier sur le côté sombre de Silicon Valley? Il serait fort intéressant et des plus actuels.

          J’ai quelques questions à ce sujet: l’entreprise avec laquelle vous avez collaboré, fondée par Jim Clark avant qu’il ne lance Mosaic (dont je me souviens très bien l’avoir utilisé avant Netscape), s’agit-il de NCSA Mosaic ou de Silicon Graphics?

          Jim Clark a enseigné à l’Université de Californie (UC) à Santa Cruz, réputée pour avoir été le campus le plus libertaire de l’UC. Auriez-vous un éclairage particulier à apporter sur son passage à UCSC?

          Si je vous pose ces questions, c’est parce que je travaille en ce moment à un projet qui vise à resituer la contre-culture des années 60-70 et après dans son contexte historique. J’ai d’ailleurs rencontré le docteur Kerr peu après son limogeage par le gouverneur de la Californie nouvellement entré en fonctions en janvier 1967, le républicain Ronald Reagan, qui le rendait responsable à titre personnel de l’agitation estudiantine sur les campus de l’Université. Kerr avait choisi le journal pour lequel je travaillais alors comme reporter pour donner sa version des faits.

          D’autre part, je connais hélas trop bien le funeste côté “bullish” des Américains en affaires (dans le style “shoot first, talk later”) et les pressions qu’ils exercent. Et la dictature de la coolitude des entrepreneurs à queue de cheval et birkenstocks ne m’est, elle aussi, que trop familière. Je suis en effet consterné de constater combien elle perdure parmi les jeunes lions de l’informatique aujourd’hui.

          Bien sûr, il n’est pas question d’abuser plus de l’accueil de Madame Ghernaouti sur son blog à ce sujet. Qu’elle se sente donc libre de vous faire part de mon e-mail si vous étiez disposé à bien vouloir répondre à mes questions.

          Avec mes cordiales salutations entre-temps.

          1. Ces échanges d’expériences et ces regards croisés apportent un éclairage de première importance et alimentent notre réflexion. Merci

          2. Il s’agissait de la société Silicon Graphics (SGI). J’étais basé en Suisse mais je m’occupais de l’IT de toutes les succursales hors USA.

            Comme j’étais un des employés de l’entreprise qui voyageait le plus à cette époque, il arrivait qu’on me consulte pour des projet portant sur l’international. Mais n’étant ni ingénieur ni universitaire ni américain, mes réponses ou mes recommandations étaient rarement prises en compte.

            Après mon passage chez SGI, j’ai tenté de créer avec un ingénieur une start-up (c’était la mode à l’époque) dans le domaine de la réalité virtuelle combinée à l’intelligence artificielle. Nous développions sur des ordinateurs SGI ce qui me permit de continuer à entretenir des relations étroites avec l’entreprise. Ce projet fut un échec cuisant qui me coûta très cher mais fût plein d’enseignements.

            De par cette position un peu particulière, il m’a été donné d’observer ce monde du high tech de l’intérieur mais certainement pas de quoi écrire un livre.

            Au mieux ais-je été un compagnon de route et un observateur attentif et passionné.

  3. Merci Madame pour cette excellente mise en lumière des problèmes liés aux intelligences artificielles (IAs). Je mets volontairement au pluriel, parce je ne vois pas ce qui permet de dire qu’il en existe UNE. De même qu’il y a diverses formes d’intelligences (humaine), il y a certainement diverses IAs basées sur diverses données et conçues par divers humains. Tout comme on teste comparativement deux études (en aveugle), ne devrait-on pas aussi comparer les résultats de 2 IAs conçues INDEPENDAMMENT l’une de l’autre et pouvoir ainsi définir un taux d’erreur ? Cela déifierait aussi un peu moins ces “simples” algorithmes.

    1. L’intelligence artificielle au singulier comme une infinité de possibles et de déclinaisons …
      SGH

  4. Peut-être que dans le futur , les dirigeants eux-mêmes seront corrigés par l’IA pour obtenir de meilleures performances et en fin de compte l’IA finira par découvrir des gouvernances optimales basées sur le respect des citoyens et non par des injonctions contre-productives …
    L’IA fonctionnera d’autant mieux qu’elle sera développée avec les humains et non contre eux !

  5. Je n’ai pas compris l’alinéa 2.”La tolérance des dispositifs d’IA envers ceux et celles dont les particularités (à la marge de ce qui est défini comme normal par les concepteurs d’IA).” Pouvez-vous développer ou expliquer ? Merci
    Marie

    1. La question soulevée est la suivante: quelle place (tolérance) est laissée aux personnes qui ne correspondent pas aux “cases” prédéfinies par les dispositifs d’IA, dans la mesure ou le jeu de données, comme les algorithmes qui sont utilisés le sont à partir d’abstractions du réel, mais qui ne tiennent pas de tout le réel?
      Une analogie pourrait être faite avec les maladies orphelines et des malades bien réels.

  6. Les acteurs commerciaux et industriels n’ont pas le monopole de l’intelligence artificielle (IA). Le premier langage de programmation utilisé en IA, Prolog, est disponible dans ses nombreuses versions en source libre et accessible à tous dans le domaine public. Sans doute le langage le plus utilisé dans la recherche, il est enseigné à l’Université de Genève depuis 1989, non pas en informatique mais à la Faculté des Lettres, la première en Suisse à avoir ouvert un programme de troisième cycle en linguistique-informatique, avec Prolog comme langage de travail.

    Pourquoi en Lettres? Parce que Prolog a d’abord été inventé pour analyser le langage dit “naturel” (pour le distinguer des langages formels, mathématiques, de programmation), et d’abord le français, par Alain Colmerauer et son équipe à l’Université de Lumigny-Marseilles en 1972 (avec Prolog II). Mais du point de vue théorique, le véritable inventeur de Prolog est Robert Kowalski, d’abord chercheur en démonstrateurs de théorèmes à l’Université d’Edinburg, puis professeur émérite en informatique à Imperial College, à Londres.

    Quand mes camarades étudiants en lettres de l’UNIGE et moi avons été confrontés pour la première fois à Prolog, certains d’entre nous ne savaient même pas comment allumer un ordinateur. Or, nous avons été placés d’emblée devant des stations Sun avec système d’exploitation UNIX, sur lequel la version commerciale de Prolog, SICstus Prolog, avait été installée (elle a été remplacée depuis par sa version en source libre, SWI-Prolog).

    Aujourd’hui à peu près passé aux oubliettes dans le grand public, mais non chez les spécialistes, Prolog, langage en apparence facile d’accès mais qui révèle vite sa complexité pour peu qu’on s’y attache – son élégance et sa clarté font que c’est un réel plaisir de programmer dans ce langage -, était alors le langage de programmation considéré comme le plus avant-gardiste par la communauté informatique. A la fin des années 1980, les Japonais le désignaient comme langage de cinquième génération. Imagine-t-on comment la plupart d’entre nous, certes tout à fait capables de traduire Virgile, Tacite, Euripide ou encore de déchiffrer quelque dialecte hamito-sémitique pluri-millénaire à partir de parchemins rongés par les rats, mais ne sachant plus même faire une règle de trois et ne connaissant rien aux langages de programmation traditionnels (C/C++, Java et autres) pouvaient se mesurer avec un langage fondé sur la logique du premier ordre, peut-être le plus abstrait qui soit?

    Eh bien, nous nous en somme sortis – je ne dirai pas haut la main -, mais tout au moins sans trop de casse et même vivants (Prolog ne diffuse pas encore de virus aussi redoutables que le COVID-19). Les pionniers de l’IA en Suisse, c’est nous. Mais trente ans après son introduction dans une université suisse, le public n’en sait toujours presque rien, ceci pour deux raisons au moins:

    1) Parce que, à de rares exceptions près – et alors elles se gardent bien de le crier sur tous les toits – les entreprises ignorent ou dédaignent ce langage sous prétexte que Prolog est inefficace, lent et que sa recherche par “backtracking” est stupide – ce qui n’est pas tout à fait faux. Or, sait-on que le tiers des systèmes de vente de billets d’avions est implémenté en Prolog? Qu’IBM a mis en oeuvre son système de traitement automatique du langage Watson en Prolog? Que ce langage de programmation logique (PROLOG = PROgrammation en LOGique) est appliqué à la préparation de documents juridiques, au conseil médical, au traitement automatique du langage – c’est même son champ d’application originel -, à l’analyse des réseaux sociaux, à la génération automatique de textes avec des extensions à un modèle flexible pour la production et l’édition de documents, et à un modèle de raisonnement spécifique à la programmation informatique? Prolog est également à la base d’un système d’analyse de réseau qui a été appliqué à l’étude des partenariats commerciaux et à l’analyse des réseaux terroristes.

    2) Depuis 1989, année où Prolog et la linguistique-informatique ont été introduits à l’UNIGE, le langage n’est pourtant guère sorti du milieu de la recherche, cette maison bien close. Je pourrais vous parler à cet égard de mon expérience faite en informatique à l’EPF et dans d’autres centres de recherche. Ce n’est pas le cas ailleurs, où Prolog est sorti depuis longtemps du seul sanctuaire académique et trouve de nombreuses et souvent puissantes applications commerciales. Voir, par exemple, cet article de la revue Dr Dobb’s , “The Practical Application of Prolog”, qui date déjà de 2002.

    Chien! Elle est bien gardée, la science… Ce n’est sans doute pas à vous que je l’apprendrai, chère Madame.

    1. La programmation en Prolog et en Lisp est fondamental à l’apprentissage (humain) et un bon souvenir.

  7. Merci pour votre analyse approfondie et intéressante. Bravo pour la proposition des 8 nouveaux droits. C’est vraiment de très bonne tenue !

    J’ai toutefois un problème avec votre présupposé de départ les dispositifs d’intelligence artificielle seraient “fruits d’une logique d’optimisation et de rationalisation économique (sans s)” et “inscrits dans une approche néolibérale”. Oui il y a une logique d’optimisation mais je ne vois pas en quoi l’approche néolibérale y serait associée ? En quoi le développement de l’AI va de pair avec le néoliberalisme soit une dénonciation du poids de l’État-providence et une dérégulation du marché ?

    Ce présupposé de la nature néolibérale comme l’absence de mentions des opportunités nouvelles offertes par l’AI en médecine par exemple semble montrer une orientation politique. Est-ce que je me trompe ?

    1. Cet article ne traite pas non plus de l’usage militaire de l’IA et ni de son usage dual.
      La logique performative de l’IA reflète l’approche économique des acteurs.
      La réponse à la question posée est oui.
      SGH

      1. Une approche économique n’équivaut pas à une logique néolibérale qui serait soit-disant présente selon vos lignes. Je ne vois toujours pas d’argument affuté.
        Quant aux développement et usages abusifs de l’AI, ils existent évidement. On peut penser à la Chine actuelle. Le régime communiste actuel est bien éloigné d’un gouvernement néolibéral à la Thatcher ou Reagan !

        1. Les dispositifs socio-techniques dépendent des pouvoirs économiques et politiques dans lesquels ils s’instaurent.

      2. En effet, la frontière entre les usages civils et militaire est-elle bien respectée par tous?
        Les licences sous SBDU sont-elles parfaitement vérifiées dans le monde de la recherche, entre fondamentale et appliquée?
        NB

  8. Un grand merci de nous aider à comprendre les enjeux et de consacrer du temps à la vulgarisation. Avec militantisme!

  9. Bonjour,
    Merci pour cette salutaire prise de position. Peut-être faudrait-il particulièrement sensibiliser encore davantage les enseignants romands et leurs élèves à ces questions dont ils n’ont pas encore suffisamment conscience. C’est ce que je constate presque au quotidien.

  10. Avons nous l’énergie, le courage, l’impulsion de dire : cela on n’en veut pas.
    Interpréter en temps réel nos comportements continuellement, nos états en vue de monétiser cette connaissance et en vue d’instaurer une organisation algorithmique policé ultra rationalisé et hygiéniste de la société risque d’aller à terme, sait-on jamais, jusqu’au crédit social chinois. C’est la capitalisation des comportements.
    Un monde de rationalité fondé sur l’extrême rationalisation des choses, sur la volonté de marchandiser continuellement l’existence, et d’instaurer cet utilitarisme généralisé. A ce mode de rationalité, Il s’agirait de faire valoir d’autre mode de rationalité fondé sur l’appréhension multisensorielle du réel,
    fondé sur l’expression de la pluralité humaine car ces systèmes sont des systèmes d’homogénéisation des modes d’organisation de l’existence.
    Eric Sadin défend des principes humanistes, la dignité l’intégrité humaine, la volonté le refus de soumettre toutes les actions humaines dans la marchandisation intégral, le refus d’organiser
    de façon algorithmique et de façons hygiéniste la société.
    Dès qu’il y a des systèmes qui nous dessaisissent de notre pourvoir de jugement, de notre pouvoir d’action, de ne pouvoir de décider librement, sans subir de pression, du cours de nos affaires individuelles et collectives c’est inacceptable.

  11. Dans le fond, tout ça ne serait-il pas un monstre imbroglio, une sorte de toile d’araignée, où l’on aurait verrouillé les clés du courage, sous pseudo et identifiant?

    Entre les savants, les sachants, les cons, les génies, les trolls, les peoples, les artistes et autres journaleux et bla…. + les humbles qui ont surtout l’humilité de se prendre pour personne/peanuts,
    bref, la richesse du monde qu’on essaie de réduire à la toile?

    Réponse en une ligne, SVP, merci d’avance 🙂

Les commentaires sont clos.