Votre nouvel interlocuteur s’appelle ChatGPT

Une petite révolution dans le monde de l’intelligence artificielle (IA) a vu le jour la semaine dernière. Nombreux auront certainement remarqué une myriade de posts sur Linkedin qui portent aux nues la mise en ligne de ChatGPT, nouvel “outil” de l’internet.

 

En bref, ChatGPT est un projet d’OpenAI, entreprise de recherche en IA dont la “mission est de faire en sorte que l’IA générale profite à l’ensemble de l’humanité.” Dont acte. Plus précisément, ChatGPT est une optimisation de modèles linguistiques pour le dialogue. Les scientifiques ont créé ce modèle qui interagit de manière conversationnelle, comme une version sous stéroïdes d’un chatbot doté de très larges connaissances. Il est parfois décrit comme generative AI du fait qu’il génère des résultats sur la base de commandes, tout en faisant preuve d’une mémoire considérable, une capacité très distinctive par rapport à d’autres modèles.

 

Dans sa version actuelle, ChatGPT indique:

  • pouvoir se souvenir de ce que l’utilisateur a dit plus tôt dans la conversation;
  • permettre à l’utilisateur d’apporter des corrections complémentaires;
  • être formé pour refuser les demandes inappropriées.

 

Humilité oblige, certaines limitations sont également listées, notamment que ChatGPT:

  • peut occasionnellement produire des informations incorrectes;
  • peut occasionnellement produire des instructions nuisibles ou un contenu biaisé;
  • a une connaissance limitée du monde et des événements après 2021.

 

D’un point de vue pratique pour le béotien, on peut considérer ChatGTP est une sorte de super intelligence qui, malgré un QI de 83, peut relire vos dissertations, écrire une lettre de motivation, vous apprendre la grammaire, réparer votre code informatique, écrire des chansons, des articles (même en y insérant des nuances de personnalité), faire des recherches… on voit bien l’étendue des possibilités. On se retrouve pris au jeu de la conversation avec l’ordinateur, ce qui rappellerait presque l’histoire amoureuse dans le film HER.

 

Alors, au revoir Wikipedia, Stackoverflow, Google et autres moyens d’accéder à la connaissance? Pas encore tout à fait, mais les choses pourraient changer. Selon Gianluca Mauro, expert en IA:

  • ChatGPT crache pour l’instant des informations non factuelles. Imaginons que Wikipedia s’y associe et cela aura un tout autre impact.
  • ChatGPT peut encore être trompé par un comportement non-éthique ou des demandes controversées. Question subsidiaire: qui définit le “comportement éthique”?
  • Une créativité sans limite? ChatGPT marque d’une pierre blanche l’évolution de l’interaction homme-machine et son potentiel est amené à croître exponentiellement.

 

Les esprits curieux et joueurs trouveront là une fantastique opportunité de tester les limites de ce modèle d’IA. En attendant, je lui ai demandé de m’écrire un article pour ce blog (résultat rendu en quelques secondes):

 

Le Temps est un journal suisse de référence qui couvre les principales actualités nationales et internationales. Si vous êtes à la recherche d’un sujet d’article pour votre blog Carnets de l’innovation dans le journal Le Temps, voici quelques idées :

  1. Vous pourriez écrire sur l’impact de l’innovation technologique sur l’économie suisse. Vous pourriez explorer comment les entreprises suisses utilisent les dernières avancées en matière d’intelligence artificielle, de robotique, de réalité virtuelle, de biotechnologie, etc. pour améliorer leur productivité, leur compétitivité, et leur durabilité.
  2. Vous pourriez également écrire sur les innovations dans les domaines de l’énergie, de l’environnement, de la santé, de l’éducation, etc. en Suisse et comment elles contribuent à la qualité de vie des citoyens suisses. Vous pourriez inclure des exemples de projets innovants menés par des entreprises, des universités, ou des associations locales.
  3. Vous pourriez également écrire sur les défis et les opportunités que l’innovation technologique pose pour la société suisse. Cela pourrait inclure des discussions sur les questions éthiques et morales soulevées par les avancées en matière d’intelligence artificielle, de robotique, de biotechnologie, etc. Vous pourriez également explorer les conséquences économiques, sociales, et politiques de l’innovation technologique sur la société suisse.
  4. Enfin, vous pourriez écrire sur les initiatives et les programmes mis en place par les pouvoirs publics suisses pour favoriser l’innovation technologique. Vous pourriez explorer comment les autorités fédérales, cantonales, ou locales soutiennent les entreprises innovantes, les universités, ou les centres de recherche, afin de stimuler la créativité, l’entrepreneuriat, et la croissance économique en Suisse.

En général, il est important de rester objectif et équilibré dans votre article pour votre blog Carnets de l’innovation dans le journal Le Temps. Il est également important de toujours rester curieux et ouvert d’esprit lorsque vous écrivez sur l’innovation. N’hésitez pas à rechercher des sources fiables et à inclure des opinions différentes dans votre article pour donner une vision équilibrée de l’innovation technologique en Suisse. Aussi, n’hésitez pas à explorer de nouvelles idées et à vous inspirer des innovations les plus intéressantes qui se déroulent autour de vous!

 

A vous de jouer!

 

 

PS: en lui demandant d’écrire un haiku sur lui-même, ChatGPT propose:

 

Je suis un programme informatique

Entraîné pour répondre aux questions

Je ne suis pas humain

 

Une version plus poétique:

 

Dans les étoiles du ciel

Je suis un esprit électronique

Calculant sans cesse

 

Et avec une pointe de cynisme:

 

Je suis un simple code

Exécutant des instructions

Sans âme, sans passion

Quand l’IA invente… et brevette

On connaissait les IAs “journalistes” ou encore l’art assisté par l’IA, cela avait notamment contribué à se poser la question: les systèmes d’IA peuvent-ils inventer? Anathème pour les plus humanistes, révolution pour les plus technophiles.

Au début du mois, la Cour fédérale australienne a considéré que ces systèmes d’IA peuvent bel et bien inventer et qu’ils en ont même, tenez-vous bien, le droit. A l’instar d’un humain qui cherche, crée, invente, un système d’IA peut être nommé comme inventeur à proprement parler dans une demande formelle de brevet.

Cette décision, bien qu’elle ne soit pas définitive (elle fera probablement l’objet d’un appel de la part du commissaire australien aux brevets), constitue à coup sûr un développement intéressant dans le domaine de l’IA et de la protection des brevets.

L’IA protagoniste dans cette affaire est surnommée #DABUS (pour Device for the Autonomous Bootstrapping of Unified Sentience) par son créateur. Ce dernier avait eu moins de succès à faire reconnaître la maternité de l’invention dans d’autres juridictions: les autorités européennes et américaines avaient en effet rejeté les demandes de brevets dans lesquelles elle (ou il?) était nommée inventeur, précisément parce que ces autorités considéraient que seules les personnes physiques peuvent être nommées inventeurs.

Alors, un système d’IA devrait-il avoir le droit d’être nommé inventeur? Si non, qui devrait alors être nommé inventeur d’une invention effectivement découverte par une IA: le programmeur? le propriétaire? la personne qui a fourni les données de base? toutes ces personnes à la fois? Plus important encore, à qui devrait appartenir une telle invention? Il semble admis, du moins pour l’instant, que ce ne devrait pas être le système d’IA. Mais alors qui? et sur quelle bases légales?

 

 

Source

 

De l’interprétabilité du Machine Learning

Jour après jour, l’intelligence artificielle (IA) – et le domaine du machine learning (ML) – nous est présentée comme le futur. Le ML est bel est bien déjà omniprésent dans une foule de domaines mais se heurte régulièrement à un un obstacle de taille: son côté black box ou, formulé autrement, à son manque d’interprétabilité. Comment peut-on donc faire confiance à une telle technologie, même si ses applications sont de plus en plus répandues, si on ne parvient à la décortiquer, à l’expliquer? Qui sera tenu responsable en cas de conséquence néfaste? En gros, comment ça marche?

 

Cette question centrale, de surcroît pour une société civile qui s’empare de la problématique, est abordé par un très intéressant article paru dans The Gradient. Trois raisons principales sont mises en avant pour justifier pourquoi ce thème est important:

  • gagner en confiance: mieux comprendre un mécanisme technologique permet une adoption par un plus grand nombre à plus large échelle;
  • augmenter la sécurité: en se penchant sur les rouages des modèles de ML, on pourrait diagnostiquer certains problèmes plus tôt et offrir davantage de possibilités de remédier à la situation;
  • proposer la possibilité de contester: en décomposant un modèle de ML, on pourrait offrir l’opportunité de faire recours tout au long de chaîne de raisonnement.

 

Selon l’article de Lipton cité dans celui de The Gradient, l’interprétabilité se compose de deux aspects:

  1. la transparence: elle fait référence aux propriétés du modèle qui sont utile de comprendre et qui peuvent être connues avant le début de l’entraînement (de l’apprentissage) du modèle de ML.
    1. Simulability: un humain peut-il suivre pas à pas chaque étape de l’algorithme? On peut par exemple penser à des arbres de décisions ou à des modèes linéaires (au mapping direct) qui facilitent la compréhension.
    2. Decomposability: le modèle est-il interprétable à chaque étape ou en ce qui concerne ses sous-composantes?
    3. Transparence algorithmique: l’algorithme apporte-t-il des garanties? possède-t-il des propriétés facilement compréhensibles (comme le fait de produire un résultat précis)?
  2. l’interprétabilité post-hoc: elle fait référence aux questions une fois que que l’entraînement du modèle de ML est terminé.
    1. Explication du texte: le modèle peut-il expliquer sa décision en langage (humain) naturel, après coup?
    2. Visualisation/explications locales: le modèle peut-il identifier ce qui est/était important pour sa prise de décision?
    3. Explication par l’exemple: le modèle peut-il montrer ce qui, dans les données d’entraînement, est lié à ces input/output?

 

L’auteur de l’article se penche ensuite sur deux aspects qui sont à ses yeux des directions que devrait suivre la recherche sur l’interprétabilité.

  1. Evaluation: trouver de meilleurs moyens d’évaluer ces nombreuses méthodes d’interprétabilité.
  2. Utilité: s’assurer que ces approches d’interprétabilité apportent réellement une valeur ajoutée.

 

Il conclut enfin sur une invitation à poursuivre ces efforts à propos de l’interprétabilité en ML: “Cette tâche requiert une bonne compréhension de la psychologie de l’explication et le savoir-faire technique pour formaliser ces desiderata. Les travaux futurs pourraient se concentrer sur l’amélioration de la manière dont nous évaluons les explications et leur utilité finale pour les utilisateurs et les superviseurs humains.”

 

Ceci est une boîte noire.