
Certains parlent de révolution, d’autres y voient un danger. L’arrivée de ChatGPT, une intelligence artificielle qui apporte des réponses aux questions qu’elle se pose sous forme de conversation, soulève de nombreuses questions.
Quiconque l’a essayé ne peut rester indifférent. Que nous appelions cela bluffant, impressionnant ou même “effrayant”, ChatGPT AI a mis l’IA à notre portée. Comment fonctionne ce logiciel, quels sont les problèmes qui y sont associés, faut-il s’en réjouir ou en avoir peur, on tente de décrypter les grandes lignes de ce nouvel outil.
1. Qu’est-ce que ChatGPT ?
Derrière ChatGPT se cache la société américaine OpenAI, dont l’histoire débute en 2015 et dont les fondateurs comptent des personnalités très influentes de la tech comme un certain Elon Musk, Sam Altman, un puissant homme d’affaires ou encore le canadien Ilya Sutskever, décrit par le soi-disant New York Times comme “l’un des chercheurs les plus importants de la décennie”. En 2018, Elon Musk quitte la start-up et OpenAI reçoit des fonds pour financer ses recherches, et le 30 novembre 2022, le modèle de langage développé par l’entreprise est disponible en téléchargement.
“C’est de l’IA générative”, explique Bertrand Pailhès, directeur de la technologie et de l’innovation à la Cnil, à la tête du service IA, lancé le 23 janvier. “ChatGPT fonctionne par apprentissage, nous l’avons chargé avec des millions de données.” Quant à son nom “chat”, il signifie conversation en anglais et GPT, pour “Generative pre-trained transformer”, traduit par “pre-trained generic transformer”.
Concrètement, à quoi ça sert ?
Pour utiliser ChatGPT, qui est disponible en plusieurs langues, dont le français, il suffit de saisir une question dans la boîte de dialogue. L’intelligence artificielle génère alors automatiquement une réponse sous forme de texte, grammaticalement et syntaxiquement bien construit à partir de la base de données dont elle dispose et qui n’est pas connectée à Internet.
Sa base de données a été établie jusqu’en 2021, ce qui explique pourquoi ChatGPT n’est pas en mesure de répondre aux questions actuelles. En revanche, il est possible de lui demander d’écrire un article sur l’histoire de France, par exemple, ou de lui demander de vous expliquer le fonctionnement du Parlement européen.
2. Pourquoi un tel enthousiasme ?
L’intelligence artificielle n’est pas vraiment nouvelle, mais ChatGPT montre au grand public les incroyables capacités de l’intelligence artificielle générative. Il est donc possible de demander ChatGPT écrire une lettre de motivation pour une entreprise spécifique ou générer des lignes de code informatique.
Plus la demande est détaillée, plus la réponse est précise. « Nous atteignons aujourd’hui un haut niveau de performance avec des productions de qualité, très proche de ce qu’un humain réagirait ou créerait“, commente Bertrand Pailhès.
3. Est-ce que ChatGPT est fiable ?
“ChatGPT n’est pas une base de connaissances, c’est ce qui le différencie le plus d’un moteur de recherche”, rappelle ce dernier. Bref, ChatGPT, contrairement à un moteur de recherche, adopte une approche statistique : “Si beaucoup de personnes lui disent que 2 + 2 font 5, il finira par le penser. En revanche, si vous lui posez une question sur un ‘ commande générative du type “écris-moi un poème à la manière de Baudelaire”, pourra répondre à cette question, ce que Google ne fait pas. La réponse de ChatGPT n’est pas une réponse qui sera vraie ou fausse, c’est juste une suggestion dont la vérité est douteuse», illustre Bertrand Pailhès.
Il rappelle que les textes générés par ce type d’interface ont des limites. Afin de ne pas tomber dans certaines erreurs, comme des réactions qui pourraient s’avérer racistes, homophobes, etc., les données qui alimentaient ChatGPT étaient également annotées par des personnes rapportant que tel ou tel système pouvait être nuisible. “En gros, on lui a donné plein d’exemples de ce qu’il ne faut pas faire”, résume Bertrand Pailhès, qui pointe qu’il y a des questions auxquelles l’IA ne répond pas.
4. Quels risques et quel cadre ?
Un règlement européen est actuellement en préparation, mais en France la Cnil a déjà pris les devants en créant un SIA (Service d’Intelligence Artificielle) pour renforcer l’expertise de la Cnil dans ce domaine. Actuellement, “les risques identifiés dans les règles de l’IA seront des risques liés à la vidéo, à la reconnaissance faciale dans l’espace public ou à l’utilisation de l’intelligence artificielle pour la classification qui pourraient avoir un effet néfaste sur les personnes”, explique Bertrand Pailhès.
Quant à ChatGPT, le risque pour l’homme semble limité. Mais selon Bertrand Pailhès, il faudra »excellente éducation de base qui va avec l’instrumentBref, pour le praticien, “il y a un risque que des personnes comme les étudiants puissent utiliser la machine pour répondre à une tâche, voire qu’il y ait un” décalage entre ce qu’est vraiment l’outil et ce que pensent les utilisateurs. Est-ce que”.
« Comme tout outil technique, il était conçu par des gens qui ont pris des décisions dans des pays qui n’ont pas forcément la même législation que l’Europe“, résume Bertrand Pailhès. Quant à la question brûlante du contrôle des données qui pilotent cette IA, “c’est un peu le nœud du problème”, admet Bertrand Pailhès. “Aujourd’hui, nous n’en sommes encore qu’au début du contrôle par les pouvoirs publics”.
En 2023, une recommandation sur la constitution d’une base de données au regard du RGPD (Règlement Général sur la Protection des Données) devrait voir le jour.
Le gros pari de Microsoft
Microsoft suit très sérieusement OpenAI et mène des tests pour intégrer ChatGPT dans ses outils. Début janvier, des médias américains ont révélé que Microsoft Corp était en pourparlers pour investir 10 milliards de dollars (environ 9,3 milliards d’euros) dans OpenAI.
Les pourparlers, qui ont finalement abouti à une troisième phase de coopération entre les deux sociétés, comme un communiqué de presse conjoint publié lundi 23 janvier, évoquaient un investissement de “plusieurs milliards de dollars”, a indiqué l’AFP citant BFM.
L’objectif pour Microsoft serait alors d’intégrer l’IA dans des outils de messagerie comme Outlook ou encore son moteur de recherche Bing. Un moyen de revenir à la concurrence dans un domaine des moteurs de recherche largement dominé par Google ?
De même, en investissant dans l’Open AI, Microsoft a également annoncé qu’il intégrerait Dall-E, une autre IA générative de l’entreprise qui cette fois produit non pas du texte mais des images dans sa suite bureautique. Un partenariat qui, selon le New York Times, déclencherait un “code rouge” chez Google.