La révolution bavarde: comment ChatGPT va changer la communication

La révolution bavarde: comment ChatGPT va changer la communication

Les modèles de langage de grande taille (LLM) tels que ChatGPT sont une nouvelle technologie qui changera notre façon de communiquer: principalement pour le meilleur.

Il n’y a pas si longtemps, les modèles de langage basés sur l’intelligence artificielle produisaient un charabia à peine plus compréhensible que celui d’un jeune enfant. Mais, du jour au lendemain ou presque, leurs derniers résultats affichent une verve supérieure à celles de jeunes étudiants imbus d’eux-mêmes. De jeunes étudiants qui amorcent une révolution. 

«Nous traversons une période de bouleversement», explique Lane Greene, le M. Langue de l’Economist, co-auteur du dernier guide linguistique du magazine et auteur de la rubrique Johnson. Les modèles de langage de grande taille (LLM), dont le plus connu est ChatGPT, ont déjà commencé à faire bouger les lignes. 

Bien que ChatGPT soit un moteur de recherche très efficace, sa capacité à générer de meilleurs textes qu’un être humain moyen est tout bonnement époustouflante. Cela inclut la traduction, l’écriture d’e-mails et de lettres, voire des articles plus longs. Cette fonction permet à ChatGPT de compléter ou même de supplanter des humains en traduisant des contenus simples, ou en compilant des faits bien établis en un texte clair. Il peut fournir des contenus standard aux avocats et analyser et synthétiser des montagnes de documents pour eux.  D’autres versions de l’IA générative peuvent créer des photographies et agrandir le champ d’une peinture. Plus ces IA disposent d’une vaste masse d’informations à disposition pour leur apprentissage, plus il est probable qu’elles seront efficaces.

De nombreux employés de bureau peuvent voir leur gagne-pain menacé, mais pas obligatoirement tous, souligne Greene. Même si ChatGPT et consorts vont être capables de reproduire encore mieux des tâches lambda, ils dégageront ainsi du temps aux actifs pour se consacrer à des tâches plus difficiles et intéressantes, y compris la supervision des résultats des LLM.

ChatGPT pourrait même s’avérer être la bouée de sauvetage de travailleurs moins efficaces et moins productifs. Dans un article publié dans le Financial Times, l’éditorialiste Tim Harford cite à ce sujet des études qui montrent que les gains de productivité se concentrent chez les travailleurs les moins efficaces, les «Homer Simpson» comme il les appelle, tandis que la technologie n’apporte que peu à la productivité des travailleurs les plus compétents1.

Découvrir les limites...

Malgré toutes leurs capacités révolutionnaires, les LLM ont toujours un certain nombre de problèmes. Par exemple, elles inventent des faits. Leurs créateurs n’ont pas vraiment d’explication à ce phénomène, indique Greene, mais les LLM incluent régulièrement des informations qui ne sont pas vraies. Le problème, c’est qu’elles sont convaincantes, ce qui les rend encore plus dangereuses. 

Un avocat new-yorkais en a récemment fait les frais avec ChatGPT. Il a utilisé le LLM pour écrire un mémoire juridique dans une affaire portant sur des blessures. Le juge l’a confondu pour avoir cité six décisions de justice inexistantes2.

De son côté, le corps enseignant se demande quelle réponse apporter aux élèves qui utilisent ChatGPT pour faire leurs devoirs, mais qui n’apprennent pas. L’une des méthodes consiste à se concentrer sur les faiblesses de ChatGPT. Certains professeurs ont commencé à demander à leurs élèves de donner un sujet de devoir à ChatGPT, puis d’analyser les résultats et de rechercher les fausses informations.

ChatGPT «pompe une quantité phénoménale de contenus sur Internet». Il excelle pour recracher ce qu’il a ingurgité, mais il est moins bon sur les connaissances que nous prenons tous pour acquises ou sur des questions qui nécessitent une réflexion logique. Ainsi, ChatGPT ne fait pas l’hypothèse qu’une personne en vie il y a une heure et qui le sera dans deux heures le sera également entre les deux, note Greene. De fait, les informations à ce sujet sont rares sur Internet, car les êtres humains ne voient pas l’intérêt d’en parler.

Un autre problème est que ChatGPT adopte les biais des contenus utilisés pour son apprentissage, explique Greene. Plus les contenus sont larges, plus il est difficile de compenser le biais. Il est possible d’essayer de les éliminer ou de les atténuer en sélectionnant judicieusement les contenus utilisés, mais cela limite ensuite l’utilité du modèle. Une autre approche consiste à établir des règles explicites qui ont la priorité sur les données d’apprentissage, par exemple en disant «ne pas répondre à des questions qui vous incitent à être raciste», mais ces règles ne seront probablement jamais parfaites.

Dans le même temps, la diversité des contenus utilisés par ChatGPT lui permet de fournir des informations illégales ou dangereuses, par exemple sur la fabrication de drogues telles que la méthamphétamine ou le napalm. Les créateurs de ChatGPT ont mis en place des mesures de protection, mais les utilisateurs découvrent chaque jour de nouveaux moyens de les contourner, note Greene. Ces moyens détournés exposent les créateurs de LLM à des poursuites judiciaires ou pénales.

... mais d’autres progrès sont à venir

Greene évalue ChatGPT selon trois critères. «Il obtient 18/20 pour la recherche d’information, et une mention satisfaisante pour l’imitation. Mais il obtient à peine la moyenne pour la combinaison de deux facteurs différents. Il a donc encore de grosses lacunes», explique-t-il.

Pourtant, malgré tous ses défauts, ChatGPT a fait des progrès rapides et ne devrait pas s’arrêter en si bon chemin. Mais compte tenu des structures de ces modèles, notamment de leur dépendance aux données qu’ils utilisent pour apprendre, ils auront du mal à produire des contenus véritablement originaux.

«Découvrir des choses que personne d’autre ne sait ou que très peu savent» continuera d’être du ressort de l’être humain, rassure Greene. En d’autres termes, il est peu probable qu’ils évincent le journalisme de terrain, même si le «churnalisme», c’est-à-dire la réutilisation de contenus existants, est sur la sellette. L’originalité et la nouveauté seront un facteur de différenciation majeur. Un algorithme ne générera pas une réflexion profonde et novatrice. Il y aura toujours de la place pour une prose mémorable, simple et claire, rehaussée d’images et de métaphores innovantes.

ChatGPT peut apporter une base à l’écriture, mais une contribution humaine est nécessaire pour un résultat vraiment convaincant. De leur côté, les traducteurs deviendront des post-éditeurs, qui utiliseront des LLM pour générer un premier jet, puis le réviseront afin de s’assurer qu’aucune nuance n’est pas perdue et d’éviter les écueils des subtilités linguistiques.

Les gens ont soif d’authenticité. ChatGPT changera peut-être nos attentes envers la forme écrite, mais il ne signe pas l’arrêt de mort des écrivains. «La photographie n’a pas tué la peinture, elle a simplement changé les thèmes et les techniques de la peinture», explique Greene.

[1] https://www.ft.com/content/74c63f77-f543-4be0-9cd9-2f5f40ba6f17
[2] https://www.reuters.com/legal/transactional/lawyer-used-chatgpt-cite-bogus-cases-what-are-ethics-2023-05-30/
Veuillez confirmer votre profil
Veuillez confirmer votre profil pour continuer
Ou sélectionnez un autre profil
Confirm your selection
En cliquant sur "Continuer", vous acceptez d'être redirigé vers le site web local que vous avez sélectionné pour connaître les services disponibles dans votre région. Veuillez consulter les mentions légales pour connaître les exigences légales locales détaillées applicables à votre pays. Vous pouvez également poursuivre votre visite en cliquant sur le bouton "Annuler".

Bienvenue chez Pictet

Vous semblez vous trouver dans ce pays: {{CountryName}}. Souhaitez-vous modifier votre position?