L’arrivée de ChatGPT, un programme informatique capable de générer des textes automatiquement, soulève des questionnements éthiques. En effet, en imitant de manière réaliste l’intelligence humaine, il peut rendre difficile la distinction entre ce qui est généré automatiquement et ce qui est écrit par un humain. Cela peut avoir un impact sur les relations humaines et remet en question la nature même de la communication et de l’expression. Il est donc important de réfléchir aux conséquences éthiques de son utilisation.
Telle est l’introduction rédigée par ChatGPT après quelques questions sur le danger qu’elle représente… À deux doigts de lui dire merci comme à un ami, qui aurait cru il y a un an que les intelligences artificielles avaient atteint ce niveau ? Mieux encore, qu’il suffirait de moins d’un mois pour qu’avec enthousiasme, elle soit massivement utilisée ? En revanche, il eut été facile de prédire qu’avec un tel outil la paresse des humains pourrait enfin prendre toute la place qu’on lui laisse.
ChatGPT est rendu public fin novembre 2022, et n’a en réalité rien de révolutionnaire. En effet, elle est basée sur GPT-3, qui est un modèle de traitement naturel de langage (IA spécialisée dans le traitement de texte) sorti en 2020. Pour informations, GPT-3 était déjà capable de rechercher de l’information, traduire, résumer, reformuler, rédiger des textes et même faire un peu de programmation. Les capacités de ChatGPT sont à quelques différences près, équivalentes à GPT-3. La principale différence est dans la manière d’utiliser l’IA. ChatGPT a été optimisé pour fonctionner sous la forme de conversation, et son interface (graphique) permet à tout le monde de l’utiliser facilement, contrairement à GPT-3 qui nécessitait quelques lignes de code.
Bien que la principale différence réside dans l’interface, cette simple amélioration est en train d’opérer des changements majeurs dans notre rapport aux technologies, et dans le rapport qu’ont les humains au réel. Quelques semaines après la mise à disposition de cet outil, les étudiants, les professionnels et les particuliers se sont mis à l’utiliser. Au début c’était pour s’amuser, pour voir si ça marche vraiment. En réalité, c’est un outil bien différent des autres.
Avant, pour trouver une information, il fallait chercher. Avec cet outil, il n’y a plus à chercher, on trouve immédiatement. Avant, pour écrire un texte, pour mettre sa pensée sur une feuille, il fallait réfléchir, chercher et trouver les mots. Maintenant, on écrit vaguement ce qu’il faut faire, puis on dit ce qu’il faut corriger, sans même plus chercher à le faire nous-même.
Si nous continuons à terme dans cette folie qu’est la délégation de nos intelligences et volontés aux machines, le monde interagira de moins en moins par des humains, mais par des machines. Imaginez un monde où si vous devez recruter quelqu’un, ni son CV ni sa lettre de motivation n’ont été rédigés par cette personne, que les devoirs de vos élèves ne sont pas non plus le fruit de leur apprentissage et réflexion, que le logiciel que vous exécutez n’est pas le travail d’un développeur, ou encore que les articles de presse que vous lisez n’ont rien d’une réflexion venant d’un être humain. C’est pourtant ce qui est en train d’arriver si personne ne se donne de limite dans l’usage des technologies.
On croit que ce ne sont que des machines. De fait, avons-nous bien conscience de ce qui est à l’origine de ces intelligences artificielles, et comment elles fonctionnent ? Qui est vraiment conscient en l’utilisant que ce ne sont que des probabilités mathématiques savamment utilisées qui sont à l’origine des résultats ? Et quand bien même la réponse de cette IA donnera l’impression d’être le fruit d’une réflexion humaine, en réalité, jamais aucune conscience n’aura été derrière ce résultat.
Or, c’est bien ce qui distingue l’homme de la machine (et des animaux), et qui lui donne une place prépondérante dans la création. Ce qui est propre à l’homme, c’est son intelligence et sa volonté. Si nous les laissons aux mains d’une machine par simple paresse, c’est bien notre nature même que nous arrêtons d’accomplir, c’est notre humanité que nous perdons. Ne nous laissons pas perdre dans l’excitation d’une nouvelle technologie et sachons dans la plus grande force respecter notre nature en l’accomplissant vers sa fin. La technologie demande une vraie maturité pour l’utiliser sainement.
Xavier Lanne
Autres publications ici : https://link.ethibox.fr/e
Groupe Signal : https://signal.group/#CjQKIPPa7S7JybQm8u2ACrw7MX6LV-UHCLWotkSCJV2inyeKEhBonS9l4nGTVGmvsxQMrkG-
Illustration : DR
[cc] Breizh-info.com, 2023, dépêches libres de copie et de diffusion sous réserve de mention et de lien vers la source d’origine
8 réponses à “Cyberéthique : le cas ChatGPT”
On pourrait soutenir paradoxalement que ChatGPT est parfaitement « démocratique ». Il ne cherche pas le vrai, qu’il est incapable de déterminer, mais le consensus, ou du moins l’opinion la plus nombreuse : une « vérité » statistique. Il aurait jugé absurdes les premiers travaux de Pasteur parce que la majorité des médecins n’y croyaient pas. Il aurait encensé Pétain en 1940 et l’aurait condamné en 1945. Etc. Les moteurs de recherche fonctionnent de manière analogue. La vraie nouveauté de ChatGPT est sa capacité incroyable à donner des réponses dans un langage naturel. Or on peut très bien faire erreur (voire mentir, comme l’illustrait Piotr Tolstoi dans BI voici quelques jours) dans un français impeccable !
Il peut être programmé aussi pour donner des réponses politiquement correct. C’est cela le vrai danger, comme avec les algorithme sur les réseaux sociaux.
Ce n’est pas dans l’intention et dans la logique de Musk.
@Svajef4 : vous ne devriez pas faire confiance à un être humain pour ce genre de choses. Elon Musk n’a pas rétabli la liberté d’expression complète sur twitter. En a-t-il d’ailleurs le pouvoir ? Il ne faut pas être naïf sur la capacité des gouvernements à contrôler les électeurs.
Vous avez tout à fait raison de souligner ce point.
En fait, il n’est pas tout à fait juste de dire que « pour » ChatGPT la vérité se trouve statistiquement. ChatGPT n’est qu’un langage de modèle, si on lui dit de dire quelque chose il le dira, même si dans ses statistiques rien ne va dans ce sens. Dans ce sens, j’ai réussi à lui faire me prouver une chose, et la question suivante l’exact contraire.
ChatGPT n’a pas de notion de vérité tel que le christianisme le définit.
ChatGPT en revanche s’adapte à chaque personne pour tenter de répondre dans son sens. Et là on a effectivement un problème non pas à l’échelle d’une société, mais à l’échelle individuelle (ce qui est du jamais vu dans l’histoire du monde). Si cette IA avait existé en 1940, pour certaine personne elle aurait encensé Pétain, pas pour d’autres…
Et donc le problème profond de cet outil qui ne sait pas discerner le vrai du faux, car il n’a pas de conscience : c’est que le principe de vérité disparait définitivement. Et c’est une victoire énorme pour le marxisme, pour qui la vérité n’est pas, elle se construit. Et donc, cet outil renforce l’idée que chacun a sa propre vérité.
« Ce qui est propre à l’homme, c’est son intelligence et sa volonté. »
Pas du tout. Ce qui est le propre de l’humain, c’est l’âme qui lui a été conférée par Dieu. A l’occasion chaptgpt va être une bonne occasion pour les humains de se rappeler de l’essentiel, au lieu de cultiver leur orgueil. Ils vont redécouvrir ce ce que veut dire « nu dans le jardin d’Eden », comme ils doivent le redécouvrir à chaque découverte technologique.
L’intelligence et la volonté sont propres à l’être humain en tant qu’elles sont l’image de Dieu dans l’homme.
L’âme immortelle est aussi quelque chose de propre à l’homme.
Malheureusement, il ne faut pas compter sur la formation éthique des catholiques pour prendre conscience que cette technologie, bien qu’admirable techniquement, est dangereuse.
Voici un exemple : https://twitter.com/_SaxX_/status/1617977381364568064
Mais vous avez raison, l’arrivée de technologie de ce style devrait nous remettre en question. Et il faut créer le débat de nous-mêmes, sinon la technologie avancera, et l’Église continuera d’être « en retard », ne comprenant pas ce qui est en train d’avancer. Il est temps (s’il n’est pas trop tard) de comprendre et d’expliciter les dangers de ces technologies !
Chaque nouvelle techno suscite des peurs. Dans les années 90, des profs d’université s’alarmaient que leurs étudiants aillent chercher des infos, voire des exercices corrigés, sur Internet. L’avénement des SMS et leur vocabulaire particulier (« slt T ki toi ? ») alarmaient les profs de français (lesquels font semblant d’ignorer leur propre responsabilité dans l’illettrisme de leurs élèves, mais ça, c’est un autre débat). Les premiers traducteurs automatiques, les sites de téléchargement gratos, les réseaux sociaux style Facebook, Twitter, TikTok, ont eux aussi généré des craintes diverses et variées. Idem pour ChatGPT (que je viens de tester : c’est génial !)