EnglishEspañolPolskie

Les dangers de l’IA (intelligence artificielle) selon l’Église catholique

le samedi, 01 mars 2025. Dans Intelligence Artificielle

Dossier spécial

Comme on a pu le lire dans l'article précédent, l'intelligence artificielle, ou IA, est une nouvelle technologie qui prend de plus en plus de place aujourd'hui et qui entraîne plusieurs interrogations, allant jusqu'à menacer la nature même et la survie de la personne humaine. Le pape François a fait plusieurs déclarations sur le sujet de l'IA et de ses dangers potentiels, par exemple dans son discours aux dirigeants du G7, en juin 2024 (voir page 18). Tout récemment, le 28 janvier 2025, à la demande du Saint-Père, le Dicastère pour la Doctrine de la Foi ainsi que le Dicastère pour la Culture et l'Éducation ont émis une note intitulée « Antiqua et nova » portant « sur la relation entre l'intelligence artificielle et l'intelligence humaine », expliquant plus en détail les limites et dangers de l'IA. En voici les principaux points.

Alain Pilote


Avec une sagesse à la fois ancienne et nouvelle (en latin, antiqua et nova) (cf. Mt 13,52), nous sommes appelés à considérer les défis et les opportunités d'aujourd'hui posés par les connaissances scientifiques et technologiques, en particulier le développement récent de l'intelligence artificielle (IA).

L'IA peut… générer ainsi de nouveaux « artefacts » avec un niveau de rapidité et de compétence qui égale ou dépasse souvent les capacités humaines, comme la génération de textes ou d'images impossibles à distinguer des compositions humaines, ce qui soulève des préoccupations quant à son influence possible sur la crise croissante de la vérité dans le débat public.

L'IA marque une nouvelle phase importante dans la relation de l'humanité avec la technologie, au cœur de ce que le pape François a décrit comme un « changement d'époque ». Son influence se fait sentir à l'échelle mondiale dans un large éventail de domaines, notamment les relations interpersonnelles, l'éducation, le travail, les arts, les soins de santé, le droit, la guerre et les relations internationales.

La différence entre l'IA et l'intelligence humaine

Puis le document du Vatican explique la différence fondamentale entre l'intelligence artificielle et l'intelligence humaine : « Ses caractéristiques avancées confèrent à l'IA des capacités sophistiquées d'exécution de tâches, mais pas la capacité de penser. » Et contrairement à la machine, l'être humain a aussi un corps, des sentiments, des relations avec d'autres personnes, et finalement une âme — et donc, la connaissance de ce qui est bien ou mal, contrairement à la machine qui ne tient pas compte de l'aspect moral des choses :

Dans ce contexte, l'intelligence humaine apparaît plus clairement comme une faculté qui fait partie intégrante de la manière dont la personne entière s'engage dans la réalité. L'engagement authentique exige d'embrasser toute l'étendue de l'être : spirituel, cognitif, incarné et relationnel...  Une conception correcte de l'intelligence humaine ne peut donc pas être réduite à la simple acquisition de faits ou à la capacité d'accomplir certaines tâches spécifiques ; elle implique au contraire l'ouverture de la personne aux questions ultimes de la vie et reflète une orientation vers le Vrai et le Bien (note de Vers Demain : c'est-à-dire Dieu, dont l'existence n'est pas mesurable par un ordinateur)

En revanche, l'IA, dépourvue de corps physique, s'appuie sur le raisonnement et l'apprentissage computationnels à partir de vastes ensembles de données comprenant des expériences et des connaissances pourtant collectées par des êtres humains.

Par conséquent, bien que l'IA puisse simuler certains aspects du raisonnement humain et exécuter certaines taches avec une rapidité et une efficacité incroyables, ses capacités de calcul ne représentent qu'une fraction des possibilités les plus larges de l'esprit humain. Ainsi, elle ne peut pas actuellement reproduire le discernement moral et la capacité d'établir d'authentiques relations.

En outre, l'intelligence de la personne s'insère à l'intérieur d'une histoire de formation intellectuelle et morale vécue à un niveau personnel, qui modèle de façon essentielle la perspective de chaque personne, en impliquant les dimensions physique, émotive, sociale, morale et spirituelle de sa vie. Comme l'IA ne peut offrir cette profondeur de compréhension, des approches fondées uniquement sur cette technologie ou qui la prennent comme chemin d'accès principal à l'interprétation du monde peuvent amener à faire « perdre le sens de la totalité, des relations qui existent entre les choses, d'un horizon large »...

Comme l'IA ne possède pas la richesse de la corporalité, de la relationnalité et de l'ouverture du cœur humain à la vérité et à la bonté, ses capacités, bien qu'apparemment infinies, sont incomparables à la capacité humaine d'appréhender la réalité. On peut apprendre beaucoup d'une maladie, tout comme on peut apprendre d'une étreinte de réconciliation, et même d'un simple coucher de soleil. Tout ce que nous vivons en tant qu'êtres humains nous ouvre de nouveaux horizons et nous offre la possibilité d'atteindre une nouvelle sagesse. Aucun appareil, qui ne fonctionne qu'avec des données, ne peut égaler ces expériences et tant d'autres dans nos vies.

À la lumière de cela, comme le note le Pape François, « l'utilisation même du mot "intelligence" » en référence à l'IA « est trompeuse » et risque de négliger ce qu'il y a de plus précieux dans la personne humaine. Dans cette perspective, l'IA ne doit pas être considérée comme une forme artificielle d'intelligence, mais comme l'un de ses produits.

Le rôle de la morale dans l'utilisation de l'IA

Assistance robotique« Certains se sont tournés vers l’IA à la recherche de relations humaines profondes, d’une simple compagnie ou même de liens affectifs. Cependant, tout en reconnaissant que les êtres humains sont faits pour vivre des relations authentiques, il faut rappeler que l’IA ne peut que les simuler. »

Considérées comme le fruit des potentialités inscrites dans l'intelligence humaine, la recherche scientifique et le développement des compétences techniques font partie de la « collaboration de l'homme et de la femme avec Dieu pour amener la création visible à la perfection ». En même temps, toutes les réalisations scientifiques et technologiques sont en fin de compte des dons de Dieu. Par conséquent, les êtres humains doivent toujours utiliser leurs dons en vue de l'objectif supérieur pour lequel il les a accordés.

Néanmoins, toutes les innovations technologiques ne représentent pas en elles-mêmes un véritable progrès. L'Église est donc particulièrement opposée aux applications qui menacent le caractère sacré de la vie ou la dignité de la personne. Comme toute autre entreprise humaine, le développement technologique doit être orienté vers le service de la personne et contribuer aux efforts visant à atteindre « une plus grande justice, une plus grande fraternité et un ordre plus humain des relations sociales », qui sont « plus précieux que le progrès dans le domaine technique » (Gaudium et spes, n. 35).

Comme tout produit de l'ingéniosité humaine, l'IA peut être utilisée à des fins positives ou négatives. Lorsqu'elle est utilisée de manière à respecter la dignité humaine et à promouvoir le bien-être des individus et des communautés, elle peut contribuer favorablement à la vocation humaine. Toutefois, comme dans tous les domaines où l'être humain est appelé à prendre des décisions, l'ombre du mal s'étend ici aussi. Là où la liberté humaine permet de choisir le mal, l'évaluation morale de cette technologie dépend de la manière dont elle est orientée et employée.

Outre la détermination des responsabilités, il convient d'établir les finalités assignées aux systèmes d'IA. Bien qu'ils puissent utiliser des mécanismes d'apprentissage autonome non supervisés et suivre parfois des chemins qui ne peuvent être reconstruits, ils poursuivent en fin de compte des objectifs qui leur ont été assignés par l'homme et sont régis par des processus établis par ceux qui les ont conçus et programmés. Il s'agit là d'un défi car, à mesure que les modèles d'IA deviennent de plus en plus capables d'apprentissage autonome, la possibilité d'exercer un contrôle sur eux afin de s'assurer que ces applications servent les objectifs humains peut être réduite. Cela pose le problème crucial de savoir comment s'assurer que les systèmes d'IA sont commandés pour le bien des personnes et non contre elles.

Les dangers de l'IA

Parce que « la vraie sagesse présuppose une rencontre avec la réalité », les progrès de l'IA présentent un défi supplémentaire : comme elle peut effectivement imiter les travaux de l'intelligence humaine, on ne peut plus considérer comme acquise la capacité de comprendre si l'on interagit avec un être humain ou une machine. Bien que l'IA « générative » soit capable de produire du texte, de la parole, des images et d'autres résultats avancés qui sont généralement l'œuvre d'êtres humains, elle doit être considérée pour ce qu'elle est : un outil et non une personne. Cette distinction est souvent obscurcie par le langage utilisé par les praticiens, qui tend à anthropomorphiser (rendre semblable à l'homme) l'IA et donc à brouiller la frontière entre ce qui est humain et ce qui est artificiel.

Dans ce contexte, il est important de préciser que, malgré l'utilisation d'un langage anthropomorphique, aucune application d'IA ne peut véritablement éprouver de l'empathie (se préoccuper des autres). Les émotions ne peuvent être réduites à des expressions faciales ou à des phrases générées en réponse à des messages ; elles reflètent la manière dont une personne, dans son ensemble, se rapporte au monde et à sa propre vie, le corps jouant un rôle central. La véritable empathie requiert la capacité d'écouter, de reconnaître l'unicité irréductible de l'autre, d'accueillir son altérité et de saisir le sens de même derrière ses silences.

Contrairement à la sphère des jugements analytiques, dans laquelle l'IA prédomine, la véritable empathie existe dans la sphère relationnelle. Elle implique de percevoir et de faire sienne l'expérience de l'autre, tout en maintenant la distinction de chaque individu. Bien que l'IA puisse simuler des réponses empathiques, la nature nettement personnelle et relationnelle de l'empathie authentique ne peut être reproduite par des systèmes artificiels.

Par conséquent, il faut toujours éviter de présenter l'IA comme une personne, et le faire à des fins frauduleuses constitue une grave violation de l'éthique susceptible d'éroder la confiance sociale. De même, l'utilisation de l'IA pour tromper dans d'autres contextes – tels que l'éducation ou les relations humaines, y compris la sphère de la sexualité – doit être considérée comme contraire à l'éthique et nécessite une vigilance particulière afin de prévenir d'éventuels dommages, de maintenir la transparence et de garantir la dignité de tous.

Dans un monde de plus en plus individualiste, certains se sont tournés vers l'IA à la recherche de relations humaines profondes, d'une simple compagnie ou même de liens affectifs. Cependant, tout en reconnaissant que les êtres humains sont faits pour vivre des relations authentiques, il faut rappeler que l'IA ne peut que les simuler...

Si nous remplaçons ces relations (avec les autres) et la relation avec Dieu par des moyens technologiques, nous risquons de remplacer la relation authentique par un simulacre sans vie (cf. Ps 160,20 ; Rm 1,22-23). Au lieu de nous retirer dans des mondes artificiels, nous sommes appelés à nous impliquer de manière sérieuse et engagée dans le monde, au point de nous identifier aux pauvres et aux souffrants, de consoler ceux qui souffrent et de créer des liens de communion avec tous.

L'IA et le monde du travail

Le monde du travail est un autre domaine où l'impact de l'IA se fait déjà profondément sentir. Comme dans beaucoup d'autres domaines, elle provoque des transformations substantielles dans de nombreuses professions, avec des effets divers...

L'IA supprime la nécessité de certaines activités précédemment exercées par les humains. Si elle est utilisée pour remplacer les travailleurs humains plutôt que pour les accompagner, il existe un « risque substantiel d'avantage disproportionné pour quelques-uns au détriment de l'appauvrissement du plus grand nombre ». En outre, à mesure que l'IA devient plus puissante, le travail risque de perdre sa valeur dans le système économique... Dans cette perspective, l'IA devrait assister et non remplacer le jugement humain.

La désinformation, les « deepfakes »

L'IA soutient également la dignité de la personne humaine lorsqu'elle est utilisée comme une aide à la compréhension de faits complexes ou comme un guide vers des ressources valables dans la recherche de la vérité. Cependant, il existe également un risque sérieux que l'IA génère des contenus manipulés et de fausses informations qui, étant très difficiles à distinguer des données réelles, peuvent facilement induire en erreur...

Les conséquences de ces aberrations et de ces fausses informations peuvent être très graves. Par conséquent, tous ceux qui produisent et utilisent l'IA devraient s'engager à garantir la véracité et l'exactitude des informations traitées par ces systèmes et diffusées au public.

Si l'IA a le potentiel latent de générer des contenus fictifs, il existe un problème encore plus préoccupant, celui de son utilisation intentionnelle à des fins de manipulation. Cela peut se produire, par exemple, lorsqu'un opérateur humain ou une organisation génère et diffuse intentionnellement des informations, telles que des images, des vidéos et des deepfakes audio, dans le but de tromper ou de nuire. Un deepfake est une fausse représentation d'une personne qui a été modifiée ou générée par un algorithme d'intelligence artificielle. Le danger que représentent les deepfakes est particulièrement évident lorsqu'ils sont utilisés pour cibler ou nuire à quelqu'un : bien que les images ou les vidéos puissent être artificielles en elles-mêmes, les dommages qu'elles causent sont réels et laissent « de profondes cicatrices dans le cœur de la personne qui les subit », qui se sent ainsi « blessée dans sa dignité humaine ».

Plus généralement, en faussant « la relation avec les autres et avec la réalité », les produits audiovisuels contrefaits générés par l'IA peuvent progressivement saper les fondements de la société. Cela nécessite une réglementation rigoureuse, car la désinformation, en particulier par le biais de médias contrôlés ou influencés par l'IA, peut se propager involontairement et alimenter la polarisation politique et le mécontentement social.

En effet, lorsque la société devient indifférente à la vérité, divers groupes construisent leurs propres versions des « faits », ce qui affaiblit les « relations et interdépendances » qui sous-tendent la vie sociale. Comme les « deepfakes » incitent les gens à tout remettre en question et que le faux contenu généré par l'IA érode la confiance dans ce qui est vu et entendu, la polarisation et les conflits ne feront que s'aggraver.

Cette tromperie généralisée n'est pas un problème mineur : elle touche au cœur de l'humanité, démolissant la confiance fondamentale sur laquelle les sociétés sont construites. (Note de Vers Demain : On se rappellera que les mots crédit social signifient aussi confiance, la confiance qu'on puisse vivre ensemble en société et ne pas craindre notre voisin.)

IA, vie privée et surveillance

Assistant vocal Google«L'IA peut s'avérer encore plus séduisante que les idoles traditionnelles car, contrairement aux idoles qui "ont une bouche et ne parlent pas, des yeux et ne voient pas, des oreilles et n'entendent pas" (Ps. 115, 5-6), l'IA peut "parler" ou,, du moins, en donner l'illusion.» (cf. Apoc. 13, 15).

S'il existe des moyens légitimes et appropriés d'utiliser l'IA dans le respect de la dignité humaine et du bien commun, rien ne justifie qu'elle soit utilisée à des fins de contrôle et d'exploitation, pour restreindre la liberté des individus ou pour profiter à quelques-uns au détriment du plus grand nombre. Le risque de surveillance excessive doit être contrôlé par des organismes de contrôle appropriés, de manière à garantir la transparence et la responsabilité publique. Les personnes chargées de ce contrôle ne devraient jamais outrepasser leur autorité, qui doit toujours être en faveur de la dignité et de la liberté de chaque personne en tant que base essentielle d'une société juste et à dimension humaine.

En outre, « le respect fondamental de la dignité humaine postule que l'unicité de la personne ne doit pas être identifiée à un ensemble de données ». Cela s'applique particulièrement aux utilisations de l'IA liées à l'évaluation d'individus ou de groupes sur la base de leur comportement, de leurs caractéristiques ou de leur histoire, une pratique connue sous le nom de « notation sociale ». (Note de Vers Demain, cela rappelle par exemple l'infâme système de « crédit social » chinois, qui accorde précisément une note ou des points aux citoyens, selon qu'ils observent ou non les règlements du gouvernement communiste.)

L'IA et la guerre

Si les capacités analytiques de l'intelligence artificielle peuvent être utilisées pour aider les nations à rechercher la paix et à garantir la sécurité, « l'utilisation de l'intelligence artificielle en temps de guerre » peut s'avérer très problématique... La facilité avec laquelle les armes, rendues autonomes, rendent la guerre plus viable va à l'encontre du principe même de la guerre comme dernier recours en cas de légitime défense, augmentant les moyens de guerre bien au-delà de la portée du contrôle humain et accélérant une course aux armements déstabilisante avec des conséquences dévastatrices pour les droits de l'homme.

En particulier, les systèmes d'armes autonomes létales, capables d'identifier et de frapper des cibles sans intervention humaine directe, sont « une grave source de préoccupation éthique », car ils sont dépourvus de la « capacité humaine exclusive de jugement moral et de prise de décision éthique ». Pour ces raisons, le pape François a appelé de toute urgence à repenser le développement de ces armes afin d'en interdire l'utilisation, « en commençant déjà par un engagement proactif et concret pour introduire un contrôle humain toujours plus grand et significatif. Aucune machine ne devrait jamais choisir de prendre la vie d'un être humain ».

L'écart entre les machines capables de tuer de manière précise et autonome et celles capables de destruction massive étant faible, certains chercheurs travaillant dans le domaine de l'IA ont exprimé leur inquiétude quant au « risque existentiel » que représente une telle technologie, capable d'agir de manière à menacer la survie de l'humanité ou de régions entières... L'IA, comme tout autre outil, est une extension du pouvoir de l'humanité, et bien que nous ne puissions pas prédire tout ce qu'elle sera capable d'accomplir, on sait malheureusement bien ce que les humains sont capables de faire. Les atrocités déjà commises au cours de l'histoire de l'humanité suffisent à susciter de vives inquiétudes quant aux abus potentiels de l'IA.

L'IA et notre relation avec  Dieu

Dans certains cercles de scientifiques et de futurologues, un certain optimisme règne quant au potentiel de l'intelligence artificielle générale (IAG), une forme hypothétique d'IA qui pourrait rattraper ou surpasser l'intelligence humaine et conduire à des progrès dépassant l'imagination. Certains pensent même que l'IAG serait capable d'atteindre des capacités surhumaines. Alors que la société s'éloigne du lien avec le transcendant, certains sont tentés de se tourner vers l'IA en quête de sens ou d'épanouissement, des désirs qui ne peuvent trouver leur véritable satisfaction que dans la communion avec Dieu.

Cependant, la présomption de remplacer Dieu par une œuvre de ses propres mains est une idolâtrie, contre laquelle l'Écriture Sainte met en garde (par exemple Ex 20, 4 ; 32, 1-5 ; 34, 17). En outre, l'IA peut être encore plus séduisante que les idoles traditionnelles : en effet, contrairement à ces dernières, qui « ont une bouche et ne parlent pas, des yeux et ne voient pas, des oreilles et n'entendent pas » (Ps 115, 5-6), l'IA peut « parler » ou, du moins, en donner l'illusion (cf. Ap 13, 15). (Note de Vers Demain, ce verset de l'Apocalypse fait référence à la « Marque de la Bête » avec laquelle on ne pourra ni acheter ni vendre.)

L'IA ne peut pas disposer de nombreuses capacités propres à la vie humaine et elle est également faillible. Par conséquent, en cherchant en elle un « Autre » plus grand avec lequel partager son existence et sa responsabilité, l'humanité risque de créer un substitut de Dieu... Bien qu'elle puisse être mise au service de l'humanité et contribuer au bien commun, l'IA reste un produit de la main de l'homme, portant « l'empreinte de l'art et de l'ingéniosité humaine » (Ac 17, 29), auquel il ne faut jamais attribuer une valeur disproportionnée.

Réflexions finales

Robot d'accompagnement« La question essentielle et fondamentale reste de savoir « si l’homme, en tant qu’homme, dans le contexte de ce progrès, devient vraiment meilleur », c’est-à-dire plus mûr spirituellement, plus conscient de la dignité de son humanité, plus responsable, plus ouvert aux autres. »

La « question essentielle et fondamentale » reste toujours de savoir « si l'homme, en tant qu'homme, dans le contexte de ce progrès, devient vraiment meilleur, c'est-à-dire plus mûr spirituellement, plus conscient de la dignité de son humanité, plus responsable, plus ouvert aux autres, en particulier aux plus nécessiteux et aux plus faibles, plus disposé à donner et à apporter de l'aide à tous » (Jean-Paul II, Lettre. encyclique Redemptor hominis, n. 15.

Il est donc essentiel de pouvoir évaluer de manière critique les applications individuelles dans des contextes particuliers afin de déterminer si elles promeuvent ou non la dignité et la vocation humaines et le bien commun. Comme pour de nombreuses technologies, les effets des différentes applications de l'IA ne sont pas toujours prévisibles dès le départ.

Dans la mesure où ces applications et leur impact social deviennent plus clairs, un retour d'information approprié devrait commencer à être fourni à tous les niveaux de la société, conformément au principe de subsidiarité. Il est important que les utilisateurs individuels, les familles, la société civile, les entreprises, les institutions, les gouvernements et les organisations internationales, chacun à leur niveau, s'efforcent de garantir que l'utilisation de l'IA est appropriée pour le bien de tous.

L'IA ne devrait être utilisée que comme un outil complémentaire à l'intelligence humaine et ne devrait pas en remplacer la richesse. Cultiver les aspects de la vie humaine qui vont au-delà du calcul est essentiel pour préserver une « humanité authentique », qui « semble habiter au milieu de la civilisation technologique, presque imperceptiblement, comme un brouillard filtrant sous une porte fermée ».

La vraie sagesse

Aujourd'hui, l'immense étendue des connaissances est accessible d'une manière qui aurait émerveillé les générations passées ; cependant, pour éviter que le progrès de la science ne reste humainement et spirituellement stérile, il faut aller au-delà de la simple accumulation de données et viser la vraie sagesse.

Cette sagesse est le don dont l'humanité a le plus besoin pour faire face aux questions profondes et aux défis éthiques posés par l'IA : « Ce n'est qu'en nous dotant d'un regard spirituel, qu'en retrouvant une sagesse du cœur, que nous pourrons lire et interpréter la nouveauté de notre temps »... L'humanité ne peut pas « exiger cette sagesse des machines », car elle « se laisse trouver par ceux qui la cherchent et se laisse voir par ceux qui l'aiment ; elle devance ceux qui la désirent et va à la recherche de ceux qui en sont dignes (cf. Sg 6, 12-16) ».

Dans un monde marqué par l'IA, nous avons besoin de la grâce de l'Esprit Saint, qui « nous permet de voir les choses avec les yeux de Dieu, de comprendre les liens, les situations, les événements et d'en découvrir le sens ».

Puisque « ce qui mesure la perfection des personnes, c'est leur degré de charité, et non la quantité de données et de connaissances qu'elles peuvent accumuler », la manière dont l'intelligence artificielle est adoptée « pour inclure les derniers, c'est-à-dire les frères et les sœurs les plus faibles et les plus nécessiteux, est la mesure révélatrice de notre humanité ». Cette sagesse peut éclairer et guider une utilisation centrée sur l'homme de cette technologie qui, en tant que telle, peut aider à promouvoir le bien commun, à prendre soin de la « maison commune », à faire progresser la recherche de la vérité, à soutenir le développement humain intégral, à encourager la solidarité et la fraternité humaines et à conduire l'humanité à son but ultime : la communion heureuse et pleine avec Dieu.

Le Souverain Pontife François, lors de l'audience accordée le 14 janvier 2025 aux soussignés, Préfets et Secrétaires du Dicastère pour la Doctrine de la Foi et du Dicastère pour la Culture et l'Éducation, a approuvé cette Note et en a ordonné la publication.

Donné à Rome, au siège du Dicastère pour la Doctrine de la Foi et du Dicastère pour la Culture et l'Éducation, le 28 janvier 2025, le Mémorial liturgique de saint Thomas d'Aquin, Docteur de l'Église.

Poster un commentaire

Vous êtes indentifier en tant qu'invité.

Panier

Dernière parution

Infolettre & Magazine

Sujets

Faire un don

Faire un don

Aller au haut
JSN Boot template designed by JoomlaShine.com