Introduction : Cinq thèses sur les limites des systèmes d’IA

1 Lorsque des personnalités telles que Bill Gates ou Elon Musk mettent aujourd’hui publiquement en garde contre les dangers des systèmes d’IA, le profane technique n’hésite pas à associer ces avertissements aux dystopies de la science-fiction. Des films tels que Terminator, Blade Runner et Ex Machina ont façonné la conception publique de ce que les systèmes d’IA sont censés être : Il s’agit généralement d’un robot doté d’une enveloppe humanoïde et d’une intelligence humanoïde, ou encore d’un agent logiciel virtuel comme l’ordinateur de bord HAL dans 2001 : l’Odyssée de l’espace de Stanley Kubrick. Les profanes ne sont pas les seuls à partager cette idée presque réglementaire de notre avenir : de nombreux experts pensent que de tels systèmes d’IA apparaîtront bientôt, des systèmes destinés à ressembler étonnamment aux humains, tout en étant beaucoup plus intelligents que nous (Bostrom, 2014 ; Kurzweil, 2006). Si nous adoptions sans esprit critique ce prétendu scénario, nous devrions craindre les systèmes d’IA décrits autant que l’homme antique craignait le monde des dieux (qui étaient représentés sous une forme similaire à celle de l’homme). Il ne faut cependant pas oublier que les récits de science-fiction ne sont rien d’autre que des légendes modernes. Bien entendu, l’histoire des idées s’est toujours nourrie d’un regard critique sur les légendes. Les légendes sont importantes pour la pensée critique. Elles ne doivent cependant pas servir de base à la détermination des politiques publiques et à la prise de décisions économiques.

 Dans cet article, je soutiens que les systèmes d’IA ne sont en aucun cas « héroïques » ou « superintelligents », comme le suggèrent les légendes contemporaines. J’ai plutôt l’intention de décrire ces systèmes tels qu’ils sont dans leur capacité de traitement limitée. Ce traitement objectif semble se faire attendre depuis longtemps, car des documents politiques tels que le National Defense Authorization Act (Congrès américain, 2018) décrivent les systèmes d’IA comme « semblables à des humains » et, ce faisant, s’approchent de manière choquante de la science-fiction. Au-delà du Congrès américain, l’idée est devenue si omniprésente que des entités politiques ont commencé à envisager d’accorder des droits « semblables à ceux des humains » aux systèmes d’IA (« Robot Rights » ; Gunkel, 2018). Des citoyennetés nationales ont même été accordées à ces systèmes (Hatmaker, 2017) et l’idée d’une entité juridique distincte pour l’IA a été évoquée dans des documents officiels du Parlement européen (Krempl, 2018). Attribuer une nature humaine aux systèmes d’IA en leur conférant des droits correspondants peut porter atteinte à la liberté et à la dignité des êtres humains, mais de manière très grave. De nouvelles normes éthiques pour traiter avec cette nouvelle « espèce » deviendraient nécessaires dans tous les domaines de la vie. Est-il répréhensible de donner un coup de pied à un robot ? Est-ce que nous tuons un robot lorsque nous le désactivons ou que nous coupons son alimentation électrique ? Le fait de tromper son partenaire avec un robot porterait-il atteinte à la dignité du partenaire humain ? Un éventail pratiquement inépuisable de questions éthiques se poserait, avec le volume correspondant de réglementations qui en résulteraient. Le présent article se concentre donc spécifiquement sur la question de savoir s’il est acceptable de qualifier les systèmes d’IA de semblables à l’homme. Je ne présente que quelques comparaisons modestes des capacités cognitives des systèmes d’IA avec celles de l’intelligence humaine. Je ne doute pas qu’à l’avenir, les systèmes d’IA disposeront d’une puissance informatique encore plus impressionnante qu’aujourd’hui. À condition que l’IA dispose de données d’entrée de haute qualité, qu’elle soit entraînée et sensible au contexte, elle pourrait devenir si puissante qu’elle ne sera pas seulement utile dans des domaines d’application étroitement définis, mais qu’elle pourra réellement enrichir les processus de décision humains. Cependant, malgré cet espoir d’amélioration des performances, les systèmes d’IA ne deviendront jamais semblables aux humains pour les raisons suivantes, inhérentes à leur nature :

  1. les systèmes d’IA disposent de peu d’informations de type humain
  2. les systèmes d’IA ne peuvent pas réagir comme des humains
  3. les systèmes d’IA ne peuvent pas penser comme des humains
  4. les systèmes d’IA n’ont pas de motivation humaine
  5. les systèmes d’IA ne disposent pas d’une autonomie comparable à celle de l’homme

Ces cinq thèses reposent sur l’hypothèse que les systèmes informatiques continueront à être fabriqués à partir de matériaux inorganiques et fonctionneront de manière numérique2

Sur la distinction classique entre la raison (« Vernunft ») et l’intelligence (« Intelligenz »)

Permettez-moi de préciser d’emblée que je m’appuie sur la distinction classique entre la raison (« Vernunft ») et l’intelligence (« Intelligenz »), deux termes qui semblent être fréquemment confondus dans notre monde moderne3 : Pour les grands philosophes, de l’Antiquité classique jusqu’à la fin du Moyen Âge, la raison humaine (« Vernunft ») est la capacité de rassembler des arguments rationnels, des données et des faits, etc., de les comprendre et de les combiner d’une manière factuellement logique (grec : dianoia, latin : ratio). Les êtres humains normaux peuvent apprendre à agir avec raison, par exemple à collecter des informations, à s’en souvenir, à les retrouver et à les combiner. L’être humain a la plupart du temps le contrôle de ce processus. Contrairement à la raison, l’intelligence (« Intelligenz, Verstand », grec : noûs, latin : intellectus) consiste en la capacité de comprendre véritablement l’information, de séparer ce qui est important de ce qui ne l’est pas, de faire des abstractions, de réfléchir plus avant ou simplement de voir ce qui est crucial dans une affaire donnée et ce qui ne l’est pas. Les humains ont peu de contrôle sur cet intellectus : On ne peut pas se forcer à comprendre quelque chose que l’on ne comprend pas.4 C’est pourquoi nous attribuons à l’homme des degrés divers d’une intelligence unique.

Or, comment l’intelligence se manifeste-t-elle par opposition à la raison rationnelle ? Tout d’abord, elle est ressentie par le corps : La tension artérielle augmente au moment où l’on se réjouit d’avoir compris quelque chose, ou l’on jouit d’une certaine aisance lorsque sa propre expertise correspond aux exigences d’une mission (Csikszentmihalyi, 1991). Deuxièmement, il n’est guère possible de récapituler point par point ce qui a exactement provoqué le moment de la compréhension ou de l’« illumination ». La véritable compréhension, qui est immanente à l’action intelligente (et non pas mécanique), ne peut être rendue tangible (dingfest) que dans une mesure limitée, et encore moins être récapitulée dans des unités d’information clairement délimitées5. Troisièmement, il convient de noter que l’intelligence – par opposition à la raison – est désignée dans les études classiques par le terme « noûs », le même mot que le français « nous », l’allemand « wir » et l’anglais « we »6. Cette racine étymologique commune renvoie à l’idée que l’intelligence est en quelque sorte liée à l’établissement d’un lien avec le monde qui nous entoure : les choses, la nature ou d’autres personnes, etc. L’intelligence est une forme de compréhension partagée7. Lorsqu’il est impossible de construire ce type de compréhension partagée, nous sommes prompts à dire : « Je n’arrive pas à faire le lien ! », ce qui veut dire que l’on n’arrive pas à établir ce « noûs ».

Ce concept de « connexion au monde » me semble central pour comprendre la différence entre l’intelligence humaine et l’intelligence artificielle8. Il est constitutif de la distinction entre raison et intelligence : La raison décompose une situation de manière neutre en éléments individuels, les analyse objectivement sans réaction corporelle et prend des décisions qui sont aussi clairement compréhensibles que possible point par point. L’intelligence, quant à elle, exige que nous nous liions à une chose, qu’elle ait un sens pour nous. La conclusion de cet article sera que les systèmes d’IA peuvent exercer la raison, mais ne sont pas intelligents. La raison en est finalement que les systèmes d’IA ne sont pas capables de se connecter au monde de manière intelligente ; le monde « ne signifie rien pour eux », il n’y a pas de « noûs » perceptible pour eux.

Les systèmes d’IA disposent de peu d’informations comparables à celles des humains

Les êtres humains sont des systèmes corps/âme hautement sensibles et intégrés (Damasio/Everitt/ Bishop, 1996) qui sont en résonance permanente avec leur environnement (Rosa, 2016). En effet, les humains sont des systèmes si puissants qu’à l’heure actuelle, certains scientifiques affirment que nous ne pouvons plus éviter la théorie selon laquelle nous nous considérons comme des ordinateurs quantiques ambulants (Wendt, 2015). Même si je ne peux pas juger ici de la validité de cette théorie, je pense que nous sommes tous d’accord pour dire que les êtres humains utilisent en permanence tout leur corps pour traiter les informations optiques, acoustiques, tactiles, gustatives et olfactives de leur environnement. « Notre perception… est… le produit de formes de perception synesthésique spécifiques au corps », écrit Johannes Hoff. Par conséquent, les systèmes d’IA semblables à l’homme nécessiteraient d’abord un « corps » moteur-sensoriel doté des mêmes pouvoirs et traitant l’environnement d’une manière aussi complète. Cependant, l’état de l’art est encore loin d’y parvenir. Les superordinateurs les plus puissants d’aujourd’hui ne peuvent simuler qu’un à deux pour cent de l’activité neuronale d’un cerveau humain, ce qui nécessite mille fois plus d’énergie que ce dont a besoin notre système biologique (Meier, 2017)9. Un cerveau humain compte plus de 860.000 milliards de neurones reliés entre eux par plus d’un quintillion de synapses. Autrefois, on pensait que les humains apprenaient en modifiant l’efficacité des synapses existantes. Cette idée a également servi de base à l’apprentissage automatique ; c’est pourquoi on dit que les systèmes d’intelligence artificielle forment des « neurones ». Aujourd’hui, cependant, les neurosciences nous apprennent que les humains forment constamment de nouvelles synapses entre les neurones. En d’autres termes : Le cerveau est constamment occupé à se recâbler. Si l’on se fie aux sources techniques, jusqu’à 40 % des synapses d’un neurone sont remplacées chaque jour. C’est ainsi qu’un auteur quelque peu découragé du domaine de l’IA a récemment conclu : « S’il est vrai que les techniques d’IA actuelles font référence aux neurosciences, elles utilisent un modèle de neurones trop simplifié, qui omet des caractéristiques essentielles des vrais neurones, et elles sont connectées d’une manière qui ne reflète pas la réalité de l’architecture complexe de notre cerveau » (p. 35 dans Hawkins, 2017). Ainsi, le fait est que le traitement humain très diversifié, nuancé et riche des informations sur notre environnement est infiniment plus fin et plus flexible que tout ce que nous pouvons attendre des machines dans un avenir prévisible et à des coûts énergétiques viables. Cependant, si les informations collectées par les systèmes d’IA sont différentes et traitées de manière plus approximative, comment un système d’IA peut-il alors être « semblable à l’homme » ? Avec moins de données, moins d’entrées sensorielles et un traitement moins puissant et complètement différent des informations sur l’environnement, les systèmes d’IA continueront probablement à nous paraître « maladroits » pendant un certain temps encore.

Cela dit, les systèmes d’IA ont certainement quelque chose à apporter à ce monde. Un grand nombre de capteurs dont nous, les humains, ne disposons pas peuvent être intégrés dans leurs boîtiers. Et ces informations peuvent être partagées efficacement entre les systèmes d’IA au moyen d’un réseau mondial. En fonction de leur configuration, les systèmes d’IA peuvent par exemple mesurer les niveaux de radioactivité, la chaleur ou l’humidité, déterminer le nombre de réseaux Wifi utilisés dans une zone donnée ou identifier les meubles présents dans les bâtiments à proximité (par exemple lorsque les meubles sont étiquetés avec des puces RFID fonctionnant dans certaines bandes de fréquence). Les systèmes d’IA tels que les robots mobiles pourraient (dans la mesure où cela est officiellement autorisé) accéder au profil sociodémographique de chaque piéton qui passe sur les marchés internationaux de données ou déterminer avec une relative certitude leur humeur présente sur la base d’une analyse optique des expressions faciales. Même si les systèmes d’IA ne peuvent pas se connecter au monde vivant et sensoriel de la même manière que les humains en raison de l’absence de systèmes sensoriels corporels et de l’inexistence de corps vivants semblables à ceux des humains, ils peuvent se mettre en réseau les uns avec les autres et agréger d’énormes quantités de données. Le résultat est une machine-ratio totalement indépendant, qui peut être important pour la vie et les économies humaines mais qui n’est absolument pas humain.

Les systèmes d’IA ne peuvent pas réagir comme des humains

Lorsque l’homme réagit à son environnement, son intelligence au sens de « noûs » se manifeste d’une manière très particulière. Les personnes établissent un lien normal avec le monde en réagissant de manière directe et émotionnelle. Cela est important dans toutes les situations de la vie. Prenons l’exemple d’une situation chargée d’émotion dans laquelle nous sommes témoins d’une injustice. Lorsque nous sommes confrontés à des situations à connotation négative telles que l’injustice, la cruauté, la brutalité ou d’autres qualités similaires, notre langue dispose d’expressions pour exprimer le sentiment de valeurs négatives que nous ressentons directement. Par exemple, nous dirons que ce que nous voyons « nous donne mal au ventre », « nous fait frissonner » ou « nous fait dresser les cheveux sur la tête ». Mais notre compréhension n’est pas seulement guidée par un tel sens des valeurs négatives. La plupart des valeurs qui donnent un sens à notre vie – la sympathie, l’amour, l’amitié, la communauté, la sécurité, etc. – se manifeste à nous, les humains, par le fait que nous nous sentons attirés (ou repoussés) émotionnellement (Scheler, 1921, 2007).

Le sentiment d’attirance ou de répulsion est décisif pour la manière dont nous pouvons être avec le monde.

Il suffit de souligner qu’aucun système informatique ou système d’IA de quelque génération que ce soit ne possède un corps vécu capable d’éprouver de telles sensations ou quoi que ce soit d’analogue. Un boîtier en acier n’a pas de maux d’estomac et aucune émotion ne lui traverse l’échine10. Un robot humanoïde pourrait dire qu’il a mal au ventre. La réaction de la machine consiste alors en cette déclaration linguistique. Cependant, cette simulation d’une similitude avec les humains ne rend pas le système d’IA véritablement humain. Les gens peuvent apprécier la simulation. Mais la simulation ne signifie pas « être semblable à l’homme ». Elle signifie « faire semblant d’être humain ». Les spécialistes conviendront qu’il existe une différence d’importance éthique entre une entité qui « ressemble » à quelque chose et une entité qui « prétend » ressembler à quelque chose.

Un autre aspect intéressant de cet exemple de simulation de maux de ventre et de frissons est que la véritable similitude avec les humains n’est souvent même pas souhaitable pour l’IA. Epley, Waytz et Cacioppo (2007) montrent que de nombreuses personnes apprécient les anthropomorphismes uniquement en raison d’un sentiment de solitude. Ne serait-il pas agréable d’avoir un ami IA très empathique qui soit en même temps si neutre que nous nous sentions réconfortés par l’interaction ? Une interaction qui suit les règles de l’empathie, mais qui est en réalité dépourvue d’émotions, semble de plus en plus être l’idéal pour une génération dont la confiance en l’humanité est au plus bas.11

Selon moi, ce manque de confiance ne rend pas justice à la nature humaine : La capacité humaine à être empathique est corrélée à l’activité des neurones miroirs, qui nous permettent d’être des êtres hautement sociaux qui se sentent proches de leur environnement et sont donc capables de s’en préoccuper réellement (Jenson/Iacoboni, 2011). Les systèmes d’IA, quant à eux, ne possèdent pas de neurones miroirs et ne peuvent donc pas s’en préoccuper. Cela dit, les systèmes d’IA pourraient à moyen terme utiliser davantage de capteurs capables de reconnaître les émotions et les réactions humaines. Les ordinateurs sont déjà capables de mesurer avec précision d’infimes signes faciaux d’émotion, la dilatation des pupilles ou les réactions cutanées. Sur cette base, ils peuvent tirer des conclusions relativement fiables sur l’état d’esprit d’un être humain à un moment donné. En outre, les systèmes d’IA peuvent posséder les compétences techniques nécessaires pour réagir raisonnablement à ces observations12. J’utilise ici intentionnellement le terme « raisonnable », car le système informatique n’est pas capable d’actualiser un « noûs » et de se connecter émotionnellement avec son homologue humain. Il peut cependant calculer un modèle rationnel de l’homologue humain basé sur la « raison » et ensuite effectuer certaines réactions prédéterminées ou apprises. La question est de savoir si nous voulons considérer ces réactions de la machine comme « intelligentes » au sens humain du terme, car en réalité, elles ne sont que rationnelles. Ce qui rend un être humain « intelligent », c’est qu’il ne fait qu’un avec le monde, qu’il comprend émotionnellement et intelligemment l’environnement. Pour cela, il a besoin d’une conscience de soi. Il doit être capable de réagir consciemment à son environnement dans le sens d’une connexion. Si la connexion n’est pas consciente, on conviendra qu’elle n’est pas intelligente, mais subconsciente ou simplement intuitive (comme un animal). Dans le cas des systèmes d’IA, c’est cet aspect de la conscience qui fait défaut : Le système d’IA n’a pas de moi conscient par lequel il pourrait se connecter à son homologue humain, et donc chaque réaction de l’IA doit ironiquement réagir « sans soi ». Bien que cela plaise à de nombreux partisans de l’IA, cela n’a rien d’humain.13

Les systèmes d’IA ne peuvent pas penser comme des humains

Lorsque les systèmes informatiques « pensent », ce qu’ils font en réalité, c’est du calcul. Tout système informatique, y compris toutes les formes d’IA, repose sur des données qui ont été encodées, traitées, classées dans des bases de données, structurées, intégrées fonctionnellement, idéalement décrites avec des métadonnées et éventuellement liées à une ontologie normalisée. Ce qui est souvent décrit comme une fonctionnalité spécifique à l’IA, par exemple l’apprentissage automatique (par exemple avec des réseaux neuronaux profonds), fait précisément partie de cette architecture de traitement des données. Cette fonctionnalité permet non seulement de stocker des données brutes en tant qu’informations, mais aussi de les « représenter » de manière significative, et même de modifier et de faire évoluer ces représentations. Les systèmes d’IA peuvent reconnaître et s’adapter à des modèles, par exemple à notre langue. Ils peuvent ensuite, en combinaison avec les connaissances développées dans le domaine de la linguistique, construire (synthétiser) des modèles construits qui leur permettent de reconnaître, d’analyser et d’exécuter des actes de parole.

Cette agrégation peut être continue dans le traitement des données assisté par l’IA. Les informations et les représentations stockées changent constamment avec l’arrivée de nouvelles données. Si nous observons des visualisations de ces ensembles de données dynamiques en direct sur l’écran, nous pouvons avoir l’impression que ce flux de données et ces objets d’information changeants ont leur propre vivacité, une vivacité que je qualifie d’« existence synthétique ». Cette existence synthétique est impressionnante lorsqu’on la voit à l’œuvre. « Il clignote, il est vivant ! » (Gehring, 2004), pourrait être la réaction étonnée de l’observateur impressionné par un tel système. Mais avec tout l’enthousiasme qui s’impose, nous ne devrions pas assimiler ces visualisations clignotantes à une existence semblable à celle d’un être humain. Il ne s’agit pas de la vie elle-même, mais plutôt d’une instanciation observée des phénomènes réels de la vie (avec de nombreuses couches d’abstraction logique entre les deux). Il ne faut jamais confondre la représentation artificielle et la réalité sous-jacente.

La différence entre la pensée humaine et le traitement artificiel de l’information est que les humains ne calculent généralement pas en utilisant des données à l’aide d’un modèle. Je sais bien sûr qu’en psychologie et en économie, il existe une longue tradition de modélisation de la prise de décision humaine de cette manière. Malheureusement, nous utilisons encore l’idée de l’homo oeconomicus pour représenter l’homme comme une sorte de calculateur de « préférences optimisées ». En psychologie, nous utilisons des modèles tels que la théorie de l’action raisonnée14 pour expliquer comment les êtres humains agissent. Il existe d’innombrables modèles décrivant la pensée humaine. Mais tout scientifique raisonnable sait également que tous ces modèles qui analysent les décisions humaines en construisant des boîtes savent aussi qu’ils ne représentent guère plus qu’une heuristique de la pensée humaine. Cela ne rend pas les modèles superflus. Les heuristiques sont scientifiquement importantes pour notre compréhension de nous-mêmes, de la société et du cosmos dans son ensemble. Mais elles ne sont pas en mesure de représenter complètement ou de prédire de manière fiable le comportement humain. À ceux qui n’aiment pas ce point de vue, nous rappelons gentiment les coefficients de détermination et l’ampleur de l’erreur associés à toute analyse statistique. Ce n’est que dans les cas les plus rares qu’un être humain, dans une situation de prise de décision, fragmente minutieusement les aspects en composantes individuelles ou commence par ces composantes et les recalcule ensemble avec les pondérations appropriées ou suit des modèles identiques.

Au contraire, il semble certain que les êtres humains perçoivent et réorganisent normalement leur environnement en entités holistiques non sommatives, du moins si les deux hémisphères du cerveau fonctionnent ensemble de manière saine (McGilchrist, 2009). L’hémisphère droit, responsable de la perception holistique, interagit avec l’hémisphère gauche, qui structure ce qui a été perçu (par exemple par le centre de la parole) (McGilchrist, 2009). Dès le début du XXe siècle, Edmund Husserl a utilisé le concept classique de noemata pour décrire la nature holistique de notre pensée (Husserl, 1993). Les noemata nous permettent, en tant qu’êtres humains, de saisir les structures de sens (Sinngestalten) d’un phénomène, et nous ne le faisons pas en utilisant des données individuelles dans des calculs pondérés pour créer ces structures, mais nous les réalisons ou elles deviennent intuitivement réelles. Sur la base de ces connaissances, dans le domaine des neurosciences et de la recherche sur la mémoire, on parle de « conscience autonoétique » pour décrire la mémoire épisodique humaine (Baddeley/Eysenck/Anderson, 2015)15. Dans une grande partie de notre pensée, nous, les humains, actualisons ce que nous observons comme des noemata auxquels nous avons donné des noms. En suivant ce raisonnement, nous pourrions dire par exemple qu’un humain peut partager une idée de ce que signifie être bon16. Lorsqu’un incident survient dans l’environnement et que quelqu’un se comporte bien, nous, les humains, le reconnaissons immédiatement. En revanche, un système d’intelligence artificielle n’a pas d’idée commune de ce qui est bon. Il peut être entraîné à reconnaître une séquence d’événements que les êtres humains ont qualifiée de « bonne » ou de « juste » et peut donc intégrer la règle (apprise ou déterminée) selon laquelle un bon humain s’arrête à un feu rouge. Mais le système d’IA ne reconnaît alors que cette seule manifestation de ce qui est bon (s’arrêter au feu rouge). Si quelqu’un franchit le feu rouge pour sauver un enfant, le système d’IA calculera que cet acte n’est pas bon, à moins qu’il n’ait déjà appris exactement cette séquence auparavant (ou qu’il l’ait partagée avec d’autres systèmes d’IA distribués). En revanche, les gens sont immédiatement capables de reconnaître l’idée de bonté dans le scénario de sauvetage. En d’autres termes, un système d’IA suit une « théorie de l’esprit » ascendante (bottom up) de reconnaissance des formes (Feser, 2013). L’être humain, quant à lui, utilise une reconnaissance descendante (top down)des noemata (comme l’idée de ce qui est bon), qui ne peut être exprimée en termes de points de données, mais seulement comme une forme holistique d’être. Cette dynamique de pensée permet à l’espèce humaine de gérer facilement le tsunami non structuré des stimuli environnementaux moteurs, sensoriels, optiques, olfactifs et tactiles. Elle ne nécessite aucune compilation ou traduction en unités de données, aucun prétraitement, aucun « entraînement » à chaque modèle, aucun champ de base de données prédéfini, aucune ontologie, etc.

Bien sûr, je suis consciente que certains scientifiques (de diverses disciplines) n’aiment pas cette description phénoménologique de la façon dont nous pensons. Penser en noemata ? Pas d’unités d’information mesurables et finement délimitées que l’on peut additionner ? Cela les gêne dans leur vision bien structurée et contrôlée du monde. Je peux comprendre ce malaise. Après tout, la majeure partie des scientifiques s’accroche encore à ce que le théologien Johannes Hoff appelle la « métaphysique des briques de Lego » (« Baukästchenmetaphysik »). Il écrit : « Tout comme Johannes Gutenberg a « assemblé » ses plaques d’imprimerie à l’aide de caractères mobiles, le « je » de Kant « synthétise » également les objets perceptibles à partir d’impressions sensorielles « nombreuses et variées »17. Selon Hume, le « je » synthétisant peut même être réduit à un « faisceau de conditions différentes »18 (Hoff, 2020). Il semble toutefois que ce modèle de pensée humaine soit en voie d’extinction. Si nous suivons les dernières découvertes neuroscientifiques, qui s’inscrivent dans une tradition intelligente des sciences humaines, ce qui suit devient clair : « Si l’on peut parler de ‘‘machine’’, le cerveau n’est pas une ‘‘machine à synthétiser’’ ou une ‘‘machine à projeter’’, mais plutôt une ‘‘machine à inhiber’’ ou une ‘‘machine à sélectionner’’. Le cerveau ne génère pas le ‘‘mental’’, mais le contracte en interaction avec d’autres organes et des impressions environnementales correspondantes qui limitent le domaine de possibilité du connaissable et du perceptible à des formes plus ou moins discrètes ».19

La différence entre synthétiser à l’aide d’une machine et penser comme un humain a des implications éthiques. Les systèmes d’IA ne peuvent traiter que les données pour lesquelles ils disposent des représentations techniques correspondantes (c’est-à-dire pour lesquelles ils ont été « formés »). Ils commettront sans cesse les erreurs les plus ridicules tant qu’ils ne disposeront pas d’une représentation pour toutes les situations concevables, en particulier celles qui sont improbables. Il portera des jugements erronés dès qu’il sera confronté à une situation qui n’a pas été incluse dans la « formation ». Cela peut toutefois s’avérer fatal, car toute la vie humaine est en fin de compte une suite de répétitions non identiques et sensibles au contexte.20

Étant donné que les systèmes d’IA peuvent commettre des erreurs qui peuvent être plus que gênantes, voire dangereuses, pour les humains concernés, nous trouvons aujourd’hui presque exclusivement ce que l’on appelle des « IA étroites »21. Ces systèmes d’IA sont formés pour un contexte fermé et hautement défini, dans lequel ils peuvent apprendre les modèles de données théoriquement possibles et même reconnaître des détails et anticiper des développements possibles que les humains ne voient souvent pas. Cependant, cela illustre une fois de plus pourquoi un système d’IA n’est pas du tout semblable à un être humain. L’IA souffre de ce que l’on appelle une « sous-adaptation » dans le contexte ouvert, général et non identiquement répété de la vie partagée par les humains et les groupes. En revanche, elle est plus précise et plus prévoyante qu’un humain dans des contextes fermés où les schémas se répètent. Si l’on ne comprend pas cette différence entre la pensée humaine et le traitement des données effectué par les systèmes d’IA, il peut en résulter une utilisation éthiquement problématique de la technologie. L’utilisation de l’IA est problématique dès lors que la situation complexe de la vie d’un être humain est en jeu. Un exemple est la question de savoir si un individu donné est et restera un criminel, s’il commettra ou a déjà commis un crime, s’il réussira bien dans une université donnée ou dans un emploi donné, etc. Les caractéristiques non identiques des individus humains dans leur répétition non identique de situations de vie, qu’ils vivent dans des contextes non identiques, sont si uniques qu’il est impossible pour un système d’IA de les appréhender. Les systèmes d’IA utilisés au milieu d’un tel terrain de vie général risquent en permanence de ne pas correspondre à la réalité.

Les systèmes d’IA n’ont pas de motivation humaine

Dans la science-fiction, les systèmes d’intelligence artificielle deviennent toujours passionnants lorsqu’ils se fixent leurs propres objectifs ; par exemple, lorsque l’ordinateur de bord HAL, dans le film de Stanley Kubrick 2001 : l’Odyssée de l’espace, commence à se montrer plus malin que le capitaine de la station spatiale. Lorsque les êtres humains se fixent consciemment des objectifs, ils le font parce qu’une action, le résultat de cette action ou une manière d’être leur semble significative et/ou précieuse. Souvent, ces notions ne sont pas des objectifs définis, mais plutôt des valeurs qui exercent un certain attrait sur les êtres humains et les incitent à agir22. La recherche sur la motivation et la recherche comportementale examinent ces mécanismes en détail depuis plusieurs décennies et parlent de « motifs » qui se forment chez les humains de manière générale, contextuelle ou en fonction d’une situation spécifique (Vallerand, 1997). Un être humain peut également avoir une propension générale à adopter un comportement particulier. McClelland distingue par exemple les êtres humains ayant une tendance relativement prononcée au pouvoir, à la réussite ou à l’affiliation (McClelland, 2009). Ces motivations intrinsèques se manifestent à plusieurs reprises dans des contextes récurrents (loisirs, famille, études). Ils se manifestent sous forme de curiosité, de désir d’ordre ou d’un certain idéalisme (Reiss, 2004). Il existe également des motifs entièrement spécifiques à une situation, tels que le désir de gagner ou le désir d’être laissé tranquille. La psychologie part généralement du principe que ces motivations façonnent le comportement humain.

Au vu de ces motifs humains, la question se pose de savoir comment enseigner à un système d’IA des valeurs émotionnellement chargées telles que le pouvoir, l’affiliation, la joie de l’accomplissement ou l’idéalisme. Les systèmes d’IA n’ont ni un accès mental à ces termes sous la forme de noemata, ni un corps vécu qui pourrait leur transmettre la valeur sensorielle de ces motifs. Et même si c’était le cas, le meilleur théoricien ne pourrait pas modéliser précisément un motif tel que le pouvoir ou le besoin de paix ou de calme.

Le point de rencontre entre la psychologie et l’IA se situe toutefois dans le contexte de la simplification des modèles de rapport humain. Prenons par exemple la théorie de la valeur d’attente. Cette théorie postule que l’être humain se livre à une sorte de réflexion préalable dans laquelle il calcule si un certain comportement contribuera à la réalisation des résultats souhaités (Vroom, 1964). Les fonctions de valence d’attente pourraient constituer une base fascinante pour l’optimisation d’un système d’IA. Cependant, un système d’IA n’est capable de représenter que ce que les psychologues appellent des motifs « extrinsèques », par exemple une somme d’argent à obtenir grâce à un comportement donné. Les systèmes d’IA des marchés financiers sont formés avec de telles fonctions d’objectifs monétaires. Toutefois, dès que l’on sort des contextes d’application dans lesquels les motifs extrinsèques sont intégrés dans une simple logique de maximisation et que l’on entre dans les sphères normales de la vie humaine, où les motifs intrinsèques sont poursuivis pour eux-mêmes, les systèmes d’IA deviennent inefficaces parce qu’ils ne peuvent pas se rapporter à l’idée de quelque chose qui est simplement désirable pour lui-même. Il est donc profondément trompeur que certains experts en IA s’aventurent sur le terrain glissant de l’attribution de telles motivations intrinsèques aux systèmes d’IA. Certains utilisent des termes tels que « récompense intrinsèque » avec des titres promettant la « motivation intrinsèque » des systèmes d’IA. Mais si l’on examine de plus près la définition de ces termes et la manière dont ils sont mis en œuvre dans leur système, la « motivation intrinsèque » s’écarte soudain considérablement de ce que la psychologie entend par là. Prenez les travaux de Jürgen Schmidhuber. Dans l’un de ses articles, il associe la motivation intrinsèque à un composant d’apprentissage par renforcement dans un système d’intelligence artificielle, qui intègre une fonction mathématique d’objectif. Cette fonction d’objectif est maximisée en réponse à la découverte de (« surprenants ») nouveaux modèles de données. Elle utilise ensuite ce modèle de maximisation de la nouveauté pour lancer d’autres actions au sein du système. C’est ce que Schmidhuber appelle fièrement la « motivation intrinsèque » (Schmidhuber, 2010) et il semble suggérer que l’IA devient ainsi quelque peu humaine23. Mais la motivation intrinsèque au sens humain du terme n’est pas liée à quelque chose de nouveau ou de surprenant : Bien au contraire ! La motivation intrinsèque est l’expérience (appréciative) de quelque chose qui est répété de manière non identique ou qui est intérieurement désiré comme agréable24. Des moments comme « éprouver un sentiment d’appartenance » ou « être en paix » sont des états qui sont perçus comme émotionnellement familiers25. En outre, la motivation intrinsèque n’a rien à voir avec la maximisation, comme c’est le cas de la « composante de renforcement » de Schmidhuber. En revanche, la maximisation en tant que principe est tout à fait opposée au fait d’agir pour le bien du motif lui-même. Bref : L’emprunt de termes psychologiques par des informaticiens tels que Schmidhuber (2010) est totalement trompeur. La motivation intrinsèque au sens humain ne peut pas être créée dans les systèmes d’IA.

Les systèmes d’IA n’ont pas d’autonomie socialement intégrée

Le dernier grand domaine censé justifier la prétendue similitude des systèmes d’IA avec les humains est leur autonomie potentielle. Le Defense Science Board des États-Unis définit l’autonomie technique d’un système d’IA comme « la capacité [du système d’IA] à composer et à sélectionner de manière indépendante différentes lignes d’action pour atteindre des objectifs sur la base de sa connaissance et de sa compréhension du monde, de lui-même et de la situation » (Summer Report). Cette autonomie technique commence après l’activation du système. Par exemple, lorsqu’un drone est envoyé en mission, il peut être configuré de telle sorte qu’une fois parti, il agisse en fonction des objectifs qu’il s’est lui-même fixés. Ou encore, un réseau électrique peut utiliser les données des compteurs intelligents pour gérer de manière indépendante la stabilité du réseau. Avec cette définition, l’organisme militaire a opté pour le degré le plus élevé de ce qu’il appelle l’« autonomie » : L’intégralité du contrôle appartient à la machine (Parasuraman/Sheridan, 2000). Il faut ici rappeler le point de vue d’Emmanuel Kant, selon lequel on ne peut envoyer un esclave, qui n’est pas du tout autonome (!), « en mission », car il n’est pas possible pour l’esclave de s’envoyer lui-même en mission. L’esclave ne peut pas choisir le type de mission et ne peut pas non plus refuser la mission. Les kantiens qualifieraient donc le degré de liberté d’un drone non pas d’« autonomie », mais d’« hétéronomie ». Une fois de plus, l’informatique utilise un terme dont la définition est très précise en philosophie et, ce faisant, attribue aux machines des capacités qu’elles n’ont pas. L’exception ici est bien sûr les systèmes d’IA de science-fiction, qui choisissent effectivement leurs propres missions et définissent leurs propres objectifs. On parle alors d’« IA générale », qui peut définir ses propres objectifs selon un processus d’apprentissage automatique non supervisé. Si de tels systèmes d’IA n’existent pas à l’heure actuelle, il n’est pas exclu qu’ils puissent exister à l’avenir !

Mais même si un jour de telles « IA générales » voient le jour, elles ne pourront pas ressembler à des êtres humains. Pourquoi ? Dans la « théorie de l’autodétermination », Ryan et Deci (s’appuyant sur la recherche sur la motivation des années 1970) ont prouvé à plusieurs reprises depuis 2000 l’importance des trois facteurs que sont la compétence, l’autonomie et la relation avec les êtres humains (Ryan/Deci, 2000). L’autonomie s’entend ici comme la possibilité de provoquer ses propres actions et de le faire de manière à ce que l’action se déroule en harmonie avec soi-même ; que l’on ne se sente pas forcé par des influences extérieures d’entreprendre certaines actions. Cela ne signifie toutefois pas qu’en vivant cette autonomie, on se libère complètement des désirs, des objectifs et des habitudes du groupe auquel on se sent associé (Deci/Vansteenkiste, 2004). C’est tout le contraire : L’être humain est un zoon politikon, un être social. Cela signifie qu’une décision raisonnable prise par un être humain tient normalement compte de l’environnement social. Les êtres humains vivent une « autonomie socialement intégrée ». Sa liberté s’arrête là où commence celle des autres26. Si l’on considère cette tension entre la propre liberté et la prise de décision «autonome» de l’être humain, qui s’inscrit dans un environnement social, il apparaît rapidement que c’est la vulnérabilité de l’être humain qui contribue de manière essentielle au fait qu’il décide souvent de manière indépendante de penser au nom des autres. Il ne décide pas de manière autonome en tant qu’individu détaché, c’est-à-dire libre de toute influence extérieure27. L’ensemble du corpus aristotélicien de l’éthique de la vertu se préoccupe de ce thème humain qui consiste à maintenir une saine modération et à ne pas avoir d’impact négatif au sein de son groupe par l’exagération ou la sous-estimation de la nature de ses décisions. Cependant, la force qui peut motiver une personne à maintenir cette modération (ou le comportement du «juste milieu») est la vulnérabilité humaine ; la vulnérabilité de ne pas être reconnu par son propre groupe, ou d’être rejeté, ou d’être seul.

C’est précisément là que l’« autonomie » humaine vécue diffère très fondamentalement de l’« autonomie » d’un système d’IA. Cette dernière s’entend avant tout comme la possibilité d’entreprendre une action sur la base de ses propres calculs, sans obtenir la confirmation d’un opérateur. Les préoccupations sociales ne sont pas pertinentes pour la machine, puisqu’elle n’est pas vulnérable. La machine ne s’inquiète pas de ne plus recevoir d’énergie électrique ou d’être jetée à la ferraille, car l’idée de la mort au sens humain ne peut pas être transmise à la machine.28

Vers une définition réfléchie des systèmes d’IA et de leur démarcation par rapport aux humains

Le débat sur la prétendue similitude des systèmes d’IA avec les humains s’est orienté vers une série de caractéristiques pouvant servir de base à la définition de ces systèmes informatiques : leur corps physique, les données et leur traitement, les sources d’objectifs définis et l’autonomie. La figure 1 résume une grande partie de la discussion. La colonne de gauche reprend les manifestations des systèmes d’IA dans nos légendes modernes, c’est-à-dire dans la science-fiction. Les colonnes du milieu et de droite, pertinentes pour le présent traitement, décrivent les systèmes d’IA qui existent dans la pratique ou qui font au moins l’objet d’expériences sérieuses. Les propriétés du système indiquées sur fond bleu sont des propriétés qui nécessitent encore un haut degré de recherche et ne fonctionnent pas encore de manière fiable, par exemple le traitement de données non structurées. La conception respective des coques, des données, des méthodes d’apprentissage, des objectifs et des degrés d’autonomie détermine les processus cognitifs qu’un système d’IA donné peut exécuter. C’est pourquoi ces caractéristiques sont indiquées sous les fonctions cognitives de l’IA. En outre, une distinction est faite selon qu’un système d’IA est ou non un logiciel derrière un système physique techniquement autonome (en fait seulement hétéronome) ; selon que l’on se réfère ou non à une entité purement virtuelle ou à un système matériel qui intègre les caractéristiques décrites. Il existe des exemples pratiques des deux types de systèmes. Les systèmes d’IA purement virtuels sont par exemple des assistants vocaux numériques tels que « Alexa » d’Amazon ou « Google Speech Assistant ». En revanche, les systèmes physiques, tels que les voitures autonomes, sont dotés d’actionneurs qui, pour un système donné, traduisent les actions calculées par un algorithme en mouvements mécaniques. Dans tous les cas, il est bon de toujours parler d’un « système d’IA », car un grand nombre d’algorithmes sont généralement liés, complétés par les bases de données correspondantes et les éléments (moteurs ou virtuels) du système en cours d’exécution. L’ensemble d’un système d’IA semble souvent intelligent aux yeux des humains. Toutefois, la qualification de système d’IA ne dépend pas de cette caractéristique.

Dans ce contexte, je souhaite définir un système d’IA comme un système informatique intégré virtuel et/ou physique, capable d’exécuter de manière indépendante un large éventail de fonctions cognitives. Ces fonctions sont basées (au moins en partie) sur des ensembles de données non structurées et riches en contenu. Ils sont capables de réaliser des actions efficaces, même sans intervention humaine, sur la base de fonctions cognitives qui peuvent calculer des actes de perception, de planification, de conclusion, de communication et de décision.

Si nous prenons maintenant cette définition et un regard collectif sur tous les domaines décrits dans cet article, dans lesquels les systèmes d’IA diffèrent fondamentalement des humains, la question se pose de savoir comment les experts en arrivent à l’idée d’attribuer aux systèmes d’IA une similitude avec les humains. Les humains partagent avec les autres mammifères des séquences de paires de bases d’ADN identiques. Ces séquences sont censées correspondre à 90 % chez l’homme et le porc. Mais il ne viendrait à l’idée de personne de confondre l’homme et le cochon. Et personne ne songerait à définir pour les porcs des droits similaires à ceux définis pour les humains.

Dans cette perspective éthique critique, la question se pose de savoir s’il est acceptable d’assimiler des humains à des systèmes d’IA, ou si cette pratique (désormais courante) équivaut en fait à de la diffamation de l’homme. Le monde de la technologie, façonné par le marketing et le battage médiatique, accorde trop peu d’attention à l’usage établi des termes et s’engage ainsi dans un exercice de funambulisme pour lequel Hastak et Mazis ont inventé le terme de « tromperie par implication » (Hastak/Mazis, 2011).

Nietzsche peut dire avec humour : « Aigu et doux, rude et fin, étrange et familier, impur et propre, un lieu où le fou et le sage se rencontrent : Tout cela, je le suis et je veux le signifier, aussi bien la colombe que le serpent et le porc » (Nietzsche, 1882).

Figure 1 : Caractéristiques des systèmes d’IA réalistes et irréalistes

Bibliographie

  • Ajzen, I. / Fishbein, M. (2005): The Influence of Attitudes on Behavior. Mahwah, New Jersey, USA: Erlbaum.
  • Baddeley, A. / Eysenck, M. W. / Anderson, M. C. (2015): Memory. New York: Psychology Press.
  • Bérard, B. (2018): “Unmasking ‘AI’”. Blog. https://philos-sophia.org/ unmasking-ai/.
  • Bostrom, N. (2014): Superintelligenz: Szenarien einer kommenden Revolution. Berlin: Suhrkamp Verlag.
  • Csikszentmihalyi, M. (1991): Flow: The Psychology of Optimal Experience. New York: Harper Collins.
  • Damasio, A. R. / Everitt, B. J. / Bishop, D. (1996): “The somatic marker hypothesis and the possible functions of the prefrontal cortex”. In: Philosophical Transactions: Biological Sciences, 351(1346), S. 1413–1420.
  • Deci, E.L. / Ryan, R.M. (2000): “The ‘What’ and the ‘Why’ of Goal Pursuits: Human Needs and the Self-Determination of Behavior”. In: Psychological Inquiry, Vol. 11, No. 4/2000, S. 227–268.
  • Deci, E. L. / Vansteenkiste, M. (2004): Self-determination theory and basic need satisfaction: Understanding human development in positive psychology. In: Ricerche di Psichologia (27), S. 17–34.
  • Epley, N. / Waytz, A. / Cacioppo, J. T. (2007). “On Seeing Human: A Three-Factor Theory of Anthropomorphism”. In: Psychological Review, 114(4), S. 864–886.
  • Feser, E. (2013): “Kurzweil’s Phantasms – A Review of How to Create a Mind: The Secret of Human Thought Revealed. First Things”. https://www.firstthings.com/ article/2013/04/kurzweils-phantasms.
  • Fuchs, T. (2016): Das Gehirn – ein Beziehungsorgan: Eine phänomenologischökologische Konzeption (5. Aufl.). Stuttgart: Kohlhammer.
  • Gehring, R. (2004): “Es blinkt, es denkt. Die bildgebenden und die weltbild- gebenden Verfahren der Neurowissenschaften”. In: Philosophische Rundschau, 51, S. 272–295.
  • Gunkel, D. J. (2018): Robot Rights. Cambridge, US: MIT Press.
  • Hastak, M. / Mazis, M. B. (2011): “Deception by Implication: A Typology of Truthful but Misleading Advertising and Labeling Claims”. In: Journal of Public Policy & Marketing, 30(2), S. 157–167.
  • Hatmaker, T. (2017): “Saudi Arabia bestows citizenship on a robot named Sophia”. In: Tech Crunch. https://techcrunch.com/2017/10/26/saudi-arabia-robot-citizen-sophia/.
  • Hawkins, J. (2017): “What Intelligent Machines Need to Learn From the Neocortex”. In: IEEE Spektrum, 54(6), S. 33–37.
  • Husserl, E. (1993): Ideen zu einer reinen Phänomenologie und phänomenologischen Philosophie (5. Aufl.). Berlin: De Gruyter.
  • Jenson, D. / Iacoboni, M. (2011): “Literary Biomimesis: Mirror Neurons and the Ontological Priority of Representation”. California Italian Studies, 2(1). http://www.neurohumanitiestudies.eu/archive /paper/?id=150.
  • John S. McCain: National Defense Authorization Act for Fiscal Year 2019 (2018).
  • Kierkegaard, S. (2005): Die Krankheit zum Tode – Furcht und Zittern – Die Wiederholung – Der Begriff der Angst. München: DTV.
  • Krempl, S. (2018): “Streit über »Persönlichkeitsstatus« von Robotern kocht hoch”. In: heise online. https://www.heise.de/newsticker/meldung/Streit-ueber-Persoenlichkeitsstatus-von-Robotern-kocht-hoch-4022256.html.
  • Kurzweil, R. (2006): The Singularity is Near – When Humans Transcend Biology. London: Penguin Group.
  • McGilchrist, I. (2009): The Master and his Emissary – The Divided Brain and the Making of the Western World. New Haven and London: Yale University Press.
  • McClelland, D. (2009): Human Motivation. Cambridge, UK: Cambridge University Press.
  • Meier, K. (2017): “The Brain as Computer – The Brain May be Bad At Crunching Numbers, but it’s a Marvel of Computational Efficiency”. In: IEEE Spektrum, 54(6), S. 27–31.
  • Nietzsche, F. (1882): Die Fröhliche Wissenschaft. Ditzingen: Reclam.
  • Parasuraman, R. / Sheridan, T. B. (2000): “A Model for Types and Levels of Human Interaction with Automation”. In: IEEE Transactions on Systems, Man, and Cybernetics, 30(3), S. 286–297.
  • Reiss, S. (2004): “Multifaceted nature of intrinsic motivation: The theory of 16 basic desires”. In: Review of General Psychology, 8(3), S. 179–193.
  • Rosa, H. (2016): Resonanz. Eine Soziologie der Weltbeziehung (2. Aufl.). Berlin: Suhrkamp Verlag.
  • Roth, G. (2001): Fühlen, Denken, Handeln. Wie das Gehirn unser Verhalten steuert. Frankfurt/Main: Suhrkamp Verlag.
  • Ryan, R. M. / Deci, E. L. (2000): “Self-determination theory and the facilitation of intrinsic motivation, social development, and well-being”. In: American Psychologist, 55, S. 68–78. https://dx.doi.org /10.1037/0003-066X.55.1.68.
  • Scheler, M. (1921, 2007): Der Formalismus in der Ethik und die Materiale Wertethik – Neuer Versuch der Grundlegung eines ethischen Personalismus (2. unveränderte Aufl.). Halle an der der Saale: Verlag Max Niemeyer.
  • Schmidhuber, J. (2010): “Formal Theory of Creativity, Fun, Intrinsic Motivation” (1990–2010). In: IEEE Transactions on Autonomous Mental Development, 2(3), S. 230–247.
  • Sennett, R. (2009): The Craftsman. New York: Penguin Books
  • Spiekermann, S. (2019a, 23./24. März 2019): “Der Mensch als Fehler”. Süddeutsche Zeitung, 15.
  • Spiekermann, S. (2019b): Digitale Ethik – Ein Wertesystem für das 21. Jahrhundert. München: Droemer.
  • Spiekermann, S. (2020): “Digitale Ethik und Künstliche Intelligenz”. In: Philosophisches Handbuch Künstliche Intelligenz. Hrsg. v. Mainzer, K. München: Springer Verlag. (Im Erscheinen).
  • Vallerand, R. J. (1997): “Toward a hierarchical model of intrinsic and extrinsic motivation”. In: Advances in Experimental Social Psychology, 29, S. 271–360.
  • Vroom, V. H. (1964): Work and Motivation. New Jersey, USA: John Wiley & Sons Inc. Wendt, A. (2015): Quantum Mind and Social Science – Unifying physical and social ontology. Cambridge UK: Cambridge University Press.

Notes

  1. Remerciements à Friedemann Mattern, Johannes Hoff et Jana Korunovska, qui ont évalué le présent document et m’ont fait part de leurs critiques.[]
  2. Je suis consciente du fait que cette hypothèse est mise à mal par les expériences actuelles qui tentent d’implémenter des logiciels sur des matériaux organiques (voir par exemple : https:// www.pnas.org/content/117/4/1853 ou https://royalsocietypubli-shing.org/doi/ full/10.1098/rsif.2017.0937). Cependant, ces expériences sont dans une phase de développement si précoce qu’elles peuvent difficilement être prises au sérieux dans des contextes académiques à partir de l’année 2020 ; en particulier, la capacité de vérifier les réactions sur la partie des matériaux organiques n’est pas compatible avec les paradigmes actuels de notre mécanique informatique et de nos statistiques : Par exemple, la prévisibilité, la traçabilité ou la répétabilité des opérations.[]
  3. « Si, en philosophie, il y a un avant et un après Emmanuel Kant (1724-1804), c’est parce qu’il a inversé le sens de l’intelligence (Verstand) et de la raison (Vernunft) telles qu’elles ont été comprises par tous les philosophes précédents : de Platon, Aristote, Plotin et Saint Augustin à Saint Thomas d’Aquin, Dante, Leibniz, Malebranche, et au-delà, tous réputés travailler sous une illusion que lui seul a su reconnaître et dissiper ! En effet, conformément à sa conviction que l’intuition ne peut être que sensible ou empirique, il a élevé la raison au rang le plus élevé des facultés cognitives, capable soi-disant de rendre l’intelligibilité synthétique, systématique, universelle et unifiée. Dès lors, l’intelligence ou l’intellect en vint à être considéré comme inférieur à la raison : une faculté secondaire chargée de traiter les abstractions, de doter l’expérience sensible d’une forme conceptuelle et de relier les concepts qui en résultent de manière à constituer une structure cohérente – jusqu’à ce que, finalement, elle se transforme en connaissance discursive, c’est-à-dire qu’elle devienne la ‘raison’.» (Bérard, 2018).[]
  4. « Nous ne pouvons absolument pas penser ce que nous ne pouvons pas penser » (G.E. Moore).[]
  5. Le cas échéant, les bons enseignants parviennent à expliquer clairement les choses à l’aide d’analogies et de récits. Une telle explication commence généralement par les mots suivants : « Imaginez… » : « Pensez à… ».[]
  6. https://en.wiktionary.org/wiki/nous#Etymology.[]
  7. C’est pourquoi il est si agréable d’entendre parler une personne intelligente, car nous reconnaissons immédiatement et intuitivement qu’elle a raison. Il n’est généralement pas possible de dire pourquoi nous pensons que la personne intelligente a raison, mais nous partageons avec elle une compréhension de la réalité.[]
  8. Cf. : « Notre perception… est… le produit de formes corporelles de perception synesthésique. À leur point de départ, nous trouvons toujours ce que l’esthétique aristotélicienne appelle le sensus communis (sens commun). Nous voyons « l’eau bouillonnante », entendons « des sons de cloche brillants », voyons un « impact dur », sentons « l’arôme piquant du foin » – et n’apprenons que plus tard à attribuer « le bouillonnement », « le brillant » et « le dur et le piquant » à différentes modalités sensorielles qui sont analytiquement isolées les unes des autres et peuvent être prétendument attribuées à des « impressions sensorielles prescrites élémentaires » (auditives, visuelles, tactiles, olfactives ou gustatives) » (communication privée, Hoff, 2020).[]
  9. Cf. : « Prenons l’exemple d’une simulation que Markus Diesmann et ses collègues ont réalisée il y a plusieurs années en utilisant près de 83.000 processeurs sur le supercalculateur K au Japon. La simulation de 1,73 milliard de neurones a consommé 10 milliards de fois plus d’énergie qu’une portion de cerveau de taille équivalente, alors même qu’elle utilisait des modèles très simplifiés et n’effectuait aucun apprentissage… Le groupe TrueNorth d’IBM, par exemple, a récemment estimé qu’une transmission synaptique dans son système coûtait 26 picojoules. Bien que cela représente environ mille fois l’énergie de la même action dans un système biologique, cela approche 1/100.000 de l’énergie qui serait consommée par une simulation effectuée sur une machine conventionnelle à usage général « (pp. 29 et 31 dans Meier, 2017).[]
  10. Je suis conscient du fait que plusieurs scientifiques, tels que Daniel Dennett, soutiennent que l’absence de capacité de résonance (« Resonanzfähigkeit ») d’un système ne dépend pas de ses propriétés matérielles. Il n’existe cependant aucune preuve de cet argument. Le fait est que les ordinateurs n’auront pas de corps capable de résonance dans un avenir prévisible.[]
  11. Voir également mon article sur la mauvaise image de l’humanité de notre époque (Spiekermann, 2019a) et les sources historiques de ce mode de pensée (Spiekermann, 2019b).[]
  12. Notez ici que les compétences techniques de l’IA, c’est-à-dire les composants techniques qui exécutent certains algorithmes, doivent être distinguées de celles que Richard Sennett qualifie d’« habileté » (Sennett, 2009).[]
  13. Il convient de noter qu’à certains moments de l’interaction avec les robots, ceux-ci semblent extrêmement vulnérables, notamment en raison de leurs réactions désintéressées et, par conséquent, semblent humains (cf. Spiekermann, 2019b). En outre, il est important de noter que je ne doute naturellement pas des personnes qui affirment agir souvent de manière désintéressée ou altruiste. Il est tout simplement normal que nous nous investissions dans des actions désintéressées. Et même dans les formes d’action altruistes, le psychisme et la motivation jouent un rôle.[]
  14. Voir par exemple la « théorie de l’action raisonnée » ou la « théorie du comportement planifié » (cf. Ajzen/Fishbein, 2005).[]
  15. La partie autonoétique de la mémoire est une partie de la mémoire à long terme et la partie qui reflète la personnalité développée d’une personne.[]
  16. À son tour, le mot « noème », avec la racine étymologique commune du noûs, nous renvoie au partage, à ce qui est compris comme partagé par la communauté.[]
  17. Selon Kant, la réalisation est une « Ganzes verglichener und verknüpfter Vorstellungen » (« Ensemble d’idées comparées et liées entre elles ») (Kant, Kritik der reinen Vernunft, A 97). Son point de départ est une multiplicité, donnée aux sens de manière passive et diffuse. Sa synthèse requiert la « Spontaneität unseres Denken s» (A77 / B102). Un objet est logiquement « das, in dessen Begriff das Mannigfaltige einer gegebenen Anschauung vereinigt ist » (« ce qui dans le concept duquel la diversité d’une vision donnée est unifiée ») (B137). Ce n’est qu’ainsi que deviennent possibles les jugements matériels qui nous permettent de reconnaître le monde en assurant la relation référentielle aux choses (« Gegenstandsbezug ») des synthèses subjectives.[]
  18. Roth (2001), 338.[]
  19. Ici en référence à l’esthétique d’Aristote : Fuchs (2016), 187 sq. ainsi que Aristote, De Anima (De l’âme), III, 430 sq.[]
  20. Kierkegaard, S. (2005). Die Krankheit zum Tode – Furcht und Zittern – Die Wiederholung – Der Begriff der Angst. München : DTV.[]
  21. Ou « IA faible » ; NdT.[]
  22. Voir par exemple Scheler (1921, 2007).[]
  23. Un modèle de données inédit est classé comme « nouveau ». Ce « nouveau » est automatiquement bon. Les « composants d’apprentissage par renforcement » se maximisent et « récompensent » le système sous-jacent.[]
  24. Nota bene : « intrinsèque » signifie « qui vient de l’intérieur ».[]
  25. Seule la curiosité primitive est un motif (pour beaucoup), où la nouveauté dans sa forme pure peut être bonne.[]
  26. En fait, Ryan et Lynch (1989) ont montré comment l’autonomie peut être positivement associée à la relation et au bien-être. « L’autonomie implique d’être volontaire, d’agir à partir de son sens intégré du soi et d’approuver son action. Elle n’implique pas d’être séparé des autres, de ne pas compter sur eux ou d’être indépendant d’eux » (Deci/Ryan 2000, 242).[]
  27. Cf. Spiekermann (2020).[]
  28. Un système d’IA pourrait bien sûr intégrer une fonction qui minimise la désactivation ou le fait d’être abattu. Il développera alors des stratégies comportementales qui évitent de telles possibilités. Cela limite l’autonomie de la machine, mais cette limitation n’est pas sociale, comme dans le cas des humains.[]