« La morale (du latin moralis « relatif aux mœurs ») désigne l’ensemble des règles ou préceptes, obligations ou interdictions relatifs à la conformation de l’action humaine aux mœurs et aux usages d’une société donnée. »
La morale se rapporte au bien et au mal.
Source : wikipédia
« L’étymologie du terme de morale (latine), comme celle de l’éthique (grecque), renvoie à la notion de mœurs. [] La morale désigne un système de normes, d’obligations, d’interdictions caractérisé par une exigence d’universalité qui n’est autre qu’une exigence de rationalité et par un effet de contrainte. [] Le terme d’éthique sera lui réservé pour la visée d’une vie accomplie sous le signe des actions estimées bonnes. »
Source : https://www.cafephilosophia.fr/sujets/existe-t-il-des-valeurs-morales-universelles/
La vie en société nous a contraint à édicter des règles de vie commune, acceptées de « tous ». Les droits de l’homme en ont fait des principes universels.
Valeurs universelles ?
Les valeurs morales font référence à un certain nombre de concepts universels : l’empathie, la sollicitude, la réciprocité, l’estime de soi, le respect, la justice, etc. Ces valeurs sont issues de déclarations universelles telles que la déclaration universelle des droits de l’homme. Ces visions du monde ont donné lieu à des déclarations complémentaires : Déclaration des droits de l’homme en islam et la Déclaration de Bangkok.
On peut donc parler d’un noyau moral sujet à des interprétations.
La morale est-elle naturelle ?
Chez l’homme
Sommes-nous des êtres moraux de part notre nature ? La question philosophique mérite d’être posée :
- Pour Jean-Jacques Rousseau : « l’homme naît bon, c’est la société qui le pervertit« .
- André Comte-Sponville, tout comme Montaigne ou Pascal : « lui pardonne sa petitesse, sa misère« .
L’enfant en bas âge fait preuve d’empathie voire d’altruisme.
Chez l’animal
L’animal est capable d’émotions plus complexes que l’on semble le croire. De nombreux témoignages démontrent les capacités du monde animal à la coopération, l’empathie ou l’altruisme.
Le débat très controversé de savoir si la souffrance animale doit être prise en compte, au même titre que la souffrance humaine, est loin d’être clôt.
Nous pouvons cependant constater que le libéralisme ne facilitera pas la tâche des défenseurs de la cause animale (secrets d’infos).
Pour Peter Singer, « une souffrance infligée à un animal est aussi significative du point de vue moral qu’une souffrance infligée à un être humain ».
Dans le monde du vivant
Le principe de coopération et de solidarité n’est pas l’apanage du monde humain ou animal. Les plantes, les arbres sont des êtres sociaux connectés entre eux par le biais de leurs racines mais aussi en coopération avec les champignons (wood wide web). Les arbres-mères soutiennent les arbres plus jeunes ou malades en transmettant du glucide.
Une forme de morale primitive ou naïve existerait donc dans le monde du vivant.
Nature vs Culture
Nous opposons souvent civilisation et barbarie mais n’y a-t-il pas plus de sauvagerie dans notre monde moderne (incivilités, meurtres, guerres, génocides), que chez les peuples primitifs ? La guerre a été inventée en même temps que la civilisation pour régler les conflits de pouvoir ou de propriété.
Chez l’homme, il existe des morales implicites (sous-entendues, suggérées) mais aussi des morales explicites (expliquées, imposées). Comme nous avons pu le voir plus haut, le principe d’universalité composent un noyau implicite mais son interprétation est relative. Il faudrait donc parler de morales (au pluriel) car elles dépendent de la nature et de la culture de chacun des sous-groupes qui la composent.
Nos intuitions morales sont souvent convergentes mais notre interprétation peut différer de celle des autres. Les principes dits « d’humanité » limitent nos capacités à assouvir nos instincts ou nos désirs les plus « primaires » à travers des règles sociales explicites : l’éthique, la loi, la déontologie, le politiquement correct, etc.
Ces règles ont pour principe de définir des limites. Elles doivent exiger de nous ce que nous ne ferions pas naturellement. Cependant, elles ne répondent pas à deux questions importantes :
- Comment développons-nous la morale ? (question descriptive)
- Comment devons-nous agir ? (question normative)
L’action a des conséquences, mais l’inaction en a tout autant. A voir : l’altruisme efficace
Le législateur incite à l’action morale mais il ne contraint que très rarement. Exemple : Loi Sapin 2
Normaliser la morale ?
La science n’est pas en capacité de définir des normes à travers la naturalisation de la morale (philosophie, psychologie, biologie). S’il existe une science et une philosophie de la morale, il semble que celles-ci ne soient pas en capacité de déterminer un modèle biologique, un modèle mathématique.
« Ce que nous pouvons faire n’est pas nécessairement ce que nous devons faire »
Les deux principes d’exigence et d’humanité semblent dans ce cas s’opposer :
- Ce qui est commandé par les circonstances, la nature, la satisfaction des besoins, les lois, la morale, etc. (Larousse)
- Ce qui est juste ou bon pour l’ensemble des êtres humains
Nous pouvons citer :
- la désobéissance civile,
- les lanceurs d’alerte,
- l’objection de conscience,
- etc.
L’altruisme
L’altruisme est caractérisé comme un acte désintéressé ne procurant pas d’avantages immédiats ou apparents à celui qui l’exécute, mais qui est bénéfique à d’autres sujets.
Le dilemme
Une morale qui exigerait de nous ce que nous ne pouvons pas faire serait immorale.
Le dilemme est un conflit d’obligations, quelque fois, difficilement résolvable.
A travers ces deux exemples on peut constater que la morale ne se fonde que sur elle-même.
Elle pose en somme trois questions :
- Que dois-je faire ?
- Qu’aurais-je dû faire ?
- Y a-t-il des limites à mes actions ?
Les réponses peuvent être modélisées mais est-il possible de répondre de manière juste à ces questions.
Que ferait une intelligence artificielle dans ces deux situations ?
La question mérite d’être posée. En effet, l’intelligence artificielle est avant tout une somme d’algorithmes issus de la main de l’homme. Faut-il dans ce cas faire appel à un programmateur :
- relativiste ?
- universaliste ?
- conséquentialiste ?
- utilitariste ?
- déontologiste ?
Pour le relativiste : la morale est une affaire de goût. On peut trouver cela « bon » ou « mauvais ». C’est juste une question de goût. Le massacre des baleines est amoral pour un français mais pas pour un japonais. La morale est une question de circonstances.
Pour l’universaliste ou le réaliste : la morale a une forme absolue. La loi morale est un impératif catégorique. C’est une injonction qui ne dépend pas du contexte, ni de ses conséquences (Kant). La morale est une question de principe.
Pour le conséquentialiste : la valeur morale d’une action dépend de ses conséquences. Pas les conséquences pour soi mais de manière générale. Le problème est que les conséquences attendues ne sont pas nécessairement les conséquences réelles. La morale est une question de but.
Pour l’utilitariste : la morale doit servir au maximum de monde. Pour celui-ci le bonheur c’est bien. L’action la plus juste serait donc celle qui paraît la moins mauvaise, c’est-à-dire celle qui est bonne pour un maximum de personnes. La morale est donc une question de valeur.
Pour le déontologiste : la valeur morale réside dans le principe même de l’action. Une action est morale si elle se conforme au principe moral. La morale est une question d’action.
Pas facile de choisir. Quelle hiérarchie respecter s’agissant de valeurs morales ? Faut-il privilégier les connaissances ou le bonheur de l’humanité ?
L’homme assisté est-il dangereux ?
L’intelligence artificielle n’est pas encore autonome s’agissant de la stratégie militaire. L’objectif de cet « appendice technologique » est, en théorie, de faire le moins de victimes possibles (civils, pertes militaires amies, par ex.) .
Un drône de combat ou un robot tueur ont cependant pour objectif d’atteindre leur objectif. Peu importe les dommages collatéraux.
- L’objectif pour un drône est d’atteindre sa cible. Il semble que la perte des civils et le respect des droits internationaux soient considérés comme annexes par certaines administrations. Amnesty International
- L’objectif pour un robot tueur est de faire le maximum de morts dans le camp adverse. Peu importe les dommages collatéraux éventuels.
Le robot peut-il faire preuve d’empathie ?
Peper est présenté comme le premier robot « émotif ». Cet humanoïde sur roues est en effet capable de lire et d’analyser les émotions humaines afin d’adapter son comportement, à son environnement. Pepper analyse les expressions faciales et la tonalités de la voix humaine. Destiné au grand public il pourra alors plaisanter si l’ambiance convient, danser, faire un câlin si l’utilisateur est triste, ou encore tenir une conversation sur un sujet précis en s’appuyant sur des bases de données.
Le robot émotionnel permettra à des personnes en situation de dépendance d’interagir et d’éviter le sentiment de solitude. Nao accompagne les enfants (notamment autistes) et facilite leur apprentissage.
Si le robot ne ressent pas d’émotions, nous pouvons tout de même parler ici d’une « empathie primaire ».
La voiture « intelligente » sera-t-elle altruiste ?
Question épineuse ! Une voiture autonome va-t-elle sacrifier son équipage si le nombre de victimes dans l’habitacle est inférieur au nombre de victimes extérieures potentielles (un car scolaire par exemple) ?
La voiture autonome aurait trois possibilités :
- sauver son équipage et limiter la « casse »
- sacrifier son équipage et sauver les passagers du car scolaire
- se sacrifier
Des chercheurs ont imaginé un bouton « éthique » permettant à un intervenant humain de prendre la responsabilité de ce choix.
On peut imaginer que le « conducteur » aurait une attitude différente si ses enfants sont dans la voiture ou non. Il faudrait dans ces cas-là créer un bouton « égoïste » (ndr).
Le développement d’une AI morale serait de fait entravée par la relation commerciale. En effet, l’AI est censée rendre un service à son client, son propriétaire.
Question : s’il s’agit de sauver le plus grand nombre :
- l’AI doit-elle sacrifier son client ? Dans ce cas, qui aurait envie d’acheter un produit qui peut se retourner contre soi ?
- deux AI entre-elles vont-elles plutôt choisir un client milliardaire avec un compte prémium ou une dizaine de rmistes avec un contrat d’essai ?
On voit donc à travers ces différents exemples que la morale artificielle n’est pas pour demain. Quand bien même elle s’appuierait sur la science de la morale, cela ne résoudrait pas ce genre de cas.
Quelle serait la morale de la machine ?
La question a été posée à de multiples reprises dans la littérature de science-fiction et dans certains films.
AI : La fonte des glaces a considérablement réduit la surface habitable sur la Terre. Le strict contrôle des naissances a nécessité le développement de robots à l’aspect humain, les mécas. L’un d’eux, David, tout juste mis au point, est capable d’éprouver des sentiments.
Wargames : un supercalculateur croit jouer à un jeu de simulation et déclenche le risque d’un 3ème guerre mondiale. Il pense que la nature de l’homme mérite son eradication.
Terminator, les machines ont pris le pouvoir sur l’homme. Le futur est dirigé par des robots créés par une superintelligence issue de la singularité technologique.
Matrix : l’homme sert de source de chaleur et d’électricité.
I Robot : Des robots sont pleinement intégrés à notre vie quotidienne, et tout le monde a confiance en eux, à l’exception d’un détective légèrement paranoïaque enquêtant sur un meurtre dont il est le seul à penser qu’il est l’uvre d’un robot.
Her : Théodore travaille pour un site web comme écrivain public, rédigeant des lettres manuscrites de toutes sortes – familiales, amoureuses, etc. Dans un état de dépression qui perdure, il installe un nouveau système d’exploitation OS1, auquel il donne une voix féminine.
La série « Black miror » présente de nombreux épisodes d’anticipation traitant de ces sujets.