CONTRER TOUTE INSTRUMENTALISATION DE L'HUMAIN PAR L'IA ET L'IDÉOLOGIE QUI L'ACCOMPAGNE

April 16, 2018

By Jean-Claude Ravet, editor-in-chief of the Relations magazine

L’instrumentalisation de l’humain est un enjeu central du développement de l’Intelligence artificielle (IA). Un des rôles de l’éthique dans développement de l’IA est d’assurer que celui-ci soit mis au service de l’humain.

 

L’IA est porteuse de promesse mais aussi de danger. Dans les deux cas, cela concerne autant l’utilisation qu’on fait de l’IA que des machines en tant que telles. Car, avec l’IA, la frontière entre l’usage de la technique et la technique elle-même se brouille plus que jamais. Compte tenu du haut niveau de rétroaction avec l’environnement de différentes technologies liées à l’IA, celles-ci acquièrent une certaine autonomie technique qui les rend capable de prendre des décisions d’action à l’intérieur des paramètres préétablis par les algorithmes. Elles peuvent donc influer sur les comportements et les pensées des usagers, en venir à les conditionner, à les manipuler.

 

Un autre aspect problématique du développement de l’IA, c’est l’idéologie qui souvent l’accompagne qui assimile l’humain et la machine. Cette idéologie doit faire l’objet d’une attention particulière parce que les groupes qui la promeuvent sont, entre autres, les puissantes multinationales de la Silicon Valley, qui comptent parmi les principaux concepteurs et producteurs de l’IA, comme Google, Facebook et Tesla, aux capacités technologiques et financières gigantesques. Si on ne tient pas compte de cette réalité, le développement de l’IA peut masquer la construction d’un projet de société, modelé en fonction de leurs intérêts économiques et de l’accroissement de leur pouvoir. Il faut dès lors être en mesure d’identifier cette idéologie qui se présente comme « état de la science ». C’est d’autant plus impérieux qu’elle se caractérise par une vision extrêmement réductrice de l’humain et de la vie qui a des conséquences non seulement éthiques, mais sociales, politiques, culturelles et anthropologiques, allant dans le sens de l’instrumentalisation de l’humain.

 

C’est pourquoi il est important socialement de pouvoir décoder ce discours et le remettre à sa place comme idéologie, tâche d’autant plus importante qu’elle se présente précisément comme n’étant une idéologie mais un discours scientifique. Ce qui n’est qu’une hypothèse de travail dans les sciences – selon laquelle on pourrait décomposer l’organisme vivant et l’intelligence humaine, en fonctions élémentaires pouvant être reproduites en laboratoire ou dans l’ordinateur – devient une idéologie quand elle se présente comme une vision du monde. Un modèle remplace alors la réalité, une carte le territoire. Le mouvement transhumaniste et son « récit » sur la Singularité promus par les multinationales de la Silicon Valley sont de cet ordre. Que le développement de l’IA s’inspire de l’intelligence humaine, du fonctionnement du cerveau, est une chose; réduire le cerveau et l’être humain à une machine en est une autre. Pris comme idéologie, cela oriente les choix de société (économiques, sociaux, culturels, etc.). La tendance à qualifier le développement de l’IA de révolutionnaire est en grande partie tributaire de cette idéologie.

 

Le livre de Yuval Noah Harrari, souvent évoqué dans les colloques sur l’IA, est un bel exemple de propagande transhumaniste sous couvert de la science. Que ce soit des scientifiques qui la professent dont il se fait écho ne changent rien à l’affaire. Le procédé fonctionne par l’effet d’annonce, le futur est mobilisé de manière à façonner le présent. Ce n’est plus la science-fiction qui s’inspire de la science, c’est la science qui se calque sur la science-fiction.

 

L’exemple de la manipulation des comportements d’un rat par des électrodes, qualifié de rat-robot, illustre bien le réductionnisme dont il se fait le chantre et l’expert : l’ensemble des comportements humains sont réduits des processus physico-chimistes. L’expérience sur les rats le conduit en effet à conclure que les désirs humains ne sont après tout « qu’une configuration de neurones qui déchargent ». Cette « décharge » se fait normalement par d’autres neurones, mais rien n’empêche de le faire par des électrodes, rendant ainsi « scientifique », le rêve de tout régime totalitaire. Ne sommes-nous pas en face d’une légitimation « scientifique » du fantasme de la domination. Quand ce sont les plus riches et les plus puissants de la planète qui s’en font les promoteurs, il y a de quoi s’inquiéter et vouloir prendre des mesures pour qu’elle ne se transforme pas en pratiques légitimes parce qu’ainsi en va le « progrès »…

 

Face à cela, non seulement la prudence est de mise, mais aussi des mesures qui freinent cette emprise idéologique. Les innovations en IA doivent se fonder sur le principe de non-instrumentalisation de l’humain et veiller à ne pas écraser la vie. Sous prétexte d’augmenter l’humain, on ne doit pas le diminuer et en faire un moyen en vue d’une fin. Le seul critère de rentabilité ne suffit. Ni le respect du choix individuel. Car les enjeux touchent au vivant et à l’humanité en tant que tels.

 

Cette entreprise réductionniste, on ne peut la banaliser en disant que ce n’est qu’une entreprise de science-fiction. Car nous n’avons pas affaire qu’à des écrivains, des artistes, même s’ils sont mis effectivement à contribution, mais à des multinationales plus puissantes que bien des États, qui financent les recherches, qui peuvent orienter les choix de société. Et à voir comment certains États agissent servilement à leur égard pousse à poser des balises claires. L’éthique a un rôle à jouer pour ne pas laisser les enjeux liés à l’IA dans le seul paradigme l’ingénierie du vivant. Il doit épauler le politique comme instance autonome à s’affranchir de la tutelle des pouvoir financier qui risque de dicter la marche à suivre. À ne pas plier devant les seuls critères de profit et de performance. Mais tenir compte du bien commun. Aussi faut-il faire en sorte que l’IA ne contribue pas à la fragmentation et à la dislocation de l’humain comme s’il était un jeu Lego ni à réduire le monde en terrain de jeu technologique pour les multinationales.

 

La fatalité technologique n’est plus de mise. Les dégâts d’une telle posture menacent l’équilibre écosystémique autant que la dignité de la vie humaine. Elle participe d’une fuite en avant dans la logique du toujours plus de profit, qui a mené dans le domaine écologique à une crise sans précédent. La démesure et la soif de profit dans le domaine de l’IA ne peuvent être l’objet d’un laissez-faire.

 

Le principe à la base du développement des IA devrait d’être de ne jamais instrumentaliser l’humain, tout en servant l’humain dans toutes ses dimensions. Le bien-être ne doit pas être réduit à des critères utilitaires et strictement individuels mais évaluer en tenant compte des conséquences sur l’ensemble de la société et principalement des plus pauvres.

 

Lutter contre la réduction de l’humain à la machine, en décourageant de parler de « supériorité » de l’IA sur l’humain. Amalgame qui sert à marginaliser la singularité du vivant par rapport aux artefacts, irréductible à la vitesse et à la capacité de calcul ou encore à une perspective purement utilitaire.

 

Finalement, l’IA ne doit pas participer à la tentation de la déresponsabilisation humaine aux dépens de la technologie, dont la gouvernance algorithmique est une expression. Les décisions éthiques et politiques s’ils peuvent être soutenues par l’IA doivent toujours relevées en dernières instances de l’humain, en tant qu’être de parole, de sentiments, de sensations, et conscients de sa fragile humanité et des liens qui l’unissent aux autres, au vivant et à la Terre. Sinon un geste éthique et politique peut se transformer en geste inhumain.

 

Jean-Claude Ravet

Rédacteur en chef de la revue Relations

© 2017 Montreal Declaration for a Responsible Development of AI

Université de Montréal

Follow us!

  • Grey Twitter Icon
  • Grey Flickr Icon