L’IA se pare aujourd’hui de toutes les vertus censées améliorer les performances de l’humain et des techniques numériques. Et de tous les vices dont un des piliers est la « métathésiophobie » - du grec « méta » qui signifie changement et « phobos » peur -. Cette peur du changement est récurrente lors de toute innovation non encore maîtrisée par ses utilisateurs potentiels. Elle est reliée à celle de rendre imprévisible l’impact de ces innovations technologiques, d’en perdre le contrôle et d’en être dépassé. Pour aboutir à terme à cette dystopie empruntée à la légende du Golem. Issu de la mystique juive, cet être-objet humanoïde est créé à partir de l’argile et destiné à rendre service à son créateur, jusqu’au jour où il acquiert une relative indépendance et se retourne violemment contre son maître, mu par une pulsion destructrice. Cette autonomisation des machines pourrait, de ce fait, en devenant néfaste, aborder la posture d’un dominateur doté de mil pouvoirs maléfiques. Fantasme ou réalité potentielle ?
Car l’IA est un véritable bouleversement, qui touche à la fois la société, le social, l’économique, la sphère professionnelle, les rapports de pouvoir, ceux des individus entre eux et les individus eux-mêmes, au plan psychique, cognitif, émotionnel. Et dans leurs propres capacités d’intégration et de maîtrise de l’IA. La question des inégalités numériques peut se poser ici.
L’IA s’inscrit dans cette suite logique de l’évolution techno-numérique,
dont le rapport au temps – instantanéité,
vitesse – a contribué à la mutation de notre propre tempo. La gestion
quantitative et qualitative de masses
d’informations et leur monstration a enclenché une fascination quasi
addictive à l’image dont celle de soi, exposée à
autrui dans ses multi-identités.
Si l’image est un vecteur omniprésent de notre rapport au monde et signe
d’une reconnaissance existentielle, une
digression étymologique y apporte un autre éclairage. La fascination des
images peut dériver vers une addiction et une
capitulation de notre pouvoir d’en maîtriser le flux, si nous ne les «
regardons » pas à deux fois, avec distance et
réflexivité. « Regarder » et « respecter » (son autonomie) ont la même
étymologie. Il se pourrait qu’un gain en
(auto)-contrôle serait aussi celui d’une consolidation identitaire et
donc d’un recul des peurs. Reste à savoir si notre
degré d’attention et le courage d’une pensée au temps long pourraient
aider à la sauvegarde de l’esprit humain.
Bien d’autres évolutions et améliorations capacitaires verront le jour, pour faire avancer le monde par ces supports algorithmiques. Mais sans trop savoir vers où, et si nous aurons la maîtrise d’identifier leurs dérives potentielles, en vertu de quels critères et quelle nécessité éthique ? La question de l’humain est essentielle, qui oscille entre son appartenance au vivant, à l’animal et dans l’avenir à la symbiose ou l’hybridation de ces évolutions technologiques, dont les aides prothétiques appliquées au corps ont fait leurs premières preuves.
L’IA générative comporte de toute évidence des applications positives et
évolutives. Pour l’instant leurs usages sont
entrés dans notre vie quotidienne et pour bon nombres d’entreprises
grâce aux performances de calcul et d’agrégation des
big datas. Ces algorithmes accompagnent le corps médical pour des
diagnostics dont la performance est souvent supérieure
à celle des médecins, et la personnalisation des soins sera une avancée
thérapeutique majeure.
Dans l’éducation, la rapidité et la métabolisation des informations
aident étudiants et enseignants… sous condition du
regard critique de leurs propres pensées. Idem pour les auteurs, sachant
que les IAbooks existent déjà.
Ajoutons la performance exponentielle de ces « robots pensants », qui
répondent quasi immédiatement aux questions
récurrentes pour en faire des réponses quasi immédiates.
« L’objectivité » de l’IA concoure avec efficacité au tri des CV pour
les recruteurs, également aux fonctions de juge
pour la rationalisation de leurs dossiers. Il a été démontré que le
jugement humain, juges, médecins etc. pouvait être
influencé par leur subjectivité, par le climat, la sensation de faim ou
de satiété, par le physique même des personnes
qui leur font face. Le monde du travail en est un exemple frappant. Les
aides numériques remplacent en partie le travail
humain et augmentent la productivité. Le secteur de la recherche
scientifico-médicale et ses avancées algorithmiques
semblent exemptes de crispations déclinistes sur le progrès et la
science, sous condition qu’elles concernent
directement la santé et ses bienfaits perceptibles à l’échelle
individuelle et collective.
Si elles peuvent faire gagner du temps aux utilisateurs, le travail de
finalisation informationnelle leur échoit, cf.
l’accès souvent pénible à des services (taper 1,2,3…) sans forcément le
bénéfice relationnel qu’apporterait
l’interlocuteur humain.
Cependant il est bon d’aller voir de l’autre côté de la médaille, au
temps T qui nous occupe, parce que l’i(A)nnovation
s’inclut dans nos vies et tel un pharmakon, ses aspects positifs
jouxtent ceux plus délétère de la confusion et de
l’impuissance.
Pour exemple, les expérimentations d’autonomisation des moyens de
transports urbains et les processus de
techno-surveillance qu’elles induisent auprès des populations, de même
la transparence totale qu’induirait la
personnalisation des soins thérapeutiques.
Et pour le travail des machines, une perte possible d’emploi pour des
fonctions plus sophistiquées et créatives ? A
voir.
Se rajoute la perte identitaire par le travestissement d’images, de
voix, de visages et de corps utilisé à des fins
ludiques, économiques, politiques. Également les transformations
sociétales liées aux théories du complot qui
fleurissent aujourd’hui. Sur ce point la notion de défiance doit être à
nouveau questionnée notamment dans son rapport à
la science à des fins de détournement et d’intérêts financiers. L’IA
serait aux mains de créateurs-apprentis sorciers
qui forgeraient pour leurs propres intérêts et d’une communauté
restreinte de « sachants », les rennes d’un pouvoir
politico-financier omnipotent. Mais le complotisme jouxte une réalité
financière : « Ce n’est plus en centaines de
milliards de dollars qu’il faut raisonner mais en milliers de
milliards
pour construire par dizaines les usines géantes
qui abreuveront le monde en puces destinées à l’intelligence
artificielle (IA). A cette défiance s’ajoute le fantasme
d’une « super-intelligence » qui dépasserait les capacités cognitives
des humains et influencerait pour le soumettre le
devenir de l’humanité.
Mais le plus grand risque ou le plus grand danger est aussi de perdre le pouvoir et la confiance dans la capacité de se relier aux humains repérables comme tels. L’évolution qualitative des chatbots, ou dans un avenir plus ou moins proche des « humanbots », robots humanoïdes si proches physiquement et plus performants, sur tous les plans que les humains, seront-ils reliés ou ennemis ? Comment les distinguer, et à terme les intégrer dans nos vies, s’ils répondent de façon plus qu’adéquates à nos besoins ? Dans cette série, leur degré de performance tant au plan relationnel qu’à celui de l’intelligence est tel que les défenseurs des « real humans » craignent le « grand remplacement » et leur font la guerre. Sans succès, car paradoxe aidant, la mixité sexuelle et mariale se pratique avec un plaisir réciproque. La solution, dans le cas de figure de la série, serait-elle de vivre ensemble dans le partage de compétences de chacun, mais en seront-ils capables ?
Daniel Cohen, économiste décédé trop tôt, parle dans son dernier ouvrage
de ce remplacement de la présence humaine par
les robots boostés à l’IA générative, et grâce ou à cause de la pandémie
du Covid, de ces grands bénéficiaires qu’ont
été les plateformes. Télétravail, télémédecine, « Chacun a pu ainsi
comprendre la visée du capitalisme numérique :
réduire au maximum le coût des interactions physiques, dispenser de
se
rencontrer en face à face. Pour générer du
rendement, il dématérialise les relations humaines, les privant de
leur
chair.»
Renforcer la culture numérique. Les grands opérateurs, Google, Meta… y
veillent et proposent des formations pour non
technophiles ou résistants aux innovations numériques. Celles de l’IA a
provoqué le besoin d’amener à niveau toutes les
populations, ce qui illustre bien ce qui se profile : l’intégration de
tous, coûte que coûte et aussi pour le profit des
grands opérateurs !
Grand bien leur fasse, mais pas forcément pour la sauvegarde de l’humain, qui risque d’y perdre sa « chair », son émotion et sa sensibilité. L’IA se niche aussi dans la rationalisation des rencontres amoureuses et sexuelles dont Tinder est un des agents favorisateurs. En un clic, passer directement à l’acte sexuel évacue et occulte la partie sensible, affective, d’un temps d’apprivoisement de l’une et l’autre parties pour que la vraie rencontre se fasse. Cette option adoptée par les adolescents n’est pas forcément la bonne voie pour leur enseigner l’existence de « l’autre », qui demande plus que du temps, une possibilité d’engagement. Eva Illouz l’illustre bien dans son essai : « Hier, le rapport sexuel marquait la fin de la cour amoureuse, aujourd’hui il est le début d’une histoire incertaine ». Et Daniel Cohen ajoute « La vie amoureuse selon Tinder devient celle du just fuck. En distinguant radicalement le sexe et le sentiment amoureux, la sexualité fait perdre la capacité de reconnaître l’autre dans son intégralité, comme une personne… ». C’est pourtant cette sphère émotionnelle, affective, celle d’un temps habité, qui peuvent préserver l’humain dans le monde qui vient.
Une autre dérive des machines est l’adhésion complotiste que permet la plateforme Tiktok, algorithme soi-disant créatif qui n’en véhicule pas moins les influences régressives de machisme, de misogynie et d’hyper-consommation, par une stratégie marketing bien ciblée notamment auprès des jeunes. Le refuge dans la défiance et le rejet, la recherche d’autorité et le binarisme excluant est une option d’expression de ces « passions tristes », reflet d’une peur de se voir déposséder de sa puissance.
La fréquentation quasi addictive des jeunes aux écrans, la délégation aux « exploits » de ChatGPT++ de leur pensée, de leur créativité, démontre et les études sur le sujet le prouvent, que « la transformation en cours fait naître un individu marqué par la crédulité et l’absence d’esprit critique ». Car le pouvoir des machines n’est pas toujours bienveillant selon l’usage qu’on en fait. Le cerveau est paresseux par nature, mais celui des jeunes n’est pas encore mature avant 25 ans pour développer le sens de la nuance, de la relativisation, le pouvoir d’une pensée propre et d’une opinion personnelle. Le degré d’attention baisse proportionnellement à la fréquentation des écrans, et les adolescents y passent au global 40% de leur vie éveillée !
Peut-on augurer d’un avenir plutôt sombre, alors que l’exploration des capacités humaines est loin d’être aboutie ? Il semble que la multitude de signes, de stimuli, d’information, semblent avoir saturé nos cerveaux. Peut-on intégrer « tout » ? Les sujets au syndrome du FOMO, cette anxiété de manquer une information importante, signe une angoisse d’exclusion sociale, ont du souci à se faire… Une pédagogie numérique permettra-t-elle de tracer des chemins de sens dans la cacophonie informationnelle qui nous habite aujourd’hui et dans les jours et années à venir, sachant que « …Depuis 2013, la masse d’information disponible double tous les deux ans » ? Ou veillera-t-elle à la réduction, voire à la dissolution des peurs par l’apprentissage des limites ? Toujours selon Gérald Bronner, la peur est captatrice de l’attention que la diffusion non régulée de l’IA provoque, avec pour conséquence le surplus de consultation de ce type d’informations et de ses illusoires antidotes. Voir à ce sujet le succès des médias dramatisants et/ou porteurs de mauvaises nouvelles, qui touchent aux zones les plus archaïques et instinctives du cerveau.
Le besoin de repères est essentiel dans le chamboulement, le bouleversement spacio-temporel du monde d’aujourd’hui, ses crises actuelles et à venir qui laissent sur la touche ceux qui n’ont pas pris le train en marche, les plus démunis de capacités cognitives, culturelle, éducationnelles, les plus poreux aux stimuli sans pouvoir en maîtriser la véracité et la quantité. Mais ces repères pourront-ils conduire à la distinction entre le vrai et le faux ? Pourront-ils empêcher la diffusion des rumeurs et l’envie d’y croire ? La question est peut-être dépassée tant est grande la fascination qu’exercent déjà ces manipulations d’images, d’identité, de visages et bien sûr d’informations. À usage de distraction pour les uns, de support d’aide professionnelle et créative pour les autres.
Un autre angle d’attaque des algorithmes est l’usage qui est – et sera - fait de nos données personnelles, car émerge l’exigence par les citoyens et consommateurs d’en avoir la propriété et les bénéfices. Dépositaires, ils voudraient recueillir leurs propres intérêts dans une relation gagnant-gagnant avec les entreprises et les institutions. Cette captation de données qui leur échappent et alimentent les big datas, si elles ne sont ni clarifiées ni rétribuables d’une façon ou d’une autre, risque de renforcer la défiance vis-à-vis de la sphère marchande dont les bénéfices financiers sont aujourd’hui visibilisés. Pour l’instant les retours se bornent à des publicités - souvent mal - ciblées et autres offres promotionnelles pas toujours avantageuses. Les progrès de l’IA en amélioreront la personnalisation, avec en mieux la maîtrise possible par chacun de ces algorithmes, par une politique de réciprocité bienvenue. La confiance pourra construire une relation plus saine et honnête entre l’offre et la demande. A suivre.
C’est ici que se pose la question de la nécessité d’une éthique
essentielle et transversale à tout l’univers numérique
et de l’IA. À la fois pour le devenir humain, pour celui des machines et
de leur symbiose ou hybridation possible, selon
les cas et par acceptation des parties.
Mais quel est le « vouloir éthique » des concepteurs de logiciels,
eux-mêmes agents des grands opérateurs, jusqu’à
présent ? Jusqu’où pourrait aller le pouvoir des algorithmes ? Se
laissera-t-on gouverner par une petite poignée de
décideurs dont les profits dépassent ceux du PIB des états ? Peut-on
espérer que la complexité sans pareille du cerveau
humain soit indépassable dans ses pouvoirs de création, ses capacités
intellectuelles, sa palette émotionnelle, la
nuance de ses sentiments, tout cela arrimé au corps humain que la
machine ne possède pas, même si elle peut en imiter
des expressions, sans les ressentir. Et si l’on utilise les apports
bénéfiques des machines pour augmenter ses propres
compétences, personnelles et professionnelles, s’ouvrira-t-on à des
tâches et des fonctions plus créatives ?
Ni idolâtrie ni diabolisation de l’IA, qui n’est pas intelligente, qui ne peut comprendre et ressentir les propos qu’elle émet et les réalisations dont elle est capable. Plutôt une attitude attentionnée et exigeante des apports de l’une à l’autre partie, une posture morale volontariste, de préférence transparente, pour valoriser avant tout les possibles de l’humain.
J’ouvre ces questionnements par une citation de Milan Kundera « Ce sont précisément les questions auxquelles on n’a pas de réponse qui marquent les limites des possibilités humaines et qui tracent les frontières de notre existence. »