Le métavers, la conduite autonome, ChatGPT… Une cavalcade d’innovations dites “de rupture” se succèdent au point de donner le tournis à certains et pousser jusqu’aux éminences les plus reconnues à réclamer un temps mort. Faut-il voir dans cet affolement soudain un coup de stress provoqué par l’extraordinaire accélération de la circulation des idées et des informations ? Ou assiste-t-on vraiment à un changement de paradigme ?
Le cas des robots conversationnels reposant sur les logiciels d’intelligence artificielle – le plus connu, ChatGPT, mais aussi, Bard, Ernie, Midjourney, Dall-E… – est éloquent.
Pas un jour sans qu’une prise de position, une décision, une nouvelle application ne viennent remettre une pièce dans le juke-box de l’irruption fracassante de l’intelligence artificielle dans notre quotidien. Bill Gates évoque une rupture technologique majeure, aussi puissante que l’ordinateur personnel et internet. Goldman Sachs chiffre à 300 millions le nombre d’emplois menacés par cette nouvelle technologie. OpenAI et l’université de Pennsylvanie estiment que 80 % des salariés américains seront affectés par l’IA générative pour au moins 10 % de leurs tâches. Le gouvernement italien bloque, ses homologues allemands, espagnols et canadiens enquêtent. En France, deux premières plaintes sont déposées.
La publication de la lettre ouverte des chercheurs en IA accompagnés par Elon Musk pour réclamer un moratoire de six mois vient conforter en creux l’idée qu’un tsunami est en train de se produire. Sans que l’on distingue vraiment si cette intervention de Musk est la traduction de cette sidération qui agite les esprits, au nom de la défense de l’intérêt général, ou bien si elle répond à des soucis plus triviaux de gens qui ont peur d’être distancés et reconnaissent que dans le match en cours, le gagnant (en l’occurrence ChatGPT) est bien parti pour rafler la mise.
Il est tout aussi cocasse de voir certains militer pour l’érection d’une ligne Maginot contre l’IA : nous savons très bien que cela ne protège de rien. Au regard du développement exponentiel de la puissance des microprocesseurs, il n’existe pas de grand moyen de contrôler l’IA. À moins d’être en Chine, où l’administration du cyberespace vient de prévenir que les robots conversationnels des entreprises d’IA devront “incarner les valeurs socialistes fondamentales et ne contenir aucun contenu qui préconise le renversement du système socialiste”.
L’IA peut être considérée comme dangereuse, non en elle-même mais par l’usage qu’on en fera. Une manipulation, dans un contexte de crise géopolitique, pourrait ainsi se diffuser à grande échelle et influencer fortement les opinions.
De tous côtés, des recommandations fusent donc sur la nécessité d’une charte éthique. Très bien. Mais encore ?
Les pouvoirs publics et les régulateurs ont-ils les moyens d’imposer à temps des normes et des règles de gouvernance s’appliquant de manière universelle ? Pour encadrer les usages malveillants, pour structurer le marché.
Le problème, c’est que le législateur risque d’être toujours en retard d’une guerre tant les acteurs de la tech ont pris de l’avance dans les recherches et les expérimentations.
L’idée d’une autorégulation est aussi sympathique, mais elle repose sur du non contraignant et une mosaïque de recommandations disparates.
Alors où trouver des garde-fous ? D’abord dans la bonne utilisation du temps. Face à l’emballement actuel, la surréaction est aussi mauvaise conseillère que la procrastination. Toute grande mutation technologique conduisant à changer les conditions de vivre, de travailler, de s’informer nécessite plus de temps qu’on l’imagine et passe par des périodes de tâtonnement. La doxa du jour énonce que tous les métiers surexposés au traitement de l’information sont à court terme menacés. Avocats, médecins, développeurs, hackers, banquiers, sténotypistes, journalistes, écrivains, enseignants… vont voir leur façon de travailler remise en cause. Il faudra toutefois du temps pour organiser cette mutation. Les entreprises les premières sont incapables de bouleverser en quelques mois leur mode de travail, l’utilisation de nouveaux outils, bref se réinventer.
Le véritable défi n’est-il pas plutôt celui d’aider le maximum de gens à s’adapter dès maintenant, les former pour qu’ils utilisent efficacement une technologie que les plateformes numériques mettent à leur portée pour un coût marginal ? D’identifier les sources ? De définir les types d’emplois que cela peut créer, plutôt que réclamer une pause ? Mieux vaudrait investir puissamment et rapidement dans la formation à l’utilisation d’une technologie dont le principal danger est de produire un résultat non-sourcé à partir de milliards de données non-vérifiées ? Là est l’enjeu.
L’humanité a toujours su générer ses mécanismes auto-correcteurs pour bloquer les inventions les plus inutiles au bien commun, à l’efficacité économique, sociale et environnementale. Que dire des cryptomonnaies, dévoiement de la blockchain (une technologie intéressante) par des manipulateurs ? Que dire du métavers, utilisé par Facebook pour tenter de se réinventer (Meta) après le flop de Second Life – avant, sans doute, une nouvelle tentative – ?
ChatGPT n’est pas une nouvelle fausse idée révolutionnaire comme certains veulent le présenter, mélangeant bons sentiments et calculs financiers, dans l’idée de gagner du temps pour mettre au point leur propre technologie. Comme le prouve Elon Musk lui-même, capable de formuler ses appréhensions tout en lançant en même temps sa propre start up d’intelligence artificielle, X.AI, il faudra encore du temps pour que cette technologie s’installe. C’est ce temps qu’il ne faut pas gâcher. Plutôt que rester les bras croisés, mieux vaudrait chercher à anticiper dès maintenant ce changement de monde qui adviendra sous une forme plus aboutie et mature. À moins de le subir.