Tribune Jean-Pierre Blum

IA conversationnelle, prenez garde au complexe administratif et technologique

Publié le 20/04/2023

Les principes d'IA d'Asilomar, coordonnés par FLI (Future Leadership Institute) et élaborés lors de la conférence Beneficial AI 2017, constituent l'un des premiers ensembles de gouvernance de l'IA et l'un des plus influents. L'intelligence artificielle a déjà fourni des outils bénéfiques qui sont utilisés chaque jour par des personnes du monde entier. Son développement continu, guidé par les principes suivants, offrira des opportunités stratégiques pour aider et autonomiser les gens dans les décennies à venir. C’est sur cette base que Chat GPT a lancé une version opérationnelle de l’AI conversationnelle évoluée (ChatGPT 3.5). Les médias, dès lors, ont relayé l’information et fait état des autres solutions avancées et/ou prototypales des concurrents (américains et chinois). Avec Elon Musk en chef de file, une des conséquences aura été la publication d’une lettre publique internationale signée par plusieurs dizaines de milliers de lanceurs d’alerte.

Musk, Gates, Barrot le combat des titans

Certains voient dans l’IA conversationnelle un danger mortel (Musk), d’autres une opportunité (Gates), d’autres, enfin, la simple expression d’un vernaculaire taxon approximatif. En fait, nos gouvernants et nos élites émettent en lieu et place d’expertise des opinions « approximatives », incompétents qu’ils sont de fait. Sans préjuger du futur, on peut affirmer que l’Homme aime jouer au Deus ex Machina - c’est le dévoiement de sa nature prédatrice de son évolution darwinienne -, que le calcul numérique connecté auto-apprenant atteint une puissance jamais égalée dans l’Histoire, qu’une innovation disponible sera, de toutes les façons, utilisée, qu’une loi de régulation, aussi sévère soit-elle, sera – bien trop - lente et inévitablement contournée, notamment par les mercantiles, les impérialistes et les totalitaires, quelles que soient leurs dénégations. Rappelons avec le grand Charles qu’un pays – donc nous – n’avons pas d’amis mais que des intérêts. Les boursiers conseillent « d’acheter au son des canons et de vendre au son des violons ». S’agissant de l’IA et du principe d’entropie, nous sommes, sans doute, devant un changement, non pas de volume mais possiblement de nature qui peut – ou va – in fine, au nom du profit, donner à certains des moyens de surveillance et de manipulations gravement attentatoires aux libertés personnelles. Certains y voient une violation du libre arbitre. Déjà, le patron de TF1, le feu visionnaire Lelay, « humaniste parmi les humanistes », affirmait sans frémir « avec nos programmes, nous vendons du temps de cerveau humain disponible pour Coca-Cola ». L’IA conversationnelle franchit, elle, le Rubicon. Quant à la pause de six mois, proposée par les signataires aux côtés d’Elon Musk, elle fait bien rire par absence de faisabilité dans la vie réelle. Sans réflexion neutre et objective, donc d’anticipation stratégique et dissuasive, nous serons à la merci du complexe administratif et technologique (Allusion au Discours de Dwight Eisenhower sur le complexe militaro-industriel le jour de la fin de son mandat présidentiel le 17 janvier 1961). On ne peut qu’être inquiet.

On ne sait pas où l’on va mais on y va tout droit

Après l’ouverture au public, 100 millions de personnes se sont précipitées en un mois. La version 3.5 manipule 175 milliards de paramètres à la vitesse de la lumière. Pour sa petite sœur c’est 100 000 milliards de paramètres, soit 570 fois supérieur au langage humain. Dans l’hypothèse d’une progression linéaire, ChatGPT 5 devrait atteindre le « zettaflop », c’est-à-dire la capacité présumée du cerveau humain. Petite différence ce cerveau utilise jusqu’à 35 % de l’énergie du corps pour 2 % de son poids pour une consommation de 12,4 watts. ChatGPT utilise 0,6 wattsheure par requête, soit un relargage de 8 tonnes de CO² par jour. Les dernières estimations (Berkeley University of California) annoncent une consommation de 1 287 gigawatts heure pour l’apprentissage de ChatGPT 3, soit 502 tonnes de CO². Et dire que le numérique devait contribuer à l’amortissement du réchauffement climatique. Climat de cocagne !

Principes d'IA d'Asilomar, dire c’est bien faire c’est mieux.

Dans ce concert de louanges et de dénégations, les élites avaient, Musk en tête, dès avant la lettre de mars 2023, émis des recommandations sous le nom de « Principes d'IA d'Asilomar ». Ils sont demeurés lettre morte à ce jour ou presque. Les voici.

Cadre général

1) La recherche doit créer une intelligence bénéfique.

2) Les investissements dans l'IA doivent garantir son utilisation bénéfique, y compris les questions épineuses en informatique, économie, droit, éthique et sciences sociales, telles que :

- rendre les futurs systèmes d'IA très robustes afin qu'ils fassent ce que nous voulons sans dysfonctionnement rendre les futurs systèmes d'IA très robustes, afin qu'ils fassent ce que nous voulons sans être piratés accroître notre prospérité grâce à l'automatisation tout en préservant les ressources et les objectifs des personnes

- actualiser nos systèmes juridiques pour qu'ils soient plus justes et plus efficaces pour gérer les risques associés à l'IA identifier l’ensemble de valeurs sur lesquelles

- aligner l’IA et les statuts juridique et éthique incontournables

3) Créer un échange constructif et sain entre chercheurs en IA et décideurs politiques.

4) Encourager une culture de coopération, de confiance et de transparence parmi les chercheurs et les développeurs de l'IA.

5) Faire coopérer les équipes de recherche activement pour éviter de prendre des raccourcis en matière de normes de sécurité.

Éthique et valeurs

6) Les systèmes d'IA doivent être sûrs et sécurisés tout au long de leur durée de vie opérationnelle, et de manière vérifiable.

7) Déterminer de manière transparente les raisons dans lesquelles un système d'IA cause un préjudice.

8) Toute participation d'un système autonome à une prise de décision judiciaire doit donner lieu à une explication satisfaisante pouvant être vérifiée par une autorité humaine compétente.

9) Les concepteurs et les constructeurs de systèmes d'IA avancés sont parties prenantes des implications morales de leur utilisation, de leur mauvaise utilisation et de leurs actions, et ont la responsabilité et la possibilité de façonner ces implications.

10) Les systèmes d'IA hautement autonomes devraient être conçus de manière que leurs objectifs et leurs comportements puissent être alignés sur les valeurs humaines tout au long de leur fonctionnement.

11) Les systèmes d'IA doivent être conçus et exploités de manière à être compatibles avec les idéaux de dignité humaine, de droits, de libertés et de diversité culturelle.

12) Les personnes doivent avoir le droit d'accéder aux données qu'elles génèrent, de les gérer et de les contrôler, étant donné le pouvoir des systèmes d'IA d'analyser et d'utiliser ces données.

13) L'application de l'IA aux données personnelles ne doit pas restreindre de manière déraisonnable la liberté réelle ou perçue des personnes.

14) Les technologies de l'IA doivent profiter au plus grand nombre et lui donner les moyens d'agir.

15) La prospérité économique créée par l'IA doit être largement partagée, au bénéfice de l'ensemble de l'humanité.

16) Les humains doivent choisir comment et s'ils veulent déléguer des décisions aux systèmes d'IA, afin d'atteindre les objectifs qu'ils ont choisis.

17) Le pouvoir conféré par le contrôle de systèmes d'IA très avancés doit respecter et améliorer, plutôt que subvertir, les processus sociaux et civiques dont dépend la santé de la société.

18) Il convient d'éviter une course à l'armement en matière d'armes autonomes létales.

Questions à plus long terme

19) En l'absence de consensus, il convient d'éviter les hypothèses trop tranchées concernant les limites supérieures des capacités futures de l'IA.

20) L'IA avancée peut représenter un changement profond dans l'histoire de la vie sur Terre, et doit être planifiée et gérée avec le soin et les ressources nécessaires.

21) Les risques posés par les systèmes d'IA, en particulier les risques catastrophiques ou existentiels, doivent faire l'objet d'une planification et d'efforts d'atténuation proportionnels à leur impact attendu.

22) Les systèmes d'IA conçus pour s'auto-améliorer ou s'autorépliquer de manière récursive d'une manière qui pourrait conduire à une augmentation rapide de la qualité ou de la quantité doivent faire l'objet de mesures de sécurité et de contrôle strictes.

23) La super intelligence ne doit être développée qu'au service d'idéaux éthiques largement partagés, et pour le bénéfice de l'humanité tout entière plutôt que pour celui d'un État ou d'une organisation.

Si vous voulez mon avis, on a autant de chances d’arriver à cocher toutes les cases que de voir un copain revenir du Paradis pour raconter son voyage. On se consolera en disant que 100 % de ceux qui n’ont pas joué à Eurovision ont perdu. On est mal parti avant d’être arrivés.


Source : lequotidiendumedecin.fr