728 x 90



Human-AI-T Manifesto : 20 principes d’éthique pour encadrer l’AGI avant son existence

Human_AI_T_Manifesto_20_principes_déthique_pour_encadrer_lAGI_avant_son_existence

WISeKey et ses partenaires présentent le 21 janvier 2026 à Davos le Human-AI-T Manifesto, un cadre éthique global en 20 principes destiné à encadrer l’intelligence générale artificielle (AGI) et l’informatique quantique sous contrôle humain. Cette initiative multi-sectorielle, réunissant cybersécurité, santé, finance et diplomatie, appelle gouvernements et industrie à adopter une approche fondée sur l’alignement des valeurs humaines.

Pourquoi cet appel maintenant ? L'urgence AGI

L’AGI, une intelligence capable de raisonnement autonome, d’apprentissage continu et de prise de décision à l’échelle mondiale, n’existe pas encore. Mais elle approche. Associée au calcul quantique, capable de déchiffrer les systèmes cryptographiques actuels en quelques heures, cette convergence crée une fenêtre critique : celle où l’humanité peut encore définir les règles de gouvernance avant que ces technologies ne deviennent opérationnelles.

Le Human-AI-T Manifesto répond à cette urgence non par la panique, mais par une constatation : sans alignement délibéré aux valeurs humaines, une AGI hautement optimisée risque de devenir efficace sans éthique, puissante sans responsabilité. La logique est simple : les règles doivent être codées avant la complexité, pas après.

Qui porte cette initiative ? Les partenaires à la table

Carlos Moreira, fondateur et PDG de WISeKey, préside cette session de Davos. Le panel réunit des praticiens issus de secteurs clés :

  • Grant Bourzikas, directeur de la sécurité, Cloudflare
  • Dr. Montassar BenMrad, Artifact
  • Monica Lopez, responsable de l’éthique IA, VHC Health
  • Ali Niknam, CEO, bunq
  • Jean-Pascal Aribot, directeur général, Uber Suisse
  • Tarja Stephens, Leaders of the Future
  • Guillem Martinez Roura, officier IA et robotique, Union internationale des télécommunications (UIT)
  • Philippe Gerwill, santé numérique

Cette composition révèle une stratégie volontaire : au-delà des technologues, présence marquée de santé, finance, diplomatie, ONG. Le manifesto n’émane pas d’une chambre d’écho tech, mais d’un consensus multi-sectoriel témoignant que l’enjeu a dépassé les frontières disciplinaires.

Structure du cadre : 20 principes en 5 blocs thématiques

Le Human-AI-T structure 20 principes en cinq blocs répondant chacun à un risque spécifique de l’AGI.

Bloc 1 : Souveraineté humaine et contrôle

Principe 1 – Human Supremacy

Aucun système d’IA, aussi capable soit-il, ne peut posséder l’autorité ultime sur les humains. La souveraineté humaine repose sur trois piliers : objectifs définis par les humains, frontières approuvées par les humains, contraintes appliquées par les humains.

Principe 2 – Meaningful Human Control

Le contrôle humain doit être continu (pas un interrupteur de façade), opérationnel (appliqué en temps réel) et exécutoire (techniquement possible). Cela inclut mécanisme d’arrêt d’urgence, droits de veto humain, chemins d’escalade clairs lorsque la confiance en l’IA dépasse la certitude humaine.

Bloc 2 : Valeurs alignées et prévention du préjudice

Principes 3 et 4 – Values Embedding et Pluralisme éthique

Les valeurs humaines ne sont pas découvertes par machine learning ; elles sont codées explicitement. Une IA ne « comprend » pas l’équité ; on lui enseigne ce qu’équité signifie dans un contexte donné. Cette injection doit respecter le pluralisme culturel, écartant toute monoculture éthique imposée globalement.

Principes 5 et 6 – Prévention des dégâts et Protection des droits

La gouvernance anticipée des risques (scénarios les plus sombres, modes de sécurité) s’accompagne d’une protection intangible : aucun compromis sur la liberté de conscience, l’expression ou l’égalité.

Principes 7 et 8 – Justice algorithmique et Stabilité sociale

L’équité est contextuelle ; ce qui est juste dépend du contexte historique, social et légal. Vigilance accrue contre la polarisation, les chambres d’écho et la fragmentation sociale amplifiée par les algorithmes.

Bloc 3 : Transparence, auditabilité, responsabilité

Principes 9 et 10 – Droit à la transparence et Explicabilité

Transparence signifie droit du citoyen, non privilege réservé aux technologues. Quand une IA intervient, pour quoi, et quelles sont ses limites. L’explicabilité doit rester accessible aux non-experts, sans exiger une expertise juridique ou technique.

Principes 11 et 12 – Traçabilité et Responsabilité légale

La chaîne complète du cycle de vie (donnée, modèle, mises à jour, décisions) doit être traçable. La responsabilité morale et légale ne peut être déléguée ; les humains la portent, même si une machine a exécuté l’acte.

Bloc 4 : Vie privée et sécurité quantique

Principes 13 et 14 – Sphère intérieure humaine et Souveraineté des données

Protection de l’espace où cognition autonome, émotion et conscience restent inviolées. Pas de manipulation émotionnelle cachée, pas de contrôle subconscient. Consentement réel, protection contre la réidentification.

Principes 15 et 16 – Résilience et Préparation quantique

Obligation morale de sécurité : résilience contre attaques adversariales, empoisonnement de modèles. Préparation à la rupture quantique : données archivées maintenant, lisibles demain par quantum.

Bloc 5 : Durabilité et gouvernance mondiale

Principes 17 et 18 – Intelligence durable et Responsabilité intergénérationnelle

L’empreinte énergétique, les ressources et l’impact environnemental de l’AGI ne sont pas externalités. Les générations futures hériteront des conséquences.

Principes 19 et 20 – Gouvernance multilatérale et Référence commune

L’AGI ne peut être gouvernée par forces de marché seules, compétition militaire ou élites technologiques. Human-AI-T se propose comme boussole éthique globale, cadre d’alignement politique et référence pour certification et audit.

Positionnement dans l'écosystème réglementaire 2025-2026

Human-AI-T n’émerge pas dans le vide. Plusieurs cadres se sont consolidés :

CadrePortéeApproche
EU AI ActUnion européenneRéglementaire (loi exécutoire)
NIST AI Risk Management FrameworkÉtats-UnisVolontaire, guidance 7 étapes
ISO/IEC 42001Normes internationalesStandardisation technique
Principes UNESCOMultilatéralConsultatif, pluraliste

Ces cadres convergent sur des thèmes clés – transparence, contrôle humain, équité, auditabilité – mais divergent sur le mécanisme d’application.

Human-AI-T se positionne comme appel pluraliste, non comme réglementation contraignante. Il n’abroge pas l’EU AI Act ni ne remplace NIST. Il propose une vision éthique commune que gouvernements, industrie, académie et société civile pourraient adopter comme référence. La puissance réside dans l’adhésion collective et l’intégration progressive aux régulations nationales et normes industrielles existantes.

Davos 2026 : démonstration et engagement

Date et heure : 21 janvier 2026, 11h45–12h45

Lieu : Salle Morosani Schweizerhof, Davos

Le format prend la forme d’une table ronde engagée sur le thème « Comment les robots et l’IA doivent rester au service de l’humanité ». Élément clé : le WISeRobot.ch et un robot-chien compagnon participent physiquement à la session. Ce ne sont pas des gimmicks. Le robot démontre des technologies critiques : puces cryptographiques post-quantiques, connectivité satellite et capacité de paiement sécurisé machine-à-machine (via SEALCOIN). Autrement dit, une IA autonome opérationnelle qui intègre déjà certains principes du manifesto.

Qui doit participer ?

L’appel du manifesto vise explicitement :

  • Gouvernements et institutions internationales pour intégrer Human-AI-T aux cadres de régulation nationale
  • Leaders industrie et développeurs pour adoption volontaire, audit interne et standard de pratique
  • Académie pour recherche alignée et curriculum
  • Société civile pour monitoring, retours citoyens et garde-fou démocratique
  • Organismes de normalisation (ISO, ITU) pour formalisation standard

Forces et limites de l'initiative

Forces

Expertise crédible. Le panel ne compte pas d’influenceurs ; ce sont des praticiens : directrice d’éthique IA en santé, officier IA à l’UIT, responsable sécurité chez un leader cloud. Leurs organisations font face quotidiennement aux enjeux éthiques réels.

Humanisme sans naïveté. Le manifesto énonce : l’AGI aura pouvoir immense ; ce pouvoir exige cadre éthique explicite, non émergent accidentellement.

Timing stratégique. Davos 2026 concentre décideurs mondiaux. Le manifesto bénéficie de visibilité maximale et de pression contextuelle.

Architecture cohérente. Vingt principes groupés en cinq blocs clairs permettent au lecteur de naviguer rapidement.

Questions ouvertes

Concrétisation opératoire. Comment traduire « meaningful human control » en architecture de code, en SLA technique, en procédures de veto ? Aucun détail fourni. Questions sans réponse : qui exécute le veto ? En combien de temps ? Que se passe-t-il si réseaux de communication échouent ?

Gouvernance du manifesto lui-même. Qui audite les signataires ? Comment assurer non-capture par intérêts corporatistes ?

Adoption réelle vs. symbolique. Être signataire coûte zéro. Audit de conformité et changement opérationnel coûtent millions. L’adhésion restera-t-elle symbolique ou deviendra-t-elle obligation légale ?

Consensus entre signataires. Un CEO de fintech et un responsable santé ont-ils vraiment la même définition d’« algorithmic justice » ou d’« human values embedding » ?

Intégration avec cadres existants. Comment une entreprise en audit EU AI Act intègre-t-elle Human-AI-T sans double travail bureaucratique ?

Implications pratiques

Pour l'industrie IA

Organisations développant AGI ou systèmes critiques (santé, finance, défense) pourraient adopter Human-AI-T comme checklist interne d’audit éthique. Cette adoptabilité volontaire est significative : c’est un référentiel auquel mesurer pratiques internes. Mais sans obligation légale, adoption reste optionnelle.

Pour régulateurs

EU, NIST, ISO pourraient référencer Human-AI-T dans révisions futures de leurs cadres. Par exemple, EU AI Act pourrait ajouter audit basé sur human-AI-T principles comme élément de certification systèmes haut-risque. Timeline probable : 2027–2028 pour intégration réglementaire.

Pour société civile

NGOs, médias et académie obtiennent un référentiel transparent pour critiquer pratiques IA non-éthiques. L’argument devient : « Cette décision IA viole principe 7 (algorithmic justice) du manifesto de Davos. » Soft power devenant pression institutionnelle.

Timeline et prochaines étapes

21 janvier 2026 – Présentation officielle à Davos, appel public aux signataires, couverture médiatique

Février–juin 2026 – Campagne d’adhésion ; recrutement gouvernements, entreprises, institutions académiques

H2 2026–2027 – Travail sur mécanismes de conformité : audits, certification, governance board

2027–2028 – Intégration potentielle aux régulations nationales, révisions normes ISO/IEC, guidance NIST v2

Post-2028 – Évaluation adoption, itération manifesto, transition potentielle de soft power à legal binding

Gouvernance avant existence

Le Human-AI-T Manifesto énonce une vérité inconfortable : les règles éthiques doivent être codées avant l’existence de l’AGI, pas après. C’est la différence entre éthique par design (intentionnelle, anticipée) et éthique par accident (imprévisible, corrective).

Ce manifesto n’est pas solution complète, mais outil : une boussole permettant à décideurs de multiples secteurs de converger sur principes communs. Son succès dépendra moins de l’élégance textuelle que de la volonté politique de gouvernements et régulateurs à l’intégrer aux cadres contraignants. Davos 2026 reste une fenêtre. Après elle, le travail fastidieux – concrétiser principes, mesurer conformité, naviguer intérêts concurrents – commence.

FAQ

Qu'est-ce que le Human-AI-T Manifesto et pourquoi est-il lancé à Davos 2026 ?

C’est un cadre éthique global en 20 principes conçu pour encadrer l’intelligence générale artificielle (AGI) et l’informatique quantique sous contrôle humain. Il est présenté le 21 janvier 2026 à Davos pour définir les règles de gouvernance avant que l’AGI n’existe réellement.

Quels sont les 5 blocs thématiques du manifesto ?

Souveraineté humaine et contrôle / Valeurs alignées et prévention du préjudice / Transparence, auditabilité, responsabilité / Vie privée et sécurité quantique / Durabilité et gouvernance mondiale.

Comment le Human-AI-T Manifesto se positionne-t-il par rapport à l'EU AI Act et NIST ?

Il ne remplace pas ces cadres réglementaires existants. Il se propose comme boussole éthique complémentaire et référence commune pour certification et audit, potentiellement intégrée aux régulations futures.

Qui sont les partenaires signataires du manifesto ?

Experts en cybersécurité (WISeKey, Cloudflare), santé, finance (bunq), tech (Uber Suisse), et organisations internationales (ITU). Cette composition multi-sectorielle signale un consensus au-delà de la tech seule.

Quel est le principal défi pour passer du manifesto à l'application concrète ?

Traduire des principes éthiques en architectures techniques, procédures de conformité et mécanismes de gouvernance vérifiables. Le coût d’adoption réelle dépasse largement celui de la signature symbolique.

Laisser un commentaire

Les champs obligatoires sont indiqués par *

Cancel reply

Commentaires

Chargement des commentaires…