WISeKey et ses partenaires présentent le 21 janvier 2026 à Davos le Human-AI-T Manifesto, un cadre éthique global en 20 principes destiné à encadrer l’intelligence générale artificielle (AGI) et l’informatique quantique sous contrôle humain. Cette initiative multi-sectorielle, réunissant cybersécurité, santé, finance et diplomatie, appelle gouvernements et industrie à adopter une approche fondée sur l’alignement des valeurs humaines.
Pourquoi cet appel maintenant ? L'urgence AGI
L’AGI, une intelligence capable de raisonnement autonome, d’apprentissage continu et de prise de décision à l’échelle mondiale, n’existe pas encore. Mais elle approche. Associée au calcul quantique, capable de déchiffrer les systèmes cryptographiques actuels en quelques heures, cette convergence crée une fenêtre critique : celle où l’humanité peut encore définir les règles de gouvernance avant que ces technologies ne deviennent opérationnelles.
Le Human-AI-T Manifesto répond à cette urgence non par la panique, mais par une constatation : sans alignement délibéré aux valeurs humaines, une AGI hautement optimisée risque de devenir efficace sans éthique, puissante sans responsabilité. La logique est simple : les règles doivent être codées avant la complexité, pas après.
Qui porte cette initiative ? Les partenaires à la table
Carlos Moreira, fondateur et PDG de WISeKey, préside cette session de Davos. Le panel réunit des praticiens issus de secteurs clés :
- Grant Bourzikas, directeur de la sécurité, Cloudflare
- Dr. Montassar BenMrad, Artifact
- Monica Lopez, responsable de l’éthique IA, VHC Health
- Ali Niknam, CEO, bunq
- Jean-Pascal Aribot, directeur général, Uber Suisse
- Tarja Stephens, Leaders of the Future
- Guillem Martinez Roura, officier IA et robotique, Union internationale des télécommunications (UIT)
- Philippe Gerwill, santé numérique
Cette composition révèle une stratégie volontaire : au-delà des technologues, présence marquée de santé, finance, diplomatie, ONG. Le manifesto n’émane pas d’une chambre d’écho tech, mais d’un consensus multi-sectoriel témoignant que l’enjeu a dépassé les frontières disciplinaires.
Structure du cadre : 20 principes en 5 blocs thématiques
Le Human-AI-T structure 20 principes en cinq blocs répondant chacun à un risque spécifique de l’AGI.
Bloc 1 : Souveraineté humaine et contrôle
Principe 1 – Human Supremacy
Aucun système d’IA, aussi capable soit-il, ne peut posséder l’autorité ultime sur les humains. La souveraineté humaine repose sur trois piliers : objectifs définis par les humains, frontières approuvées par les humains, contraintes appliquées par les humains.
Principe 2 – Meaningful Human Control
Le contrôle humain doit être continu (pas un interrupteur de façade), opérationnel (appliqué en temps réel) et exécutoire (techniquement possible). Cela inclut mécanisme d’arrêt d’urgence, droits de veto humain, chemins d’escalade clairs lorsque la confiance en l’IA dépasse la certitude humaine.
Bloc 2 : Valeurs alignées et prévention du préjudice
Principes 3 et 4 – Values Embedding et Pluralisme éthique
Les valeurs humaines ne sont pas découvertes par machine learning ; elles sont codées explicitement. Une IA ne « comprend » pas l’équité ; on lui enseigne ce qu’équité signifie dans un contexte donné. Cette injection doit respecter le pluralisme culturel, écartant toute monoculture éthique imposée globalement.
Principes 5 et 6 – Prévention des dégâts et Protection des droits
La gouvernance anticipée des risques (scénarios les plus sombres, modes de sécurité) s’accompagne d’une protection intangible : aucun compromis sur la liberté de conscience, l’expression ou l’égalité.
Principes 7 et 8 – Justice algorithmique et Stabilité sociale
L’équité est contextuelle ; ce qui est juste dépend du contexte historique, social et légal. Vigilance accrue contre la polarisation, les chambres d’écho et la fragmentation sociale amplifiée par les algorithmes.
Bloc 3 : Transparence, auditabilité, responsabilité
Principes 9 et 10 – Droit à la transparence et Explicabilité
Transparence signifie droit du citoyen, non privilege réservé aux technologues. Quand une IA intervient, pour quoi, et quelles sont ses limites. L’explicabilité doit rester accessible aux non-experts, sans exiger une expertise juridique ou technique.
Principes 11 et 12 – Traçabilité et Responsabilité légale
La chaîne complète du cycle de vie (donnée, modèle, mises à jour, décisions) doit être traçable. La responsabilité morale et légale ne peut être déléguée ; les humains la portent, même si une machine a exécuté l’acte.
Bloc 4 : Vie privée et sécurité quantique
Principes 13 et 14 – Sphère intérieure humaine et Souveraineté des données
Protection de l’espace où cognition autonome, émotion et conscience restent inviolées. Pas de manipulation émotionnelle cachée, pas de contrôle subconscient. Consentement réel, protection contre la réidentification.
Principes 15 et 16 – Résilience et Préparation quantique
Obligation morale de sécurité : résilience contre attaques adversariales, empoisonnement de modèles. Préparation à la rupture quantique : données archivées maintenant, lisibles demain par quantum.
Bloc 5 : Durabilité et gouvernance mondiale
Principes 17 et 18 – Intelligence durable et Responsabilité intergénérationnelle
L’empreinte énergétique, les ressources et l’impact environnemental de l’AGI ne sont pas externalités. Les générations futures hériteront des conséquences.
Principes 19 et 20 – Gouvernance multilatérale et Référence commune
L’AGI ne peut être gouvernée par forces de marché seules, compétition militaire ou élites technologiques. Human-AI-T se propose comme boussole éthique globale, cadre d’alignement politique et référence pour certification et audit.
Positionnement dans l'écosystème réglementaire 2025-2026
Human-AI-T n’émerge pas dans le vide. Plusieurs cadres se sont consolidés :
| Cadre | Portée | Approche |
|---|---|---|
| EU AI Act | Union européenne | Réglementaire (loi exécutoire) |
| NIST AI Risk Management Framework | États-Unis | Volontaire, guidance 7 étapes |
| ISO/IEC 42001 | Normes internationales | Standardisation technique |
| Principes UNESCO | Multilatéral | Consultatif, pluraliste |
Ces cadres convergent sur des thèmes clés – transparence, contrôle humain, équité, auditabilité – mais divergent sur le mécanisme d’application.
Human-AI-T se positionne comme appel pluraliste, non comme réglementation contraignante. Il n’abroge pas l’EU AI Act ni ne remplace NIST. Il propose une vision éthique commune que gouvernements, industrie, académie et société civile pourraient adopter comme référence. La puissance réside dans l’adhésion collective et l’intégration progressive aux régulations nationales et normes industrielles existantes.
Davos 2026 : démonstration et engagement
Date et heure : 21 janvier 2026, 11h45–12h45
Lieu : Salle Morosani Schweizerhof, Davos
Le format prend la forme d’une table ronde engagée sur le thème « Comment les robots et l’IA doivent rester au service de l’humanité ». Élément clé : le WISeRobot.ch et un robot-chien compagnon participent physiquement à la session. Ce ne sont pas des gimmicks. Le robot démontre des technologies critiques : puces cryptographiques post-quantiques, connectivité satellite et capacité de paiement sécurisé machine-à-machine (via SEALCOIN). Autrement dit, une IA autonome opérationnelle qui intègre déjà certains principes du manifesto.
Qui doit participer ?
L’appel du manifesto vise explicitement :
- Gouvernements et institutions internationales pour intégrer Human-AI-T aux cadres de régulation nationale
- Leaders industrie et développeurs pour adoption volontaire, audit interne et standard de pratique
- Académie pour recherche alignée et curriculum
- Société civile pour monitoring, retours citoyens et garde-fou démocratique
- Organismes de normalisation (ISO, ITU) pour formalisation standard
Forces et limites de l'initiative
Forces
Expertise crédible. Le panel ne compte pas d’influenceurs ; ce sont des praticiens : directrice d’éthique IA en santé, officier IA à l’UIT, responsable sécurité chez un leader cloud. Leurs organisations font face quotidiennement aux enjeux éthiques réels.
Humanisme sans naïveté. Le manifesto énonce : l’AGI aura pouvoir immense ; ce pouvoir exige cadre éthique explicite, non émergent accidentellement.
Timing stratégique. Davos 2026 concentre décideurs mondiaux. Le manifesto bénéficie de visibilité maximale et de pression contextuelle.
Architecture cohérente. Vingt principes groupés en cinq blocs clairs permettent au lecteur de naviguer rapidement.
Questions ouvertes
Concrétisation opératoire. Comment traduire « meaningful human control » en architecture de code, en SLA technique, en procédures de veto ? Aucun détail fourni. Questions sans réponse : qui exécute le veto ? En combien de temps ? Que se passe-t-il si réseaux de communication échouent ?
Gouvernance du manifesto lui-même. Qui audite les signataires ? Comment assurer non-capture par intérêts corporatistes ?
Adoption réelle vs. symbolique. Être signataire coûte zéro. Audit de conformité et changement opérationnel coûtent millions. L’adhésion restera-t-elle symbolique ou deviendra-t-elle obligation légale ?
Consensus entre signataires. Un CEO de fintech et un responsable santé ont-ils vraiment la même définition d’« algorithmic justice » ou d’« human values embedding » ?
Intégration avec cadres existants. Comment une entreprise en audit EU AI Act intègre-t-elle Human-AI-T sans double travail bureaucratique ?
Implications pratiques
Pour l'industrie IA
Organisations développant AGI ou systèmes critiques (santé, finance, défense) pourraient adopter Human-AI-T comme checklist interne d’audit éthique. Cette adoptabilité volontaire est significative : c’est un référentiel auquel mesurer pratiques internes. Mais sans obligation légale, adoption reste optionnelle.
Pour régulateurs
EU, NIST, ISO pourraient référencer Human-AI-T dans révisions futures de leurs cadres. Par exemple, EU AI Act pourrait ajouter audit basé sur human-AI-T principles comme élément de certification systèmes haut-risque. Timeline probable : 2027–2028 pour intégration réglementaire.
Pour société civile
NGOs, médias et académie obtiennent un référentiel transparent pour critiquer pratiques IA non-éthiques. L’argument devient : « Cette décision IA viole principe 7 (algorithmic justice) du manifesto de Davos. » Soft power devenant pression institutionnelle.
Timeline et prochaines étapes
21 janvier 2026 – Présentation officielle à Davos, appel public aux signataires, couverture médiatique
Février–juin 2026 – Campagne d’adhésion ; recrutement gouvernements, entreprises, institutions académiques
H2 2026–2027 – Travail sur mécanismes de conformité : audits, certification, governance board
2027–2028 – Intégration potentielle aux régulations nationales, révisions normes ISO/IEC, guidance NIST v2
Post-2028 – Évaluation adoption, itération manifesto, transition potentielle de soft power à legal binding
Gouvernance avant existence
Le Human-AI-T Manifesto énonce une vérité inconfortable : les règles éthiques doivent être codées avant l’existence de l’AGI, pas après. C’est la différence entre éthique par design (intentionnelle, anticipée) et éthique par accident (imprévisible, corrective).
Ce manifesto n’est pas solution complète, mais outil : une boussole permettant à décideurs de multiples secteurs de converger sur principes communs. Son succès dépendra moins de l’élégance textuelle que de la volonté politique de gouvernements et régulateurs à l’intégrer aux cadres contraignants. Davos 2026 reste une fenêtre. Après elle, le travail fastidieux – concrétiser principes, mesurer conformité, naviguer intérêts concurrents – commence.
FAQ
Qu'est-ce que le Human-AI-T Manifesto et pourquoi est-il lancé à Davos 2026 ?
C’est un cadre éthique global en 20 principes conçu pour encadrer l’intelligence générale artificielle (AGI) et l’informatique quantique sous contrôle humain. Il est présenté le 21 janvier 2026 à Davos pour définir les règles de gouvernance avant que l’AGI n’existe réellement.
Quels sont les 5 blocs thématiques du manifesto ?
Souveraineté humaine et contrôle / Valeurs alignées et prévention du préjudice / Transparence, auditabilité, responsabilité / Vie privée et sécurité quantique / Durabilité et gouvernance mondiale.
Comment le Human-AI-T Manifesto se positionne-t-il par rapport à l'EU AI Act et NIST ?
Il ne remplace pas ces cadres réglementaires existants. Il se propose comme boussole éthique complémentaire et référence commune pour certification et audit, potentiellement intégrée aux régulations futures.
Qui sont les partenaires signataires du manifesto ?
Experts en cybersécurité (WISeKey, Cloudflare), santé, finance (bunq), tech (Uber Suisse), et organisations internationales (ITU). Cette composition multi-sectorielle signale un consensus au-delà de la tech seule.
Quel est le principal défi pour passer du manifesto à l'application concrète ?
Traduire des principes éthiques en architectures techniques, procédures de conformité et mécanismes de gouvernance vérifiables. Le coût d’adoption réelle dépasse largement celui de la signature symbolique.
Sources
- https://www.globenewswire.com/news-release/2026/01/19/3220695/0/en/WISeKey-and-Partners-Present-the-Human-AI-T-Manifesto-to-at-Davos-2026-during-the-WISeKey-Event.html
- https://www.wisekey.com/embedding-human-values-into-ai/
- https://www.ai21.com/knowledge/ai-governance-frameworks/
- https://www.ibm.com/think/insights/ai-ethics-and-governance-in-2025
- https://www.wisekey.com/davos26/









