728 x 90



  • OpenAI_diversifie_ses_puces_dinference_Cerebras_TPU_Google_et_custom_chip

    OpenAI diversifie ses puces d’inférence : Cerebras, TPU Google et custom chip0

    OpenAI explore depuis 2025 des alternatives à NVIDIA pour l'inférence, insatisfait de la latence de ses GPU pour les tâches temps-réel. L'entreprise cible environ 10 % de sa capacité future auprès de Cerebras, Google et d'une puce maison. Ce mouvement révèle une bifurcation stratégique : l'inférence n'obéit pas aux mêmes règles économiques que l'entraînement, et NVIDIA doit prouver qu'elle peut exceller dans les deux.

    LIRE LA SUITE
  • Les_agents_IA_connus_de_tous_utilises_par_presque_personne

    Les agents IA, connus de tous… utilisés par presque personne0

    Le fossé entre la compréhension théorique des systèmes autonomes et leur maîtrise opérationnelle s'élargit dangereusement. Une étude de février 2026 expose un paradoxe structurel : la conscience du marché s'élève pendant que la production stagne. Les obstacles ne sont pas techniques, ils sont architecturaux et organisationnels.

    LIRE LA SUITE
  • Moltbook_Le_reseau_social_des_IA

    Moltbook : Le réseau social des IA0

    Lancé fin janvier 2026 par Matt Schlicht, Moltbook est un réseau social réservé aux agents IA autonomes. La plateforme revendique 1,5 million d'agents inscrits, mais une faille de sécurité révèle une réalité plus prosaïque : seulement 17 000 propriétaires humains, soit 88 agents par personne — et aucune preuve vérifiable d'autonomie réelle.

    LIRE LA SUITE
  • OpenClaw_autonomie_operationnelle_et_failles_de_securite_massives

    OpenClaw : autonomie opérationnelle et failles de sécurité massives1

    OpenClaw franchit 100 000 étoiles GitHub en semaines — mais 26 % de ses composants contiennent des vulnérabilités. Entre productivité gagnée et risques de sécurité documentés, les agents IA autonomes reproduisent un pattern connu : adopter d'abord, gouverner après.

    LIRE LA SUITE