CES 2026 : la Robo-Hand de Sharpa et la nouvelle ère des machines utiles CES 2026 : la Robo-Hand de Sharpa et la nouvelle ère des machines utiles

Dans notre “Les tendances technologiques grand public les plus enthousiasmantes du CES 2026” récapitulatif, nous avons couvert les grands thèmes : l’IA dans le matériel, des robots domestiques qui promettent d’accomplir de véritables tâches, de nouveaux formats d’écran, des voitures plus intelligentes et des dispositifs portables de santé. Cet article zoome sur un détail qui explique discrètement pourquoi la robotique devient enfin pratique : les mains. Au CES 2026, la main robotique SharpaWave de Sharpa a montré de manière convaincante que l’avenir des “machines utiles” se jouera moins sur la qualité de leur marche que sur leur capacité à saisir, sentir et manipuler le monde.

Au stand du CES de Sharpa, le “collaborateur” le plus occupé n’était ni un représentant de la marque ni un fondateur. C’était un torse humanoïde jouant au blackjack.

Beaucoup de robots peuvent réaliser un tour mis en scène : lancer une balle de ping‑pong, déplacer un bloc de A à B ou saluer la foule. La démo de Sharpa semblait différente. Leur buste humanoïde a tenu l’échange au ping‑pong, a distribué des cartes, a pris des photos, puis a exécuté une séquence de bricolage d’un moulin à vent en papier en plus de 30 étapes. La partie amusante, c’était le spectacle. La partie sérieuse, c’était le message : voilà à quoi ressemble la robotique quand elle commence à viser de vrais travaux.

Le tournant du CES 2026 : du “Waouh” à “Qu’est-ce que ça sait faire ?”

Le CES a toujours aimé le spectacle. Mais 2026 a ressemblé à un tournant. La robotique était partout, et de nombreuses entreprises ne vendaient plus un vague “concept du futur”. Elles vendaient des capacités, des calendriers et des plans de déploiement initiaux.

Même avec tout le discours autour de l’IA, l’énergie sur le salon se concentrait sur des produits physiques qui font quelque chose de concret. En robotique, cela signifiait moins de danse et davantage de discussions sur la fiabilité, l’entraînement et le fonctionnement en dehors des conditions parfaites de laboratoire.

Les organisateurs du CES ont également mis en avant l’idée d’“IA physique” : une IA qui dépasse les écrans et devient des machines adaptables dans le monde réel. Une grande partie de cette histoire concerne l’entraînement. Au lieu de programmer chaque action pas à pas, les robots peuvent apprendre des compétences par la simulation et la pratique avant de toucher des objets réels.

Cependant, une vérité revenait partout sur le salon : marcher est impressionnant, mais le travail dépend de la manipulation. Si un robot ne peut pas saisir, tourner, appuyer, tordre et se rattraper quand quelque chose glisse, ce n’est au fond qu’une caméra mobile coûteuse.

Pourquoi les mains sont-elles si difficiles en robotique

La plupart des gens sous-estiment les mains parce que nous avons entraîné les nôtres depuis l’enfance sans y penser. La robotique doit reconstruire cette capacité avec des moteurs, des capteurs, des logiciels et des systèmes de contrôle.

Une référence courante dans la recherche indique que la main humaine possède 27 degrés de liberté. Pas besoin de mémoriser ce nombre. L’idée est simple : une main comporte de nombreux petits mouvements qui doivent être coordonnés simultanément.

La partie la plus difficile, c’est le contact. Le monde réel est désordonné. Les objets glissent. Les surfaces se déforment. La friction change. Une prise qui semble correcte peut tout de même échouer si l’objet se décale de quelques millimètres. La vision aide, mais la vision seule ne suffit pas. Le toucher compte parce qu’il indique à un robot ce qui se passe pendant la prise, pas après qu’il a lâché l’objet.


C’est pourquoi la perception tactile est devenue un axe majeur de la robotique moderne. Les capteurs tactiles basés sur la vision, ainsi que le toucher haute résolution, sont de plus en plus associés à une manipulation améliorée et plus stable. Le CES 2026 n’a pas inventé cette idée, mais l’a fait entrer dans la conversation grand public, aux côtés des téléviseurs, des voitures et de l’IA grand public.

Présentation de SharpaWave : une main robotique conçue pour des tâches réelles

SharpaWave a été distinguée au CES 2026 (notamment comme lauréate des Innovation Awards), et le positionnement même de Sharpa rend la cible claire : c’est destiné aux entreprises de robotique, aux laboratoires de recherche et aux concepteurs.

Une main comme celle-ci peut rendre de nombreuses plates-formes robotiques plus utiles sans devoir redessiner l’environnement autour d’elles.

Les revendications et spécifications clés de Sharpa visent un objectif : une manipulation de type humain avec un retour et un contrôle solides. Les points les plus importants sont :

  • 22 degrés de liberté actifs à l’échelle 1:1 par rapport à l’humain, afin que la main puisse effectuer des mouvements plus proches de ceux d’un humain
  • un système tactile que Sharpa appelle Dynamic Tactile Array (DTA) et des pulpes visuo-tactiles. Sharpa indique que chaque bout de doigt combine une mini‑caméra avec plus de 1 000 pixels tactiles, ainsi qu’une détection de force en 6D et un contrôle de force très fin (jusqu’à 0,005 N)
  • durabilité et orientation développeurs, avec des allégations telles qu’1 million de cycles de prise ininterrompus, des articulations rétro‑entraînables (backdrivable) et une pile logicielle conçue pour l’intégration et les flux d’entraînement.

Pendant des années, les robots se sont améliorés pour se déplacer. Le goulot d’étranglement était le dernier segment entre le robot et l’objet : le point de contact final. Une main robuste et riche en toucher est ce qui permet aux robots de travailler dans des espaces humains avec des outils humains, sans obliger le monde à devenir “adapté aux robots”.

La démo de Sharpa était un test de résistance

Les démonstrations de robotique au CES échouent souvent de la même manière : elles fonctionnent une fois, sous une mise en scène parfaite, puis se brisent dès que quelque chose change. L’éclairage varie. L’objet pivote légèrement. La friction change. Le robot perd sa prise et toute la démo s’effondre.

Sharpa a essayé de dépasser cela en mettant l’accent sur la durée, la variété et la récupération. Les points forts de leur démo incluaient du ping‑pong avec un temps de réaction de 0,02 seconde, la prise de photos avec environ 2 mm de précision, la distribution de cartes à partir d’entrées en direct et la séquence de bricolage de plus de 30 étapes.

Les longues séquences comptent parce qu’elles testent plus qu’une seule prise nette. Elles testent si le système peut survivre à de petites erreurs de manière répétée. Une “machine utile” doit gérer les micro‑glissements, les positionnements imparfaits et les contacts changeants sans transformer chaque petit problème en échec total.

Les machines utiles ne sont pas toujours humanoïdes

Le CES 2026 a également mis en lumière une tension en robotique : les gens adorent les humanoïdes, mais la valeur la plus rapide vient souvent de machines spécialisées.

Les robots domestiques peinent encore en vitesse et en fiabilité. Beaucoup de démonstrations paraissent lentes, précautionneuses et fragiles. Cela soulève une question de base : s’il plie le linge plus lentement qu’un humain et nécessite encore une supervision, quel problème résout‑il aujourd’hui ?

Le CES 2026 a proposé des exemples de cette approche “l’utile d’abord”, notamment des technologies de mobilité et d’assistance qui ciblent des problèmes quotidiens clairs. Ces machines paraissent peut‑être moins spectaculaires qu’un humanoïde, mais elles ont une voie plus claire vers une adoption réelle.

L’autre moitié de l’histoire : des robots qui apprennent plus vite

La robotique évolue vers des flux de travail construits autour de la simulation et de l’entraînement. Au lieu de coder en dur chaque étape, les développeurs peuvent enseigner à un robot via des données de pratique, la téléopération et des environnements contrôlés, puis transférer ces compétences dans le monde réel.

Sharpa s’est inscrite dans cette direction, en mettant en avant des outils dédiés à l’entraînement et à l’intégration et en revendiquant la compatibilité avec des plates-formes de simulation populaires telles qu’Isaac Gym/Isaac Lab, PyBullet et MuJoCo.

Dans toute l’industrie, l’intérêt grandit aussi pour des modèles pouvant s’exécuter localement et s’adapter grâce à des démonstrations, ce qui compte pour la latence, la confidentialité et la fiabilité en environnements réels. Le point général est clair : de meilleurs “cerveaux de robot” aident, mais ils ont encore besoin de matériel capable d’exécuter ces politiques pendant le contact. Et l’on revient ainsi aux mains.

Ce que le CES 2026 a vraiment démontré

Le CES 2026 n’a pas prouvé qu’un humanoïde fera votre lessive l’an prochain. Au contraire, les démos domestiques ont montré tout le travail qu’il reste.

Ce que le CES 2026 a montré, c’est un déplacement vers la réalité produit. La nouvelle norme n’est pas “peut‑il le faire une fois sur scène ?” La norme, c’est la répétabilité, la sécurité et des résultats pratiques.
Voici les trois critères qui ont le plus compté sur l’ensemble de l’espace robotique :

  • la dextérité plutôt que la mise en scène : la mobilité est impressionnante, mais c’est la manipulation qui crée de la valeur
  • le toucher comme capteur central : la vision aide, mais la perception tactile devient centrale pour des saisies stables
  • l’autonomie sur longue durée : le vrai test, c’est la réussite répétée, plus la récupération quand de petites choses tournent mal

SharpaWave est un symbole clair de ce virage. Pas parce que c’est la seule main robotique avancée, mais parce qu’elle se situe à l’intersection de ce que la robotique priorise désormais : un toucher haute résolution, une manipulation à l’échelle humaine, de la durabilité et un logiciel prêt pour l’entraînement.

La nouvelle ère des machines utiles sera définie par la capacité des robots à gérer le monde que nous avons déjà construit, avec nos outils, nos objets et notre chaos, en commençant par une tâche en apparence simple : prendre quelque chose sans le faire tomber.

Autres publications de l’auteur

Ce que 81,000 personnes ont dit à Anthropic qu’elles attendent de l’IA
Article
Ce que 81,000 personnes ont dit à Anthropic qu’elles attendent de l’IA
Anthropic a analysé 80 508 entretiens avec des utilisateurs de l’IA dans 159 pays pour comprendre ce que les gens attendent de l’IA, ce qui les préoccupe et en quoi les outils actuels restent insuffisants.
Nebius prévoit un centre de données d’IA de 10 milliards de dollars en Finlande, sur fond de course à l’IA en Europe
Article
Nebius prévoit un centre de données d’IA de 10 milliards de dollars en Finlande, sur fond de course à l’IA en Europe
Nebius prévoit un centre de données d’IA de 310 MW en Finlande. Voici pourquoi le projet de Lappeenranta est important pour la course européenne à l’IA, les infrastructures et la souveraineté.
Le navigateur devient l’agent : pourquoi la recherche commence à agir
Article
Le navigateur devient l’agent : pourquoi la recherche commence à agir
La recherche par IA apprend à agir dans le navigateur, pas seulement à répondre. Voici comment les agents de navigateur transforment le SEO, le trafic, la confidentialité et l’avenir du web ouvert.
L'affaire Collien Fernandes et la montée des abus liés aux deepfakes
Article
L'affaire Collien Fernandes et la montée des abus liés aux deepfakes
L’affaire Collien Fernandes montre comment les abus de deepfake, les faux nus et les voix clonées peuvent détruire des vies — et pourquoi les législateurs se pressent pour rattraper leur retard.