CES 2026: Sharpas Robo-Hand och den nya eran av användbara maskiner CES 2026: Sharpas Robo-Hand och den nya eran av användbara maskiner

I vår “De mest spännande konsumenttekniktrenderna från CES 2026”-sammanställning tog vi upp de stora teman: AI i hårdvara, hemrobotar som lovar riktiga sysslor, nya skärmformat, smartare bilar och hälsoinriktade bärbara enheter. Den här artikeln zoomar in på en detalj som i tysthet förklarar varför robotik äntligen blir praktisk: händer. På CES 2026 gjorde Sharpas robohand SharpaWave ett starkt case för att framtiden för “nyttiga maskiner” kommer att avgöras mindre av hur väl robotar går och mer av hur väl de kan gripa, känna och manipulera världen.

Vid Sharpas CES-monter var den mest upptagna “medarbetaren” varken en varumärkesrepresentant eller en grundare. Det var en humanoid torso som spelade blackjack.

Många robotar kan göra ett iscensatt trick: kasta en pingisboll, flytta en kloss från A till B eller vifta till publiken. Sharpas demo kändes annorlunda. Deras humanoida överkropp spelade pingis, delade ut kort, tog foton och gick sedan igenom en pysselsekvens för en pappersvindmölla i över 30 steg. Den roliga delen var showen. Den seriösa delen var budskapet: så här ser robotik ut när den börjar sikta på riktigt arbete.

Skiftet på CES 2026: Från “Wow” till “Vad kan den göra?”

CES har alltid älskat spektakel. Men 2026 kändes som en vändpunkt. Robotik fanns överallt, och många företag sålde inte längre ett vagt “framtidskoncept.” De sålde förmågor, tidplaner och tidiga utrullningsplaner.

Trots allt AI-snack låg energin på golvet kring fysiska produkter som gör något på riktigt. Inom robotik betydde det mindre dans och mer prat om tillförlitlighet, träning och arbete utanför perfekta labbförhållanden.

Arrangörerna lutade sig också in i idén om “fysisk AI”: AI som tar sig bortom skärmar och blir anpassningsbara maskiner i den verkliga världen. En stor del av den berättelsen är träning. I stället för att programmera varje åtgärd steg för steg kan robotar lära sig färdigheter genom simulering och övning innan de rör vid riktiga objekt.

Ändå återkom en sanning genom hela mässan: att gå är imponerande, men arbete beror på manipulation. Om en robot inte kan gripa, vrida, trycka, skruva och återhämta sig när något glider är den i praktiken bara en dyr, rörlig kamera.

Varför händer är så svåra i robotik

De flesta underskattar händer eftersom vi har tränat våra egna sedan barndomen utan att tänka på det. Robotik måste återskapa den förmågan med motorer, sensorer, mjukvara och styrsystem.

En vanlig forskningsreferens säger att den mänskliga handen har 27 frihetsgrader. Du behöver inte memorera siffran. Poängen är enkel: en hand har många små rörelser som måste koordineras samtidigt.

Det svåraste är kontakten. Den verkliga världen är rörig. Föremål glider. Ytor böjer sig. Friktionen förändras. Ett grepp som ser korrekt ut kan ändå misslyckas om objektet förskjuts några millimeter. Syn hjälper, men syn räcker inte ensam. Beröring spelar roll eftersom den talar om för en robot vad som händer under greppet, inte efter att den tappat föremålet.


Därför har taktil avkänning blivit ett huvudfokus i modern robotik. Visionsbaserade beröringssensorer, tillsammans med högupplöst beröring, kopplas allt oftare till förbättrad och mer stabil manipulation. CES 2026 uppfann inte den här idén, men förde in den i mainstreamsamtalet, sida vid sida med TV-apparater, bilar och konsument-AI.

Möt SharpaWave: en robohand byggd för verkliga uppgifter

SharpaWave uppmärksammades på CES 2026 (bland annat som Innovation Awards-hedersmottagare), och Sharpas egen positionering gör målet tydligt: detta är för robotikföretag, forskningslabb och byggare.

En sådan här hand kan göra många olika robotplattformar mer användbara utan att designa om miljön kring dem.

Sharpas grundpåståenden och specifikationer syftar på ett mål: människoliknande manipulation med stark återkoppling och kontroll. De viktigaste punkterna är:

  • 22 aktiva frihetsgrader i 1:1 människoskala, så att handen kan utföra mer människoliknande rörelser
  • ett taktilt system som Sharpa kallar Dynamic Tactile Array (DTA) och visuo-taktila fingertoppar. Enligt Sharpa kombinerar varje fingertopp en liten kamera med 1 000+ taktila pixlar, plus 6D-kraftkänning och mycket fin kraftkontroll (ned till 0,005 N)
  • hållbarhet och utvecklarfokus, inklusive påståenden som 1 miljon obrutna greppcykler, bakdrivbara leder och en mjukvarustack byggd för integration och träningsarbetsflöden.

I åratal blev robotar bättre på att förflytta sig. Flaskhalsen var den sista sträckan mellan robot och objekt: den slutliga kontaktpunkten. En stark, taktilt rik hand är det som låter robotar arbeta i mänskliga miljöer med mänskliga verktyg, utan att tvinga världen att bli “robotvänlig.”

Sharpa-demot var ett stresstest

Robotikdemonstrationer på CES misslyckas ofta på samma sätt: de fungerar en gång, under perfekta förutsättningar, och går sönder när något ändras. Ljuset skiftar. Föremålet vrider sig lite. Friktionen förändras. Robotens grepp släpper och hela demon faller.

Sharpa försökte gå bortom detta genom att betona varaktighet, variation och återhämtning. Deras demohöjdpunkter inkluderade pingis med en reaktionstid på 0,02 sekunder, fotografering med cirka 2 mm precision, kortutdelning med liveinmatningar och pysselsekvensen med 30+ steg.

Långa sekvenser spelar roll eftersom de testar mer än ett rent grepp. De testar om systemet kan överleva små fel, om och om igen. En “nyttig maskin” måste hantera mikroglidningar, ofullkomlig positionering och förändrad kontakt utan att varje småsak blir ett totalt haveri.

Nyttiga maskiner är inte alltid humanoider

CES 2026 visade också en spänning inom robotiken: människor älskar humanoider, men det snabbaste värdet kommer ofta från specialiserade maskiner.

Hemrobotar brottas fortfarande med hastighet och tillförlitlighet. Många demovisningar ser långsamma, försiktiga och sköra ut. Det väcker en grundläggande fråga: om den viker tvätt långsammare än en människa och ändå behöver övervakning, vilket problem löser den i dag?

CES 2026 hade exempel på detta “nyttigt först”-angreppssätt, inklusive mobilitets- och hjälpmedelsteknik som riktar in sig på tydliga vardagsproblem. Dessa maskiner kan se mindre dramatiska ut än en humanoid, men de har en tydligare väg till verkligt införande.

Den andra halvan av berättelsen: robotar som lär sig snabbare

Robotiken rör sig mot arbetsflöden byggda kring simulering och träning. I stället för att hårdkoda varje steg kan utvecklare lära en robot genom övningsdata, fjärrstyrning och kontrollerade miljöer och sedan överföra dessa färdigheter till den verkliga världen.

Sharpa lutade sig in i den här riktningen, lyfte fram verktyg för träning och integration och gjorde kompatibilitetspåståenden kring populära simuleringsplattformar som Isaac Gym/Isaac Lab, PyBullet och MuJoCo.

I hela branschen växer också intresset för modeller som kan köras lokalt och anpassa sig med demonstrationer, vilket spelar roll för latens, integritet och tillförlitlighet i verkliga miljöer. Den övergripande poängen är tydlig: bättre “robothjärnor” hjälper, men de behöver fortfarande hårdvara som kan verkställa dessa strategier under kontakt. Det för oss tillbaka till händerna.

Vad CES 2026 egentligen bevisade

CES 2026 bevisade inte att en humanoid kommer att tvätta din tvätt nästa år. Om något visade hemmapresentationerna hur mycket arbete som återstår.

Det CES 2026 visade var en förskjutning mot produktverklighet. Den nya standarden är inte “kan den göra det en gång på scen?” Standarden är upprepbarhet, säkerhet och praktiska resultat.
Här är de tre kriterier som spelade störst roll på robotikgolvet:

  • fingerfärdighet framför teater: rörlighet imponerar, men det är manipulation som skapar värde
  • beröring som kärnsensor: syn hjälper, men taktil avkänning blir avgörande för stabila grepp
  • långsiktig autonomi: det verkliga testet är upprepad framgång, plus återhämtning när småsaker går fel

SharpaWave är en tydlig symbol för denna förskjutning. Inte för att det är den enda avancerade robothanden, utan för att den ligger i skärningspunkten för det robotiken nu prioriterar: högupplöst beröring, manipulation i människoskala, hållbarhet och mjukvara redo för träning.

Den nya eran av nyttiga maskiner kommer att definieras av om robotar kan hantera den värld vi redan byggt, med våra verktyg, våra objekt och vårt kaos, med början i ett bedrägligt enkelt jobb: att plocka upp något och inte tappa det.

Fler inlägg av författaren

Vad 81,000 personer berättade för Anthropic att de vill ha från AI
Artikel
Vad 81,000 personer berättade för Anthropic att de vill ha från AI
Anthropic analyserade 80 508 intervjuer med AI‑användare i 159 länder för att ta reda på vad människor vill ha från AI, vad som oroar dem och var dagens verktyg fortfarande inte räcker till.
Webbläsaren blir agenten: varför sökningen börjar agera
Artikel
Webbläsaren blir agenten: varför sökningen börjar agera
AI-sök lär sig att agera inne i webbläsaren, inte bara svara. Så här förändrar webbläsaragenter SEO, trafik, integritet och framtiden för det öppna webben.
Anthropic vinner första ronden i Pentagons AI-sammandrabbning
Artikel
Anthropic vinner första ronden i Pentagons AI-sammandrabbning
Anthropic vinner en tidig rättsseger i sin AI-tvist med Pentagon, vilket väcker större frågor om skyddsmekanismer för militär AI, avtal och kontroll.
Anthropic mätte AI på arbetsplatsen. Resultaten är inte vad du tror.
Artikel
Anthropic mätte AI på arbetsplatsen. Resultaten är inte vad du tror.
Anthropics arbetsmarknadsrapport Claude 2026 visar hur AI på jobbet omformar rekrytering, tjänstemannajobb och karriärer på ingångsnivå innan massuppsägningar slår till.