RoboSense AC1 LiDAR-kamera: Præcis AI 3D-syn til robotteknik og SLAM

Mens Boston Dynamics' Atlas mestrer komplekse akrobatik og Teslas Optimus forfiner fingerfærdig manipulation, bevæger humanoide robotter sig støt fra laboratoriekuriositeter til håndgribelige virkelige aktiver. Alligevel består en grundlæggende udfordring, som adskiller disse sofistikerede maskiner fra ægte autonom intelligens: Hvordan kan de, som mennesker eller endda bedre, nøjagtigt "se", forstå indviklede 3D-miljøer, tyde objekters betydning og forstå dynamiske ændringer for at muliggøre præcis fysisk interaktion?

I en tid, hvor mobile intelligente robotter i stigende grad trænger ind i industrier fra fremstilling til sundhedspleje, forbliver avanceret opfattelse nøglen til deres autonomi og intelligens. Fremkomsten af legemliggjort intelligens forstærker dette behov. I modsætning til virtuel AI, der udelukkende er afhængig af skyberegning, kræver legemliggjort AI, at robotter interagerer med den fysiske verden i realtid, hvilket nødvendiggør, at de udvikler sig til fysisk AI. Dette kræver opfattelse af millimeternøjagtige forskydninger af dynamiske forhindringer, vurdering af objekters tekstur og stivhed for gribning og endda fortolkning af subtile menneskelige gestusser for at udføre opgaver som navigation, forhindringsundgåelse, interaktion og gribning med enestående præcision.

 

Flaskehalse i traditionelle robotvisionsløsninger

Historisk set har konventionelle synsteknologier kæmpet med iboende begrænsninger som forstyrrende omgivende lys, utilstrækkelig afstandsnøjagtighed og ineffektiv samarbejde mellem flere sensorer. Disse problemer hindrer ofte robotter i at opnå stabil og effektiv opfattelse i komplekse, dynamiske miljøer. Løsninger, der forsøger at sammenflette flere uafhængige sensorer, resulterer ofte i alt for komplekse, uhåndterlige og vanskelige at implementere eller masseproducere systemer.

Lad os dykke ned i de vedvarende "lenker" ved traditionelle metoder:

1. De iboende mangler ved passivt syn

Traditionelt struktureret lys-syn, der er afhængigt af omgivende lys til passiv billeddannelse, lider betydeligt under varierende lysforhold. I alt for lyse eller mørke omgivelser går vigtig billedinformation ofte tabt, hvilket forhindrer robotter i nøjagtigt at identificere objekters konturer eller afstande. Tænk på traditionelle AGV'er/AMR'er, der ofte stopper på grund af visuelle fejl, når de udsættes for direkte sollys eller skiftende skygger. Ligeledes kan en humanoid robot, der arbejder i en fabrik eller hjemme, møde hurtigt bevægende forhindringer (f.eks. et kæledyr eller et faldende værktøj). På grund af lave billedhastigheder og høj databehandlingsforsinkelse har konventionelle strukturerede lyskameraer svært ved at opdatere miljømodeller i realtid, hvilket fører til forsinkede robotreaktioner eller endda sammenstød.

2. Nøjagtighedsproblemer ved binokulært og struktureret lys

Mens binokulære kameraer kan beregne dybde via parallakse, forringes deres afstandsnøjagtighed kraftigt med afstand, og deres modstandsdygtighed over for omgivende lys er svag. Struktureret lys tilbyder højpræcis nærfelt 3D-rekonstruktion, men er sårbar over for mønsterforstyrrelser, hvilket gør det næsten uvirksomt ud over 5 meter eller i lyse udendørsforhold. iToF-teknologi giver hurtig afstandsmåling, men er modtagelig for multipath-refleksion, hvilket fører til støjende og mindre robuste data. Når en robotarm skal gribe et skrøbeligt æg eller stramme en præcisionsskrue, kræver synssystemet dybdeinformation på under centimeters niveau. Alligevel oplever traditionelle løsninger ofte betydelige nøjagtighedstab i stærkt lys og lider af parallaksefejl på kort afstand, hvilket resulterer i høje fejlrater ved gribning.

3. "Oppustningsfælden" ved multi-sensor stabling

For at kompensere for individuelle sensorers begrænsninger kombinerer nogle producenter kameraer med LiDAR (dToF) for forbedret opfattelse. Denne tilgang medfører dog kompleks hardwareudrulning, omhyggelig kalibrering og betydelige beregningsomkostninger. Udviklere bruger ofte måneder på at opnå tids-synkronisering, datajustering og algoritmesammenfletning, kun for at finde det resulterende system for komplekst til skalerbar implementering. Udfordringen forstærkes med legemliggjort intelligens, som kræver sammenfletning af multidimensionelle data som syn, berøring og kraftfeedback. Den rum-tidsmæssige fejljustering af output fra traditionelle kameraer, LiDAR og taktile sensorer tvinger ofte udviklere til langvarige kalibreringsindsatser uden garanti for opfattelse i alle komplekse scenarier.

Disse tekniske flaskehalse begrænser ikke blot en robots tilpasningsevne, men hæmmer også industriens innovation, idet udviklere tvinges til at bygge grundlæggende værktøjskæder frem for at fokusere på funktionsoptimering og scenarieudvidelse.

 

Præsentation af RoboSense AC1: En banebrydende alt-i-en-løsning til robotopfattelse

Den 28. marts 2025 lancerede RoboSense sit banebrydende RoboSense AC1 LiDAR Dybdekamera, det første produkt i sin nye Active Camera-serie, sammen med et AI-Klar økosystem. Dette innovative tilbud præsenterer en banebrydende, alt-i-en-løsning til udvikling af robotopfattelse, der direkte adresserer de kerneudfordringer, der er fremhævet ovenfor.

AC1 leverer hardware-niveau sammenflettet information om dybde, farve og bevægelsesstilling, hvilket fundamentalt ændrer robotopfattelseskonfigurationer. Det bevæger sig ud over den traditionelle, besværlige metode med at stable forskellige sensorer og udvikler sig til en simpel, effektiv og kommercielt levedygtig løsning til masseproduktion. Samtidig udstyrer AI-Klar økosystemet udviklere med nødvendige softwareværktøjer og open source-algoritmer, hvilket markant forbedrer udviklingseffektiviteten og forkorter cyklusser. Denne kraftfulde kombination af hardware-niveau sammenfletning og et omfattende udviklerøkosystem er sat til at omdefinere robotvision, etablere en ny standard for AI-opfattelse og indlede en udvikling, hvor robotter får virkelig skarpe "øjne."

 

Nøglefunktioner og banebrydende gennembrud ved RoboSense AC1:

 RoboSense AC1 er ikke blot en opgradering; det er et kvalitativt spring i 3D-opfattelse, bygget på dyb hardware-niveau innovation. Dets kernefordele drejer sig om ultranøjagtig afstandsmåling, uovertruffen miljørobusthed og omfattende tilpasningsevne til alle scenarier.

  1. Hardware-niveau multimodal sammenfletning for rum-tidsmæssig enhed:
    AC1 opnår ægte hardware-niveau sammenfletning ved dybt at integrere de digitale signaler fra LiDAR med kameravisuel information. Gennem RoboSense's egenudviklede chip-niveau algoritmer leverer AC1 rum-tidsmæssigt synkroniseret dybdeinformation, farveinformation (RGB) og bevægelsesstillingsinformation (IMU). Dette gennembrud eliminerer dataasynkronitet og akkumulerede kalibreringsfejl, som er iboende i traditionelle multisensorsystemer. Ved dynamisk forhindringsundgåelse leverer AC1 for eksempel højpræcise punktskyer og semantiske billeder i realtid, hvilket gør det muligt for robotter samtidig at opfatte en forhindrings position, form og bevægelsestendens.

  2. Branchens førende ydelsesparametre:
    AC1 overgår menneskets synsevne på flere områder:

    • Ultranøjagtig dybdesansning: Opnår en imponerende 3 cm (1σ) nøjagtighed med en maksimal rækkevidde udvidet til 70 meter. Dette er en 600 % forøgelse af afstandsevnen sammenlignet med mange traditionelle 3D-kameraer, hvilket giver præcis 3D-rumdata, der er afgørende for avanceret SLAM og autonom navigation.
    • Bredt synsfelt (FoV): Tilbyder et bredt Dybde-FoV på 120° × 60° og et RGB-FoV på 144° × 78°, hvilket er 170 % større end traditionelle 3D-kameraer. Denne omfattende dækning sikrer fuld sceneovervågning og robust objektsporing
  3. Uovertruffen miljørobusthed:
    Vigtigt er det, at AC1's afstandsydelse er upåvirket af lysforhold. Den fungerer pålideligt under 100kLux direkte sollys og opretholder konsekvent datakvalitet selv i mørke omgivelser. Det betyder, at robotter ikke blot kan erhverve præcise 3D-afstandsdata, men også rig visuel semantisk information, hvilket overvinder miljøforstyrrelser som stærkt lys og mørke. For første gang får robotter alt-vejr, alt-terrain "visuel frihed."

  4. Kompakt, robust og omkostningseffektiv konstruktion:
    I modsætning til multisensor-stablingsløsninger, der kræver komplekse mekaniske strukturer, er den højt integrerede AC1 betydeligt mere kompakt – cirka 1/3 af størrelsen af traditionelle multisensorsystemer. Denne lette, solide modul er designet til at modstå ekstreme temperaturer fra -20°C til 60°C, hvilket gør den ideel til fleksibel anvendelse på forskellige mobile platforme som AGV'er, droner, service-robotter og humanoide robotter. Desuden er dens enhedsomkostning 40 % lavere end en separat "kamera + LiDAR"-kombination, hvilket baner vejen for bred kommercialisering.

Li Yuexuan, algoritmeingeniør ved Nationalt og Lokalt Fælles Ingeniørforskningscenter for Humanoide Robotter, bemærkede: "Pladsen til at installere sensorer på eksisterende humanoide robotter er begrænset, separat sensor-kalibrering er besværlig, og der mangler brugervenlige multisensor-sammenfletningsalgoritmer. AC1 sparer installationsplads og kan direkte sammenflette billed-, punktsky- og IMU-algoritmer, hvilket opnår fremragende SLAM-, opfattelses- og lokaliseringsresultater."

Yang Guodong, medstifter og leder af Motion Intelligence F&U-centeret hos Lingbao CASBOT, tilføjede: "Vores opfattelses- og hardwareteams er meget tilfredse med AC1. Den eliminerer det besværlige arbejde med at kalibrere forskellige sensorer separat og reducerer antallet af hardwarekomponenter, hvilket sparer intern plads, hvilket er meget venligt for designet af kompakte humanoide robotter."

 

Styrkelse af udviklere: AI-Klar økosystem frigør innovation

Den teknologiske styrke ved AC1 er kun en del af dens værdi; RoboSense's dybere strategi ligger i at dyrke et udviklervenligt økosystem, der er klar til at revolutionere robotindustrien’s udviklingsparadigme.

Traditionelt bruger udviklere op til 80 % af deres indsats på grundlæggende opgaver som udvikling af sensorstyring, datakalibrering og tids-synkronisering. AC1's AI-Klar økosystem tilbyder et omfattende open source-værktøjssæt, inklusive drivere, datainnsamlingsnoder, kalibreringsværktøjer, multimodale datafusionsgrænseflader og endda et forudkonfigureret krydskompatibelt miljø. Dette gør det muligt for udviklere at gå fra "at opfinde hjulet på ny" til hurtigt at "bygge med klodser", hvilket forkorter udviklingscyklusser fra måneder til blot uger.

For eksempel understøtter AC1 til SLAM og lokaliseringsmoduler visuel-LiDAR-fusions-SLAM, hvilket muliggør højpræcis lokalisering i dynamiske miljøer. Det faciliterer også 3D Gaussisk Splatning, som hjælper udviklere med at opnå effektiv rekonstruktion af spredte punktskyer hurtigere og samtidig reducere strømforbruget. Desuden inkluderer AC1 funktionelle moduler til semantisk segmentering og genkendelse af objekter, hvilket giver udviklere mulighed for hurtigt at opnå realtidsgenkendelse af dusinvis af objekttyper (f.eks. industridel, fodgængere, køretøjer) baseret på fortrænede modeller.

Det funktionsrige SDK til Active Camera-serien gør det muligt for udviklere at opfylde forskellige scenariespecifikke opgaver. Ved at udnytte AC1's automatiske sammenkædning af punktsky- og billeddata forbedrer dens multimodale sammenfletningsevner betydeligt sceneopfattelsen. Udviklere kan direkte tilgå funktioner som SLAM-kortlægning, 3D Gaussisk, lokalisering og forhindringsundgåelse via SDK'en, uden at skulle udvikle sensorstyring, kalibrering og datafletning. De kan justere eksisterende algoritmer til specifikke scenarier eller hurtigt integrere avancerede funktioner som semantisk segmentering, objektgenkendelse og ruteplanlægning gennem intuitive API'er uden at skulle træne modeller fra bunden.

For at imødekomme forskellige industriers behov vil Active Camera-produktlinjen udvides og tilbyde forskellige typer produkter, der opfylder specifikke krav til afstand, nøjagtighed, opløsning og modstandsdygtighed over for omgivende lys. Udviklere kan vælge opløsning, afstandsevne og strømforbrug baseret på deres opgave. For eksempel kan logistikrobotter prioritere et stort synsfelt og støjreducerende tilstand, mens medicinske robotter kan vælge højpræcisionstilstand til kritisk forhindringsundgåelse. Denne fleksibilitet sikrer, at Active Camera dækker et fuldt spektrum af anvendelser, fra industriel inspektion til hjemmepleje, og optimerer sensorprincipper til forskellige scenarier.

RoboSense samarbejder aktivt med adskillige udviklerfællesskaber og universitetslaboratorier verden over for løbende at forbedre sin algoritmebibliotek og værktøjskæde. Supplerende tekniske supportcentre i USA, Europa og Asien-Stillehavsområdet sikrer, at globale udviklere har problemfri adgang til økosystemet og support.

 

Konklusion: Omdefinering af robotvision med RoboSense AC1

Som en globalt førende robotteknologiplatform er RoboSense gennem sin AC1 LiDAR Dybdekamera og AI-Klar økosystem klar til at blive den afgørende "opfattelsesstandard-sætter" for den intelligente robotindustri.

Modsat traditionelle komponentleverandører, der tilbyder isolerede moduler (kameraer, radarer, IMU'er), leverer RoboSense en helhedsorienteret, lukket kredsløbsfusionsløsning fra hardware til algoritmer, der indkapsler en "opfattelse-beslutning-udførelse" filosofi. Dette sænker markant forsknings- og udviklingsbarrieren for robotudviklere.

Med udgangspunkt i RoboSense's omfattende teknologiske opsamling og industrialiseringsevner har AC1 både høj omkostningseffektivitet og brugervenlighed. Dette demokratiserer avanceret opfattelse, så selv små og mellemstore virksomheder og nystartede kan udvikle robotprodukter med banebrydende kapaciteter hurtigt. Denne acceleration lover at udvide intelligente robotter til forskellige "langhale"-scenarier som landbrug, byggeri og detailhandel.

Fremkomsten af AC1 markerer et afgørende skifte for robotvision – fra "passiv billeddannelse" til "aktiv opfattelse." Det er ikke blot en overlegen erstatning for traditionelle 3D-kameraer; det løser anvendelsesbegrænsninger og kompatibilitetsproblemer ved multisynssensorstabling. AC1 indkapsler en ny teknologisk filosofi: gennem dyb integration af hardware og algoritmer giver det robotopfattelse mulighed for virkelig at overskride menneskelige sansebegrænsninger og driver os mod rumlig intelligens.

For ingeniører og udviklere forvandler AC1's AI-Klar økosystem dem fra blot "værktøjsbrugere" til "innovationsledere." For industrien repræsenterer dette en effektivitetens revolution og, vigtigere, begyndelsen på den næste udvikling af intelligente robotter.

Efterhånden som Active Camera-produktlinjen udvides, vil RoboSense fortsætte med at drive udviklingen af robotopfattelsesteknologi. Når flere robotter udstyres med synssystemer, der "overgår det menneskelige øje," vil digitalisering og intellektualisering af den fysiske verden ikke længere være begrænset til science fiction, men blive en håndgribelig, udbredt virkelighed.


Referencer

  1. https://www.robosense.ai/en/rslidar/AC1
  2. https://mp.weixin.qq.com/s/NPlwN-eF5jpQRRksHeGDfQ?scene=1

Ansvarsfraskrivelse: Dette indhold deles med venlige hensigter. Hvis nogen rettigheder krænkes, bedes du straks underrette os, og vi vil fjerne det med det samme.

Efterlad en kommentar

Din e-mailadresse vil ikke blive offentliggjort. Obligatoriske felter er markeret med *

Tilmeld dig vores nyhedsbrev

Få de seneste oplysninger om vores produkter og særlige tilbud.