Endre søk
RefereraExporteraLink to record
Permanent link

Direct link
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annet format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annet språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Autonomous meshing, texturing and recognition of objectmodels with a mobile robot
KTH, Skolan för datavetenskap och kommunikation (CSC), Robotik, perception och lärande, RPL. KTH, Skolan för datavetenskap och kommunikation (CSC), Centra, Centrum för Autonoma System, CAS. (Robotics Perception Learning RPL, Centre for Autonomous Systems, CAS)ORCID-id: 0000-0002-3111-3812
KTH, Skolan för datavetenskap och kommunikation (CSC), Centra, Centrum för Autonoma System, CAS. (Robotics Perception Learning RPL, Centre for Autonomous Systems, CAS)ORCID-id: 0000-0003-1189-6634
KTH, Skolan för datavetenskap och kommunikation (CSC), Centra, Centrum för Autonoma System, CAS. KTH, Skolan för datavetenskap och kommunikation (CSC), Robotik, perception och lärande, RPL. (Robotics Perception Learning RPL, Centre for Autonomous Systems, CAS)ORCID-id: 0000-0002-7796-1438
KTH, Skolan för datavetenskap och kommunikation (CSC), Centra, Centrum för Autonoma System, CAS. KTH, Skolan för datavetenskap och kommunikation (CSC), Robotik, perception och lärande, RPL. (Robotics Perception Learning RPL, Centre for Autonomous Systems, CAS)ORCID-id: 0000-0002-1170-7162
2017 (engelsk)Konferansepaper, Publicerat paper (Fagfellevurdert)
Abstract [en]

We present a system for creating object modelsfrom RGB-D views acquired autonomously by a mobile robot.We create high-quality textured meshes of the objects byapproximating the underlying geometry with a Poisson surface.Our system employs two optimization steps, first registering theviews spatially based on image features, and second aligningthe RGB images to maximize photometric consistency withrespect to the reconstructed mesh. We show that the resultingmodels can be used robustly for recognition by training aConvolutional Neural Network (CNN) on images rendered fromthe reconstructed meshes. We perform experiments on datacollected autonomously by a mobile robot both in controlledand uncontrolled scenarios. We compare quantitatively andqualitatively to previous work to validate our approach.

sted, utgiver, år, opplag, sider
Vancouver, Canada, 2017.
HSV kategori
Identifikatorer
URN: urn:nbn:se:kth:diva-215232OAI: oai:DiVA.org:kth-215232DiVA, id: diva2:1147195
Konferanse
Intelligent Robots and Systems, IEEE/RSJ International Conference on
Merknad

QC 20171009

Tilgjengelig fra: 2017-10-05 Laget: 2017-10-05 Sist oppdatert: 2018-01-13bibliografisk kontrollert

Open Access i DiVA

fulltext(2356 kB)252 nedlastinger
Filinformasjon
Fil FULLTEXT01.pdfFilstørrelse 2356 kBChecksum SHA-512
717e18694b28e2a6e39ffd7f442c8a2a7748af63651c384714de5addd79732ef09b04975deab36fde79a9837f662c5c01f9cef9244e919ddecb6d4f597a05404
Type fulltextMimetype application/pdf

Andre lenker

webpage

Søk i DiVA

Av forfatter/redaktør
Ambrus, RaresBore, NilsFolkesson, JohnJensfelt, Patric
Av organisasjonen

Søk utenfor DiVA

GoogleGoogle Scholar
Totalt: 252 nedlastinger
Antall nedlastinger er summen av alle nedlastinger av alle fulltekster. Det kan for eksempel være tidligere versjoner som er ikke lenger tilgjengelige

urn-nbn

Altmetric

urn-nbn
Totalt: 706 treff
RefereraExporteraLink to record
Permanent link

Direct link
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annet format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annet språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf