Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Autonomous meshing, texturing and recognition of objectmodels with a mobile robot
KTH, Skolan för datavetenskap och kommunikation (CSC), Robotik, perception och lärande, RPL. KTH, Skolan för datavetenskap och kommunikation (CSC), Centra, Centrum för Autonoma System, CAS. (Robotics Perception Learning RPL, Centre for Autonomous Systems, CAS)ORCID-id: 0000-0002-3111-3812
KTH, Skolan för datavetenskap och kommunikation (CSC), Centra, Centrum för Autonoma System, CAS. (Robotics Perception Learning RPL, Centre for Autonomous Systems, CAS)ORCID-id: 0000-0003-1189-6634
KTH, Skolan för datavetenskap och kommunikation (CSC), Centra, Centrum för Autonoma System, CAS. KTH, Skolan för datavetenskap och kommunikation (CSC), Robotik, perception och lärande, RPL. (Robotics Perception Learning RPL, Centre for Autonomous Systems, CAS)ORCID-id: 0000-0002-7796-1438
KTH, Skolan för datavetenskap och kommunikation (CSC), Centra, Centrum för Autonoma System, CAS. KTH, Skolan för datavetenskap och kommunikation (CSC), Robotik, perception och lärande, RPL. (Robotics Perception Learning RPL, Centre for Autonomous Systems, CAS)ORCID-id: 0000-0002-1170-7162
2017 (Engelska)Konferensbidrag, Publicerat paper (Refereegranskat)
Abstract [en]

We present a system for creating object modelsfrom RGB-D views acquired autonomously by a mobile robot.We create high-quality textured meshes of the objects byapproximating the underlying geometry with a Poisson surface.Our system employs two optimization steps, first registering theviews spatially based on image features, and second aligningthe RGB images to maximize photometric consistency withrespect to the reconstructed mesh. We show that the resultingmodels can be used robustly for recognition by training aConvolutional Neural Network (CNN) on images rendered fromthe reconstructed meshes. We perform experiments on datacollected autonomously by a mobile robot both in controlledand uncontrolled scenarios. We compare quantitatively andqualitatively to previous work to validate our approach.

Ort, förlag, år, upplaga, sidor
Vancouver, Canada, 2017.
Nationell ämneskategori
Datorseende och robotik (autonoma system)
Identifikatorer
URN: urn:nbn:se:kth:diva-215232OAI: oai:DiVA.org:kth-215232DiVA, id: diva2:1147195
Konferens
Intelligent Robots and Systems, IEEE/RSJ International Conference on
Anmärkning

QC 20171009

Tillgänglig från: 2017-10-05 Skapad: 2017-10-05 Senast uppdaterad: 2018-01-13Bibliografiskt granskad

Open Access i DiVA

fulltext(2356 kB)190 nedladdningar
Filinformation
Filnamn FULLTEXT01.pdfFilstorlek 2356 kBChecksumma SHA-512
717e18694b28e2a6e39ffd7f442c8a2a7748af63651c384714de5addd79732ef09b04975deab36fde79a9837f662c5c01f9cef9244e919ddecb6d4f597a05404
Typ fulltextMimetyp application/pdf

Övriga länkar

webpage

Sök vidare i DiVA

Av författaren/redaktören
Ambrus, RaresBore, NilsFolkesson, JohnJensfelt, Patric
Av organisationen
Robotik, perception och lärande, RPLCentrum för Autonoma System, CAS
Datorseende och robotik (autonoma system)

Sök vidare utanför DiVA

GoogleGoogle Scholar
Totalt: 190 nedladdningar
Antalet nedladdningar är summan av nedladdningar för alla fulltexter. Det kan inkludera t.ex tidigare versioner som nu inte längre är tillgängliga.

urn-nbn

Altmetricpoäng

urn-nbn
Totalt: 372 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf