Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Area-Based Depth Estimation for Monochromatic Feature-Sparse Orthographic Capture
Mittuniversitetet, Fakulteten för naturvetenskap, teknik och medier, Avdelningen för informationssystem och -teknologi. (Realistic3D)
Department of Optics, University of Valencia, Burjassot, Spain.
Mittuniversitetet, Fakulteten för naturvetenskap, teknik och medier, Avdelningen för informationssystem och -teknologi.
Department of Optics, University of Valencia, Burjassot, Spain.
2018 (Engelska)Ingår i: 2018 26th European Signal Processing Conference (EUSIPCO), IEEE conference proceedings, 2018, s. 206-210, artikel-id 8553336Konferensbidrag, Publicerat paper (Refereegranskat)
Abstract [en]

With the rapid development of light field technology, depth estimation has been highlighted as one of the critical problems in the field, and a number of approaches have been proposed to extract the depth of the scene. However, depthestimation by stereo matching becomes difficult and unreliable when the captured images lack both color and feature information. In this paper, we propose a scheme that extracts robust depth from monochromatic, feature-sparse scenes recorded in orthographic sub-aperture images. Unlike approaches which relyon the rich color and texture information across the sub-aperture views, our approach is based on depth from focus techniques. First, we superimpose shifted sub-aperture images on top of anarbitrarily chosen central image. To focus on different depths, the shift amount is varied based on the micro-lens array properties. Next, an area-based depth estimation approach is applied tofind the best match among the focal stack and generate the dense depth map. This process is repeated for each sub-aperture image. Finally, occlusions are handled by merging depth maps generated from different central images followed by a voting process. Results show that the proposed scheme is more suitable than conventional depth estimation approaches in the context of orthographic captures that have insufficient color and feature information, such as microscopic fluorescence imaging.

Ort, förlag, år, upplaga, sidor
IEEE conference proceedings, 2018. s. 206-210, artikel-id 8553336
Nyckelord [en]
Depth estimation, integral imaging, orthographic views, depth from focus
Nationell ämneskategori
Datavetenskap (datalogi)
Identifikatorer
URN: urn:nbn:se:miun:diva-34418ISI: 000455614900042Scopus ID: 2-s2.0-85059811493OAI: oai:DiVA.org:miun-34418DiVA, id: diva2:1248223
Konferens
EUSIPCO 2018, 26th European Signal Processing Conference, Rome, Italy, September 3-7, 2018
Tillgänglig från: 2018-09-14 Skapad: 2018-09-14 Senast uppdaterad: 2019-03-19Bibliografiskt granskad

Open Access i DiVA

fulltext(3390 kB)221 nedladdningar
Filinformation
Filnamn FULLTEXT01.pdfFilstorlek 3390 kBChecksumma SHA-512
d38aae8e078ec91948063a7800593ea7c85d583efa7a111aed130f7e748addca7cdaa97760d09279f649d4184c6385b8606b15108511d469e8c5548ddddc7bce
Typ fulltextMimetyp application/pdf

Scopus

Sök vidare i DiVA

Av författaren/redaktören
Li, YongweiSjöström, Mårten
Av organisationen
Avdelningen för informationssystem och -teknologi
Datavetenskap (datalogi)

Sök vidare utanför DiVA

GoogleGoogle Scholar
Totalt: 221 nedladdningar
Antalet nedladdningar är summan av nedladdningar för alla fulltexter. Det kan inkludera t.ex tidigare versioner som nu inte längre är tillgängliga.

urn-nbn

Altmetricpoäng

urn-nbn
Totalt: 1017 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf