Zusammenfassung
Als in den frühen 90er Jahren im Rahmen des europäischen Projekts PROMETHEUS die ersten Gehversuche zu kamerabasierten Fahrerassistenzsystemen unternommen wurden, konnten sich nur sehr wenige Optimisten vorstellen, dass diese Technologie keine 25 Jahre später eine wichtige Rolle in der Praxis spielen würde, ja sogar manche ambitionierten Systeme wie das vollautomatische Bremsen auf Fußgänger erst ermöglichen würde. Doch kein anderer Sensor konnte so sehr vom allgemeinen Fortschritt profitieren wie Kameras mit der dazugehörigen Auswerteelektronik.
Die Kosten für eine Kamera sind von anfangs 2000 DM und mehr auf wenige 10 € gefallen. Die Dynamikprobleme der in der Anfangsphase verwendeten CCD-Sensoren, die bei Gegenlicht kaum verwertbare Bilder lieferten und daher jede Präsentation von Forschungsergebnissen gefährdeten, gehören dank der für moderne Consumer-Kameras entwickelten CMOS-Imager der Vergangenheit an. Gleichzeitig hat sich die verfügbare Rechenleistung in dieser Zeit um mehr als fünf Größenordnungen erhöht, wie dies vom Moore’schen Gesetz prognostiziert wurde. Entscheidend dazu beigetragen hat die FPGA-Technologie, auf die sich die in vielen Fällen sehr aufwändigen, frühen Verarbeitungsstufen eines bildverstehenden Systems gut abbilden lassen.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Literatur
Dickmanns, E., Zapp, A.: A curvature‐based scheme for improving road vehicle guidance by computer vision. SPIE 727, 161–168 (1986)
Meister, S., Jähne, B., Kondermann, D.: Outdoor stereo camera system for the generation of real‐world benchmark data sets. Journal of Optical Engineering 51(02) 021107–1–021107–6 (2012)
Scharstein, D., Szeliski, R.: A Taxonomy and Evaluation of Dense Two‐Frame Stereo Correspondence Algorithms. International Journal of Computer Vision (IJCV) 7–42 (2002). Kluwer, May
Geiger, A., Lenz, P., Urtasun, R.: Are we ready for Autonomous Driving? The KITTI Vision Benchmark Suite, Computer Vision and Pattern Recognition (CVPR) (2012)
Hirschmüller, H., Gehrig, S.: Stereo Matching in the Presence of Sub‐Pixel Calibration Errors, Computer Vision and Pattern Recognition (CVPR) (2009)
Hirschmüller, H., Scharstein, D.: Evaluation of Stereo Matching Costs on Images with Radiometric Differences. IEEE Transactions on Pattern Analysis and Machine Intelligence 31(9), 1582–1599 (2009)
Mühlmann, K., Maier, D., Hesser, J., Männer, R.: Calculating Dense Disparity Maps from Color Stereo Images, an Efficient Implementation, CVPR Workshop on Stereo and Multi‐Baseline Vision, S. 30–36 (2001)
Belhumeur, N.: A Bayesian approach to binocular stereopsis. International Journal on Computer Vision 19(3), 237–260 (1996)
Boykov, Y., Veksler, O., Zabih, R.: Fast approximate energy minimization via graph cuts. IEEE Transactions on Pattern Analysis and Machine Intelligence 23(11), 1222–1239 (2001)
Tappen, M., Freeman, W.: Comparison of Graph Cuts with Belief Propagation for Stereo, using Identical MRF Parameters, International Conference on Computer Vision (ICCV) (2003)
Hirschmüller, H.: Stereo Processing by Semi‐Global Matching and Mutual Information. IEEE Transactions on Pattern Analysis and Machine Intelligence 30(2), 328–341 (2008)
Gehrig, S., Rabe, C.: Real‐time Semi‐Global Matching on the CPU, CVPR Embedded Computer Vision Workshop, San Francisco, CA (2010)
Banz, C., Blume, H., Pirsch, P.: Real‐time semi‐global matching disparity estimation on the GPU, ICCV Workshop on Mobile Computer Vision, Barcelona, Spain (2011)
Gehrig, S., Eberli, F., Meyer, T.: A Real‐Time Low‐Power Stereo Engine Using Semi‐Global Matching, International Conference on Computer Vision Systems, Liege, Belgium (2009)
Bleyer, M., Chambon, S.: Does Color Really Help in Dense Stereo Matching? International Symposium 3D Data Processing, Visualization and Transmission (3DPVT), Paris, France, S. 1–8 (2010)
Shimizu, M., Okutomi, M.: Precise sub‐pixel estimation on area‐based matching, International Conference on Computer Vision (ICCV) (2001)
Gehrig, S., Badino, H., Franke, U.: Improving Sub‐Pixel Accuracy for Long Range Stereo. Journal of Computer Vision and Image Understanding 116(1), 16–24 (2012)
Franke, U., Rabe, C., Badino, H., Gehrig, S.: 6D‐Vision: Fusion of Stereo and Motion for Robust Environment Perception, DAGM Symposium 2005, Wien (2005)
Badino, H., Franke, U., Rabe, C., Gehrig, S.: Stereo Vision‐Based Detection of Moving Objects under Strong Camera Motion, VisApp, Portugal (2006)
Stein, F.: Efficient Computation of OpticaL Flow, DAGM Symposium (2004)
Shi, J., Tomasi, C.: Good features to track, Computer Vision and Pattern Recognition (CVPR), 1994, Seattle (1994)
Zach, C., Pock, T., Bischof, H.: A Duality Based Approach for Realtime TV‐L1 Optical Flow, DAGM Symposium (2007)
Müller, T., Rabe, C., Rannacher, J., Franke, U., Mester, R.: Illumination‐Robust Dense Optical Flow Using Census Signatures, DAGM Symposium (2011)
Müller, T., Rannacher, J., Rabe, C., Franke, U.: Feature‐ and Depth‐Supported Modified Total Variation Optical Flow for 3D Motion Field Estimation in Real Scenes, Computer Vision and Pattern Recognition (CVPR) (2011)
Rabe, C., Müller, T., Wedel, A., Franke, U.: Dense, Robust, and Accurate Motion Field Estimation from Stereo Sequences in Real‐time, European Conference on Computer Vision (ECCV) (2010)
Badino, H., Franke, U., Pfeiffer, D.: The Stixel World ‐ A Compact Medium Level Representation of the 3D‐World, DAGM Symposium (2009)
Pfeiffer, D., Franke, U.: Towards a Global Optimal Multi‐Layer Stixel Representation of Dense 3D Data, British Machine Vision Conference (BMVC) (2011)
Erbs, F., Schwarz, B., Franke, U.: From Stixels to Objects, IEEE Intelligent Vehicles Symposium, Brisbane (2013)
Barth, A., Franke, U.: Estimating the Driving State of Oncoming Vehicles from a Moving Platform Using Stereo Vision, IEEE Transactions on ITS (2009)
Enzweiler, M., Hummel, M., Pfeiffer, D., Franke, U.: Efficient Stixel‐Based Object Recognition, IEEE Intelligent Vehicles Symposium, Alcala de Henares (2012)
Scharwächter, T., Enzweiler, M., Franke, U., Roth, S.: Efficient Multi‐Cue Scene Segmentation, DAGM Symposium, Saarbrücken (2013)
Moosmann, F., Triggs, B., Jurie, F.: Fast Discriminative Visual Codebooks using Randomized Clustering Forests. In: Advances in neural information processing systems (2007)
Enzweiler, M., Gavrila, D.M.: A Multi‐Level Mixture‐of‐Experts Framework for Pedestrian Classification, IEEE Trans. on Image Processing (2011)
Franke, U., Pfeiffer, D., Rabe, C., Knöppel, C., Enzweiler, M., Stein, F., Herrtwich, R.G.: Making Bertha See, ICCV Workshop Computer Vision for Autonomous Driving, Sydney, Australia (2013)
Yamaguchi, K., McAllester, D., Urtasun, R.: Robust Monocular Epipolar Flow Estimation, Computer Vision and Pattern Recognition (CVPR) (2013)
Vogel, C., Roth, S., Schindler, K.: Piecewise Rigid Scene Flow, International Conference on Computer Vision (ICCV) (2013)
Gehrig, S., Reznistkii, M., Schneider, N., Franke, U., Weickert, J.: Priors for Stereo Vision under Adverse Weather Conditions, ICCV Workshop Computer Vision for Autonomous Driving, Sydney, Australia (2013)
Author information
Authors and Affiliations
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2015 Springer Fachmedien Wiesbaden
About this chapter
Cite this chapter
Franke, U., Gehrig, S. (2015). Stereosehen. In: Winner, H., Hakuli, S., Lotz, F., Singer, C. (eds) Handbuch Fahrerassistenzsysteme. ATZ/MTZ-Fachbuch. Springer Vieweg, Wiesbaden. https://doi.org/10.1007/978-3-658-05734-3_22
Download citation
DOI: https://doi.org/10.1007/978-3-658-05734-3_22
Published:
Publisher Name: Springer Vieweg, Wiesbaden
Print ISBN: 978-3-658-05733-6
Online ISBN: 978-3-658-05734-3
eBook Packages: Computer Science and Engineering (German Language)