Show simple item record

dc.contributor.authorWimmer, Michaelen_US
dc.coverage.spatialWienen_US
dc.date.accessioned2015-01-19T15:14:00Z
dc.date.available2015-01-19T15:14:00Z
dc.date.issuedJune 2001en_US
dc.identifier.urihttp://diglib.eg.org/handle/10.2312/8148
dc.description.abstractComputergraphik ist die Wissenschaft, die sich mit der Generierung glaubw¨urdiger Bilder besch¨aftigt. Eine der gr¨oßten Herausforderungen dabei ist, diese Bilder in ausreichender Geschwindigkeit zu erzeugen. Speziell bei der Simulation von Fahrzeugen in Stadtgebieten, bei der virtuellen Erforschung von Geb¨auden (ob noch nicht gebaute, existierende oder schon lange zerst¨orte), bei Computerspielen und vielen anderen Anwendungen ist es wichtig, daß die Bilder in fl¨ussiger Abfolge erscheinen. ¨ Ublicherweise versteht man darunter eine Bildrate von mindestens 60 Bildern pro Sekunde. Das ist das Thema der Echtzeitvisualisierung. In dieser Dissertation werden zwei Algorithmen zur beschleunigten Darstellung von großen virtuellen Szenen vorgestellt. Dabei wird bei beiden Algorithmen eine interessante Eigenschaft von vielen solchen Szenen ausgen¨utzt: Objekte, die sich weiter weg vom Betrachter befinden, machen nur einen kleinen Teil des endg¨ultigen Bildes aus, ben¨otigen aber relativ viel Rechenzeit. In dieser Dissertation wird gezeigt, wie man entfernte Objekte mit einer Komplexit¨at, die der ¨uberdeckten Bildfl¨ache und nicht ihrer eigentlichen geometrischen Komplexit¨at entspricht, repr¨asentieren und darstellen kann. Die beiden Algorithmen sind f¨ur unterschiedliche Szenarien gedacht. Die erste Methode funktioniert zur Laufzeit, braucht also keine Vorberechnung. Die zweite Methode hingegen hat einen wichtigen Vorberechnungsschritt, der bei der Darstellung sowohl die Geschwindigkeit als auch die Qualit¨at signifikant erh¨oht. Der erste Teil der Dissertation besch¨aftigt sich mit einem Algorithmus zur Darstellung von Szenen mit starker gegenseitiger Verdeckung von Objekten. Dabei kommen in mehreren Schritten bildbasierte Renderingmethoden zum Einsatz. Objekte bis zu einer bestimmten Entfernung vom Betrachter werden mit gew¨ohnlichen polygonbasierten Methoden gezeichnet. In einem weiteren pixelbasierten Schritt werden dann alle noch nicht bedeckten Pixel des Bildes identifiziert und in einem zylindrischen Zwischenspeicher f¨ur Farbwerte nachgesehen. Sollte dort kein sinnvollerWert vorhanden sein, wird die Farbe des Pixels mittels eines Blickstrahls ermittelt, sofern sich das Pixel nicht ¨uber dem Horizont befindet. Die Methode funktioniert praktisch unabh¨angig von der Anzahl der verwendeten Objekte in der Szene und erreicht eine bis zu zehnfache Beschleunigung im Vergleich zu ¨ublichen Darstellungsmethoden. Im zweiten Teil der Dissertation wird eine Datenstruktur zur getrennten Speicherung von Geometrie- und Farbinformationen f¨ur ein Objekt pr¨asentiert, geeignet f¨ur die Betrachtung aus einem bestimmten r¨aumlich abgegrenzten Bereich. Damit sollen komplexe Objekte in virtuellen Szenen insbesonders weit entfernte Objekte ersetzt werden, um eine schnellere und qualitativ bessere Darstellung dieser Objekte zu erreichen. Dabei wird das Objekt quasi mit einer Punktwolke dargestellt, deren Dichte sich nach den m¨oglichen Betrachterpositionen richtet. Das Aussehen der Punktwolke wird mittels eines Monte Carlo Verfahrens bestimmt, das eine artefaktfreie Darstellung von allen erlaubten Blickpunkten aus gestattet. Außerdem gibt diese Dissertation einen ausf¨uhrlichen ¨ Uberblick ¨uber schon publizierte Methoden im Bereich der Echtzeitvisualisierung, und enth¨alt eine Analyse ¨uber Vor- und Nachteile von bild- und punktbasierten Renderingmethoden f¨ur die Darstellung von entfernten Objekten. - Computer graphics is the art of creating believable images. The difficulty in many applications lies in doing so quickly. Architectural walkthroughs, urban simulation, computer games and many others require high-quality representation of very large models at interactive update rates. This usually means creating a new image at least 60 times a second. This is what real-time visualization is about. This thesis presents two methods to accelerate the rendering of very large virtual environments. Both algorithms exploit a common property of many such environments: distant objects usually take up a significant amount of computation time during rendering, but contribute only little to the final image. This thesis shows how to represent and render distant objects with a complexity proportional to the image area they cover, and not to their actual complexity. The algorithms are destined for different scenarios: the first is an online algorithm that carries out all computation during runtime and does not require precomputation. The second algorithm makes use of preprocessing to speed up online rendering and to improve rendering quality. The first part of the thesis shows an output-sensitive rendering algorithm for accelerating walkthroughs of large, densely occluded virtual environments using a multi-stage image-based rendering pipeline. In the first stage of the pipeline, objects within a certain distance (the near field) are rendered using the traditional graphics pipeline. In the following stages, the remainder of the scene (the far field), which consists of all pixels not yet covered by near-field geometry, is rendered by a pixel-based approach using a panoramic image cache, horizon estimation to avoid calculating sky pixels, and finally, ray casting. The time complexity of the approach does not depend on the total number of primitives in the scene. We have measured speedups of up to one order of magnitude compared to standard rendering with view-frustum culling. In the second part of the thesis, a new data structure for encoding the appearance of a geometric model as seen from a viewing region (view cell) is presented. This representation can be used in interactive or real-time visualization applications to replace complex models especially distant geometry by an impostor, maintaining high-quality rendering while cutting down on rendering time. The approach relies on an object-space sampled representation similar to a point cloud or a layered depth image, but introduces two fundamental additions to previous techniques. First, the sampling rate is controlled to provide sufficient density across all possible viewing conditions from the specified view cell. Second, a correct, antialiased representation of the plenoptic function is computed using Monte Carlo integration. The system therefore achieves high-quality rendering using a simple representation with bounded complexity. This thesis also contains a comprehensive overview of related work in the field of real-time visualization, and an in-depth discussion of the advantages and disadvantages of image-based and point-based representations for distant objects.en_US
dc.formatapplication/pdfen_US
dc.languageenen_US
dc.publisherWimmeren_US
dc.titleRepresenting and Rendering Distant Objects for Real-Time Visualizationen_US
dc.typeText.PhDThesisen_US


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record