3D und Gesichter…

Viel hat sich getan, seitdem ich 1993 mit Traugott (welche so computerisiert war wie Max Headroom wohl immer sein sollte) das erste Mal einen animierten Echtzeit-Charakter. Während bei Herr der Ringe die Computeranimierten Schauspieler (abgesehen von Gollum) auf Distanzaufnahmen beschränkten wird die Aufgabe Schauspieler lebensecht aus dem Computer zu generieren (oder gar verstorbene Schauspieler für fehlende Szenen noch einmal zum digitalen Leben zu erwecken) immer greifbarer.

Einige neue und beeindruckende Technologien deuten dies an:

Besseres Tracking der Mimik

Zum Beispiel hat die Firma Mova mit dem Contour genannten Verfahren die Qualität der Bewegungserkennung perfektioniert. Statt der früher benutzten Punkte im Gesicht wird eine strukturierte phosphorisierende Schminke verwendet, welche gleich tausende von Bezugspunkten für die Sensoren liefert. Dadurch werden extrem realistische Darstellungen von virtuellen Charakteren möglich. Interessant auch, weil sich die Bewegungsdaten eines Schauspielers auf die Modelle von anderen übertragen lassen (Das Sequel des Films Hulk verwendet offenbar das Contour-Verfahren).

Nachbildung von einem Foto

Das Institut für biologische Kybernetik in Tübingen hat ein Verfahren entwickelt mit nur einem Foto eines Schauspielers unter Zuhilfenahme einer Bibliothek von Kopfformen ein animierbares 3D-Modell dieses Schauspielers zu generieren:

Echtzeit-Tracking der Bewegung

Die Erfassung von Menschen in Echtzeit ist inzwischen ziemlich weit forgeschritten. Im japanischen Fernsehen wurde schon über einen virtuellen Spiegel berichtet, in welchen ein Betrachter sich selbst betrachten:

Nun darf spekuliert werden zu was diese technologischen Fortschritte verwendet werden. Vielleicht vom Defense Department um eine virtuellen Osama bin Laden zur Beendigung des Heiligen Krieges aufrufen zu lassen?

Erstellt am 30. Juni 2008 um 13:39 Uhr | Kategorie: informatik
Dieser Artikel wurde nocht nicht kommentiert

Kommentar schreiben

Kommentar schreiben

nach oben