Animationen automatisieren

Die heutigen digitalen Filmfiguren sind realistischer, interaktiver und liebenswerter als je zuvor. Ihre Erstellung ist jedoch nach wie vor teuer und arbeitsintensiv. Die meisten sind entweder Bild für Bild mit digitalem Stift und Tinte (und Computern, die einige Lücken füllen) von Hand gezeichnet, oder sie basieren auf Motion-Capture-Techniken, die die Bewegungen von Live-Schauspielern aufzeichnen und digital nachahmen, um Bildschirmcharaktere zu erstellen. Aber da Filme und Videospiele immer mehr digitale Kreaturen auf den Bildschirm bringen, wenden sich Animatoren der Physik und neuen Methoden der künstlichen Intelligenz zu, um ihre Geschichten schneller und effizienter zum Leben zu erwecken.


Physikalische Gleichungen leiten die Charaktere von NaturalMotion. (Bild mit freundlicher Genehmigung von NaturalMotion)

Immobots übernehmen die Kontrolle

Diese Geschichte war Teil unserer Dezember-Ausgabe 2002



  • Siehe den Rest der Ausgabe
  • Abonnieren

NaturalMotion, ein Spin-off der University of Oxford im Vereinigten Königreich, hat eine Software für künstliche Intelligenz entwickelt, die digitalen Charakteren die Möglichkeit gibt, sich selbst zu animieren. Der Ansatz: Ein Programmierer spezifiziert die physische Form und Eigenschaften eines Charakters und fügt Gleichungen hinzu, um die Bewegung seiner Körperteile zu steuern. Wenn Animatoren eine simulierte Kraft wie Schwerkraft oder einen Stoß von hinten ausüben, reagiert der Charakter ohne weitere Programmierung realistisch. Was man auf dem Bildschirm sieht, ist keine Computergrafik der Figur, die stumm aufgezeichnete Bewegungen nachahmt, sagt Torsten Reil, Geschäftsführer von NaturalMotion. Es ist der eigentliche Charakter. Ziel des Unternehmens ist es, interaktive Animationen in Echtzeit zu generieren, die es Animatoren ermöglichen, die Technologie sowohl in Videospielen als auch in Filmen einzusetzen, sagt Reil. Am Computer Graphics Laboratory der Stanford University haben die Forscher Katherine Pullen und Christoph Bregler Automatisierungstechniken mit dem traditionellen Motion-Capture-Ansatz kombiniert. Mit ihrem System können Animatoren die aktivsten Teile einer Figur manuell zeichnen – beispielsweise ihre Beine während einer Laufsequenz – und archivierte Motion-Capture-Daten verwenden, um den Körper automatisch zu vervollständigen und ihm zusätzliche Textur zu verleihen. Innerhalb von fünf Jahren werden alle High-End-Spiele solche Methoden verwenden, sagt Casey Muratori, leitender Entwickler bei RAD Game Tools in Kirkland, WA. Um Charaktere nicht nur zu bewegen, sondern auch überzeugend zu bewegen, bedarf es einer anderen Technologie-Software, die glaubwürdige Gesichtsausdrücke und Körpersprache erzeugt, sagt Ken Perlin, Direktor des Media Research Laboratory an der New York University. Perlins Gruppe entwickelt Tools, die es Animatoren leicht machen, Schichten subtiler Gesten hinzuzufügen, zum Beispiel eine hochgezogene Augenbraue oder hängende Schultern. Solche Effekte müssen heute von Hand gezeichnet werden. Obwohl die Software von Perlin weiter von der Kommerzialisierung entfernt ist, ist sie dem größeren Ziel der Animation einen Schritt näher gekommen – sowohl unser Herz als auch unsere Augen zu blenden.

verbergen