Mathematik verwenden, um choreographische Variationen zu erzeugen


Using mathematics to generate choreographic variations
Copyright © By cs.colorado.edu/~lizb/
For original English text, go to: http://www.cs.colorado.edu/~lizb/chaotic-dance.html


Projektbeschreibung:

In der Zeitung vom 1996 (Chaos 6:95 -107) beschreibt Diana Dabby ([email protected]) eine Technik, die chaotische Kartographie verwendet, um Variationen zum musikalischen Stück zu erzeugen. Die Hauptidee hier ist die Schrittsequenz an der chaotischen Bahn darzustellen; das bildet eine symbolische Dynamik, die Anziehungsgeometrie und die Struktur des musikalischen Stücks verbindet. Es erzeugt dann eine neue chaotische Bahn und invertiert die Kartographie, um eine neue Schrittsequenz zu erzeugen. Eine sensible Abhängigkeit von ursprünglichen Bedingungen sichert, dass die Variationen sich vom Original unterscheiden: die Anziehungsstruktur und die symbolische Dynamik sichern, dass sie zwei ähnlich miteinander ästhetisch und mathematisch sind.

Das Programm Chaographer führt ein ähnliches Schema für den Tanz auf. Das Zentrum der chaotischen kartographischen Technik ist dasselbe, aber viele Themen und Taktiken – zusammen mit der Mathematik – sind sehr verschieden. Das Symbolset ist ein offenbares Kennzeichen. Es gibt eine einfache, gut begründetes  Bezeichnungsschema für Musik, aber Hauptpositionen sind schwer darzustellen; wir verwenden Repräsentationstechniken aus der harten Mechanik, um dieses Problem zu lösen. Die Mathematik der Kartographie ist auch sehr unterschiedlich, Dabby verwendet eine einfache Metrik an der eindimensionalen Projektion der Bahn, um die Elemente zu unterscheiden, während wir mit einer vollen, formell symbolischen Dynamiken arbeiten, die man aus der Rechengeometrietechniken bekommt. Die Wichtigkeit der benötigten Menscheneinmischung ist auch unterschiedlich. Im Schema von Dabby sind Input und Output Schrittsequenzen, der menschliche Fachmann übersetzt diese Sequenzen aus und in den Laut. Unser Variationsgenerator nimmt eine Animation als Input und erzeugt eine Animation als Output.

Ein originelles Vorstellungsstück mit der Verwendung von sechs Chaographer Variationen und dem menschlichen Tänzer mit dem Titel „Con/cantation :chaotische Variationen“ wurde im Boston im April 2007 erstaufgeführt und wurde seitdem in Boulder und Santa Fe erscheint. Ein Bild davon ist oben auf dieser Seite zu sehen.

Ein Originaltanz:

Eine chaotische Variation dieses Stücks:

Musikalische Instrumente können eine zufällige Schrittsequenz abspielen, aber die Bewegungslehre und Tanzstil erlegen verschiedene Begrenzungen den geordneten Körperpositionen auf. Um jeden heftigen Übergang der chaotischen Darstellung zu erweichen, haben wir eine Klasse der Körperinterpolationsschemen erarbeitet, die die Dynamik des Tanzgenres fixieren und erfüllen.

Die Aufgabe der automatisch erzeugten stilistischen Konsonanzsequenz in der zufälligen Körperposition ist ziemlich schwer. Wir verwenden den Körper der menschlichen Bewegung, um ein Set von 44 gewogenen, gesteuerten Kurven für jedes Gelenk des menschlichen Körpers zu bauen. Jeder Eckpunkt ist eine Gelenkposition und jeder Rand ist ein Übergang zwischen zwei geführten Gelenken. Die Ränder sind abhängig davon gewogen, wie oft die entsprechende Übergänge im Körper erscheinen. Die Interpolation zwischen zwei Körperpositionen ist ähnlich mit dem Auffinden des kurzen Gruppenpfads in diesem Kurvenset zwischen den entsprechenden Positionen. Wir benutzen A Suche, um das zu erfüllen, zusammen mit der speziellen Bewertungsfunktion, die Koordinationsbegrenzungen zwischen den Gelenken erfüllt (z.B., dass die Beckenposition beeinflusst, was die Hüften machen können). Diese Maschinenlehrtechniken sind im Programm MotionMind erfüllt.

Chaographer und MotionMind verlaufen in den Techniken der nichtlinearen Dynamiken, numerischen Analysen, Graphentheorie, Statistiken, harte Mechanik und Maschinenlehre, als auch Graphik und Animation.

Animierte Bewegungssequenzen:

Wenn Sie Mac OSX und Safari Browser verwenden, können Sie die OS/Werkzeugbesonderheit „how to“ Information im folgenden Paragraph auslassen, weil Apple es richtig gemacht hat und diese Kombination einfach funktioniert.

Einige dieser Clips sind  im avi Format und einige sind im mpeg Format. Einige dieser Dateien sind ziemlich groß, und deshalb sind mit gzip komprimiert, um Platz zu speichern. Um eine komprimierte Datei zu dekomprimieren, verwenden Sie gunzip. Wenn Sie Probleme damit haben, senden Sie mir E-Mail und ich schicke Ihnen eine nichtkomprimierte Version. An Macs und PCs, kann man diese Videos mit Hilfe von Sparkle oder QuickTime abspielen. Um die mpeg Datei mit QuickTime abzuspielen, brauchen Sie eine mpeg Ausdehnung; sehen Sie die QuickTime Seite um herauszufinden, wie man den Player und/oder die mpeg Ausdehnung erwerben kann, wenn dein Browser es automatisch nicht schafft. QuickTime ist nur für Windows und Mac-OS verfügbar; wenn Sie Unix benutzen, brauchen Sie einen mpeg Viewer wie mpeg_view. Klicken Sie hier für die Seite, die Links zu verschiedenen mpeg Viewers für verschiedene Architekturen und Operationssystemen hat.

Beachten Sie bitte, dass die Ausführung aller Videoabspielsoftware schlechter wird, wenn Sie nicht genug Speicher haben oder viele Applikationen gleichzeitig arbeiten.

Die beschriebene hier Originalsequenz war mit Hilfe vom kommerziellen menschlichen Animationspaket Life Forms erzeugt. (Ein anderes gutes kommerzielles Figuranimationspaket ist Poser).

Chaotische Variationen von Chaographer:

  • Einige Originalstücke:

Interpolierte „Tweening“ Sequenzen erzeugt von MotionMind:

MotionMind findet Interpolationssequenzen der stilistischen Konsonanz zwischen zwei Positionen. Wenn es ein Ballettkörper gibt, und folgende zwei Stellungen:

Es erzeugt diese kurze Sequenz. Bemerken Sie den Anfang und die Ende der Stellung, und die Ballettdynamik der Bewegung. (294K avi.gz File).

(Diese Bilder zeigen eine rote Figur auf dem schwarzen Hintergrund, und es wird nicht an einigen Bildschirmen gut gezeigt.  Wenn Sie Probleme mit der Figurdarstellung haben, versuchen Sie bitte Ihre Helle und Schärfe zu ändern, oder im Zimmer Licht auszuschalten).

Einige Fragmente, die zu interessanten Effekte führen:

Wenn der Körper, den MotionMind verwendet, zerstreut ist, kann es Probleme mit dem Pfadauffinden zwischen den gegebenen Positionen geben. Das äußert sich in einer interessanten Weise: Sequenzen sind stilistisch konsonant aber sehr lang. Präsentiert mit diesen zwei Positionen zum Beispiel:

MotionMind erzeugt diese Sequenz, die – obwohl sie sich in der richtigen Position beginnt und endet und ballettähnlich aussieht – eine Reihe der „extra“ Bewegung enthält. Dieser Umweg entsteht aus dem zerstreuten Zusammenhang der Gelenküberganggraphen, die vom Körper gebaut sind. (1.1M avi.gz File)

Koordination zwischen den Gelenken ist auch eine wichtige Anstrengung in der menschlichen Bewegung: wenn es gestört ist, erzeugt offensichtlich ungewandte Ergebnisse. Klicken Sie hier, um zu sehen, was passiert, wenn MotionMind am Ballettkörper verwendet ist, aber mit seiner heuristischen Koordinationssuche zwischen Gelenke, die so ausgeschaltet ist, dass sie Koordination nicht erfüllt. (574K avi.gz File)

Um eine endgültige Vorstellung dieser Bewegungssequenzen zu bauen, müssen wir die Ecken der Gelenke zu quantisieren. Es ist ähnlich damit, wenn man Objekte zum Netz in Computerzeichnungsapplikationen „packt“, es hat aber überraschende Effekte, wenn man sie für Quantisierung der menschlichen Bewegung verwendet. Die Animation hier zeigt eine quantisierte Version von Ballettadagio im blau, mit dem Originaltanz, der darauf im rot aufgelegt ist (2.3MB avi.gz File). Es ist ziemlich interessant, dass eine parallele Vergleichung der individuellen Rahmen keine auffallenden Unterschiede zeigt. Das menschliche visuelle Wahrnehmungssystem ist sehr zu den kleinen Variationen in Gelenkecken der bewegenden Figur sensibel: kleine Änderungen stören „das Motiv“ der Bewegung.

Wie man einen besseren Körper erreicht: Motion Capture (Bewegungserfassung)

Obwohl ihre Ergebnisse ziemlich befriedigend sind, ist eine Sequenzanimation in Life Forms ein langsamer und schmerzhafter Prozess. Wir arbeiten zur Zeit mit Jessica Hodgins und dem CMU Motion Capture Labor, um längere Sequenzen zu erreichen und einen besseren Körper zu bauen. Dieser Prozess zieht klebrige reflektierende Bälle zu den Tänzergelenken heran, die ihn oder sie mit 12 Kameras umgeben, die 120 Aufnahmen per Sekunde machen, und dann ein 3D Modell der  Körperposition für jede Aufnahme rekonstruiert:

Die Ergebnisdaten, die im ASF/AMC Format gespeichert sind, können mit einer Reihe der Werkzeuge dargestellt werden, um verschiedene Arten der Animation zu erzeugen:

Vorläufige Untersuchungen zeigen, dass der relativ einfacher Algorithmus, der für die hier beschriebene Ergebnisse verwendet wird, kann trotzdem die Größe und Kompliziertheit des besseren Körper nicht schaffen, was möglich beim automatischen Bewegungserfassung ist. Wir arbeiten zur Zeit an diesem Problem…

Leute:

  • Josh Stuart, Author dieser Ideen und Verfasser der entsprechenden Programmen, war ein studentischer Assistent für  Forschungsarbeiten mit unserer Gruppe vom 1/97 bis 9/98 und ist jetzt am Fakultät an der UC Santa Cruz. Er hatte viel Hilfe von Apollo Hogan, Stephen Schroeder, Diana Dabby, und andere Leute.
  • David Capps, wer oben mit geklebten Reflektoren an seinen Gelenke gezeigt ist, ist Direktor der Tanzabteilung des Departements für Theater und Tanz an der Colorado Universität. Er ist der Tanzchef in diesem Projekt.

Arbeite und Materialien:

  • E. Bradley, D. Capps, J. Luftig, und J. Stuart, „Towards Stylistic Consonance in Human Movement Synthesis,“ Open AI Journal 4:1-19 (2010). Eine erweiterte Version ist als Department of Computer Science Technical Report CU-CS-1029-07 verfügbar.
  • E. Bradley und J. Stuart, „Using Chaos to Generate Variations on Movement Sequences,“ Chaos8:800-807 (1998)
  • J. Stuart und E. Bradley, „Learning the Grammar of Dance,“ Proceedings of the ICML (International Conference on Machine Learning), Madison WI; July 1998
  • E. Bradley und J. Stuart, „Using Chaos to Generate Choreographic Variations,“ Proceedings of the Experimental Chaos Conference, Boca Raton FL; August 1997 (eine vorläufige Version der 1998 Chaos Arbeit ist oben aufgelistet)
  • E. Bradley, D. Capps, und A. Rubin, „Can Computers Learn to Dance?,“ International Conference on Dance and Technology, Tempe, AZ; February 1999 (für die Tanzwelt geschrieben)
  • E. Bradley und J. Stuart, „Optimization and Human Movement,“ Newsletter of the SIAM Activity Group on Optimization 12(1) (2001) (eine kurze Version geschrieben für eine numerische Gesellschaft)
  • Ein originelles Ausführungsstück betitelt Con/cantation, das sich an den Variationen des Originaltanzes von Chaographer  gründet, die von David Capps geschrieben und in Boston im April 2000 gespielt wurde

Links:

  • Die Gruppe von Jessica Hodgins an der CMU arbeitet am einen Physik-begründeten Ansatz, um Animationssequenzen zu erzeugen  (was viel schwieriger ist als das was wir machen).
  • Die Gruppe von Demetri Terzopoulos in Toronto arbeitet am neural-net Ansatz, um Animationssequenzen zu erzeugen.
  • Dance Notation Bureau und ein gutes Kolloquium über  Labanotation, eine schriftliche Form der Tanznotierung.

Unterstützung:

  • Der Nationale Wissenschaftsfonds (NYI #CCR-9357740)
  • Die Packard Gesellschaft in der Wissenschaft und Technik aus dem David und Lucile Packard Fonds
  • Ein kleines Dekanstipendium vom College der Technik und Angewandten Wissenschaften an der Colorado Universität
  • Die Radcliffe Gesellschaft aus der Radcliffe Institute for Advanced Study, einem richtig wunderschönen Platz in der Welt


Comments are closed.