Ich habe mir in den letzten 6 Wochen mit viel Mühe und nur mit einem (guten!) Tutorial und der HLSL-Reference von Microsoft ein paar Shader-Grundlagen beigebracht. Angesichts meiner mangelnden (Schrift-)Programmierkenntnisse war das ungefähr so, als würde man versuchen, eine fremde Sprache anhand einer deutschen Bibel und deren Kommentar in fremder Sprache zu lernen… Das vorläufige Ergebnis ist ein Median-Filter mit einer 3×3 Matrix.
Im Laufe meiner Arbeit in den letzten Wochen habe ich ein paar Erfahrungen gemacht:
VVVV ist in erster Linie mal gut für Sachen im 3D-Bereich. Es gibt da eine Menge Möglichkeiten und auch schon fertige, von anderen Usern zur Verfügung gestellte Patches und Shader. Tatsächlich sind auch Shader eine CPU-sparende Möglichkeit zur Bildbearbeitung in Echtzeit, aber man stösst auch schnell an ihre Grenzen. Beispielsweise haben Shader keinen internen Buffer, in dem Sie Informationen speichern könne, um sie dann zu anderer Zeit weiter zu verwenden. Das Ergebnis einer Berechnung wird in VVVV gerendert und kann dann weiter verarbeitet werden. Um mehrere Durchgänge mit meinem Median zu erzielen, muss ich diesen Schritt mehrmals wiederholen, wobei man beachten muss, dass durch einen Bug im Renderer das Bild immer um einen Pixel nach rechts-unten verschoben wird (hat Nerven gekostet, aber das Forum war eine große Hilfe).
Ich habe ein wenig mit Background-Substraction experimentiert, aber anscheinend werde ich da auf FreeFrame zurückgreifen müssen, um zu ordentlichen Ergebnissen zu kommen, die auch Outdoor funktionieren. Das bedeutet dann endgültig C++-Programmierung, aber man gönnt sich ja sonst nix ;-)
Einige VVVVler benutzen wohl auch eine Kombination aus EyesWeb und VVVV, da EyesWeb einige fertige Module biete, die für VideoTracking sehr nützlich sind. Die von EyesWeb gewonnenen Daten können dann über OSC an VVVV weitergereicht werden. Teilweise gibt es schon fertige Module in VVVV um diese Daten zu verarbeiten.
Tags: EyesWeb, Interaktion, VideoTracking, VVVV