Ein seltsamer Threadtitel für eine noch seltsamere Technologie, die in dieser TED-Rede vorgestellt wird. Prinzipiell geht es darum, dass durch präzise Videoaufnahmen von Objekten sehr viele, unterschiedliche Dinge abgelesen werden können. Anfangs geht es um Geräusche, Sprache und Musik, die Vibrationen an Objekten verursacht, die mittels diversen Algorithmen dann rekonstruiert werden können. Alleine das ist schon beachtlich, denn das funktioniert sogar halbwegs gut mit herkömmlichen Kameras. Weiters können allerdings auch mehr Eigenschaften des Objekts bestimmt werden, um eine dreidimensionale Struktur inklusive den Eigenschaften zu erstellen. Dabei wird zB ein Tuch aufgenommen, das dann im Nachhinein in einer Software bewegt werden kann.
Schaut euch diese TED-Rede an, diese Technologie ist awesome!
New video technology that reveals an object's hidden properties
Subtle motion happens around us all the time, including tiny vibrations caused by sound. New technology shows that we can pick up on these vibrations and actually re-create sound and conversations just from a video of a seemingly still object. But now Abe Davis takes it one step further: Watch him demo software that lets anyone interact with these hidden properties, just from a simple video.
MIT Computer Program Reveals Invisible Motion in Video | The New York Times
Finding the Visible in the Invisible: A team of scientists at the Massachusetts Institute of Technology (M.I.T.) has developed a computer program that reveal...
Kann es mir erst später ansehen, vermute aber das es hier um die gleiche Technik geht, das Video ist schon etwas älter aber auf jeden Fall sehr interessant.
Skatan
peace among worlds!
Registered: Feb 2004
Location: Trieben
Posts: 4243
Ich sehe trotzdem einige Limitierungen in der Praxis...
Bei den ganzen Sound Dingen -> Woher weiß ich ob die Bewegung wirklich vom Lärm entsteht oder nicht einfach vom Wind, oder weil jemand in der Nähe über den Parkettboden geht? Das aus einer Vielzahl von Eingangsparametern herauszufinden stelle ich mir hier besonders tricky vor...
Und bei den Bewegungsmodellen -> Sieht lustig aus, für einen technischen Einsatz wirds aber wichtig sein sicherzustellen dass sich das reale Modell in Wirklichkeit genauso wie die Simulation verhält.
Bei den ganzen Sound Dingen -> Woher weiß ich ob die Bewegung wirklich vom Lärm entsteht oder nicht einfach vom Wind, oder weil jemand in der Nähe über den Parkettboden geht? Das aus einer Vielzahl von Eingangsparametern herauszufinden stelle ich mir hier besonders tricky vor...
Vermutlich anderer Frequenzbereich und schnellere Schwingungen kleinerer Amplitude. Wär sehr interessant wie das Filter mathematisch gesehen funktioniert.
Sieht auf den ersten Blick recht eindrucksvoll aus, nur muss man beachten, dass das man den "input" gekannt hat und demnach per trial und error die parameter so trimmen konnte, dass das richtige rauskommt.
Vollautomatisch wird sowas imho nie gehen (bestenfalls bruteforce und dann sprachanlyse oder sowas). Wie er auch im video sagt, hängt das alles von kamera, licht, umgebung und anderem ab. Außerdem gehts nur wenn die kamera stationär ist. Nachträglich die Kamerabewegung rausfiltern wird wohl nur schwer möglich sein, wenns um 10tel pixel geht.
@Bogus Er sagt im video sogar, dass wesentlich besseren Techniken schon im Einsatz sind (Laser reflektion z.b.)