1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies. Weitere Informationen

Soundengines für 3D-Anwendungen

Dieses Thema im Forum "VR Entwicklung" wurde erstellt von hypermagic_mountain, 2. Juni 2014.

  1. Ist super, danke!
     
  2. Danke für die Links.
    Ich denke allerdings, dass der Ansatz für Spiele nur bedingt taugt.
    • Da die mit dem Mikro eben nur eine Position aufnehmen können (bzw. auch mehrere, aber das wäre ineffizient), geht der Effekt verloren, sobald ich die Position des Spielers ändere.
    • Sie sagen selbst, dass nachträgliche Effekte wohl nicht so gut kommen - d.h. wenn sich der Spieler z.B. von einer Kathedrale nach draußen bewegt, bräuchte man jeweils speziell aufgenommene Samples, statt einfach einen schönen Convolution Reverb einzusetzen.
    • Da das System auf einer sample library basiert, deren Kapazitäten naturgemäß begrenzt sind, werden damit viele Spiele/Filme gleich klingen.
    Für Filme/Demoszenen interessant, für dynamische 3d-Welten nur bedingt einsetzbar. Ich könnte mir vorstellen, dass man die Sounds des eigenen Gefährts damit machen könnte, wenn man fest im Cockpit sitzt.
     
  3. Wunder darf man auch keine erwarten, richtiger Sound ist ja eine aufwendige Simulation und auf dem Gebiet wurde die letzten Jahre kaum etwas gemacht. Von daher hinkt man da ziemlich hinterher. Aber VR wird sich ja sowieso über viele Jahre entwickeln müssen, da gehört eben auch der Sound dazu.
     
  4. Wir nähern uns...


    Man beachte den piepsenden Würfel, der genau das macht, was ich mit dem Schnipsen versucht habe zu erklären.

    So schnell hätte ich mit sowas nun nicht gerechnet. Braucht angeblich nur 10% der Kapazitäten moderner Prozessoren.

    Das Beste daran:
    "We will present it during Gamescom next week."
     
    #16 hypermagic_mountain, 8. August 2014
    Zuletzt von einem Moderator bearbeitet: 30. April 2016
  5. Das klingt in der Tat nicht schlecht, die Frage ist nur wie gut das tatsächlich ist und ob es immer noch so Resourcen schonend ist, wenn mal richtig viele Geräusche zusammen kommen. ^^

    Könnte schon gut sein, dass man ähnlich wie PhysX oder die Grafik selbst wieder entsprechende Soundkarten brauchen könnte, die entsprechend für solche Berechnungen ideal ausgelegt sind.

    Aber das Video funktioniert echt gut, so gut hatte ich noch nie das Gefühl mit meinen Stereo InEars Geräusche hinter mir zu hören.

    Jetzt rächt sich eben, dass man den Sound so dermaßen vernachlässigt hat. Weil bisher wird der Sound ja nicht wirklich im PC erzeugt, der spielt ja nur starre Sound Samples ab, wie man es schon seit Jahrzehnten inzwischen macht.
     
  6. Wenn du die Augen schließt und die Vorstellung im Gehirn streichst, dass du den Würfel gesehen hasst, dann geht der Sound nur noch von links nach rechts und umgekehrt.
     
  7. Ich vermute mal stark, dass auch bei dieser Technik es wieder auf den Kopf des Hörers ankommt und wie sehr dieser zu dem simulierten Kopf der Soundengine passt. Das ist so als würde man nur eine Größe Schuhe verkaufen, wenn die nicht passen "funktioniert" es auch nicht so wirklich damit richtig laufen zu können. ;)

    Jedenfalls kann ich klar hören was hinter mir ist, aber die Richtungen vor mir und vor allem auch oben/unten wollen nicht so recht funktionieren. Ich hoffe man findet da noch eine Lösung die Soundausgabe auf den Kopf einstellen zu können, sonst sehe ich irgendwie schwarz für die Technik, wenn sie nur bei einem kleinen Prozentsatz der Leute richtig funktioniert.
     
  8. Da geht's nur um das Tracing der Schallwellen und das Verhalten von Geräuschen im Raum, von einer HRTF steht gar nichts in der Beschreibung. Die müsste man zusätzlich noch drauflegen, damit der Mensch auch zuverlässig orten kann.
    Aber dass diese Räumlichkeit auch ohne HRTF schon so stark ist, ist doch sehr beeindruckend.