chi.binaural

そこに存在する音
ハイパーリアリスティック・バイノーラルプロセッサー

audio_vr_image

「chi.binaural」(通称チバイノーラル)はモデリング・アルゴリズムを使用したバイノーラル・プロセッシング技術です。
バイノーラル・プロセッシングは、通常の音源(バイノーラル録音でない)に対して、後処理でバイノーラル定位を付与する信号処理技術で、バイノーラル・パンニングなどとも呼ばれます。技術的にはかなり前から専用ハードウェアやオーディオ・プラグインなどの形で存在しており、その多くは全天全周のHRTF(頭部伝達関数)をインパルス・レスポンスとして測定してデータベース化、リアルタイムのコンボリューション(畳み込み)を行うことで実現されます。現実の定位感のサンプリングとも言えるこの方式は一定のリアルな結果が得らる一方で、方位・距離の違いを無限に細かく測定するわけにはいかず、測定時のグリッド(数度〜10度単位程度)を補間で埋める必要があります。距離については音量のみで表現することがほとんどです。インパルス・レスポンスの測定は、スピーカーから発した音を人間やダミーヘッドの耳に仕込んだマイクで収録するという方法で行われるため、そこで音質的な劣化が生じる可能性もあります。

chi.binauralは、独自の研究に基づいたモデリング・アルゴリズム(HRTFデータベースを用いず、頭部や耳介の抽象化モデルをリアルタイム処理する)によってバイノーラル定位を実現します。そこに測定のためのスピーカーやマイクは介在しません。内部的な方位グリッドも存在せず、距離による微妙なHRTFの変化や近接効果もシミュレートされます。その結果生み出されるのは非常にスムーズかつクリアーな立体音像。目指したのは「そこに存在する音」、そして音楽家が「使える音」です。

FullSizeRender現在chi-binauralはCycling’74 Maxのエクスターナル・オブジェクトとして実装されており、Jitter(OpenGL)互換の座標系、聴取者方位の回転をサポートし、自由度の高いリアルタイム処理が可能となっています。ジャイロ・センサーやモーション・キャプチャーによるヘッド・トラッキングと組みあわせることで、本格的な「音のVR」も実現します。低負荷で動作するのも特徴です。

デモ動画

開発中のものです。ヘッドフォンでご視聴ください。

使用事例

Rhizomatiks Research × ELEVENPLAY「border」(2015年)
攻殻機動隊 新劇場版 Virtual Reality Diver(2016年)