伊藤隆⽂ - デジタルマイクとRMEのデジタルマイクプリ「DMC-842」を使ったコンサート収録 - Synthax Japan Inc. [シンタックスジャパン]
RME Users
導入事例
伊藤隆⽂ーデジタルマイクとRMEのデジタルマイクプリ「DMC-842」使ったコンサート収録

アナログとは異なる特徴を持ち、現場によっては⾮常に便利に使えるデジタルマイク。今回、そのデジタルマイクを使って、2013年4月に幕張メッセにて開催されたニコニコ超会議2、Red Stageでの「オーケストラでお送りする ゲームミュージックLIVE」の収録を成功させた株式会社ongaqのレコーディング・エンジニア、伊藤 隆⽂さんにインタビューを実施いたしました。RMEのデジタルマイクプリアンプ DMC‒842Mに関する貴重なお話も伺う事ができましたので合わせてお楽しみください。


ーまず最初に、今回のショーの内容に関してお聞かせください。

株式会社ドワンゴコンテンツ様からファミコン30周年ということで広い年齢層にゲームミュージックの⾯⽩さを伝えるためオーケストラでライブしたい!とのご相談いただいたのがきっかけで す。 ゲーム会社の垣根を越えてのこともあり、各⽅⾯からご⽀援をいただきながら、オーケストラで演奏して⾯⽩そうな楽曲、聴いて欲しい楽曲を選んでいきました。オーケストレーションも含め当⽇の演奏を楽しんで頂けたのではないかと思っております。

ー当日の演奏を担当されたgaQdanについてお聞かせいただけますか

はい。彼らは録⾳専⾨のオーケストラを⽬指し3年前に発⾜しました。
普段からトレーニングの⽇を設定し奏法、表現、技術、感性を⾼めるべく様々なトレーニングをしております。オーケストラには似つかわしくないような科学的分析をしながら進めている団体ですよ。マネージメントは私が属しているongaqが⾏なっていまして、gaQdanには演奏の品質管理をお願いしています。

ーgaQdanのコンセプトとして、「録音専門のオーケストラ」というのがあるそうですが、⾮常にユニークですね。

元々は打ち込みでどこまで⽣っぽくできるか、という事を作家の⽅もエンジニアの方もひたすらやっていたと思うんですけど、やっぱりオケは⽣で録りたいね、ということでスタートしました。よくある 話ですよね。
打ち込んでもヒューマナイズというか細かいエディット作業をするじゃないですか? ⽣っぽくする為に。でも結構な時間がかかりますよね? 作家が表現したい事を汲み取って演奏するオケが欲しいね、という事からgaQdanは⽣まれました。ただ最初はなかなか思い通りのサウンドにならなくて(笑) その中でも「あ、この⼈いいね」という⼈に残っていってもらい、ある程度のメンバーが揃ってきたところで、改めて第⼀回のオーディションを⾏いました。その後仕事をするためのトレーニングを⾏い、2011年3⽉からgaQdanとして仕事を始めました。その後は、メンバーも増えたり減ったり、団体としても試⾏錯誤していました。編成が今の倍以上いたときもありましたね。
今は少数精鋭といいますか、バランス的に落ち着きました。⼈数が多くてもスケジュール的に動きにくい時もありますからね。あとは⼤きければいいかというと、そうでもなくてあまり⼈数が多いと⼊れるスタジオが限られてきますので。それと作家さんが要望しているオーケストラの⾳は、実は、そこまで⼈数が多くなくても、録⾳に適した⾳の出し⽅をすれば、⼗分伝える事が出来るとわかってきました。この事をわかって演奏しているのがgaQdanで、それゆえに録⾳専⾨オーケストラと命名しました。

ーなるほど、普段はあまりレコーディングに参加されないような演奏家より、gaQdanさんにお願いした⽅が録⾳⾃体がスムーズに進むというメリットがあるということですか?

そうですね、普段のトレーニングでも様々なパターンを練習していますし、団体としての引き出しはどんどん増えていっていますので様々な要望にお応え出来ると思います。gaQdanで録⾳するという時は何かしらのコンテンツと合わさる事の⽅が多いんです。つまりゲーム⾳楽だったり映画だったりしたら映像と合わせる。つまり全部が合わさって表現したい事になるわけじゃないですか。だからこそどのような演奏の⽅が効果的かを研究する必要があると思うんです。そのような研究をgaQdanの場合普段から固定メンバーでしているので様々な引き出しをメンバーが共有して いるんです。録⾳に対して研究をしている⾯⽩いオケだと思ってます。

ー今回、結構反応よかったんですよね?

好評いただきまして、翌⽇から事務所の電話が良く鳴る様になりました(笑)。数万⼈規模で動くイベントなので反応⾃体も早かったですね。

ー私も何曲か知っている曲があって、とても楽しかったです。

ありがとうございます。今回も楽曲をセレクトしている段階で作家の⽅々へ「この楽曲を演奏させてください」とお願いすると皆様本当に快く「どうぞ」と⾔っていただけまして、とても助けて頂きました。
これだけでもgaQdanとしても嬉しい事だったのですが、演奏した評判も良かったと聞くと、なおさら今回は本当にやってよかったと関係各社の皆様へ感謝しているところです。 原曲に対し最⼤限の敬意をもってオーケストレーションから当⽇の演奏まで取り組めた仕事だったと思います。


ーでは、次に機材についてお聞かせいただいてもよろしいでしょうか?

まずマイクですが、今回はデジタルのマイクとアナログのマイク、両⽅を使っています。 アナログマイクから説明させてもらいますとDPAの4099というピックアップマイクをストリングス⽤に16本準備しました。アナログのマイクプリはRMEのOctamic IIとPreSonus D8を選定しました。
次にデジタルマイクですが、SENNHEISERの8040とNeumann KM184Dを合わせて12本を⽤意しました。
木管のFl.Oboe,Cla, FagのスポットマイクとしてKM184Dを4本。 それから、パーカッションのトップマイクとして、KM184Dのステレオを2セット。そのほかオーディエンス収録⽤として4本を準備しました。(当⽇1ペアのみの収録にしました)これらの信号をRMEのADI-648を使いMADIに変換しています。(RMEのOctamic IIとPreSonus DigiMax D8からAdatオプティカルケーブルでADI-648に入⼒してMADI変換)そしてこのMADI信号は、そのままカスケード接続されたデジタルマイクプリRME DMC-842Mの2台に⼊⼒され全チャンネルをMADI統合したのち、1系統はJOECOのレコーダーで収録、もう1系統はRMEHDSPe MADIfaceに送られ、Pro Toolsにて収録していました。
現場ではできるだけ早く正確にと思っているので、やはりすべてをラックマウントしておいて、電源をつないで後ろの主となるケーブルをつなげば準備完了というのが理想ですね。このような形にしておかないとトラブルの元なんですよね。スタジオ収録だけでなく、ホールなどでの収録も多いので、この部分はすごく気を使っています。MADIfaceはラックの隙間にマジックテープで固定してThunderbolt を接続すれば準備完了となるように設置しています。ちなみにMADIfaceとMacBook Proの接続は、ECHO PROのE34というSonnet社のThunderbolt変換アダプターを使っています。

それから今回は普段のレコーディングと同じ条件でライブに望むのも⾯⽩いかと思いモニターを全員ヘッドホンとしました。CUEボックスへの分配⽤I/FとしてMOTU896HDを使い、MADI信号をADI-648経由でオプティカル変換し896に送り、896でDAしアナログアウトからCUEボックスに送っています。(896に送る8chにまとめるのもTotalMixにて⾏いました)

今回の様な⼊れ替わりのあるイベントにおいてオーケストラのPAで何が⼀番困るのかというと、回線数が多い事だと思います。つまり全員にピックアップマイクをつけてということになると「そんなチャンネル数を確保できないよ」っていう話になると思ったんです。なのである程度まとめてPAの⽅へお渡しした⽅が良いだろうと思い、8ステレオの16chのステムとしてお渡しする事にしました。しかし録⾳は全てMADIで運⽤しているのでPAへ送るアナログアウトをどこから出すかが問題になったわけです。本来であれば単にMADI受けの出来るI/Fを増やせば良い話なのですが、調べてみるとDMC-842MはMADI上の信号をTotalMix経由してアナログアウト出来る事がわかりました。つまり録⾳とは別にInput信号を含めTotalMixで混ぜた信号をDMC-842Mのアナログアウト(AESなどのデジタルアウトでも可能)からバランスを決めて出す事が出来るんです。
そこで今回はINPUT信号を842のアナログアウト経由でFOH⽤のコンソールに送りました。
ポイントは、DMC-842Mの場合、MADIで出すのとは別に(収録とは無関係に)TotalMixでミックスしたものをアナログでもデジタル(AES、Adatオプティカル)でも出せることです。
FOHへ送る8chステレオも元々は32ch分ある信号をTotalMixで混ぜて送っています。またこれと同時にTotalMixのサブMIXを使い、Playerのモニター⽤にADI-648経由で896へも送っています。
要するにTotalMix内で収録とは別に2系統のミックスを作っているという事になります。1系統は、CUEボックスへ、もう1系統は、FOH⽤のStemMixとして。

あと問題になったのは私のモニターに関してです。
CueBox⽤のMOTU896HDはヘッドホンモニターが可能ですが今回使⽤したRME製品の場合はまだヘッドフォンアウトを搭載しているもの無かったので、JOECOのレコーダーについているモニター回路路を使⽤しモニターインプットを切り替えながらFOHへのバランスを聴いていました。

ーその部分は、HDSPe MADI FXや、先⽇発表された新製品であるMADIface XTを使えばモニタリングも可能になるのですが、今回はそのように⼯夫されていたんですね。


システム図
システム図(クリックして拡大)

 

ーちなみにデジタルマイクプリとMADIを導⼊する前はどのようなセッティングで録⾳をおこなっていたのですか?

皆さんと同じようにアナログのマイクを毎回選定しながら収録していました。I/FはPrism Dream ADA-8XRを使い、HAはGRACEなどが多かったかと思います。しかしホールなどで客席後⽅までマイクを引き回すとなると50〜60mは確実に必要で、そうするとかなりS/Nが悪いんです。正直あとで使⽤したいと思っても使い⾟い状況ではありました。

ーそれは、ケーブルが⻑くなるから、ですか?

はい、そうですね。マイクのすぐ後でマイクレベルの信号をラインレベルに上げて転送すればいいんですが、機材や会場の関係上そのようにできない事もありますよね。それで、結局マイクレベルで延ばす事になり、そうなると微弱な信号を無理⽮理引き上げることになるので、全然ゲインは上がってこないし上がって来てもSNが悪い。 そこがデジタルマイクだとそのような⼼配が無いんです。
あとはデジタルマイクの特徴としてアナログマイクに⽐べて距離を取った時の⾼い周波数のロールオフ感が違うので、マイクを離して設置しても、そんなに離れた感じがしないんです。
アナログマイクの場合、ちょっと遠くなって⾳が滲んでゆく事によって聞いた時に距離を感じていたんだと思うんですけど、デジタルマイクの場合、マイクを離して設置しても、「離れました」という情報はあるんですが、それが、ハイが落ちてゆくということではない。これは、私たちが実際に⽿で聞いている感覚に近いとおもいます。

ーMADIは今回から導入されたのですか?

MADIは1年前くらいから使っています。それまでは200〜300⼈規模のホールで収録を⾏なう事が多くて、引き回すといってもそれほどの距離がなく、何とかなっていたんですが、とある案件で⼤きな会場が必要になり⽬⿊のパーシモンホールで収録する事になったんです。
ここでもホールの残響が欲しいと思って場所を探したらなんと2階席だったんですね。ここから普通にアナログで引っ張ったら良い⾳は録れないね、ということになって、じゃあ、やっぱりデジタルマイクを使おう、と。
さらに、全体のセッティングを考えていたときに、少しでも収録の時間を⻑く取るためにセッティングの時間は出来るだけ短くしたい。そして同時に安全性も確保したい、となりました。もうこうなるとMADIの出番ですよね。モニタールームと、DMC-842Mが並んでいる舞台袖をMADIのオプティカルケーブルを2本結線するだけでモニター系統も録⾳系統もOK。これが、今後、ホール録⾳やライブ録⾳する時のスタンダードになるんじゃないかと思い、導⼊を決定しました。その時使ったオプティカルケーブルは40mくらい引く必要があり御社のMADIケーブルのドラムをお借りしたのですがほんとに設置は早かったですよ。 それこそ、機材を机の上に組んで、あとはオプティカルケーブルを延ばして2本つなぐだけですからね。(笑)とても便利でした。

ーMADIの⾳質ってエンジニアさんにはどのように受け⽌められているのでしょうか?

まだ、MADIの⾳質を知らない⼈の⽅が多いかもしれませんね。アナログで良い⾳というのは、やはりアナログの心地よい歪みであったりとか、なにか変化があって良くなるわけですよね?
だからそれを必要とするような芸術作品の制作にはもちろんいいんですが、どんどんレイヤーや⾏程が積み重なっていくようなワークフローの場合は、収録の段階からデジタルでノイズレスの⽅が最終結果が良いと思うんです。アナログとデジタル(MADI)は作業によっての棲み分けでいいのかな、と思ってます。
好きなアナログのマイクで好きな形で収録するのもいいし、逆にデジタルで元の⾳をスパっとキャプチャーしていて、そこから彫刻の様に作業を始めても良いと思うし、本当にこれらはどちらでもいいですよね。
ただ弊社の作業内容を考えたときにどちらが結果を残せるかを考えMADIという選択をしました。

ーそれで、実際にMADIで収録を⾏ってみて、何か⾳質的に⾜りないものとか感じましたか?

最初の頃は、何かもの⾜りない感はありましたが、それは結局⾃分のマイキングでしたね。
収録した結果として今までと聞こえるものが違うのに、いままでと同じようにマイクを⽴ててもしょうがないな、という事を感じたので、考え⽅を変え修正してみたんです。そうしたら納得のゆく⾳質になりました。
良くも悪くも、⾳が滲んだりよどみが無い分、結果がとてもシビアで、マイクがずれてたら⾳像もずれます。なので、スタジオではあまりやらなかったんですが、今では⽬視だけではなくレーザーポインターを使って距離を測ったり⾓度を調整したりしています。数センチはもちろん数ミリのマイキングの違いまで明確に解ります。 なので今では特になんの不満もありません。

ー最後に、今回使⽤したデジタルマイクのモデルを教えてください。

Neumann KM184Dを ウッドウィンドとパーカッションのトップで計8本、それから、オーディエンスのマイクに、SENNHEISERの8040Dを2本使っています。

ー今⽇は⾊々とお話を聞かせていただきありがとうございました。


伊藤隆⽂(イトウタカブミ) Recording Engineer プロフィール

Takabumi Ito

1972年⼭形県⽣まれ。5歳より兄の影響で電⼦オルガンとJazzに興味を持ち始める。専⾨学校卒業後は老舗レコーディングスタジオ「⾳響ハウス」へ入社。その後数々のレコーディングセッションを重ねながら著名プロデューサーに鍛えられる⽇々がつづく。1995年レコーディングエンジニアリングとして活動が始まり、最後のアナログ世代としてアナログテープレコーダーでの録⾳からDSDレコーディングまで幅広くレコーディングテクニックを学ぶ。アーティストのレコーディング、CM⾳楽、サウンドトラック、インディーズバンドのレコーディング・プロデュースとあらゆるところにクビを突っ込みながら現在に至る。
18年間のスタジオ修⾏を経て、2011年3⽉より活動の場をongaqへ移し、エンジニアとしてさらに幅広く活動をはじめる。録⾳専⾨オーケストラ「gaQdan」にもレコーディングエンジニアとして参加。
近年参加した映画「東京公演」は第64回ロカルノ国際映画祭<⾦豹賞(グランプリ)審査員特別賞>を受賞(監督・脚本 青⼭真治 ⾳楽 ⼭⽥勳⽣)

参加⾳楽作品
佐野元春/谷村新司/坂本サトル/ロリータ18号/カーネーション /鈴⽊和朗/岡崎倫倎/ciccaroll/Jef Neve/Quipu/ 鈴⽊勳/佐藤允彦/ヤーノシュ・バーリント/Benoit Fromanger

参加映像作品
関⻄テレビ放送(KTV)DRAMADA-J『いつかの友情部・夏。』 サウンドトラック,DVD(2009)
映画『ミロクローゼ』 サウンドトラック(2012公開予定)監督:石橋義正/主演:山田孝之
カナダ・モントリオール,ファンタジア映画祭2011にて以下の四賞受賞 [⻑篇劇映画部⾨ 最優秀監督賞 /観客賞部⾨ ⻑篇アジア映画 銀賞/最も革新的な⻑篇劇映画部⾨ ⾦賞/Guru賞 最もエネルギッシュな ⻑篇劇映画部⾨ 銀賞]
⽶米テキサス,ファンタスティック・フェス2011にてファンタスティック映画部⾨最優秀作品賞受賞
WOWOWミッドナイトドラマ『⼈間昆⾍記』 サウンドトラック(2011)監督:白⽯和彌・高橋泉 映画『東京公園』(2011公開) 監督.脚本:青⼭真治 ⾳楽:山⽥勳⽣
(第64回ロカルノ国際映画祭<⾦豹賞(グランプリ)審査員特別賞>受賞作品)

ゲーム
三国之天” サウンドトラック制作(2011〜)
SCE TOKYO JUNGLE (2012)
LEVEL5 クリムゾンシュラウド(2012)
その他CM、イベント⾳楽多数。

★演奏オーケストラ gaQdan
http://www.gaqdan.com
2010年10⽉に東京デザイナーズウィーク環境省ブースにおいてのメインコンテンツ、25台のiPadの使ったアプリ「iProject25」の⾳楽を担当した事をきっかけに、録⾳に特化することを⽬的とした、まったく新しいタイプオーケストラとして2011年3⽉1⽇に誕⽣。 テレビ、映画、ゲームなど幅広い分野で活躍するongaqの指導のもと、映像との連携やゲームミュージックで必要な正確性など、⼀般的な演奏技術だけでは なく、あらゆる録⾳分野で必要とされる技術を持つ。

戻る