ZHUOWARE

ZHUOの生み出すアヤシイかれこれ=zhuowareをあなたに…

2010年 ボカロ界に起きる出来事大予想 募集

twitterでつぶやいてみたところ,さっそくいくつか予想をいただけて,
びっくりしてしまいました! うれしいです.

そうですねえ,1月3日いっぱい,集めてみたいと思います.
twitter で vocaloforcast2010 とつけてつぶやいていただくか ( forEcast の Eを忘れましたorz Eなしで...) こちらにコメントをいただければ幸いです.
4日以降に発表ということで!

#万一予想の数が非常に多くなってしまったら? すみません独断でpickupさせていただくかもしれません.ご了承ください.

でわ~!

新着!

いや~これはまったく知りませんでした!初音ミクみく様記事で拝見した「パーティクルクリエータ(仮)」.パラメータ設定により,MikuMikuDance用のモデル(PMD)と動き(VMD)を生成します.これをMikuMikuDanceに読み込むと,弾幕や雪,泡といったパーティクルの表現が実現できます.

また,少し前には,【MMD】ピアノの演奏モーションを作ってみよう!という動画も拝見しました.
ピアノ鍵盤(物理演算対応)をミクさんモデルに弾かせるモーション制作です.
これをみて妄想がわいてきたのですが,「モーションの結果鍵盤が動いて得られるMIDIシーケンスの, 目標値からのずれを調べて,ずれが小さくなるように,かつ指が自然な形・動きであるようにモーションを修正していくと,美しいモーションができるのではないか」とかね...

そもそもw 私,3D CGの仕組みがまだよくわかっていないままです.この3月に,ルカさんのトランペット運指モーション生成に取り組んだわけですが,IKと親子ボーンのあたりの知識不足で行き詰って,とまっちゃってました.その後物理演算が出てきたけれどやっぱりボーン,IKと物理演算のからまりかたがイメージできず...
またあらためて勉強していきたいものです!

さあ,いよいよ年末ですよ!

怒涛の12月

いやあ12月は早いですね! あっというまに過ぎてしまいましたw
しょうがないのでw12月の近況や振り返りをぽつぽつとやっていきたいと思います.

まずはボカロ関連ですよね~あいかわらずサプライズの連続です!

その1.「窓の杜 大賞2009」でUTAUが金賞!おめでとうございます>>関係者の皆様.純粋に,独創的ですぐれたフリーウェアということに加え,歌声の合成に興味をもった人がまず入る入り口としての意義,そして声の提供というVOCALOIDにないコラボレーションが成立する場としての意味合いが評価されたのではないかなあ..と思ったりしております.初音ミクみく様記事「出た!「窓の杜大賞2009」でフリーの歌唱ツール「UTAU」が金賞!」で知りました.

その2. HMMベースの歌声合成システム"Sinsy" ! これも初音ミクみく様記事「謎の新型歌声合成システム「Sinsy」(しぃんしぃ)が話題になっている件」で知りました.「謎の歌声合成技術「Sinsy」の情報を集めてみた」(CloseBox and OpenPod)に詳しいまとめがあります.大学や研究者の方については,ほぼ特定されている通りなのかな...と思いますが,正式発表を待ちましょう.ところでね,ぼかりすの時は4月下旬にニコニコ動画に投稿され,5月末の音楽情報科学研究会で発表となりましたので,もしやと思い,2010年2月の音楽情報科学研究会のプログラムをみてみたのですよ.そしたら. Sinsyらしい発表はなかったのですが,その代わり
(17)歌うロボット -VOCALOIDとサイバネティックヒューマンHRP-4Cのコラボレーション-
橘 誠(ヤマハST開発センター),中岡慎一郎(産総研),剣持秀紀(ヤマハST開発センター)
という発表がありますね! 10月のCEATECの未夢×VOCALOIDコラボの技術紹介なのでしょうか...リップシンクとか...お話ききたい...orz
それにしても「耳のないロボットの唄」がサンプル曲とは!感動です.UTAUの関連ツールの作者でもあられる耳ロボP様も述べられている通り,音声処理において基本的な道具立てである隠れマルコフモデルを題材にしたこの曲を,Sinsyが歌うことで,見事な自己言及が成立していると思います.大学の研究というアカデミズムと,フリーウェアやオリジナル楽曲のアマチュアリズムとが手を取り合って歩む知的活動のありように息をのむ思いです.

その3. 「経済産業省、使用済み携帯回収事業で初音ミクとコラボレーション」(mycomジャーナル):CEATECヤマハの展示も経産省の「ライフコンテンツ フロンティア」の協同展示だったわけですが今度はついに,キャラクタです!がんばれ~!

その4. 「初音ミクを金星へ」世界に広がる署名1万超え、イラスト募集中(2009年12月25日 ITmedia) こちらはJAXAの金星探査機「あかつき」のプレートの一般公募へのアプローチです,1月6日までに2万人をめざしたいとのことですので,まだの方はぜひこちらへ!
金星探査機「あかつき」に初音ミク絵を搭載する署名プロジェクト - 応援ページ
思うのですけれど,いっそ,レーシングカーのように,ロケット本体にスポンサーロゴをいっぱい描いて資金を集めればどうでしょうか...一瞬しか見えないからスポンサーつかないですね...

その5. 日経エレクトロニクス2008年2月11日~3月10日号に掲載された初音ミクさん記事が,日経Tech-On!で閲覧可能になりました(要無料登録):「初音ミク」の開発
初音ミクが世に出てから数ヶ月後の記事です,今読むと感慨ぶかいものがあります.あれからずいぶん遠くまでやってきました.でも,まだまだこれから.

---
最近なんとなく思うこと.ミクさんの姿.「うみだすこと」の象徴なのかなと...だからこそさまざまな分野の人の創造意欲をかきたててやまないのではないかな...いえ,根拠も何もない,ばくぜんとした思いにすぎませんけれども.
肉体は消滅する.だから子供に命をリレーする.思考も消滅する.だから人は創作を残すのかもしれない----最近のリアルでの出来事から,そんなことを思ったりしている年の瀬です.

ひさびさの新着です

おひさしぶりで(ry
ソフトウェアまとめに,MikuMikuCrowd を記載しました.

地図(黒地に,歩く経路を白線で描いた画像)と,出発点・到着点とを与えると,その間の最短経路を求め,それにそってモデルが歩くMikuMikuDanceのモーションデータを生成するというツールです.
まずはニコニコ動画のこちらをご覧いただければ効果は一目瞭然!

ミクたちに歩いてもらった2

VMD Mixer, VMD Synthesizer を開発された方の手になるこのツールを用いて,さっそくこのような動画も制作されています!

MMD Crowd Simuration 2 (かんな様)

//
Hi, I added a new entry to Software Study Notes - MikuMikuCrowd.

Given a path map (a black image with paths painted white), starting locations and a goal location, this tool first identifies the shortest path between each start and the goal, then generates the motion data for MikuMikuDance to let the models walk along the paths.

Well, seeing is believing; have a look at the movie (below) in niconico douga to learn how it works!

ミクたちに歩いてもらった2(Miku tachi ni aruite moratta 2)

This tool, implemented by the author of VMD Mixer and VMD Synthesizer, realizes movies like this:

MMD Crowd Simulation 2 (Kanna P)

歌声合成をめぐって

珍しく雑考なぞw

その1. ピアノでスピーチを表現.
ピアノの音だけなのに本当に人が話しているように聞こえる、驚異的なしゃべるピアノのムービー (Gigazine, 2009年10月10日)
少年のスピーチを分析して,アコースティックピアノ用のシーケンスをつくり,自動演奏で音にしています.ピアノ音だけですから制御の幅は狭いですが,テキストをみると,なんとなくそんなふうに聴こえてきます. 人間の音声認識の能力はすごいものですね.

その2. MIDIシーケンスで歌声を表現.
midiで音声を再現(ry - その3 スフィア「Future Stream」(ニコニコ動画)
こちらはMIDIシーケンスでMIDI音源をドライブしています.MIDIシーケンスの生成は,伴奏は耳コピ.ボーカルは,おそらく何らかのツールを用いていると思われます.できばえがすばらしいです.4人の声質の違いまでも表現されており,発音も,MIDI音源の音を重ね合わせた結果とは思えない明瞭さです.
ボーカルの分離は,カラオケトラックがあればツールで行なえますし,そこからピッチ・音量・音色の解析も可能ですが,音素の決定は手動か自動か,また,MIDI音源のどの音色をどの音高・音量で鳴らすかをいかに決定しているか,といったところが興味深いです.数理的なアルゴリズムの設計はかなり難しいと思いますが,どのようにヒューリスティックスを用いてうまくまとめたのでしょうか.その意味では,(コメントにあるように)ボカロよりはむしろ,VocaListener を脅かすデモといえるかもしれません.


その3. MIDI符号化ツール「オート符」を用いた音素 MIDIコードの設計と楽器音による音声合成機能の実現(情報処理学会研究報告 MUS82-8)
googleで探しているうちに,音楽情報科学研究会でこんな発表があったのをみつけました.内容はよくわかりませんが,これもどうも,MIDIシーケンスで音声合成を試みているようです.どんな音がするのでしょうか.

芸術と技術と科学と.このスリリングな世界,時代にいあわせていること,幸せだと思います.

文化の秋:-)

文化の秋ですよね:-) 各所で講演会,展示会が開かれています.

1. 初音ミクみく様記事によりますと,2009年11月19日に名古屋工業大学で,音響学会の「音声・歌唱合成の現状と将来」という技術講習会があったとのこと,開発者である剣持さん,クリプトン様のwatさんが講演されたそうです.どんな感じだったのでしょうね.

2. 「Macで動くボーカルシンセを作る」様が開発中のSugarCapeが,下記にて展示されるとのことです.
Make Tokyo Meeting 4 - 2009年11月22日(日)11:00~18:00
慶応義塾大学SFC ORF 2009 - 2009年11月23日(祝)10:00~19:30、24日(火)10:00-19:30
地理的その他の困難により,私は見に行くことはかないませんが,盛り上がると良いですね,行かれた方のレポートを楽しみにしたいと思います.

3. これも「初音ミクみく様」でうかがったのですが,組込み総合技術展 ET2009 のNECエレクトロニクスブースで,はちゅねみくのスタンプラリーがあったとのこと!英断ですね! :-)

遠出のままならない私,イベントや展示会にはなかなか参加できませんが,こうしてネットで雰囲気をうかがうことはできる...いい時代ですね.

---
さてw なんかよくわかりませんが上に広告が出ておりますね.
私,何にも申し込んでないし設定もしてないのですが なんでしょコレ?
geoはコメントやトラックバックも書き込まれ放題だし...困ったもんですw