口頭発表・招待講演プログラム

12月2日(水) 10:00-10:40 論文セッション1 (レンダリング)
座長: 小池 崇文 (法政大学)
VC2020_paper_36

[1] 毛のレンダリングのための効率的な重点的サンプリング (long)

*芝池 祐星 (和歌山大学), 岩崎 慶 (和歌山大学 / プロメテックCGリサーチ)

概要
近年,ゲームや映画などの映像作品において人や動物のCG表現が多く使用されており,人や動物の表現において,髪の毛や毛皮は重要な要素である.髪の毛や毛皮の画像を生成(レンダリング)する手法として,パストレーシングが広く用いられている.パストレーシングを用いて毛をレンダリングする場合,光源から放射された光が,毛の表面で散乱して視点に到達する光の経路をサンプリングする必要がある.Yanらは,毛の散乱モデルとしてダブルシリンダーモデルを提案した.
本研究では,Yanらが提案したダブルシリンダーモデルを用いて,より効率的に重点的サンプリングを行う手法を提案する.従来の重点的サンプリングでは,毛に入射する光の位置を一様サンプリングにより求めていたが,提案法では毛の散乱特性に基づいてサンプリングする.すなわち,毛内部での光のエネルギー損失が少ない経路を重点的にサンプリングすることで,より効率的に髪の毛・毛皮のレンダリングを行うことが可能になる.従来の重点的サンプリングと同時間レンダリング比較において,提案法はノイズの少ない画像を生成することができる.

VC2020_paper_34

[2] 氷のスペクトラルレンダリング (short)

*井上 智皓 (東京工科大学大学院), 柿本 正憲 (東京工科大学 / プロメテックCGリサーチ), 戀津 魁 (東京工科大学)

概要
自然現象のシミュレーションはコンピュータグラフィックスにおける重要な分野である.本研究では氷の色に着目する.氷山や氷河が青く見えるのは,主に氷のスペクトル吸収特性によるものとされている.氷のレンダリングに関する研究のうち,物理的なスペクトル吸収特性を考慮したものは少ない.そこで本研究は大規模な氷を対象に,スペクトル吸収特性を含む光学特性を考慮したレンダリング手法を提案する.氷山や氷河の表面特性をシミュレートするために拡散屈折という概念を導入し,スペクトラルレンダリングによって氷の色の再現を行った.さらに,これらのシミュレーション結果をベイクすることでリアルタイムレンダリングへの応用も行った.

VC2020_paper_33

[3] メニスカスレンズ付加による広角での周辺湾曲を表現したCG画像の生成 (short)

*馬場 雅志, 藤木 陽太, 古川 亮, 宮崎 大輔 (広島市立大学)

概要
実世界では、より広い範囲を撮影できるレンズとして、広角レンズや魚眼レンズが使用されている。しかし、CGにおけるカメラモデルでは、90度以上の画角で透視投影を行うと物体の間延びなど不自然な点が生じるため、90度以上の広角が使用されることはほとんどない。魚眼レンズを使用すると視野角180度が実現できるが、透視投影とは投影モデルが異なるため、ズームレンズのように望遠から広角まで連続的に変化させることはできない。本研究では、通常の透視投影を行うカメラモデルの前面に仮想的なメニスカスレンズを付加することにより、望遠から広角まで連続的に表現できるカメラモデルを提案する。

VC2020_paper_7

[4] 大域照明を考慮した人物全身のディジタル画像コンポジット (short)

*大河原 将, 藤代 一成 (慶應義塾大学)

概要
コンピュータグラフィックスにおけるコンポジットとは,複数の視覚的要素を併合して1枚の画像を生成する技術をさす.コンポジットは,動画像コンテンツやAR(Augmented Reality)コンテンツを支える要素技術であり,幅広い応用範囲をもっている.コンポジットの基本原理は視覚的要素の分離であり,これは大域照明効果の再現を困難にしている要因の一つである.本論文では,大域照明を考慮した人物全身のディジタル画像コンポジットを実現するための新しいパイプラインを提案する.これにより,カラーブリーディングやソフトシャドウの影響が無視できない場面において,視覚的整合性を保持したコンポジットが可能となる.

12月2日(水) 10:50-12:00 論文セッション2 (シミュレーション)
座長: 佐藤 周平 (富山大学)
VC2020_paper_12

[5] 局所二次形式近似による2次元CG流体渦場の幾何学特徴の抽出 (long)

*丸山 哲 (九州大学大学院芸術工学府), 鶴野 玲治 (九州大学大学院芸術工学研究院)

概要
CG向けに最適化された安定性の高い既存の流体シミュレーション手法は、美しくリアルな視覚結果をもたらすが、それらは特定の物理的条件を満たすように作られており、幾何学的な特徴が不鮮明であったり、自然界では正しくない形状の視覚結果を出力することがある。これを解決するために、無関係な方法であるが、流体シミュレーションを幾何学的手法で近似するという考え方に基づき、適切な近似方法をさぐることが考えられ、それに基づく数理モデリングによって視覚的・幾何学的に自然で滑らかな流体の動きを少ない計算量で得られるというメリットが見込まれる。本研究ではシミュレーションされた流体の渦場を局所的に二次形式の関数で近似するための手法を2種類提案し、その二次形式の係数を利用して、渦場の様々な幾何学特徴を抽出する手法を提案する。これにより、流体内の1点の近傍が、二次形式の幾何学(楕円、放物線、双曲線)のうちどの幾何学構造を示しているかを判別(セグメンテーション)でき、それが楕円として判別できれば、渦の形状と相性の良い特徴(楕円の中心位置、縦横比など)を抽出できる。また、その幾何学特徴が、流体の物理的特徴とどのように関係するかも調査し、楕円なら渦の中心付近が、放物線または双曲線は流れのひずみが関連性が高いことを示す。さらに、抽出した幾何学的特徴を応用し、流体の渦のディテールを上げる既存手法を修正し、よりリアルで幾何学的整合性が良い渦場を作ることに成功した。

VC2020_paper_29

[6] GPU Smoke Simulation with Adaptive DCT Compression (long)

*Daichi Ishida, Shigeo Morishima (Waseda University), Ryoichi Ando (National Institute of Informatics)

概要
We propose a novel method for efficiently simulating smoke at a large-scale entirely on the GPU. We leverage an alternative block-wise Discrete Cosine Transform (DCT) approximation to effectively reduce the degrees of freedom required to progress the simulation. Unlike previous approaches resorting to the model reduction method which suffers from the hefty memory cost and the "curse of dimensionality" as the number of bases increases, our method scales well at higher resolutions with many degrees of freedom while the memory consumption is reduced. The key building block of our method is the use of the block-wise Galerkin projection method to update all the simulation states on the reduced DCT space tailored for our DCT-based solver. We further develop a spatially adaptive DCT compression scheme that dynamically retains the detail of motion. The result is efficient, smaller memory consumption and guaranteed convergence of pressure solve that makes it possible to simulate a large-scale smoke on the GPU that is otherwise not possible without our DCT approximation.

VC2020_paper_11

[7] 位置ベース法を用いたクレーター地形生成に関する研究 (short)

*池畑 開斗, 藤澤 誠, 三河 正彦 (筑波大学)

概要
近年,コンピュータグラフィックスの分野では物理シミュレーション技術を用いて,様々な自然現象が再現されてきている.その中でも本研究で着目したのが隕石等の落下物によるクレーター地形生成である.これまで隕石等の落下に関する研究は,数値計算によって衝撃などの影響を計算するものや実際のデータを可視化したものなどがほとんどで,クレーター地形ができるときの様子をCGアニメーションで再現したものはない.本研究では物理シミュレーション技術を用いてクレーター地形生成を再現する手法を提案する.提案手法では,地面を岩盤部分と土・砂部分の2つに分けて考え,それぞれを別の構造で表現する.そして,物理シミュレーションの計算手法の1つである位置ベース法(Position Based Dynamics)を用いて,それらをハイブリッドに計算することで,高速かつ安定したクレーター地形生成シミュレーションを実現した.

VC2020_application_1

[8] Hair for Digital Human: 不気味の谷を越えるために (応用論文)

*後藤 浩之, 福⽥ 啓 (Digital Frontier Inc.)

12月2日(水) 17:00-18:20 国際論文誌・学会採択論文招待セッション
座長: 土橋 宜典 (北海道大学)
VC2020_International_Okabe

[9] Interactive Video Completion (CG&A 2019)

*岡部 誠, 野田 啓太 (静岡大学), 土橋 宜典 (北海道大学), 安生 健一 (OLM Digital, Inc. / CMIC, Victoria University of Wellington

VC2020_International_Fukusato

[10] Sketch2VF: 条件付きの敵対的生成ネットワークを用いたスケッチベースの流体アニメーション制作 (CASA 2019 Best Paper Nominee)

胡 鐘元 (東京大学), 謝 浩然 (北陸先端科学技術大学院大学), *福里 司, 佐藤 雄大, 五十嵐 健夫 (東京大学)

VC2020_International_Kinuwaki

[11] 視覚的ビジビリティメトリックを用いた最適テクスチャ解像度の決定方法 (PG 2019)

Krzysztof Wolski (MPI Informatik), Daniele Giunchi (University College London), *Shinichi Kinuwaki (Unaffiliated), Piotr Didyk (Universita della Svizzera italiana), Karol Myszkowski (MPI Informatik), Anthony Steed (Universita della Svizzera italiana), Rafal Mantiuk (University of Cambridge)

VC2020_International_Koike

[12] Asynchronous Eulerian Liquid Simulation (EG 2020)

*小池 達也, 森島 繁生(早稲田大学), 安東 遼一(国立情報学研究所)

VC2020_International_Itoh

[13] The Sprawlter Graph Readability Metric: Combining Sprawl and Area-aware Clutter (PacificVis 2020 Honorable Mention Award)

Zipeng Liu (University of British Columbia), *Takayuki Itoh (Ochanomizu University), Jessica Dawson, Tamara Munzner (University of British Columbia)

VC2020_International_Sawada

[14] TimeTubesX: A Query-Driven Visual Exploration of Observable, Photometric, and Polarimetric Behaviors of Blazars (TVCG 2020)

*澤田 奈生子 (慶應義塾大学), 植村 誠 (広島大学), Johanna Beyer, Hanspeter Pfister (ハーバード大学), 藤代 一成 (慶應義塾大学)

VC2020_International_Ishitobi

[15] Visual Simulation of Weathering Coated Metallic Objects (CGI 2020)

*石飛 晶啓, 中山 雅紀 (慶應義塾大学), 藤代 一成 (慶應義塾大学, 杭州電子科技大学)

VC2020_International_Akita

[16] Colorization of Line Drawings with Empty Pupils (PG 2020)

*秋田 健太, 森本 有紀, 鶴野 玲治 (九州大学)

12月3日(木) 9:00-9:35 論文セッション3 (深度合成と視覚)
座長: シモセラ エドガー (早稲田大学)
VC2020_paper_23

[17] 多視点ブラケット撮影による深度合成手法および評価用データセットの構築 (long)

*邱 雨澄 (芝浦工業大学), 小檜山 賢二, 田中 浩也 (慶應義塾大学), 井尻 敬 (芝浦工業大学)

概要
本研究では,微小物体の高精度な深度合成のため,フォーカスブラケット撮影と多視点ステレオ法を統合したStereoFocus Bracket 法を提案する.提案法では,まず,複数視点からフォーカスブラケット撮影を行い,これに多視点ステレオ法を適用することで各視点における深度マップを推定する.続いて,この深度マップと局所的な鮮鋭度を利用して画素選択を行う.これにより,既存の最鮮鋭画素選択法やマルチスケールベースの手法に比べ高精度な深度合成を実現できる.提案法の精度評価のため,物理ベースレンダリングを活用しフォーカスブラケット撮影をシミュレートした画像群と全領域にピントのあった真値画像を作成した.この評価用画像群を用いて,提案法と既存手法を比較し,提案法はより高精度に深度合成を行えることを確認した.

VC2020_paper_27

[18] Estimating Depth from Indoor Line Drawings (short)

*Sergey Pavlov, Yoshihiro Kanamori, Yuki Endo (University of Tsukuba)

概要
Depth estimation from scenery line drawings has a number of applications, such as in painting software and 3D modeling. However, it has not received much attention because of the inherent ambiguity of line drawings. This paper proposes the first CNN-based method for estimating depth from single line drawings of indoor scenes. First, to combat the ambiguity of line drawings, we enrich the input line drawings by hallucinating colors, rough depth, and normal maps using a conditional GAN. Next, we obtain the final depth maps from the hallucinated data and input line drawings using a CNN for depth estimation. Our qualitative and quantitative evaluations demonstrate that our method works significantly better than conventional photo-aimed methods trained only with line drawings. Additionally, we confirmed that our results with hand-drawn indoor scenes are promising for use in practical applications.

VC2020_paper_25

[19] 周辺視野のコントラスト感度関数を用いた知覚感度低下の可視化手法 (short)

*伊藤 謙吾, 齋藤 豪 (東京工業大学)

概要
道路標識や駅構内の案内、広告といった公共空間での情報提示の設計の観点から、人の周辺視野の知覚感度低下を認識することは有益である。人の周辺視野特性は空間周波数毎に異なるため、我々は、ガボール関数とDoG関数を用いて画像の空間周波数成分に対して人のコントラスト感度関数に基づいたフィルタを施すことで周辺視野で知覚されにくい周波数成分を削減し、知覚感度低下を可視化する手法を提案した。本稿では、従来法には無い視角30度を超える周辺視野のコントラスト感度測定データに基づいたコントラスト感度関数を用いて知覚感度低下を可視化する手法を提案する。従来法との比較実験から、従来と異なる周辺視野特性を本手法が再現できていることを示す。

VC2020_paper_16

[20] 最適化を利用した二色覚補償のための高速色変換技術 (short)

*Zhenyang Zhu, Xinyi Wang (University of Yamanashi), Xiaodiao Chen (Hangzhou Dianzi University), Masahiro Toyoura, Xiaoyang Mao (University of Yamanashi)

概要
二色覚は色覚障がいの一種で,人間の色覚空間において,色のコントラストを低下させる.既存研究では,本来の画像の自然さを保存しながら,二色覚によるコントラスト損失を補償するための色変換技術を提案した.しかし,最先端の既存手法において,自然さ保存及びコントラスト強調の重みの制御はユーザに任されていて,計算コストも高い故,日常生活上での使用にも制限されるという問題が存在している.本研究では,二色覚を補償するための自然さ保存とコントラスト強調の重みが自動的に制御できる高速の色変換アルゴリズムを提案する.また,定量的評価及び主観的評価実験を行い,提案手法が計算コストを大幅に削減しながら,最先端の既存手法と同等品質の補償画像を生成できることを示している.

12月3日(木) 9:45-10:30 論文セッション4 (XRとデザイン)
座長: 森本 有紀 (九州大学)
VC2020_paper_1

[21] OptWedge: 認知コストを用いたディスプレイ領域外への位置誘導 (long)

*宮川 翔貴, 木村 勝 (三菱電機株式会社)

概要
ディスプレイの表示領域外の特定の位置をユーザが推定できるように,図形の一部をディスプレイに表示する方法がある.これはアモーダル補完と呼ばれる,一部の形状から全体の形状を想像できるヒトの認知処理を利用した位置誘導である.本研究ではWedgeとよばれる二等辺三角形を用いる方法に焦点を当て,より正確な誘導を実現するために形状を最適化したOptWedgeを提案する.具体的には,ヒトの認知処理の過程で生じるバイアスおよび個人差をモデル化し,このモデルを用いて設計した認知コストを最適化することでWedgeの形状に関するパラメータを求める.我々はモデルを作成するオフライン処理と認知コストの最適化を行うオンライン処理のそれぞれについて実験を行った.その結果,比較的距離の近い範囲に対してはより正確な位置誘導を実現できたことを確認できた.

VC2020_paper_28

[22] 画像認識を用いて自己位置推定を行うスマートフォンによるインサイドアウト方式のAR/VRHMD用コントローラシステムの提案 (short)

*服部 圭介, 平井 辰典 (駒澤大学)

概要
HMDのコントローラは,3D空間内で現実の手に連動した円滑な操作をするために様々な方式で提案されてきた.多くの手法は,赤外線カメラなどのセンサを用いてコントローラの位置を認識することで,3D空間内のオブジェクトを直接手で触れるような直感的な操作を可能としてきた.しかし,コントローラがセンサに認識されなければ,現実の手に連動した直感的な操作が不可能となる.本研究では,複数台の画像認識を用いて自己位置推定可能なスマートフォンを用いて操作を可能とするインサイドアウト方式のVR/AR用HMDのコントローラの提案をする.具体的には,スマートフォンの位置情報と,HMDの位置情報を共有し,これまでのHMDのコントローラの欠点であった,センサの死角内ではコントローラを操作できない点をカバーする.また,スマートフォンとHMDの位置情報の共有方法は,スマートフォン上に表示された画像をHMDで読み取る,画像トラッキングを用いた位置合わせシステムを考案し採用している.

VC2020_paper_24

[23] 模様の連続性を担保した包装紙デザインの自動生成 (short)

*菅原 万梨夏, 田村 崚, 北 直樹, 斎藤 隆文 (東京農工大学)

概要
近年様々な分野で自動化が進む中で,手土産等のラッピングは手作業で行われることが多い.通常の箱型ギフトのラッピングでは上面や側面の見た目は良いが,底面に関しては見栄えを重要視されることは少ない.ラッピングにおける見た目の向上は,贈り手から受け手への印象の向上に繋がるとも考えられる.だが現在の環境や個人の経験と技術に頼っている状態では向上の度合いには限度があると考えられる.そこで,本研究では手作業によるラッピングを包装紙デザインの観点から支援するアプリケーションの開発を行う.

VC2020_paper_19

[24] 時代背景に基づく和服キャラクターデザイン支援手法 (short)

井上 華織 (東京工科大学), *鶴田 直也 (東洋大学), 早川 大地 (東京工科大学), 茂木 龍太 (東京都立大学), 近藤 邦雄 (東京工科大学)

概要
現在,アニメや漫画やゲームにおいて多くの和服キャラクターが使用されている.特に着物は国内外に向けて強いキャラクターの印象付けにも有効なデザインであり,さまざまなコンテンツで利用されている.またキャラクターの図録には細かな衣装設定があり,時代背景や多くの意味を含んでおり専門的な知識に基づいてデザインされていることが分かる.このような和服のキャラクターをデザインするためには,時代背景や衣装を理解した和服デザインを行う必要がある.しかし,時代背景や着物に関する色の情報は多様で,多くの資料を参考にする必要があり,和服キャラクターのデザイン作業を困難にしているという課題があった.本研究の目的は,史実に基づいた古来の色合いや柄を参考にした和服キャラクターのデザイン支援データセットの構築とそれを用いた和服キャラクターデザインシステムの提案である.本研究では,まず衣装を調査し必要な和服テンプレートをまとめる.つぎに着物のかさね目色について調査しカラーパレットと柄パターンのデータセットを作成する.さらにそれを用いて,時代背景や色の意味が矛盾しないような和服キャラクターデザインシステムを提案する.

VC2020_paper_17

[25] モアレを用いた多彩な動き生成 (short)

*安部 龍馬, 北 直樹, 斎藤 隆文(東京農工大学)

概要
モアレとは周期的な模様が複数重なることによって発生する干渉パターンである.一般的に,印刷などでは除去対象として扱われるが,視覚的面白さから建築デザインやアートに利用されてきた.最近ではモアレをアニメーション表現として応用する手法もいくつか提案されている.しかし,既存のモアレアニメーション手法では,直線的な動きや拍動表現しか出来ず,表現できるモアレの動きが限定的である.そこで本研究では,既存手法を拡張し,任意の曲線パスに沿った動きや,縞を一方向にしか動かしていないにも関わらずモアレが往復する反直感的な動きを実現することを目的とする.
本研究では,移動波形を定義し,これを規則的に繰り返すことによって構成される移動縞と,固定波形や位相変位,強度によって定義される固定縞を重ね合わせることで発生するモアレアニメーションに焦点を置いている.固定波形は自由に設計することができ,モアレの発生領域内で位相変位を連続的に変化させることで,モアレの明暗が移動して見える.
本研究で提案した手法は,既存手法と比較してより幅広い表現が可能となっている.したがって,人の目を引く建築デザインや広告用途への応用が期待される.

12月3日(木) 10:40-12:00 論文セッション5 (アニメ・イラスト)
座長: 小山 裕己 (産業技術総合研究所)
VC2020_paper_8

[26] セルアニメ作品の三次元的な矛盾に着目した2.5Dモデルの一検討 (long)

*福里 司 (東京大学), 前島 謙宣 (OLM Digital, Inc. / IMAGICA GROUP, Inc.)

概要
セルアニメ作品の制作を効率化する方法の1つとして,3Dキャラクタモデルの利用が注目されている.3Dキャラクタモデルは,奥行方向を含む三次元的な動きを容易に表現できる長所を持つ反面,セルアニメ作品に見られるシーンや視点による三次元構造的な矛盾(例:ミッキーマウスの耳部は,どの視点から見ても「正面」を向き,片方の耳が下側に移動している)にそのままでは対応できない欠点がある.
このような背景から,3Dキャラクタモデルの代わりに数枚のイラストから,三次元的な動きを推定する手法が注目されている.Riversらは,各視点から描かれた各パーツの中心にアンカー情報を埋め込むことで,3D空間上における各パーツの位置関係を利用する2.5Dモデルを考案した.しかし,三次元的な矛盾を含むパーツに対しては,ユーザはアンカー情報を除去した上で,パーツの動きを手作業で設定しなければならない問題があった.
そこで本稿では,Riversらの2.5Dモデルに対して,三次元的に矛盾したパーツの位置関係や形状を自動推定するためのアルゴリズムを導入する.さらに,2.5Dモデルを効率的に設計するためのユーザインターフェースも同時に提案し,ユーザテストを通して提案手法の有用性を示す.

VC2020_paper_9

[27] 奥行方向への移動に対する非写実的なパースのインタラクティブな設計手法 (long)

*折登 樹, 楊 溪, 中島 一崇, 福里 司, 五十嵐 健夫 (東京大学)

概要
アニメや漫画等の手描き作品では臨場感や迫力を与えるために,「パース」を誇張するような表現が用いられている.このような表現を3DCG映像中で再現するためには,3DCG映像特有の「カメラ」の動きを考慮する必要がある.例えば「キャラクタが奥行方向に走るような構図」の場合,3DCG映像では被写体を追いかけるようにカメラを動かしながら撮影を行う.つまり,このようなシーンに誇張表現を付与するためには,カメラの動きに合わせて3Dモデルを適宜変形させる必要があり,時間と手間がかかってしまう.
そこで我々は,上記のシーンに対して,(1)3Dモデルを変形する手法(デフォーマ)と(2)直感的に指定するためのユーザインタフェースを考案する。具体的には,カメラ座標系の奥行方向に対するアフィン変換(平行移動情報,回転情報,拡大縮小情報)を、二次元スクリーン上で対話的に設定するものである。また、本デフォーマを頂点シェーダ上で実装することで、インタラクティブな編集が可能となった。

VC2020_paper_10

[28] ラフスケッチからの線画生成における線幅の自動付与 (short)

*柴田 崚平, 中島 一崇, 福里 司, 五十嵐 健夫 (東京大学)

概要
漫画やアニメ制作現場では,全体の構図を決定するための「ラフスケッチ」に対して,手作業でペン入れを行うことで「線画」を作成する手法が用いられている.しかしながら,この方法はラフスケッチの中から適切な線を抽出する専門的な技術を描き手に要求してしまう上に,膨大な作業時間を要してしまう問題が生じている.このような状況に対して,ラフスケッチから自動で線画を生成する手法がこれまでに多数考案されている.しかし,いずれの手法でも,立体感や躍動感を表現するために用いられる「線幅」が一切考慮されていないため,実際の現場で用いるには品質として不十分なものとなっている.
そこで本論文では,ラフスケッチから線画を自動生成する手法に対し,「線幅」を付与するためのアルゴリズムを提案する.具体的な手順としては,入力となるラフスケッチと既存の手法で用いられるクラスタリング結果を比較することで,一つのライン(最終的な線画)に対して描かれた線の本数と広がり具合を基に,線幅を疑似的に決定するものである.さらに我々は線幅の有無や線幅の計算方法に関するアンケート形式のユーザテストを実施し,提案手法の有用性を示す.

VC2020_paper_15

[29] 手描き原画間の線の対応関係決定手法の改良と評価 (short)

*岡田 大樹, 阮 念武, 齋藤 豪 (東京工業大学)

概要
日本の手描きアニメーションの原画は海外のものと異なり、原画間の動きが大きく、原画間で絵が大きく異なるという特徴がある。藤田らは2つの原画を仮想的な三次元のキャンバスに投影し、共通座標系で線の対応関係を決定する手法を提案した。動きが大きい場合原画間の自動中割りにおいて、この共通座標系での計算は有効であると考えられる。
本論文では藤田らの手法のうち三次元のキャンバスの形状と線の類似度の計算方法を変更し、従来法と線の対応付けの精度に関して比較する。対象としたデータには日本のアニメーション制作会社から提供された原画を用いた。

VC2020_paper_26

[30] グラフィックデザインのためのセマンティクスを考慮したスマートな色候補生成と着色インターフェースの提案 (short)

*玉置 尚吾, 北 直樹, 斎藤 隆文 (東京農工大学)

概要
本研究では,ユーザの創造性を支援することを目的として,グラフィックデザインのセマンティクスを考慮して色候補を提示する新たな色提示方法を提案する.提案手法では,機械学習ベースの色生成モデルを使用して,入力画像の各レイヤに設定されたレイヤ名から複数の色候補を生成する.一般的なカラーパレットではなく,レイヤごとに異なるセマンティクスを考慮した色候補を提示することによって,ユーザは多様な色候補,すなわちデザイン候補を得られる.提案手法をウェブアプリケーションとして実装し,ユーザの創造性をどの程度支援するかを評価することで,提案手法の有効性や応用可能性を示した.

VC2020_application_2

[31] セマンティックセグメンテーションに基づくアニメ作品の自動彩色 (応用論文)

*品川 政太朗 (奈良先端科学技術大学院大学), 久保 尋之 (東海大学), 石井 大地 (奈良先端科学技術大学院大学), 前島 謙宣 (OLM Digital, Inc. / IMAGICA GROUP, Inc.), 舩冨 卓哉, 中村 哲, 向川 康博 (奈良先端科学技術大学院大学)

12月4日(金) 9:00-9:45 論文セッション6 (顔)
座長: 三武 裕玄 (東京工業大学)
VC2020_paper_31

[32] スケルトンジョイントの個別制御による顔形状バリエーション合成 (long)

厳 亦斌, *向井 智彦 (東京都立大学)

概要
顔アニメーションは一般的にブレンドシェイプ法を用いて制作することが多いが、ブレンドシェイプ法にはターゲットシェイプの格納に要するメモリ使用量が大きく、また顔形状変形はターゲットの与え方によって強く制限されるという問題がある。そこで本研究では、ブレンドシェイプデータをスケルトンアニメーションによって近似し、スケルトンジョイントを個々に制御することで様々な変形バリエーションを生成する技術を提案する。この方法により、ブレンドシェイプ方法と同等の計算速度を実現しつつ、メモリ使用量を大幅に削減する。さらに、スケルトン全体を協調させながら、個々のジョイントに変動成分を加えることで、単一のターゲットから多様な変形バリエーションを実時間に合成する。実験ではリップシンクアニメーションを題材として、単一の発話音素に対して複数の顔形状を合成した結果を検証した。

VC2020_paper_2

[33] 顔の美しさに関する黄金比に基づく顔画像の生成 (short)

*彭 然, 井上 光平, 原 健二 (九州大学)

概要
本論文では、顔画像を美しくすることを目的として、上記のような顔の黄金比に基づいて顔画像を局所的に伸縮する方法を提案する。顔画像データベースJAFFEの顔画像を用いた生成例を示す。また、生成した顔画像のオンラインアプリによる評価とアンケート調査による主観評価の結果を示す。

VC2020_paper_30

[34] 動画生成のための三次元顔変形モデル (short)

*Xingchao Yang, Kota Yamaguchi (CyberAgent, Inc.), Shunsuke Saito (University of Southern California)

概要
広告のように大量の制作が求められる動画制作の現場では,人物が出演する動画制作において撮影と編集に関するコストや工数が課題となっている.特に著名人を起用した動画制作では撮影に関するコストが問題になっており,我々は撮影後でも顔の向きや表情を編集可能な三次元顔変形モデルを導入することで,特定人物が出演する多種多様な動画を事後的に生成することを目指している.本稿では我々が取り組みを進めている,日本人を対象とした三次元顔変形モデルについて,その構築と動画生成について述べる.

VC2020_paper_18

[35] Style Controllable Facial Animation Synthesis from Singing Audio (short)

*Shohei Iwase (Waseda University), Takuya Kato (ExaWizards Inc. / Waseda University), Shugo Yamaguchi, Yukitaka Tsuchiya, Shigeo Morishima (Waseda University)

概要
We present a deep neural network capable of producing singing facial animation from an input of singing voice and singer label. The network architecture is built upon our insight that, although facial expression when singing varies between different individuals, singing voices store valuable information such as pitch, breathe, and vibrato that expressions may be attributed to. Therefore, our network consists of an encoder that extracts relevant vocal features from audio, and a regression network conditioned on a singer label that predicts control parameters for facial animation. In contrast to prior audio-driven speech animation methods which initially map audio to text-level features, we show that vocal features can be directly learned from singing voice without any explicit constraints. Our network is capable of producing movements for all parts of the face and also rotational movement of the head itself. Furthermore, stylistic differences in expression between different singers are captured via the singer label, and thus the resulting animations singing style can be manipulated at test time.

VC2020_paper_13

[36] Class-Discriminative Feature Group and its Visualization (short)

*Rui Shi, Tianxing Li, Yasushi Yamaguchi (Graduate School of Arts and Sciences, The University of Tokyo)

概要
Research explaining the behavior of convolutional neural networks (CNNs) has gained a lot of attention over the past few years. Although many visualization methods have been proposed to explain network predictions, most fail to provide clear correlations between the target output and the features extracted by convolutional layers. In this work, we define a concept, i.e., class-discriminative feature groups, to specify features that are extracted by groups of convolutional kernels correlated with a particular image class. We propose a detection method to detect class-discriminative feature groups and a visualization method to highlight image regions correlated with particular output and to interpret feature groups intuitively. The experiments showed that the proposed method can disentangle features based on the target class and shed light on what feature groups are extracted from which regions of the image.

12月4日(金) 10:00-11:10 論文セッション7 (Motionと動画)
座長: 山本 和彦 (ヤマハ株式会社)
VC2020_paper_21

[37] 注意機構を用いた身振り動作のスタイル変換 (long)

*栗山 繁 (豊橋技術科学大学)

概要
再学習を必要としない画像の描画スタイルの変換では,潜在変数を空間的にブロック分割したパッチ毎の特徴のマッチングと統計量の正規化を組み合わせた手法が提案されている.本研究では身振り動作のスタイルを変換するために,人体動作を表す関節回転角系列を潜在変数化して時間軸で分割したパッチに,この手法を適用する.ただし,少量の訓練データに対しても安定した変換を得るために,人体の部位毎の潜在変数空間で特徴を学習・変換し,パッチのマッチング処理に注意機構を導入する.さらに,実時間での変換処理に適用するために,注意機構を予測的に用いる手法も提案する.身振り動作の個性モデルであるOCEANの分類を参考に収集したデータセット用いて,本提案手法によるスタイル変換の性能を検証した結果を示す.

VC2020_paper_5

[38] 3次元SRT変換の例示ベース連動制御 (long)

*向井 智彦 (東京都立大学)

概要
3DCGアニメーターの制作作業量を最小化するために,少数の操作入力を通じて複数の3次元座標変換を連動させるようなメカニズムが広く用いられるが,多くの制作現場では経験的な方法論に頼っている.本研究ではスケール,回転,平行移動の3要素で構成される,複数の3次元座標変換を適切に連動させるための,例示ベース手法を提案する.提案手法は,連動元と連動先の座標変換のペアで構成される複数のサンプルデータを学習することで,連動関係を表す回帰モデルを構築する.その際,球面基底関数補間法を拡張した計算法の導入により,3次元回転の非線形性や多義性に対処する.また,特定のサンプルを自動的に複製する方法や,回帰計算における拘束条件の追加などの拡張を施すことで,直観的かつ安定した連動制御を実現する.さらに,提案法は拡張リー代数における単純な線形演算によって実現されるため,高速な演算が可能である.

VC2020_paper_37

[39] SiamMaskを用いた動画修復とマスク生成への応用 (short)

*坪田 颯生, 岡部 誠 (静岡大学), 工藤 隆朗 (株式会社 IMAGICA GROUP), 由良 俊樹, 本間 祐作 (株式会社 IMAGICA Lab.)

概要
我々は素早く簡単に動画修復とマスク生成ができるシステムを開発している。本プロジェクトの目的は、1) フレーム毎の画像編集作業を無くしデジタルアーティストの負担を減らすこと、2) 高画質な修復結果を生成すること、3) 目的物体の高精度なマスクを生成すること、の3つである。提案手法を使うにあたって、ユーザは動画の最初のフレームにおいて、目的物体をバウンディングボックスで囲むことで指定する。バウンディングボックスはSiamMaskへの入力となる。SiamMaskは目的物体を追跡しつつ、各フレームにおいて大雑把なマスクを生成する。生成されたマスクを入力として動画修復技術を用いることで修復結果が生成される。更に、入力動画と修復結果の差分に基づいて目的物体の高精度なマスクを生成する。SiamMaskも動画修復も、解像度が$854 imes 480$ピクセルで80フレームの動画に対して数秒で処理が完了する技術であって、計算コストは低く、ユーザにインタラクティブな編集環境が提供できる。本プロジェクトが目指すのは、バウンディングボックスを描いたら即座に修復結果と高精度なマスクが生成されるようなシステムだが、現状ではSiamMaskによって生成される大雑把なマスクが必ずしも完璧に目的物体を捉えない場合もあり、そのような場合はユーザによる手作業での修正(フレーム毎の画像編集作業)が必要となる。引き続き研究を続け、ユーザの負担を更に減らすことのできるシステムを目指したい。また、元の動画と修復結果の差分に基づき、物体の高精度なマスクを生成する実験も行ったので報告する。

VC2020_application_3

[40] 3D LIVE MAKER: 好きなキャラクタに命を吹き込むまで (応用論文)

*岩本 尚也, 佐藤 浩之, Bo Zheng (Huawei Technologies Japan K.K.)

12月4日(金) 11:25-12:00 論文セッション8 (モデリングと曲線)
座長: 長井 超慧 (東京都立大学)
VC2020_paper_4

[41] 疎な多視点画像からの樹木のボリュームモデリング (long)

*岡部 誠 (静岡大学)

概要
単一画像から3次元樹木を自動的にモデリングするためのシステムを提案する。提案システムはcomputed tomography (CT)技術に基づき、樹木を3次元ボリュームとしてモデリングする。CTでボリュームをモデリングするためには、通常は物体を多くの視点から撮影した画像が必要となるが、それらの撮影にはしばしば多大なコストを要する。そこで我々は、多視点画像をテクスチャ合成技術による合成によって補う。単一画像からでもある程度の品質の樹木をモデリングできることを示す。

VC2020_paper_3

[42] 粘土細工のような両手操作による3次元形状モデリング (short)

*古賀 亮, 盧 承鐸, 五十嵐 健夫 (東京大学)

概要
VR技術やハンドトラッキング技術を用いた3Dモデリングは, 従来のモデリング技法に比べて直観的な操作や立体的知覚を提供し, 初心者でも手軽に形状作成が可能である.
そこで, 本論文ではこれらの技術を用いて, 粘土細工の感覚で3Dモデルを制作する新たなフレームワークを考案する.
本システムでは, ユーザは粘土の構成する単位である粘土粒子を手でつまんで粘土を操作し, 単純な両手の動きによって結合や分断といった大局的な形状操作を行う.
本論文では, 作例とユーザスタディの結果を通し, 本システムの有用性について検証する.

VC2020_paper_14

[43] 水晶のプロシージャルモデリング (short)

*北 直樹, 月井 智史, 都留 美和子 (東京農工大学)

概要
近年,ハンドメイドアクセサリーの製作が注目を集めている.レジンアクセサリーはその透明感や宝石のような質感から人気ジャンルの一つとなっており,特に水晶をはじめとする「鉱物レジン」は人気の高い対象となっている.製作にあたっては,手芸専門店等で販売されている型を購入することで誰でも手軽にレジン複製を製作することが可能である.しかし,オリジナルの型を製作するには3次元形状の造形が必要であり必ずしも容易ではない.また,水晶の結晶構造をもっともらしく造形することも容易ではない.そこで,本論文では水晶のプロシージャルモデリング手法を提案する.提案手法により,水晶の単晶だけでなく,群生した水晶クラスタモデルを容易に生成することが可能となる.パラメタを調整することで自然界に見られるクラスタと遜色のないクラスタ形状を生成することが可能となるだけでなく,所与の概形を近似するようにクラスタを生成することも可能である.またレジン複製する際に,3Dプリントした水晶クラスタモデルを,シリコン型を破損せずに離型できることを実験によって検証し,実際に鉱物レジンアクセサリが製作可能であることを確認した.

VC2020_paper_20

[44] ϵκ-Curves: Control for the Magnitude of Local Maximum Curvature (short)

*Kenjiro T. Miura (Shizuoka University), R.U. Gobithaasan (University Malaysia Terengganu), Peter Salvi (Budapest University of Technology and Economics), Dang Wang, Tadatoshi Sekine, Shin Usuki (Shizuoka University), Jun-ichi Inoguchi (University of Tsukuba), Kenji Kajiwara (Kyushu University)

概要
The κ-curve is a recently published interpolating spline, which consists of quadratic Bézier segments, and goes through input points at the loci of local curvature extrema. We extend this representation to control the magnitudes of local maximum curvature; the new scheme is called extended- or ϵκ-curve. κ-curves have been implemented as the curvature tool of Adobe Illustrator® and Photoshop®, and are highly valued by professional designers. However, because of the limited degrees of freedom of quadratic Bézier curves, it provides no control over the curvature distribution. We propose new methods that enable the modification of local curvature at the interpolation points, by degree elevation of the Bernstein basis, and by applying generalized trigonometric basis functions. With ϵκ-curves, designers acquire much more power to produce various expressions, as illustrated by our examples.

12月4日(金) 15:55-17:30 SIGGRAPH招待講演セッション
座長: 森島 繁生 (早稲田大学)
VC2020_SIGGRAPH_Endo

[45] Animating Landscape: 色と動き情報の自己教師あり学習による景観画像からのアニメーション生成 (SIGGRAPH Asia 2019)

*遠藤 結城, 金森 由博 (筑波大学), 栗山 繁 (豊橋技術科学大学)

VC2020_SIGGRAPH_Izuka

[46] DeepRemaster: Temporal Source-Reference Attention を用いた動画のデジタルリマスター (SIGGRAPH Asia 2019)

*飯塚 里志 (筑波大学), シモセラ エドガー (早稲田大学)

VC2020_SIGGRAPH_Ando

[47] A Practical Octree Liquid Simulator with Adaptive Surface Resolution (SIGGRAPH 2020)

*安東 遼一 (国立情報学研究所), Christopher Batty (ウォータールー大学)

VC2020_SIGGRAPH_Yonghao

[48] Human-in-the-Loop Differential Subspace Search in High-Dimensional Latent Space (SIGGRAPH 2020)

邱 嘉興 (臺灣科技大學), 小山 裕己 (産業技術総合研究所), 賴 祐吉 (臺灣科技大學), 五十嵐 健夫 (東京大学), *楽 詠灝 (青山学院大学)

VC2020_SIGGRAPH_Koyama

[49] Sequential Gallery for Interactive Visual Design Optimization (SIGGRAPH 2020)

*小山 裕己 (産業技術総合研究所), 佐藤 一誠 (東京大学), 後藤 真孝 (産業技術総合研究所)

VC2020_SIGGRAPH_Narita

[50] A Model for Soap Film Dynamics with Evolving Thickness (SIGGRAPH 2020)

†Sadashige Ishida (IST Austria), †Peter Synak (IST Austria), *Fumiya Narita (Unaffiliated), Toshiya Hachisuka (The University of Tokyo), Chris Wojtan (IST Austria) (†は共同筆頭著者)

VC2020_SIGGRAPH_Nabata

[51] Resampling-aware Weighting Functions for Bidirectional Path Tracing using Multiple Light Sub-paths (ACM TOG 2020)

名畑 豪祐 (和歌山大学), *岩崎 慶 (和歌山大学 / プロメテックCGリサーチ), 土橋 宜典 (北海道大学 / プロメテックCGリサーチ)

ニュース

  • 2021年2月24日 VC2021は2021年9月28日(火)~10月1日(金)に,慶應義塾大学日吉キャンパス来往舎で開催することになりました.
  • 2021年2月1日 各賞の受賞者の写真を掲載いたしました.(詳細)
  • 2020年12月4日 VC2020は本日盛況のうちに終了しました.各賞の受賞者についてはこちらをご覧ください.
  • 2020年11月30日 協賛企業講演のページを公開いたしました.(詳細)
  • 2020年11月17日 企業招待講演のページを公開いたしました.(詳細)
  • 2020年11月16日 特別講演のページを公開いたしました.(詳細)
  • 2020年11月14日 プログラムを公開いたしました.(詳細)
  • 2020年11月11日 参加登録の受付を開始いたしました.(詳細)
  • 2020年10月8日 ポスターの募集スケジュールを掲載いたしました.更新が遅れまして申し訳ありません.(詳細)
  • 2020年8月19日 VC2020をオンライン開催とすることを決定いたしました.
  • 2020年7月31日 新しい論文募集スケジュールを決定いたしました.(詳細)
  • 2020年6月5日 新しい論文募集スケジュールを決定いたしました.
  • 2020年3月28日 VC2020の会期を2020年12月2日(水)-4日(金)に延期することを決定いたしました.新しい論文募集スケジュールについては近日中に決定し,改めてお知らせいたします.
  • 2020年3月23日 VC2020の開催時期や方法等について見直すこととしました.具体的な方針については近日中に決定し,改めてお知らせいたします.
  • 2020年3月13日 ポスターセッションの開催については、昨今の状況を踏まえて再検討中です (詳細)
  • 2020年3月6日 国際論文誌・学会採択論文招待セッション企画についてのページを追加しました (詳細)
  • 2020年3月4日 採択論文のうち,希望者については画像電子学会の論文誌に推薦します (詳細)
  • 2020年1月16日 VC2020のWebページを公開いたしました

Twitter

Facebook

過去の開催

スポンサー企業

(c) Visual Computing 2020 運営委員会