イベント / EVENT

平成22年度 第4回 Q&A

第4回 2010年9月8日(水)

3Dディスプレイを支える映像技術とは?
三次元でモノを見る

後藤田 洋伸(国立情報学研究所 情報社会相関研究系 准教授)

講演当日に頂いたご質問への回答(全30件)

※回答が可能な質問のみ掲載しています。

なぜ青と赤なのか。他の色ではダメなのか。

アナグリフ方式で使用される色眼鏡には、「青と赤」以外にも、「赤と緑」、「赤とシアン」など、さまざまな組み合わせがあります。

今、日本の3Dに関する技術は世界的にみて先進的になっていますか?それとも遅れていますか?(もし遅れているなら)一番すすんでいる国はどこでしょうか?

市販されているディスプレイの製造技術という点では、韓国も優れていると思います。未来の技術を先取りして研究開発しているのはどこの国かという問いに対しては、正確にお答えするのは難しいのですが、日本もキープレーヤーの一つであるのは間違いないと思います。

今朝の朝日新聞のオピニオン記事 家庭用で普及の条件として3つ挙げています。
1)裸眼式  2)「奥行き立体」(飛び出し立体ではなく)  3)生放送
上記の解決策=「左右分割視覚」ではなく「両眼時間差による残像利用」に転換すべき。とあるが、この意味は?

原記事に当たることができませんでしたので、不明瞭な回答になってしまっていることを、お許し下さい。まず、「普及の条件」として挙げられている、1)、2)、3)については、個人的には、そうかもしれないと思います。ただし、そうでないという意見もあり得るとも思いますので、有力紙のオピニオンではありますが、参考程度にとどめておけばよいのではないでしょうか。
「上記の解決策」については、何を論じようとしたものなのか、推察できませんでした。特定の商品を念頭に置いて、論じているような気もします。二眼式での方式の違いを論じているのであれば、さして重要でないことのように、私には思えます。

知人に片眼(障害者ともいえる)の人がいる。片眼ではあるがテニスなどの球技を楽しんでいる―ということは片眼でもある程度、遠近感を感じとれているということである。―おそらく運動視差と焦点調節によっているのであろう。
問1 片眼の場合、運動視差と焦点調節の3Dを実現する方式あるのだろうか?
問2 あるとすればその研究をしている機関(会社)とそれが実用化されるのはいつ頃だろうか?

ヘッドトラッキング技術を応用すれば、通常の(二次元)ディスプレイでも、運動視差を考慮に入れた画像表示が可能です。ドイツのSea Real Technologies GmbHという会社では、従来からある裸眼立体視ディスプレイに、ヘッドトラッキング技術を組み込むことにより、両眼視差、運動視差、輻輳の三つを同時に実現したディスプレイを発表しています。ここで用いられているのは、裸眼立体視ディスプレイですが、この代わりに、通常の(二次元デ)ィスプレイを用いれば、運動視差のみを実現した3Dディスプレイが得られます。
焦点調節に対応したディスプレイを作るのは難しく、現在、各所で研究が進められているところです。講演でも触れたインテグラルイメージング方式やホログラム方式は、こうしたディスプレイを実現する上でも有力技術とされています。

日本画の先生の絵画で立体感のある作品に出会い、おもわず近くに寄り見ましたが、何に由来するかわからず仕舞いでした。絵かきさんの夢が現実になったと思いましたが、今でも不思議に思います。何故か?

その作品、私も拝見してみたいです。ご質問に直接お答えするのは難しいのですが、「立体感」というのは脳の働きによって得られるものなので、対象物が二次元でも立体感が得られる可能性はあると思います。

パワーポイントで先生のやっている資料の説明を時間がないとの事で省略されましたが、説明して欲しい。よろしく!!(※3Dの将来のパワーポイントの手前の資料)

講演では時間がなくなったため、説明を割愛させていただきました。研究所紹介(オープンハウス)などの場で、ご説明させていただければと思っております。今後とも、当研究所主催のイベントへのご参加をお待ち申し上げております。

任天堂が3Dに対応した携帯ゲーム機である3DSを発表しましたが、これは多眼式の裸眼ディスプレイを採用している考えて良いのでしょうか?どこでだったかは忘れてしまったのですが、小さいディスプレイだから実現できるというようなことを聞いたことがあるのですが・・・。

「任天堂E3 2010」の技術仕様を調べてみますと、「3.53インチ 裸眼立体視機能つきワイド液晶 800×240ピクセル(横800ピクセルを左目用・右目用交互にそれぞれ400ピクセル割り当てることで、立体表現が可能)」となっていますので、ご推察の通り、二眼式の裸眼ディスプレイのようです。正式発表外の情報ではありますが、視差バリア法を使っているという情報もあります。ゲーム機の場合、画面と眼との距離がある範囲に限定されるので、裸眼式をうまく適用できるのでしょう。

技術はとてもスゴいことだと思いますが、三次元でモノを見ることに必要性を感じません。どんな事に必要性を感じますか?

「何に使うのかがはっきりしない」というのが、3Dディスプレイの普及を妨げている要因の一つであることは確かです。映画やゲームを別にすると、これといったアプリケーションがない、という意見もよく聞かれます。大概のことは2Dディスプレイで事足りてしまうのではないか、という推察も成り立つことでしょう。
私もそうした意見に半ば同意しつつも、ある展示会で見たホログラムのことを思い浮かべます。昆虫の標本を記録した画像でしたが、非常にリアルなもので、羽を手でつまめるのではないかと思わせるほどのものでした。私個人の感想に過ぎませんが、こうした技術が広く普及するに従って、3Dに対する社会の見方が変わり、新たな需要が生み出されていくのではないかという気がしています。

先生のアイデアのご研究の原理は?
「モアレー現象」とはどのようなものですか?

前半部分については、質問6への回答をご参照下さい。また、後半部分については、質問12への回答をご参照下さい。

①2枚の写真を横に並べて立体視すると3Dに見えるという立体写真というものがあります。これは両眼視差による見え方と考えてよいのでしょうか?5ページ17の左写真と中央写真とを平行視にしたり、中央写真と右写真を交差視すると立体写真になります。(スクリーンで投影されたもので後者が可能でした)これは3ページ11のステレオスコープの原理によるものと考えてよいのでしょうか?
②普通の写真(近景と遠景のあるものがよくわかりますが)を、片眼で凝視すると立体写真のように見えます。これは両眼で対象を見るときの輻輳の原理が1つのカメラのレンズが対象に焦点を合わせるということと同じことと考えられます。片眼で見るということがカメラのレンズと同じ方式(?)で見るために、カメラが見た立体感として見えてくると思っていますが、これでいいでしょうか?

写真を並べて立体視を行なうという試み、私も試してみたことがありますが、なかなか難しいものですね。2枚の写真の違いが両眼視差になるというご指摘は、まさにその通りです。平行視の場合には、輻輳から知覚される対象物までの距離が無限大になりますが、交差視の場合には有限の距離に落ち着きます。このため、交差視の方が立体感を得やすかったのでしょう。ご指摘の通り、ステレオスコープは、交差視をやりやすくするための装置だとも考えることができます。
ご質問の後半部分については、注意深く回答する必要があるかと思います。普通の写真は、特定の距離(被写界深度)にピントを合わせて撮影されています。ピントの合っていない物体については、ぼやけて撮影されているため、ぼやけ具合から距離感を知覚することが可能です。「片眼で凝視すると立体写真のように見える」というのは、こうした状況を指しておられるのだと思います。一方、輻輳は、両眼で知覚される現象です。輻輳は、いわば、三角測量によって距離を計っているようなもので、レンズのピント合わせによる距離測定(焦点調節)とは異なります。輻輳にせよ、焦点調節にせよ、距離を計るという点では似ているかもしれませんが、原理は異なるものだということを、ご注意下さい。

映画館の様に広い(前後、左右と)場所で、どこででも焦点があうのでしょうか?
中心の席の方が座るのにいいのでしょうか?(画面は平らだと思います。)

映画館で上映されている3D映像は、両眼視差と輻輳という二つの視覚機能に働きかけて、立体感を知覚させる仕組みになっています。焦点調節への働きかけは行なわないので、焦点が合う/合わないによって、立体感が増えたり減ったりすることはありません。
映画館のどこに座ればよいのかという点については、左右の端に座るよりも中央に座った方が良いだろう、という程度のことは容易に想像できます。一方、前後方向に関しては、私にも適当な知見がありません。スクリーン上での画像のずれ(左目画像と右目画像のずれ=両眼視差)は一定なので、前に行くほど輻輳角(飛び出し感)が大きくなり、後ろに行くほど輻輳角(飛び出し感)が小さくなります。どの辺りが快適なのかは個人差があるので、何度か試してみて、適切な場所を見つけて下さい。

「モアレ」ってどういう現象ですか?

液晶ディスプレイの表面を虫眼鏡などで拡大して観察してみますと、明るく光る画素の間に、光を通さない暗い部分があることに気づくと思います。(同様の現象は、プラズマディスプレイなどでも観察できます。) 裸眼式の3Dディスプレイで用いられているレンチキュラーレンズは、明るく光る画素だけでなく、暗い隙間の部分も拡大して表示する効果を持っています。このため、「適正な位置」以外の場所に眼を置いて、裸眼式の3Dディスプレイを眺めると、黒い帯が規則的に並んで見えたりすることがあります。これが、「3Dモアレ」です。
モアレとは、もともとはフランス語で、「波紋模様の織物」という意味を持っている言葉だそうです。画像処理の分野では、「複数のパターンが相互に干渉し合って生じる縞模様」という意味で使われています。モアレに起因する現象は、3Dに限らず様々な領域で知られています。

資料ページ16.17
メガネ式3Dのディスプレイにて
2台の表示装置+偏光メガネ方式と、時分割表示装置+シャッターメガネ方式で、同じ画像であってもどのような差が生まれるの?それは何故?

時分割表示装置+シャッターメガネ方式で問題になるのは、両者の間の同期です。例えば、左右の眼に毎秒60枚の画像を届けようとする場合、表示装置上では毎秒120回の画面切替が必要になります。これに同期させて、シャッターメガネも切替えなくてはなりません。同期のタイミングにずれが生じると、左眼に届けられるべき画像が、右眼に届いたり、その逆のケースが起ったりします。こうした現象は、クロストークと呼ばれ、眼の疲労につながると考えられています。
一方、2台の表示装置+偏光メガネ方式の場合には、2台の表示装置の間の同期が問題になります。左眼用の画像と右眼用の画像との間に、表示されるタイミングのずれがあると、正しく立体視を行なうことができません。こうしたずれも、やはり視覚疲労につながります。
これらの問題は、個々の方式の問題というよりも、装置の不完全生によるものだと考えることができます。同期の問題さえ克服できれば、両者の間に大きな差はないように思います。

シャッターメガネはどのくらいのスピードで切り替えているのでしょうか?

市販されている「フレームシーケンシャル方式」の3Dテレビの仕様を調べてみたところ、シャッターメガネの切り替え速度は毎秒120回となっていました。シャッターメガネは、いわゆる「3Dパソコン」でも使われています。各種のメガネがあり、性能はまちまちですが、おおむね毎秒60〜120回程度です。

球型の鏡の中に物体を入れると物体が浮いて見えるのは、多眼型の3Dと考えて良いのでしょうか。

実に示唆に富んだ例ですね。浮いて見えるかどうかは、この際脇に置いておくことにして、鏡で反射される光(鏡を起点として眼に向かって放出される光)だけに着目してみると、究極の3Dディスプレイが出そうとしている光と、何ら変わりがないことに気がつきます。
ただし、3Dディスプレイに何か表示する場合には、実物はその場に無くても構わないのに対して、鏡像を観察する場合には、実物がそこに無くては何も始まりません。これが両者の間の決定的な違いです。

3Dディスプレイで得られる物とは?
情報を3次元でとらえる事でどのような分野に広がりが持てるのか?
三次元のより上の世界(例えば四次元)に発展する事は可能か?困難だとすれば、その問題点とは?

「3Dディスプレイで得られる物とは?」に対しての明確な答えは、現時点では誰も持っていないのではないかと思います。やや逆説的ですが、3Dディスプレイが普及し広く使われるようになって初めて、「得られる物」が少しづつ見えてくるのではないでしょうか。今は、様々な3D方式が(実験的なものも含めて)乱立している段階だと思います。
「三次元より上の世界に発展することは可能か?」というご質問に対しては、「難しそうだ」という印象を持っています。「3Dディスプレイ」という名前はついていますが、私たちの眼で捉えることができるのは、高々二枚の絵が時間軸に沿って変化していくというものでしかありません。いわば二次元情報の集まりです。こうした情報から「三次元」を感じ取ることができるのは、実は私たちの脳の働きによるものなのです。
さて、四次元世界をディスプレイ上に表示することが可能になったとして、それを私たちの視覚システムで認識できるのかという問題を考えてみますと、「四次元を私たちの脳が理解できるのか」が鍵になると思います。普段見慣れていない四次元の世界です。私には難しそうですが、特殊な才能を持った方なら可能かもしれませんね。

"眼鏡式"について 近眼で通常の眼鏡を使わないわけにはいかない者もいる。眼鏡の上に眼鏡をかけるわけにはいかない。という点はどうなるのでしょう?

現在のメガネ式3Dディスプレイの問題点の一つに、メガネの規格が統一されていない、というものがあります。各社各様なので、ディスプレイに合わせて専用のメガネを買わなくてはならないのが現状です。
今後、メガネの規格が統一されれば、メガネ屋さんで「3D対応の度数入りメガネ」を購入できる日が来るかもしれませんね。それまでは、各メーカーに(近眼用の)眼鏡の上に重ねて使えるメガネを作ってもらうしかないでしょう。

「偏光」という言葉が気になりました。短く説明してください。

光は、波としての性質をいくつか持っています。例えば、波の間隔は「波長」と呼ばれ、人間の眼には色として認識されます。また、波の大きさは「光度」と呼ばれ、光の強弱を表します。
さて、「偏光」ですが、これは光の振動方向に関連した言葉です。どのような向きに振動しているのかを「偏光状態」と言い、特定の向きにしか振動していない光や、振動の向きに規則性が見られる光を「偏光」と言います。偏光状態をコントロールするために、偏光フィルターや液晶素子などがよく使われています。
「直線偏光」や「円偏光」と呼ばれる種類の偏光は、図を通して理解することも可能です。垂直方向にのみ振動している光、水平方向にのみ振動している光(以上は直線偏光の例)、振動しながら右回転している光、振動しながら左回転している光(以上は円偏光の例)などを想像してみると、多少は偏光のイメージが湧くのではないかと思います。

現在のテレビで2画面表示できますが、3Dディスプレイとの技術的違いについてお教えください。

ご質問を最初に拝見したとき、「何でこんなことを疑問に思われるのだろうか」と考え込んでしまいました。そのうちに、ふとあることを思い出しました。
「3Dテレビ放送」というのが一部で始まっています。日本BS放送(BS11)は、2007年12月から3D放送を行なっています。今年に入ってから、ジュピターテレコムやスカパーJSATも、3D放送を開始しました。これらの放送では、サイド・バイ・サイドという方式が採用されています。
サイド・バイ・サイド方式では、左眼用/右目用の映像の横幅を、それぞれ2分の1の大きさに圧縮し、左右に並べて1本の映像にし、送信します。サイド・バイ・サイド方式の映像を、普通のテレビで受信すると、2画面表示のようなものが見えます。一方、専用のテレビで受信すると、左右の映像が分離されて、左眼用の映像は左眼に、右眼用の映像は右眼に届くように手が加えられます。この結果、専用テレビでは立体映像を見ることができます。
2画面表示と3Dディスプレイとの違いは、映像を表示する際に、左眼用/右眼用の区別を行なうかどうかの違いだ、ということが言えるでしょう。

3Dになればデータ量は増えると思います。普通のDVD(4.7GBと仮定)に入っているある映画を3D化すると、DVDは何枚位必要になるのでしょうか?

「Blu-ray 3D」という規格が昨年末に発表されました。この規格は、Blu-rayディスクに3D映像を収録するためのもので、左眼用/右眼用の映像を一つにまとめて収録します。発表によると、「左右の映像を一つにまとめて圧縮することにより、データ容量の増加を50%程度に押さえることができる」ということだそうです。
上記の規格に従えば、4.7GBの2D映画を3D化すると7.0GB程度になる、ということになります。ただし、普通のDVDとBlu-rayとでは、同じ「2D映画」といっても規格が異なります(ビットレートが違います)ので、この点を割り引いてお考え下さい。

そもそも3Dは何のために必要なのですか?
今は、映画やTVなどエンタメ系に主に使われているようですが、このほか研究がすすむと、どういう分野に使われるのでしょうか?

3Dディスプレイは、映画やゲームのほか、広告などでも既に使われています。また、医療分野や科学技術分野での可視化、ロボットの遠隔操作などにも有効だと考えられています。しかし、これらのいわば「自明の」分野以外に、応用領域を見つけることができるかどうかは、まだ分かっていません。今後の課題と言えるでしょう。
質問8への回答もご参照下さい。

3D映像のフォーマットは標準化されていくのか?

3D映像のフォーマットとしては、質問20への回答でも触れましたBlu-ray 3Dという規格が既に存在します。また、質問19への回答で触れましたサイド・バイ・サイドという規格もあります。これらは、いずれも2眼式の3Dディスプレイを対象としたフォーマットです。多眼式や、その他の方式の3Dディスプレイが主流になってくれば、それに応じた標準フォーマットが策定されることでしょう。

方式については、最終的に統一されるとお考えですか。

立体視の歴史は100年以上におよびます。100年が経過して、まだ「この程度」ですから、種々の方式が統一されるにしても、まだまだ時間がかかると思います。「あと100年くらい経てば統一されるだろう」という、漠然とした予想を立てておきたいと思います。
さて、「統一」というのはどういう状況下で起こり得るのかを考えてみますと、各種の方式が出揃っていて、それぞれの得手・不得手が明確になっており、製造上のコストなどを踏まえた妥協点が見つかっている、といった要件が満たされている必要があるでしょう。現状は、依然として新たな方式が次々に発案されている段階のように思えます。他の方式を圧倒する究極の方法でも見つからない限り、当分この状況が続くような気がしてなりません。

ホログラフィーは立体的に見えますが、どのような原理ですか?
ホログラフィーでは対象物が静止しているモノばかりですが、3D映像のように動かすことは困難なのでしょうか?

物体に光を当てると、物体の表面で光が反射し、様々な方向に反射した光が散らばっていきます。これらの反射光は、一見、ばらばらに散らばっていくかのように見えますが、実は共通の"波面"を持っています。ホログラフィーは、こうした波面を記録したり、記録された波面をもとに、反射光を復元したりする技術です。反射光を完全に復元できれば、元の物体の姿を浮かび上がらせることが可能になります。
ホログラフィー技術によって記録された波面のことをホログラムといいます。ホログラムは、通常、フィルムや乾板の上に記録します。また、ホログラムを作成するに当たって、物体にレーザー光を照射するのが一般的です。このレーザー光とフィルムという組み合わせでは、適用範囲が静止した物体に限られてしまいます。動いている物体にもホログラフィーが適用できるようにするために、フィルムの代わりに電子媒体を使うといった方法が考案されています。
静止物を対象としたホログラフィー技術は非常に高い完成度を持っていますが、動く物を対象とした場合には、そうでもないのが現状です。今後の研究に期待したいところです。

ホログラム方式の原理と現状について、教えて下さい。

質問24への回答をご覧下さい。

ホログラムを使うかどうかはあるが、空間像方式の実現のための問題点は何か?
ロードマップによると、2020年に実現できそうだが、どんな技術的特徴があるか?
更に将来、その画像と喋れる可能性はいつ頃か?

ホログラム方式と空間像方式は、異なる方式です。ロードマップ中で、空間像方式に関係しているのは、2025年の商用化が見込まれている「インテグラル立体テレビ」です。その実現に向けてNHKなどが精力的に取り組んでいます。
目指しているのは、メガネを掛ける必要がなく、お茶の間で寝転がって見てもよく、長時間見続けても疲れない、という理想的なテレビです。技術的には、裸眼式の3Dディスプレイにおける多眼化を強力に押し進めたようなものが想定されていて、焦点調節への対応と滑らかな運動視差を実現します。また、レンチキュラーレンズの代わりに、半球状のマイクロレンズアレイ(たこ焼き器のような形をした微小なレンズの集まり)を用いることにより、水平視差だけでなく垂直視差も実現します。
私の感触では、ロードマップに掲げられた2025年までに、インテグラル立体テレビが実用化される可能性は、あまり高くない気がしています。しかし、夢のある話だけに、「ひょっとすると2025年に...」という気持ちは、持ち続けておきたいものですね。

資料ページ19
①裸眼式3Dディスプレイ、視差バリア方式、レンチキュラーレンズ方式どちらが安価に実現可能?またその理由?
資料ページ26
②なぜ2眼式では、水平垂直視差型において必要な画素要求がないのか?

最初のご質問には、残念ながらお答えできるだけの知識を持ち合わせていません。大雑把に言って、視差バリア方式では2枚の液晶パネルを張り合わせます。一方、レンチキュラーレンズ方式では、液晶パネル(でなくても構いませんが)の上にレンズシートを重ねます。液晶パネル1枚分の価格とレンズシートの価格の大小が問われている気もしますが、視差バリア方式の場合には、同じ液晶パネル工場の中で製造できるという利点もあります。結局のところは、メーカに聞いてみるしかないでしょう。
二番目のご質問についてですが、一般に、2眼式では水平視差(左右の眼が同一水平面上にあるときの視差)しか考慮しません。水平視差に加えて、垂直視差も考慮するには、少なくとも4眼式以上でなければなりません。多眼式に水平垂直視差型の記述があり、2眼式にその記述がないのは、そうした理由によるものです。

特に3Dとうたっていないモニタでも3D表示に利用できる方式及びスペックは?

パソコンのモニタに限定される話ですが、既存のモニタに専用のキットを取り付けて立体視が出来るようにする、というものが市販されています。私の知っている限りでは、NVidia社(日本法人あり)の「3D Vision」や、オリンパスビジュアルコミュニケーションズ社の「3D立体視聴キット」などがあります。詳しい情報は、各社の製品ページをご覧下さい。

19~22の図で
目と目の間のサンカクが個によって違うのではないでしょうか。

成人の左右の眼の間隔は、概ね55〜70mmで、平均値が65mmなのだそうです。裸眼式の3Dディスプレイを設計するときには、この65mmという数値を参考にします。
ある基準位置(鼻の付け根の位置)を決めた後、そこから左に65mmの範囲は左眼用の領域、右に65mmの範囲は右眼用の領域とします。平均的な成人の場合、各領域の中央に左右の瞳が位置することになりますが、両眼間隔が65mmよりも短い人や長い人の場合には、瞳の位置が中心からずれることになります。いずれにしても、両眼間隔が55〜70mmの人であれば、領域内のどこかに瞳が位置するはずです。
お配りした資料では、瞳の大きさにピッタリ合わせてスリットの間隔やレンズの焦点距離を定めているように記載してありますが、これは正確ではありません。実際には、65mmの幅を持たせていますので、その範囲に瞳が入っていさえすれば、立体視が可能です。

3Dを見られるテレビを購入しなくても、画面の前に何かを取り付けるなどによって、3Dを見られるようになるものはこれから出てくるか。

ご質問は「3D非対応のテレビを3D化できるか」というものですが、"テレビ"を"パソコンのモニタ"に置き換えてみると、3D化用のキットが既に販売されていることに気付きます。質問28への回答をご覧下さい。左眼用映像/右眼用映像が交互に表示されるようにモニタ回りのソフトウエアを変更した上で、シャッターメガネを着用してモニタを眺めてみると、3D映像を楽しむことができます。
前述のキットは、メガネ式での3Dを実現するためのものですが、裸眼式の3Dも同様に実現できないのか、考えてみるのも楽しいですね。裸眼式のうち、レンチキュラーレンズを用いる方式であれば、若干の可能性があります。画素ピッチの整数倍にぴったり合うレンチキュラーレンズシートを買ってきて、モニタの表面に貼り付けます。斜めにならないように気をつけて貼れば、裸眼式3Dモニタの出来上がり...と行きたいところですが、位置合わせが難しいかもしれません。レンズシートに一緒に、拡大鏡付きの位置合わせ用ツールキットも配布する必要があるでしょう。
以上はパソコンのモニタでの話です。パソコン上では、ソフトウエアを自由に変更することができるので、シャッターメガネに対応させて左右の映像が交互に表示されるようにしたり、レンチキュラーレンズに合わせて左右の映像を融合して1本の映像にまとめたりするといった操作が考えられるのです。一方、テレビの場合には、中身がブラックボックス化されています。メーカ側が積極的に3D化キットへの対応を行なわない限り、3D化の実現は難しいでしょう。
こうした状況を考え合わせますと、ご質問への回答は"No"ということになりそうです。

shimin 2010-qa_4 page2568

注目コンテンツ / SPECIAL