• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 取り消して特許、登録 H04N
管理番号 1332506
審判番号 不服2016-8636  
総通号数 215 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2017-11-24 
種別 拒絶査定不服の審決 
審判請求日 2016-06-09 
確定日 2017-10-10 
事件の表示 特願2014-544925「マルチビュービデオコード化(MVC)適合3次元ビデオコード化(3DVC)のためのパラメータセットのアクティブ化」拒絶査定不服審判事件〔平成25年 6月 6日国際公開,WO2013/082438,平成27年 1月 5日国内公表,特表2015-500589,請求項の数(32)〕について,次のとおり審決する。 
結論 原査定を取り消す。 本願の発明は、特許すべきものとする。 
理由 第1 経緯
本件出願は,2012年(平成24年)11月30日(パリ条約による優先権主張 2011年11月30日 米国,2011年12月1日 米国,2011年12月22日 米国,2012年1月6日 米国,2012年11月29日 米国)を国際出願日とする出願であって,その手続の経緯は,以下のとおりである。

手続補正 :平成26年 8月11日
拒絶理由通知 :平成27年 9月 3日(起案日)
手続補正 :平成27年12月15日
拒絶査定 :平成28年 2月 9日(送達日)
拒絶査定不服審判の請求:平成28年 6月 9日

第2 原査定の概要
原査定の理由は,概略,次のとおりである。

[査定の理由]
本件出願の請求項1?32に係る発明は,その出願前に日本国内又は外国において,頒布された下記の刊行物に記載された発明又は電気通信回線を通じて公衆に利用可能となった発明に基いて,その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから,特許法第29条第2項の規定により特許を受けることができない。



引用文献1:特表2011-509631号公報
引用文献2:特開2004-274694号公報
引用文献3:Ye-Kui Wang, et.al., "MVC output related conformance", [online], 23 April 2007, Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 and ITU-T SG16 Q.6), Document: JVT-W036, [平成27年9月2日検索], インターネット〈URL:http://wftp3.itu.int/av-arch/jvt-site/2007_04_SanJose/JVT-W036.zip〉(公知日はファイルのタイムスタンプの日付)
引用文献4:Thomas Rusert, et.al., "High level syntax for scalability support in HEVC", [online], 1 July 2011, Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11, Document: JCTVC-F491(version 1), [平成27年9月2日検索], インターネット〈URL:http://phenix.it-sudparis.eu/jct/doc_end_user/documents/6_Torino/wg11/JCTVC-F491-v1.zip〉(公知日はファイルのタイムスタンプの日付)
引用文献5:国際公開第2010/043773号

第3 本件発明
1 本件出願の請求項1?32に係る発明
本件出願の請求項1?32に係る発明(以下,それぞれ「本件発明1」?「本件発明32」という。)は,平成27年12月15日付けの手続補正で補正された特許請求の範囲の請求項1?32に記載された事項により特定される,以下のとおりの発明である。

【請求項1】
ハードウエアがビデオコード化のための方法であって,
復号ピクチャバッファ内に深度成分を記憶することと,
ビュー依存性を分析して,前記深度成分がビュー間予測のために使用されるかどうか決定することと,ここにおいて,前記ビュー依存性は,前記深度成分に関連付けられ,任意のテクスチャ成分のビュー依存性と別れており,前記深度成分はビデオデータのビューのビュー成分と関連し,テクスチャ成分も前記ビュー成分と関連する,
前記深度成分と関連する前記ビュー依存性が,前記深度成分がビュー間予測のために使用されないことを示していることを決定したことに応答して,前記復号ピクチャバッファから前記深度成分を除去することとを備える,方法。
【請求項2】
前記深度成分を除去することが,前記深度成分と関連する前記ビュー依存性が前記深度成分がビュー間予測のために使用されないことを示すことを決定したことに応答して,関連する前記テクスチャ成分を除去することなく前記復号ピクチャバッファから前記深度成分を除去することを備える,請求項1に記載の方法。
【請求項3】
前記深度成分が,ターゲット出力ビューに属さず,非参照ピクチャであり,又は,「参照のために使用されない」ものとして標識されたピクチャである,請求項1に記載の方法。
【請求項4】
前記ビュー依存性が,サブセットシーケンスパラメータセットのビデオコード化のシーケンスパラメータセット拡張において信号伝達され,
前記サブセットシーケンスパラメータセットが,3次元ビデオプロファイルを含み,前記ビュー依存性を分析するときに,前記サブセットシーケンスパラメータセットがアクティブビュービデオコード化シーケンスパラメータセットとしてアクティブ化される,請求項1に記載の方法。
【請求項5】
前記方法が,前記テクスチャ成分を再構成するために使用される1つ以上の参照ピクチャとは異なる,前記深度成分を再構成するために使用される1つ以上の参照ピクチャを決定することをさらに備える,請求項1に記載の方法。
【請求項6】
前記方法が,
ビデオデコーダが,前記深度成分及び前記テクスチャ成分が表示のために出力されるべきターゲット出力ビューに属すると決定することと,
前記ビデオデコーダが,同時に前記深度成分と前記テクスチャ成分とを出力することとをさらに備える,請求項1に記載の方法。
【請求項7】
前記深度成分及び前記テクスチャ成分が異なる解像度を有する,請求項1に記載の方法。
【請求項8】
前記ビデオデータが,H.264/アドバンストビデオコード化規格に対する3次元ビデオコード化拡張に準拠し,前記H.264/アドバンストビデオコード化規格に対するマルチビュービデオコード化拡張と後方互換性がある,請求項1に記載の方法。
【請求項9】
ビデオデータをコード化するように構成されるビデオコード化装置であって,
復号ピクチャバッファと,
前記復号ピクチャバッファに深度成分を記憶し,ビュー依存性を分析して前記深度成分がビュー間予測のために使用されるかどうかを決定し,前記深度成分と関連する前記ビュー依存性が,前記深度成分がビュー間予測のために使用されないことを示すことを決定したことに応答して,前記復号ピクチャバッファから前記深度成分を除去するように構成される,プロセッサと,ここにおいて,前記ビュー依存性は,前記深度成分に関連付けられ,任意のテクスチャ成分のビュー依存性とは別であり,前記深度成分はビデオデータのビューのビュー成分と関連しており,テクスチャ成分も前記ビュー成分と関連している,
を備える,ビデオコード化装置。
【請求項10】
前記1つ以上のプロセッサがさらに,前記深度成分を除去するとき,前記深度成分と関連する前記ビュー依存性が,前記深度成分がビュー間予測のために使用されないことを示すことを決定したことに応答して,前記テクスチャ成分を除去することなく前記復号ピクチャバッファから前記深度成分を除去するように構成される,請求項9に記載のビデオコード化装置。
【請求項11】
前記深度成分が,ターゲット出力ビューに属さず,非参照ピクチャであり,又は,「参照のために使用されない」ものとして標識されたピクチャである,請求項9に記載のビデオコード化装置。
【請求項12】
前記ビュー依存性が,サブセットシーケンスパラメータセットのビデオコード化のシーケンスパラメータセット拡張において信号伝達され,
前記サブセットシーケンスパラメータセットが,3次元ビデオプロファイルを含み,前記ビュー依存性を分析するときに,前記サブセットシーケンスパラメータセットがアクティブビュービデオコード化シーケンスパラメータセットとしてアクティブ化される,請求項9に記載のビデオコード化装置。
【請求項13】
前記1つ以上のプロセッサがさらに,前記テクスチャ成分を再構成するために使用される1つ以上の参照ピクチャとは異なる,前記深度成分を再構成するために使用される1つ以上の参照ピクチャを決定するように構成される,請求項9に記載のビデオコード化装置。
【請求項14】
前記ビデオコード化装置がビデオデコーダを備え,
前記1つ以上のプロセッサがさらに,前記深度成分及び前記テクスチャ成分が表示のために出力されるべきターゲット出力ビューに属していると決定し,前記深度成分と前記テクスチャ成分とを同時に出力するように構成される,請求項9に記載のビデオコード化装置。
【請求項15】
前記深度成分及び前記テクスチャ成分が異なる解像度を有する,請求項9に記載のビデオコード化装置。
【請求項16】
前記ビデオデータが,H.264/アドバンストビデオコード化規格に対する3次元ビデオコード化拡張に準拠し,前記ビデオデータが前記H.264/アドバンストビデオコード化規格に対するマルチビュービデオコード化拡張と後方互換性がある,請求項9に記載のビデオコード化装置。
【請求項17】
ビデオデータをコード化するためのビデオコード化装置であって,
復号ピクチャバッファ内に深度成分を記憶するための手段と,
ビュー依存性を分析して,前記深度成分がビュー間予測のために使用されるかどうか決定するための手段と,ここにおいて,前記ビュー依存性は,前記深度成分に関連付けられ,任意のテクスチャ成分のビュー依存性と別であり,前記深度成分はビデオデータのビューのビュー成分と関連し,テクスチャ成分も前記ビュー成分と関連する,
前記深度成分と関連する前記ビュー依存性が,前記深度成分がビュー間予測のために使用されないことを示すことを決定したことに応答して,前記復号ピクチャバッファから前記深度成分を除去するための手段とを備える,ビデオコード化装置。
【請求項18】
前記深度成分を除去するための前記手段が,前記深度成分と関連する前記ビュー依存性が,前記深度成分がビュー間予測のために使用されないことを示すことを決定したことに応答して,前記テクスチャ成分を除去することなく前記復号ピクチャバッファから前記深度成分を除去するための手段を備える,請求項17に記載のビデオコード化装置。
【請求項19】
前記深度成分が,ターゲット出力ビューに属さず,非参照ピクチャであり,又は,「参照のために使用されない」ものとして標識されたピクチャである,請求項17に記載のビデオコード化装置。
【請求項20】
前記ビュー依存性が,サブセットシーケンスパラメータセットのビデオコード化のシーケンスパラメータセット拡張において信号伝達され,
前記サブセットシーケンスパラメータセットが,3次元ビデオプロファイルを含み,前記ビュー依存性を分析するときに,前記サブセットシーケンスパラメータセットがアクティブビュービデオコード化シーケンスパラメータセットとしてアクティブ化される,請求項17に記載のビデオコード化装置。
【請求項21】
前記ビデオコード化装置が,前記テクスチャ成分を再構成するために使用される1つ以上の参照ピクチャとは異なる,前記深度成分を再構成するために使用される1つ以上の参照ピクチャを決定するための手段をさらに備える,請求項17に記載のビデオコード化装置。
【請求項22】
前記ビデオコード化装置がビデオデコーダを備え,
前記ビデオデコーダが,
前記深度成分及び前記テクスチャ成分が表示のために出力されるべきターゲット出力ビューに属すると決定するための手段と,
前記深度成分と前記テクスチャ成分とを同時に出力するための手段とをさらに備える,請求項17に記載のビデオコード化装置。
【請求項23】
前記深度成分及び前記テクスチャ成分が異なる解像度を有する,請求項17に記載のビデオコード化装置。
【請求項24】
前記ビデオデータが,H.264/アドバンストビデオコード化規格に対する3次元ビデオコード化拡張に準拠し,前記ビデオデータが前記H.264/アドバンストビデオコード化規格に対するマルチビュービデオコード化拡張と後方互換性がある,請求項17に記載のビデオコード化装置。
【請求項25】
実行されると,ビデオコード化装置の1つ以上のプロセッサに,
復号ピクチャバッファ内へ深度成分を記憶させ,
前記深度成分がビュー間予測のために使用されるかどうか決定するためにビュー依存性を分析させ,ここにおいて,前記ビュー依存性は,前記深度成分に関連付けられ,任意のテクスチャ成分のビュー依存性と別であり,前記深度成分はビデオデータのビューのビュー成分と関連し,テクスチャ成分も前記ビュー成分と関連する,
前記深度成分と関連する前記ビュー依存性が,前記深度成分がビュー間予測のために使用されないことを示すことを決定したことに応答して,前記復号ピクチャバッファから前記深度成分を除去させる命令を記憶した,コンピュータ可読記憶媒体。
【請求項26】
実行されると前記1つ以上のプロセッサに前記深度成分を除去させる前記命令が,実行されると前記1つ以上のプロセッサに,前記深度成分と関連する前記ビュー依存性が,前記深度成分がビュー間予測のために使用されないことを示すことを決定したことに応答して,前記テクスチャ成分を除去することなく前記復号ピクチャバッファから前記深度成分を除去させる命令を備える,請求項25に記載のコンピュータ可読記憶媒体。
【請求項27】
前記深度成分が,ターゲット出力ビューに属さず,非参照ピクチャであり,又は,「参照のために使用されない」ものとして標識されたピクチャである,請求項25に記載のコンピュータ可読記憶媒体。
【請求項28】
前記ビュー依存性が,サブセットシーケンスパラメータセットのビデオコード化のシーケンスパラメータセット拡張において信号伝達され,
前記サブセットシーケンスパラメータセットが,3次元ビデオプロファイルを含み,前記ビュー依存性を分析するときに,前記サブセットシーケンスパラメータセットがアクティブビュービデオコード化シーケンスパラメータセットとしてアクティブ化される,請求項25に記載のコンピュータ可読記憶媒体。
【請求項29】
前記コンピュータ可読記憶媒体が,実行されると,前記1つ以上のプロセッサに,前記テクスチャ成分のために使用される1つ以上の参照ピクチャとは異なる,前記深度成分を再構成するために使用される1つ以上の参照ピクチャを決定させる命令をさらに記憶した,請求項25に記載のコンピュータ可読記憶媒体。
【請求項30】
前記ビデオコード化装置がビデオデコーダを備え,
前記コンピュータ可読記憶媒体が,実行されると,前記1つ以上のプロセッサに,
前記深度成分及び前記テクスチャ成分が表示のために出力されるべきターゲット出力ビューに属すると決定させ,
前記深度成分と前記テクスチャ成分とを同時に出力させる命令をさらに記憶した,請求項25に記載のコンピュータ可読記憶媒体。
【請求項31】
前記深度成分及び前記テクスチャ成分が異なる解像度を有する,請求項25に記載のコンピュータ可読記憶媒体。
【請求項32】
前記ビデオデータが,H.264/アドバンストビデオコード化規格に対する3次元ビデオコード化拡張に準拠し,前記ビデオデータが前記H.264/アドバンストビデオコード化規格に対するマルチビュービデオコード化拡張と後方互換性がある,請求項25に記載のコンピュータ可読記憶媒体。

2 本件発明1の分説
本件発明1を分説すると,次のとおりである。なお,説明のためにA?Gの記号を当審で付与した。以下,それぞれ,「構成A」?「構成G」という。

(本件発明1)
A ハードウエアがビデオコード化のための方法であって,
B 復号ピクチャバッファ内に深度成分を記憶することと,
C ビュー依存性を分析して,前記深度成分がビュー間予測のために使用されるかどうか決定することと,
D ここにおいて,前記ビュー依存性は,前記深度成分に関連付けられ,任意のテクスチャ成分のビュー依存性と別れており,
E 前記深度成分はビデオデータのビューのビュー成分と関連し,テクスチャ成分も前記ビュー成分と関連する,
F 前記深度成分と関連する前記ビュー依存性が,前記深度成分がビュー間予測のために使用されないことを示していることを決定したことに応答して,前記復号ピクチャバッファから前記深度成分を除去することとを備える,
G 方法。

第4 引用文献,引用発明
1 引用文献1
(1)引用文献1の記載
原査定の拒絶の理由に引用された引用文献1には,「ビデオおよび奥行きの符号化」(発明の名称)に関し,図面とともに次の事項が記載されている。なお,強調のために下線を当審で付与した。

【0009】
[詳細な説明]
少なくとも一つのインプリメンテーションにおいて,出願人は,マルチビュービデオに加えて奥行きのデータを符号化するフレームワークを提案する。加えて,出願人は,ビデオ,および奥行きデータを符号化するために,符号化効率を向上させるいくつかの方法を提案する。さらに,出願人は,奥行き信号が,他の奥行き信号の符号化だけでなく,ビデオ信号の符号化の効率を向上させるために使用し得るアプローチを解説する。
【0010】
解決すべき多くの課題のうちの1つは,マルチビュー・ビデオシーケンスの効果的な符号化である。マルチビュー・ビデオシーケンスは,異なるビューの場所から同じ場面を撮った2つ以上のビデオシーケンスの一組である。マルチビュー・コンテンツの各々のビューに奥行きデータが関連づけられるため,一部分のマルチビュービデオ符号化アプリケーションのビデオおよび奥行きデータでも,その量は膨大なものとなり得る。かくして,奥行きデータを使用し,または独立ビューの同時放送を実行する現在のビデオ符号化の技術の符号化効率の向上に寄与するフレームワークの必要性が存在する。

【0014】
現在のH.264/AVCのマルチビュービデオ符号化拡張(以下「MVC仕様」)は,ビデオデータだけに対する符号化を規定している。MVC仕様は,符号化効率を向上するために,時間的,およびビュー間(inter-view)依存を利用する。8つのビューを備えるマルチビュービデオ符号化システムに対し,MVC仕様でサポートされる例示的な符号化構造100が,図1に示されている。図1の矢印は,従属構造を示す。矢印は,参照用ピクチャから,参照用ピクチャに基づいて符号化される画像へポインティングしている。異なるビュー間の予測構造を示すために,高レベルの構文(syntax)が送られる。この構文は,表1に示されている。表1は,特に,インプリメンテーションに従って,MVC仕様に基づいて設定されたシーケンス・パラメータを示す。

【0022】
少なくとも一つのインプリメンテーションにおいて,マルチビュービデオ符号化フレームワークにおいて奥行きを付け加えることを提案する。奥行き信号のためのフレームワークは,各々のビュービデオ信号に対して使用されるフレームワークに類似したものを使用してもよい。これは,奥行きをビデオデータの他の一組として扱い,かつビデオデータに対して使用されたツールと同一のセットを使用することによって実行することができる。図2は,本発明の原理のインプリメンテーションに従った3つのビューを有するマルチビュービデオと奥行きの符号化システム200とを示す(上から下に,二つの行において,第1のビューのビデオおよび奥行き,次の二つの行で,第2のビューのビデオおよび奥行き,最後の二つの行で,第3のビューのビデオおよび奥行きが示されている)。
【0023】
実施例のフレームワークにおいて,ビデオ符号化ではなく奥行き符号化は,モーション・スキップ,およびビュー間予測に対する奥行きデータからの情報を使用する。この特定のインプリメンテーションをする意図は,ビデオ信号からそれぞれに奥行きデータを符号化することである。しかしながら,モーション・スキップ,およびビュー間予測は,それらがビデオ信号に適用されるのと類似した方式で,奥行き信号に適用されてもよい。符号化された奥行きデータの符号化効率を向上するために,ビューiデータの奥行きは,例えば,他のビューjの奥行きデータのビュー間予測および動き情報(モーション・スキップ・モード),ビュー合成情報などのようなサイド情報ばかりでなく,ビューiに対応する関連するビデオデータからのこれらのサイド情報を使用することを提案する。図3は,ビューiの奥行きデータの予測300を示す。T0,T1,およびT2は,異なる時刻に対応する。たとえば,ビューiのビデオデータおよびビューjの奥行きデータから,ビューiの奥行きを予測する場合,同じ時刻から予測されることになるが,これは,単なる例示に過ぎない。他のシステムでは,いかなる時刻のデータを選択し使用してもよい。加えて,他のシステムおよびインプリメンテーションでは,ビューiの奥行きデータを,さまざまなビューおよび時刻からの奥行きデータおよび/またはビデオデータからの情報を組み合わせて予測してもよい。

【0029】
参照用ピクチャ(奥行きまたはビデオ)が符号化されている現在の奥行き画像より低い解像度を有する場合,符号化器はその参照用ピクチャから,動き,およびモードを実行しないよう選択してもよい。

【0031】
図4は,本発明の原理のインプリメンテーションに従って,例示的なマルチビュービデオ符号化(MVC)の符号化器400を示す。符号化器400において,コンバイナ405の出力は変換器410の入力に信号接続されている。変換器410の出力は,量子化器415の入力に信号接続されている。量子化器415の出力は,エントロピー符号化器420の入力,および逆量子化器425の入力に信号接続されている。逆量子化器425の出力は,逆変換器430の入力に信号接続されている。逆変換器430の出力は,コンバイナ435の第1の非反転入力に信号接続されている。コンバイナ435の出力は,イントラ予測手段445の入力,およびデブロッキングフィルタ450の入力に信号接続されている。デブロッキングフィルタ450の出力は,(ビューiに対する)参照用ピクチャ記憶装置455に信号接続されている。参照用ピクチャ記憶装置455の出力は,動き補償器475の第一入力,およびモーション推定器480の第一入力に信号接続されている。モーション推定器480の出力は,動き補償器475の第2の入力に信号接続されている。(他のビューに対する)参照用ピクチャ記憶装置460の出力は,差異/照度推定器470の第一入力,および差違/照度補償器465に信号接続されている。差異/照度推定器470の出力は,差異/照度補償器465の第2の入力に信号接続されている。
図1


図2


(2)引用文献1に記載された発明

段落【0031】によると,引用文献1には,『符号化器が,マルチビュービデオを符号化する』ことが開示されているといえる。


段落【0031】には,参照用ピクチャ記憶装置について記載されており,参照用ピクチャ記憶装置には,参照用ピクチャが記憶されることは明らかである。また,段落【0029】には,参照用ピクチャは,奥行きデータからなることが開示されている。
よって,引用文献1には,『参照用ピクチャ記憶装置に奥行きデータを記憶する』ことが開示されているといえる。


従来の技術を示す記載である段落【0014】及び図1をみれば,あるビューのビデオデータは,他のビューを用いて予測されるものである。
また,段落【0023】の「ビューiの奥行きデータを,さまざまなビュー及び時刻からの奥行きデータおよび/またはビデオデータからの情報を組み合わせて予測してもよい」という記載及び図2をみれば,あるビューの奥行きデータは,他のビューを用いて予測されるものである。
そして,上記の段落【0023】の記載は,奥行きデータが予測に用いるビューが任意のものであることを示しており,これは,他のビデオデータが予測に用いるビューとは独立して奥行きデータが予測に用いるビューを決定できることを示しているといえる。
よって,引用文献1には,『奥行きデータが予測に用いるビューは,任意のビデオデータが予測に用いるビューとは独立して決定できるものであること』が開示されているといえる。


段落【0022】,【0029】及び図2をみれば,マルチビュービデオのビューのピクチャは,奥行きデータとビデオデータとからなることは明らかである。
よって,引用文献1には,『マルチビュービデオのビューのピクチャは,奥行きデータとビデオデータとを含む』ことが開示されているといえる。


以上より,引用文献1に開示された発明を方法の発明として認定すると,引用文献1には,次の引用発明が記載されている。この発明を以下「引用発明」という。なお,説明のためにa?gの記号を当審で付与した。以下,それぞれ,「構成a」?「構成g」という。

(引用発明)
a 符号化器がマルチビュービデオを符号化する方法であって,
b 参照用ピクチャ記憶装置に奥行きデータを記憶することと,
d 奥行きデータが予測に用いるビューは,任意のビデオデータが予測に用いるビューとは独立して決定できるものであることと,
e マルチビュービデオのビューのピクチャは,奥行きデータとビデオデータとを含む,
g 方法。

2 引用文献2
原査定の拒絶の理由に引用された引用文献2には,「画像符号化方法及び画像復号化方法」(発明の名称)に関し,図面と共に次の事項が記載されている(下線は当審が付与した。)。

【0172】
参照ピクチャ・バッファの参照ピクチャの数がNMaxよりも小さい場合には,エンコーデッド・ピクチャは,モジュール506で再構成(復号)されかつモジュール507で参照ピクチャ・バッファに記憶される。十分な空きが存在しない場合には,画像符号化装置は,モジュール504に示すようにバッファからある未使用参照ピクチャ「unused(以降,参照ピクチャとして参照されない)」を除去することによって参照ピクチャ・バッファに必要な領域を確保する。バッファから除去するような未使用参照ピクチャが存在しない場合には,エンコーデッド・ピクチャは,参照ピクチャとして使用しない。エンコーデッド・ピクチャが参照ピクチャではない場合には,エンコーデッド・ピクチャの時間的参照番号は,モジュール505でディスプレイ・カウンタと比較される。非参照ピクチャの時間的参照番号がディスプレイ・カウンタよりも小さい場合には,仮想ディスプレイ遅延バッファは,モジュール508で更新される。モジュール508では,仮想・ディスプレイ遅延バッファは,ディスプレイ・カウンタに等しいかそれ以前の時間的参照番号を有するピクチャを除去しかつ現行の非参照ピクチャの時間的参照番号をバッファに加える。ディスプレイ・カウンタよりも小さい時間的参照番号を有する仮想・バッファのピクチャ数が,バッファのフルネスになる。ディスプレイ・カウンタは,エンコーデッド・ピクチャの数がNBに等しいか又は仮想ディスプレイ・カウンタがフルであるか,どちらかが早いときに,最初に更新動作を開始する。その後,ディスプレイ・カウンタは,モジュール509でエンコードされた全てのピクチャに対して符号化される毎に更新される。

(2)引用文献2に記載された技術事項
上記(1)の記載によると,引用文献2には,「参照ピクチャ・バッファから参照ピクチャとして参照されないピクチャを除去すること」という技術事項が記載されている。

3 引用文献3
(1)引用文献3の記載
原査定の拒絶の理由に引用された引用文献3には,「MVC output related conformance」(当審訳「MVCの出力の適合」)として,次の事項が記載されている。なお,強調のために下線を当審で付与した。

「Abstract
MVC supports a large range of views, but the number of the views the decoder process can be constrained to a relatively small value to meet the rendering capabilities, for example. According to the current MVC draft, it cannot be known from the bitstream which views are to be outputted. It is claimed in this contribution that the information which views are to be outputted is required in the picture output and removal processes of the hypothetical reference decoder as well as in the derivation of the minimum decoded picture buffer requirement. While it is possible for a decoder to get the information through a systems means that is out of the scope of the MVC specification, it is asserted that containing the information within the bitstream is helpful in at least two aspects. First, like AVC or SVC, the decoding process can be independent of external information. Second, when parts of the bitstream have not been received due to any reason, the receiver knows how to handle, e.g. to conceal a lost picture or to omit decoding a non-required picture. This contribution proposes the signaling of the to-be-outputted views within MVC bitstreams. 」(第1頁)

(当審訳)
「要約
MVCは広い範囲のビューをサポートしているが,例えば,レンダリング能力によりデコーダプロセスのビューの数は比較的小さな値に制約され得る。現在のMVCドラフトによれば,ビットストリームからどのビューが出力されるべきかを知ることはできない。この寄書では,出力されるべきビューの情報は,最小復号ピクチャバッファ要件の導出と同様に,仮想参照デコーダのピクチャ出力及び除去プロセスにおいて必要とされると主張する。デコーダがMVC仕様の範囲外であるシステム手段を通じてこの情報を取得することは可能であるが,ビットストリーム内にこの情報を含むことは少なくとも2つの点から有用であると主張する。第1に,AVCまたはSVCのように,復号プロセスは外部情報とは独立しているかもしれない。第2に,何らかの理由によってビットストリームの一部が受信されなかったとき,受信機はどのように処理するかを知っている。例えば,失われたピクチャを隠すか又は不要な画像の復号を省略する。この寄書は,MVCビットストリーム内で出力されるべきビューを通知することを提案する。」

「Introduction
As specified in MVC JD 2.0 (JVT-V209), in H.8.3 (HRD for MVC), there is a number p and a number k which respectively denote the total number of output views and the total number of dependent views that are not used for output. However, according to the MVC draft, given a bitstream containing k+p views, there is no way for the decoder to know the exact p value and the corresponding view identifiers for the p output views.

For correct MVC output conformance with minimum decoded picture buffer requirement, the numbers k and p and the associated view_id values must be defined somewhere. It is possible for a decoder to get the information through a systems means that is out of the scope of the MVC specification. For example, a player that decodes an MVC bitstream locally stored can decide which views to display according to its display capability and indicate the desired views to the decoder. In a unicast streaming session, it can be negotiated during the session negotiation phase between the streaming server and the client which views are displayed. (略)」(第1頁)

(当審訳)
「導入
MVC JD 2.0 (JVT-V209)で規定されているように,H.8.3 (MVCのHRD)には,出力されるビューの総数及び出力されないが依存するビューの総数をそれぞれ意味する数値p及び数値kがある。しかしながら,MVCドラフトによると,k+p個のビューを含む所与のビットストリームについて,デコーダが,正確なpの値及びp個の出力されるビューに対応するビューを知る方法はない。

最小復号ピクチャバッファの要件を伴う正しいMVC出力のために,数値 k及びp及び関連するview_idの値は,いずれかで定義されなければならない。デコーダは,MVC仕様外のシステム手段を通じて情報を得ることが可能である。例えば,ローカルに格納されたMVCビットストリームをデコードするプレイヤーは,その表示能力に基づいてどのビューを表示するかを決定し,デコードする所望のビューを示すことができる。ユニキャストストリームセッションでは,ストリーミングサーバとビューを表示するクライアントとの間のセッション交渉フェーズの間に交渉が可能である。(略)」

「Proposal
Based on the above analysis, we propose to signal the information of which views are output views using a new SEI message, called active view information SEI message. If the SEI message is present, the decoding process shall utilize the information in decoded picture output and removal. Otherwise, the output views are all the available views or defined by external means, e.g. decided by the user equipment. 」(第2頁)

(当審訳)
「提案
上記の分析に基づき,アクティブビュー情報SEIメッセージと呼ばれる新規のSEIメッセージを使用して,どのビューが出力ビューであるかの情報を通知することを提案する。このSEIメッセージが存在するなら,復号プロセスは,ピクチャの出力及び除去においてこの情報を利用する。そうでなければ,出力ビューは全ての利用可能なビューであるか又は外部手段によって定義される。例えば,ユーザ機器による決定。」

(2)引用文献3に記載された技術事項
上記(1)の記載によると,引用文献3には,「複数のビューを復号するデコーダの復号プロセスは,復号ピクチャバッファからのピクチャの除去においてSEIメッセージで通知される情報を用いること」という技術事項が記載されている。

4 引用文献4
(1)引用文献4の記載
原査定の拒絶の理由に引用された引用文献4には,「High level syntax for scalability support in HEVC」(当審訳「HEVCのスケーラビリティサポートのための高レベルシンタクス」)として,次の事項が記載されている。なお,強調のために下線を当審で付与した。

「A multiview extension has not been included in HEVC yet, so just an illustrative example is shown assuming HEVC multiview extension would follow the similar high level syntax as in MVC. The intension is to demonstrate feasibility of rearranging syntaxes that are typically in NAL unit header into newly designed eSPS. Note that not only the fields in NAL unit header MVC extension are included in the enhancement but also the signaling of inter view prediction reference picture that resides in MVC subset Sequence Parameter Set. Comparing to MVC subset Sequence Parameter Set design where inter view prediction reference picture information for all the views are centrally located, storing this information separately in different eSPS describing different views has the benefit that irrelevant information can be discarded automatically when a view is deleted from a bitstream. 」(第6頁)

(当審訳)
「マルチビュー拡張は,まだHEVCには含まれていないため,HEVCマルチビュー拡張はMVCと同様の高レベルシンタクスに従うと仮定した,単に例示的な例を示す。この目的は,新たに設計されたeSPSにあり,通常,NALユニットヘッダにあるシンタクスの再構成の可能性を実証することである。NALユニットのMVC拡張ヘッダのフィールドだけでなく,MVCのサブセットシーケンスパラメータセットに存在するビュー間予測参照ピクチャの通知もこの拡張に含まれることに留意されたい。全てのビューのビュー間予測の参照ピクチャ情報が中央に位置するMVCのサブセットシーケンスパラメータセットの設計と比較し,この情報が異なるビューを記述する異なるeSPSに別々に格納されることは,ビューがビットストリームから削除されるときに,無関係な情報が自動的に破棄されるという利点を持つ。」

(2)引用文献4に記載された技術事項
上記(1)の記載によると,引用文献4には,「複数のビューのビュー間予測の参照ピクチャ情報はeSPSに格納され,ビューがビットストリームから削除されるときに,無関係な情報が自動的に破棄されること」という技術事項が記載されている。

5 引用文献5
(1)引用文献5の記載
原査定の拒絶の理由に引用された引用文献5には,「SHARING OF MOTION VECTOR IN 3D VIDEO CODING」(当審訳「3Dビデオ符号化の動きベクトルの共有」)(発明の名称)として,図面とともに次の事項が記載されている。なお,強調のために下線を当審で付与した。

「Thus, for multiple- view bitstreams, a MVC -compliant depth coding scenario is contemplated. When multiple views exist, each of which is with a depth map video and a texture video, MVC-compliant depth coding can be applied to enable inter-view prediction between depth map videos and inter-view prediction between texture videos. One manner of coding the multiview content is in an MVC-compliant manner. In accordance with a first embodiment, all of the depth map images are coded as auxiliary pictures while enabling inter-view prediction (indicated by the arrows) between auxiliary pictures in different views, as shown in Figure 5a. For example, Figure 5a illustrates that a depth map video from view 1 can utilize depth map videos from views 0 and 2 as prediction references.」(第11頁第5行目?第13行目)

(第5a図?第5d図)

(当審訳)
「したがって,マルチビュービットストリームのために,MVC互換の深さ符号化シナリオが検討される。それぞれが深さマップビデオ及びテクスチャビデオを備えるマルチビューが存在するとき,深さマップビデオ間のビュー間予測及びテクスチャビデオ間のビュー間予測の有効化にMVC互換の深さ符号化を適用することができる。マルチビューコンテンツの符号化の1つの方法は,MVC互換の方法である。第5a図に示すように,第1実施例では,全ての深さマップイメージは,異なるビューの補助画像との間の(矢印で示される)ビュー間予測を有効にする補助画像として符号化される。例えば,第5a図は,ビュー1からの深さマップビデオは,予測参照としてビュー0及び2からの深さマップビデオを利用できることを示す。」

(2)引用文献5に記載された技術事項
上記(1)の記載によると,引用文献5には,「深さマップビデオは,異なるビューの深さマップビデオとの間でビュー間予測されること」という技術事項が記載されている。

第5 対比・判断
1 本件発明1について
(1)対比
本件発明1と引用発明とを対比する。

ア 構成A,Gについて
引用発明の構成a,gの「符号化器がマルチビュービデオを符号化する方法」は,明らかに,本件発明の構成A,Gの「ハードウエアがビデオコード化のための方法」に一致する。

イ 構成Bについて
構成bの「参照用ピクチャ記憶装置」は,参照用のピクチャを記憶するものであるから,構成Bの「復号ピクチャバッファ」に一致する。
構成bの「奥行きデータ」は,明らかに,構成Bの「深度成分」に一致する。
したがって,本件発明1と引用発明とは,「復号ピクチャバッファ内に深度成分を記憶する」点で一致する。

ウ 構成Cについて
構成Dに示されるように,構成Cにおける「ビュー依存性」は,深度成分が予測に用いる他のビューを示すものであるが,構成Cに対応する構成は,引用発明にはない。
よって,本件発明1では,「ビュー依存性を分析して,前記深度成分がビュー間予測のために使用されるかどうかを決定」するものであるのに対し,引用発明では,このような決定をするものではない点で,相違する。

エ 構成Dについて
構成dの「奥行きデータ」は,構成Dの「深度成分」に一致する。
ここで,本件発明の明細書の段落【0066】には,「...ビュー依存性は,一般に,現在コード化されているビューが依存するビューを指す。言い換えれば,ビュー依存性は,現在コード化されているビューがどのビューから予測され得るかを示すことができる。」と記載されているから,本件発明の「ビュー依存性」は,予測に用いるビューを示すものである。
そして,構成dの「奥行きデータが予測に用いるビュー」は,「深度成分」が予測に用いるビューを示すものであるから,構成Dの「前記ビュー依存性は,前記深度成分に関連付けられ」ていることに一致する。
また,構成dの「ビデオデータ」は,構成Dの「テクスチャ成分」に一致する。
そして,構成dの「任意のビデオデータが予測に用いるビュー」は,構成Dの「任意のテクスチャ成分のビュー依存性」に一致する。
よって,構成dの「奥行きデータが予測に用いるビューは,任意のビデオデータが予測に用いるビューとは独立して決定できるものであること」は,深度成分が予測に用いるビューとテクスチャ成分が予測に用いるビューとが異なることを示しているから,構成Dの「前記ビュー依存性は,前記深度成分に関連付けられ,任意のテクスチャ成分のビュー依存性と別れて」いることに一致する。

したがって,本件発明1と引用発明とは,「ここにおいて,前記ビュー依存性は,前記深度成分に関連付けられ,任意のテクスチャ成分のビュー依存性と別れて」いる点で一致する。

オ 構成Eについて
構成eの「マルチビュービデオ」,「ビュー」,「奥行きデータ」,「ビデオデータ」は,それぞれ,構成Eの「ビデオデータ」,「ビュー」,「深度成分」,「テクスチャ成分」に一致する。
ここで,本件発明の明細書の段落【0028】には,「...ビューの特定のピクチャ(ここで,このビューの特定のピクチャは,ビューの「ビュー成分」と呼ばれ得る)...」と記載されているから,本件発明の「ビュー成分」は,ピクチャを示すものである。よって,構成eの「ピクチャ」は,構成Eの「ビュー成分」に一致する。
したがって,本件発明1と引用発明とは,「前記深度成分はビデオデータのビューのビュー成分と関連し,テクスチャ成分も前記ビュー成分と関連する」点で一致する。

カ 構成Fについて
構成Fに対応する構成は,引用発明にはない。
よって,本件発明は,上記の構成Cにおける決定に応答して「前記復号ピクチャバッファから前記深度成分を除去」するものであるのに対し,引用発明では,上記の構成Cにおける決定に関する相違に起因して,このような除去をするものではない点で,相違する。

キ 以上より,本件発明1と引用発明との一致点,相違点は,次のとおりである。

(一致点)
「ハードウエアがビデオコード化のための方法であって,
復号ピクチャバッファ内に深度成分を記憶することと,
ここにおいて,前記ビュー依存性は,前記深度成分に関連付けられ,任意のテクスチャ成分のビュー依存性と別れており,
前記深度成分はビデオデータのビューのビュー成分と関連し,テクスチャ成分も前記ビュー成分と関連する,
方法。」

(相違点)
本件発明1では,「ビュー依存性を分析して,前記深度成分がビュー間予測のために使用されるかどうかを決定」するものであるのに対し,引用発明では,このような決定をするものではない点で,相違する。
また,本件発明1は,上記の決定に応答して「前記復号ピクチャバッファから前記深度成分を除去」するものであるのに対し,引用発明1は,上記の決定に関する相違に起因して,このような除去をするものではない点で相違する。

(2)相違点についての判断
相違点について検討する。
引用文献2?5のいずれにも,「ビュー依存性を分析して,前記深度成分がビュー間予測のために使用されるかどうかを決定」すること及びその決定に応答して「前記復号ピクチャバッファから前記深度成分を除去」することについて,開示されていない。
そして,上記相違点に係る構成が自明の事項であるとも認められない。
したがって,引用発明に,引用文献2?5に記載された技術的事項を適用しても,相違点に係る構成を備えるようにすることは,当業者であっても,容易に想到することはできない。
よって,本件発明1は,当業者であっても,引用発明及び引用文献2?5に記載された技術的事項に基づいて容易に発明できたものとはいえない。

2 本件発明2?32について
本件発明2?8は,請求項1の記載を引用する発明であるから,本件発明1と同じ理由で,当業者であっても,引用発明及び引用文献2?5に記載された技術的事項に基づいて容易に発明できたものとはいえない。
本件発明9,17,25は,本件発明1のカテゴリの異なる発明であって,上記相違点1と同様の構成を有しているから,本件発明1と同様な理由により,当業者であっても,引用発明及び引用文献2?5に記載された技術的事項に基づいて容易に発明できたものとはいえない。また,本件発明10?16,18?24,26?32は,請求項9,17,25の記載を引用する発明であるから,本件発明9,17,25と同じ理由で,当業者であっても,引用発明及び引用文献2?5に記載された技術的事項に基づいて容易に発明できたものとはいえない。

第6 むすび
以上のとおり,本件発明1?32は,原査定において引用された引用文献1に記載された発明及び引用文献2?5に記載された技術的事項に基づいて,容易に発明できたものとはいえない。
したがって,原査定の理由によっては,本願を拒絶することはできない。
また,他に本願を拒絶すべき理由を発見しない。
よって,結論のとおり審決する。
 
審決日 2017-09-25 
出願番号 特願2014-544925(P2014-544925)
審決分類 P 1 8・ 121- WY (H04N)
最終処分 成立  
前審関与審査官 久保 光宏  
特許庁審判長 清水 正一
特許庁審判官 渡辺 努
冨田 高史
発明の名称 マルチビュービデオコード化(MVC)適合3次元ビデオコード化(3DVC)のためのパラメータセットのアクティブ化  
代理人 蔵田 昌俊  
代理人 岡田 貴志  
代理人 井関 守三  
代理人 福原 淑弘  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ