ポートフォリオを新規に作成して保存 |
|
|
既存のポートフォリオに追加保存 |
|
PDFをダウンロード |
審決分類 |
審判 査定不服 5項独立特許用件 特許、登録しない。 H04N 審判 査定不服 2項進歩性 特許、登録しない。 H04N |
---|---|
管理番号 | 1304966 |
審判番号 | 不服2014-4837 |
総通号数 | 190 |
発行国 | 日本国特許庁(JP) |
公報種別 | 特許審決公報 |
発行日 | 2015-10-30 |
種別 | 拒絶査定不服の審決 |
審判請求日 | 2014-03-12 |
確定日 | 2015-08-26 |
事件の表示 | 特願2011-549065「多視点映像の符号化及び復号化のための装置及び方法」拒絶査定不服審判事件〔平成22年 8月12日国際公開、WO2010/090462、平成24年 7月26日国内公表、特表2012-517178〕について、次のとおり審決する。 |
結論 | 本件審判の請求は、成り立たない。 |
理由 |
第1.手続の経緯 本願は、2010(平成22)年2月4日(パリ条約による優先権主張外国庁受理2009年2月4日、韓国)を国際出願日とする出願であって、平成25年1月18日付けの拒絶理由通知に応答して平成25年4月22日付けで手続補正がなされ、平成25年7月1日付けの拒絶理由通知に応答して平成25年10月9日付けで手続補正がなされたが、平成25年10月31日付けで拒絶査定がなされた。 これに対し、平成26年3月12日に拒絶査定不服審判が請求されるとともに、同日付で手続補正がなされたものである。 第2.平成26年3月12日付けの手続補正についての補正却下の決定 [補正却下の決定の結論] 平成26年3月12日付けの手続補正(以下「本件補正」という)を却下する。 [理由] 1.本件補正の内容 本件補正は、請求項1に係る次の補正事項を含むものである(アンダーラインは補正箇所)。 (補正前の請求項1) 「多視点映像を符号化する方法であって、 基本階層ビット列を生成するために入力される基本階層映像を符号化するステップと、 前記基本階層映像の視点とは異なる、複数の拡張階層のそれぞれに対応する互いに異なる視点に対応して前記基本階層映像の視点基盤変換を実行し、前記複数の拡張階層のそれぞれに対応する視点別に視点変換された基本階層映像を生成するステップと、 入力される拡張階層映像と前記視点変換された基本階層映像間の残差を求めるステップと、 拡張階層ビット列を生成するために前記求められた残差を符号化するステップと、 前記基本階層ビット列と前記拡張階層ビット列とを結合して1つのビットストリームを生成し、ビット列の特定の単位が基本階層映像に属するか又は拡張階層映像に属するかを示す情報を前記生成された1つのビットストリームに挿入するステップと、 を含むことを特徴とする符号化方法。」 とあるのを、 (補正後の請求項1) 「多視点映像を符号化する方法であって、 基本階層ビット列を生成するために入力される基本階層映像を符号化するステップと、 前記基本階層映像の視点とは異なる、複数の拡張階層のそれぞれに対応する互いに異なる視点に対応して前記基本階層映像の視点基盤変換を実行し、前記複数の拡張階層のそれぞれに対応する視点別に視点変換された基本階層映像を生成するステップと、 入力される拡張階層映像と前記視点変換された基本階層映像間の残差を求めるステップと、 拡張階層ビット列を生成するために前記求められた残差を符号化するステップと、 前記基本階層ビット列と前記拡張階層ビット列とを結合して1つのビットストリームを生成し、ビット列の特定の単位が基本階層映像に属するか又は前記視点変換が必要な拡張階層映像に属するかを示すフラグ情報を前記生成された1つのビットストリームに挿入するステップと、 を含むことを特徴とする符号化方法。」 と補正する。 2.補正の適否 この補正は、補正前の「ビット列の特定の単位が基本階層映像に属するか又は拡張階層映像に属するかを示す情報前記生成された1つのビットストリームに挿入する」を、「ビット列の特定の単位が基本階層映像に属するか又は前記視点変換が必要な拡張階層映像に属するかを示すフラグ情報前記生成された1つのビットストリームに挿入する」とし、拡張階層映像の説明を加えると共に、ビット列の特定の単位に挿入する情報が、フラグの形式を有するフラグ情報であることを特定するものであるから、特許法第17条の2第5項第2号に規定された特許請求の範囲の減縮を目的とするものである。 そこで、補正後の請求項1に係る発明(以下、「本願補正発明」という)が特許法第17条の2第6項において準用する同法第126条第7項に規定された特許出願の際独立して特許を受けることができるものであるか否かについて以下に検討する。 (1)本願補正発明 本願補正発明は、上記1.の(補正後の請求項1)に記載した事項により特定される次のとおりのものである。なお、本願補正発明の各構成の符号は便宜的に当審で付したものである。 (本願補正発明) (A)多視点映像を符号化する方法であって、 (B)基本階層ビット列を生成するために入力される基本階層映像を符号化するステップと、 (C)前記基本階層映像の視点とは異なる、複数の拡張階層のそれぞれに対応する互いに異なる視点に対応して前記基本階層映像の視点基盤変換を実行し、前記複数の拡張階層のそれぞれに対応する視点別に視点変換された基本階層映像を生成するステップと、 (D)入力される拡張階層映像と前記視点変換された基本階層映像間の残差を求めるステップと、 (E)拡張階層ビット列を生成するために前記求められた残差を符号化するステップと、 (F)前記基本階層ビット列と前記拡張階層ビット列とを結合して1つのビットストリームを生成し、ビット列の特定の単位が基本階層映像に属するか又は前記視点変換が必要な拡張階層映像に属するかを示すフラグ情報を前記生成された1つのビットストリームに挿入するステップと、 (G)を含むことを特徴とする符号化方法。 (2)刊行物の記載事項 原査定の拒絶の理由に引用された刊行物1である国際公開第2005/069630号(以下「引用例」という)には、図面と共に次に掲げる事項が記載されている。なお、括弧内に当審で作成した日本語仮訳を添付する。 ア.“Technical Field [1] Embodiments of the present invention relate to video encoding and decoding, and more particularly, to a method, medium, and apparatus for 3-dimensional encoding and/or decoding of video, which includes adapting to temporal and spatial characteristics of the video.” (技術分野 [1]本発明の実施形態は、映像符号化および復号化に関し、より詳細には、映像の時間的及び空間的特性に適応することを含む映像の3次元符号化および/または復号化のための方法、媒体、および装置に関する。) イ.“Best Mode [14] To achieve the above and/or other aspects and advantages, embodiments of the present invention set forth a method for 3-dimensional encoding of videos, the method including performing temporal estimation on video taken by a centerly located camera with reference to video taken by the centerly located camera at least an immediately previous time, when a plurality of other cameras are arranged in a row, with the centerly located camera being at a central position of the row, and performing temporal-spatial estimation on videos taken by the other cameras with reference to previous-in-time videos taken by cameras adjacent to the centerly located camera and the video taken by the centerly located camera at the at least the immediately previous time. [15] A result of the performed temporal estimation on video taken by the centerly located camera may be a base layer video and a result of the performed temporal-spatial estimation on videos taken by the other cameras may be at least one enhancement layer video for the base layer video.” (最良の形態 [14]上記および/または他の態様および利点を達成するために、本発明の実施形態は、映像の3次元符号化のための方法を説明し、その方法は、列の中央位置に中央配置カメラが配置され、他の複数のカメラが一列に配置されている場合に、中央配置カメラにより少なくとも直前の時点に撮影された映像を参照して、中央配置カメラにより撮影した映像の時間的予測を行うこと、中央配置カメラに隣接するカメラにより時間的前に撮影された映像と中央配置カメラにより少なくとも直前の時点で撮影された映像を参照して、他のカメラにより撮影した映像の時間的・空間的予測を行うことを含む。 [15]中央配置カメラにより撮影した映像の時間的予測の結果は基本階層映像であり、他のカメラにより撮影した映像の時間的・空間的予測の結果は基本階層映像に対する少なくとも一つの拡張階層映像である。) ウ.“Mode for Invention [39] Reference will now be made in detail to the embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout. The embodiments are described below to explain the present invention by referring to the figures. [40] FIG. 1 is a view illustrating encoding and reproduction of stereoscopic video using left view video and right view video, according to an embodiment of the present invention. [41] As illustrating in FIG. 1, in an MPEG-2 multi-view profile (13818-2), 3-dimensional video can be coded and reproduced using a scalable codec in which a correlation between the left view video and right view video is searched and a disparity between the two videos is coded according to a condition of a corresponding network. Encoding is carried out using the left view video as base layer video and the right view video as enhancement layer video. The base layer video indicates video that can be coded as it is, while the enhancement layer video indicates video that is additionally coded and later used to improve the quality of the base layer video when the corresponding network transporting the two video layers is in good condition, i.e., when the network conditions are not favorable only the base layer video may be reproduced. As such, encoding using both the base layer video and the enhancement layer video is referred to as scalable encoding. [42] The left view video can be coded by a first motion compensated DCT encoder 110. A disparity between the left view video and the right view video can be calculated by a disparity estimator 122, which estimates a disparity between the left view video and the right view video, and a disparity compensator 124 and can then be coded by a second motion compensated DCT encoder 126. Assuming that the first motion compensated DCT encoder 110 that encodes the left view video is a base layer video encoder the disparity estimator 122, the disparity compensator 124, and the second motion compensated DCT encoder 126 that involve encoding the disparity between the left view video and the right view video may be referred to as an enhancement layer video encoder 120. The encoded base layer video and enhancement layer video can then be multiplexed by a system multiplexer 130 and transmitted to for subsequent decoding. [43] In the decoding, multiplexed data can be decomposed into the left view video and the right view video by a system de-multiplexer 140. The left view video can be decoded by a first motion compensated DCT decoder 150. Disparity video is then restored to the right view video by a disparity compensator 162, which compensates for the disparity between the left view video and the right view video, and a second motion compensated DCT decoder 164. Assuming that the first motion compensated DCT decoder 150 that decodes the left view video is a base layer video decoder, the disparity compensator 162 and the second motion compensated DCT decoder 164 that involve searching the disparity between the left view video and the right view video an d decoding the right view video can be referred to as an enhancement layer video decoder 160.” (発明のための形態 [39]参照は、本発明の実施形態を詳細に説明する。実施態様の例が、参照番号が全体を通して同様の要素を指す添付の図面に示されている。実施形態は、図面を参照して本発明を詳細に説明する。 [40]図1は、本発明の実施形態に従い左目映像と右目映像を用いた立体映像の符号化と再現を示す図である。 [41]図1に示すように、MPEG-2マルチビュープロファイル(13818-2)によって、3次元映像は、対応するネットワークの状態に応じて符号化される、左目映像と右目映像との探索された相関関係と二つの映像間の視差に基づくスケーラブル符号化を用いて符号化され再現される。符号化は、基本階層映像としての左目映像と、拡張階層映像としての右目映像を用いて行われる。基本階層映像は、そのまま符号化される映像を示し、拡張階層映像は、追加的に符号化され、二つの映像層を伝送する対応するネットワークが良好な状態の場合に、後に基本階層映像の品質を向上させるために使用される映像を示す。すなわち、ネットワークの状態が良好でない場合、基本階層映像のみが再現される。このように、基本階層映像及び拡張階層映像の両方を使用する符号化はスケーラブル符号化と呼ばれる。 [42]左目映像は、第1の動き補償DCT符号化器110によって符号化される。左目映像と右目映像の間の視差は、左目映像と右目映像の間の視差を推定する視差推定器122と視差補償器124で計算され、そして、第2の動き補償DCT符号化器126によって符号化される。左目映像を符号化する第1の動き補償DCT符号化器110を基本階層映像符号化器とすると、視差推定器122、視差補償器124、左目映像と右目映像の間の視差の符号化を伴う第2の動き補償DCT符号化器126は、拡張階層映像符号化器120と呼ぶことができる。符号化された基本階層映像及び拡張階層映像は、次にシステムマルチプレクサ130によって多重化され、その後の復号化のために送信される。 [43]復号化では、多重化されたデータが、システムデマルチプレクサ140によって左目映像と右目映像に分離され、左目映像は第1の動き補償DCT復号化器により復号化される。視差映像は、その後、左目映像と右目映像の間の視差を補償する視差補償器162と第2の動き補償DCT復号器164により、右目映像に復元される。左目映像を復号化する第1の動き補償DCT復号化器150を基本階層映像復号化器とすると、視差補償器162、左目映像と右目映像の間の視差の探索と右目映像の復号化を伴う第2の動き補償DCT復号化器164は、拡張階層映像復号化器160と呼ぶことができる。) (3)引用発明 a.引用例の前記ア、イの記載によれば、引用例には、『一列に配置された複数のカメラにより撮影される映像の3次元符号化方法』の発明が記載されている。 さらに、中央配置カメラにより撮影される映像の時間的予測の結果を基本階層映像とし、他のカメラにより撮影される映像の時間的・空間的予測の結果を拡張階層映像とすることが記載されている。 b.引用例の前記ウの記載によれば、引用例には、発明の実施形態として、左目映像と右目映像を用いた立体映像の符号化について記載されており、左目映像を基本階層映像とし、右目映像を拡張階層映像とすることが記載されている。 引用例の前記イでは、撮影された映像を処理した予測結果を基本階層映像及び拡張階層映像と称しているが、前記ウの発明の実施態様の記載を参照すれば、符号化処理の入力される映像、すなわち撮影された映像が基本階層映像及び拡張階層映像と定義されるものと解される。よって、前記イの記載は、撮影された映像に関連する予測結果も含めて、一時的に広く基本階層映像及び拡張階層映像と称したに過ぎないものと認められるので、以降、符号化処理に入力される映像を、基本階層映像及び拡張階層映像と認定して検討する。 c.引用例の前記ウの記載によれば、引用例の実施形態では、基本階層映像としての左目映像は、第1の動き補償DCT符号化器により符号化される。 d.引用例の前記ウには「左目映像と右目映像の間の視差は、左目映像と右目映像の間の視差を推定する視差推定器122と視差補償器124で計算され、そして、第2の動き補償DCT符号化器126によって符号化される。」、「視差推定器122、視差補償器124、左目映像と右目映像の間の視差の符号化を伴う第2の動き補償DCT符号化器126は、拡張階層映像符号化器120と呼ぶことができる。」と記載されているが、図1の記載及び多視点映像符号化の技術常識(例えば、「改訂三版H.264/AVC教科書」、インプレスR&D、2009年1月1日発行の第13章「H.246/AVCにおけるMVC(多視点映像符号化)規格」の「13.4MVCで新規に定義された技術の詳細 1視差補償」)を参酌すれば、この引用例の実施形態に記載される拡張階層映像符号化器の動作は、左目映像と右目映像の間の視差が視差推定器により推定され、推定された視差を用いて基本層映像が視差補償器により補償され、拡張層映像が補償された基本階層映像を参照映像として第2の動き補償DCT符号化器により符号化されるというものといえる。 e.引用例の前記ウの記載によれば、引用例の実施形態では、符号化された基本階層映像及び拡張階層映像は、システムマルチプレクサによって多重化され、多重化されたデータが復号化のために送信される。 f.なお、前記イ、ウの記載によれば、引用例には、発明の一実施形態として左目映像を基本階層映像とし右目映像を拡張階層映像とした立体映像を符号化の対象とすることが記載されているものの、引用例に記載される発明としては、一列に配置された複数のカメラの中央配置カメラにより撮影される映像を基本階層映像とし、他のカメラにより撮影される映像を拡張階層映像とした3次元映像の符号化を対象とする発明が認定できる。 そして、上記aないしeにおける検討を踏まえると、引用例には、『入力される基本階層映像が、第1の動き補償DCT符号化器により時間的予測符号化され』ること、『入力される基本階層映像と入力される複数の拡張階層映像の間の視差が視差推定器により推定され、推定された視差を用いて基本層映像が視差補償器により補償され、拡張層映像が補償された基本階層映像を参照映像として第2の動き補償DCT符号化器によって時間的・空間的予測符号化され』ること、『符号化された基本階層映像及び複数の拡張階層映像は、システムマルチプレクサによって多重化され、多重化されたデータが復号化のために送信される』ことが記載されているといえる。 g.以上によれば、引用例には、次の発明(以下「引用発明」という)が記載されていると認められる。 (引用発明) (a)一列に配置された複数のカメラにより撮影される映像の3次元符号化方法であって、 (b)入力される基本階層映像が、第1の動き補償DCT符号化器により時間的予測符号化され、 (c)入力される基本階層映像と入力される複数の拡張階層映像の間の視差が視差推定器により推定され、推定された視差を用いて基本層映像が視差補償器により補償され、拡張層映像が補償された基本階層映像を参照映像として第2の動き補償DCT符号化器によって時間的・空間的予測符号化され、 (d)符号化された基本階層映像及び複数の拡張階層映像は、システムマルチプレクサによって多重化され、多重化されたデータが復号化のために送信される (e)3次元符号化方法。 (4)対比 本願補正発明と引用発明とを対比すると次のことが認められる。 a.本願補正発明の構成Aと、引用発明の構成aの対比 引用発明の「一列に配置された複数のカメラにより撮影される映像」は、多視点映像といえるから、引用発明の「一列に配置された複数のカメラにより撮影される映像の3次元符号化方法」は、本願補正発明の「多視点映像を符号化する方法」と一致する。 b.本願補正発明の構成Bと、引用発明の構成bの対比 引用発明の「入力される基本階層映像が、第1の動き補償DCT符号化器により時間的予測符号化され」るという手順は、第1の動き補償DCT符号化器によって、基本階層映像が符号化されて基本階層映像の符号化データが得られることであり、この得られる基本階層映像の符号化データは、本願補正発明の符号化するステップにより生成される「基本階層ビット列」に相当するものといえるから、引用発明の上記手順は、本願補正発明の「基本階層ビット列を生成するために入力される基本階層映像を符号化するステップ」に相当するものといえる。 c.本願補正発明の構成Cと、引用発明の構成cの対比 引用発明の構成cの手順のうち、「入力される基本階層映像と入力される複数の拡張階層映像の間の視差が視差推定器により推定され、推定された視差を用いて基本層映像が視差補償器により補償され」るという手順は、複数の拡張階層映像は、基本階層映像と視点が異なるものであることは明らかであり、また、推定された基本階層映像と複数の拡張階層映像の間の視差を用いて基本層映像を視差補償器により補償することは、複数の拡張階層映像の視点に対応して基本階層映像を視差変換、すなわち視点変換して、視点変換された基本絵階層映像を生成することであるから、本願補正発明の構成Cの「前記基本階層映像の視点とは異なる、複数の拡張階層のそれぞれに対応する互いに異なる視点に対応して前記基本階層映像の視点基盤変換を実行し、前記複数の拡張階層のそれぞれに対応する視点別に視点変換された基本階層映像を生成するステップ」と一致する。 d.本願補正発明の構成DないしEと、引用発明の構成cの対比 引用発明の構成cの手順のうち、「拡張層映像が補償された基本階層映像を参照映像として第2の動き補償DCT符号化器によって時間的・空間的予測符号化され」るという手順について検討すると、拡張層映像が補償された基本階層映像を参照映像として時間的・空間的予測符号化されるということは、拡張層映像と補償された基本階層映像との残差をDCT符号化するということであといえ、また、この符号化により拡張階層映像の符号化データが得られることは明白であり、その拡張階層映像の符号化データは、本願補正発明の「拡張階層ビット列」に相当するものといえる。 したがって、引用発明の上記手順は、本願補正発明の構成Dの「入力される拡張階層映像と前記視点変換された基本階層映像間の残差を求めるステップ」、及び構成Eの「拡張階層ビット列を生成するために前記求められた残差を符号化するステップ」に相当するものといえる。 e.本願補正発明の構成Fと、引用発明の構成dの対比 引用発明の「符号化された基本階層映像及び複数の拡張階層映像は、システムマルチプレクサによって多重化され、多重化されたデータが復号化のために送信される」という手順について検討すると、符号化された基本階層映像及び複数の拡張階層映像は、上記b、dにおいて検討したように、基本階層ビット列と拡張階層ビット列であり、それらを多重化して多重化されたデータを復号化のために送信するということは、2つのビット列を1つのビットストリームに結合して送信することといえる。 したがって、引用発明の上記手順は、本願補正発明の構成Fとは、「前記基本階層ビット列と前記拡張階層ビット列とを結合して1つのビットストリームを生成するステップ」という点において一致するといえる。 ただし、引用発明は、本願補正発明の「ビット列の特定の単位が基本階層映像に属するか又は前記視点変換が必要な拡張階層映像に属するかを示すフラグ情報を前記生成された1つのビットストリームに挿入する」という手順を有することは特定されていない。 よって、本願補正発明が、「前記基本階層ビット列と前記拡張階層ビット列とを結合して1つのビットストリームを生成するステップ」に「ビット列の特定の単位が基本階層映像に属するか又は前記視点変換が必要な拡張階層映像に属するかを示すフラグ情報を前記生成された1つのビットストリームに挿入する」という構成を有しているのに対し、引用発明のそのような構成を有しているか特定されていない点において両者は相違する。 f.本願補正発明の構成Gと、引用発明の構成eの対比 引用発明は、本願補正発明と上記eに示した相違があるものの、基本階層映像を符号化し、拡張階層映像を基本階層映像を用いて符号化する多視点映像の符号化方法である点において本願補正発明と一致するものである。 (5)一致点・相違点 上記(4)のaないしfの対比結果をまとめると、本願補正発明と引用発明との[一致点]と[相違点]は以下のとおりである。 [一致点] 多視点映像を符号化する方法であって、 基本階層ビット列を生成するために入力される基本階層映像を符号化するステップと、 前記基本階層映像の視点とは異なる、複数の拡張階層のそれぞれに対応する互いに異なる視点に対応して前記基本階層映像の視点基盤変換を実行し、前記複数の拡張階層のそれぞれに対応する視点別に視点変換された基本階層映像を生成するステップと、 入力される拡張階層映像と前記視点変換された基本階層映像間の残差を求めるステップと、 拡張階層ビット列を生成するために前記求められた残差を符号化するステップと、 前記基本階層ビット列と前記拡張階層ビット列とを結合して1つのビットストリームを生成するステップと、 を含むことを特徴とする符号化方法。 [相違点] 本願補正発明が、「前記基本階層ビット列と前記拡張階層ビット列とを結合して1つのビットストリームを生成するステップ」に「ビット列の特定の単位が基本階層映像に属するか又は前記視点変換が必要な拡張階層映像に属するかを示すフラグ情報を前記生成された1つのビットストリームに挿入する」という構成を有しているのに対し、引用発明のそのような構成を有しているか特定されていない点。 (6)相違点の判断 引用発明のシステムマルチプレクサによって多重化され、復号化のために送信される多重化されたデータ(ビットストリーム)は、引用例の前記ウに記載されるように、復号化においてシステムデマルチプレクサによって左目映像(基本階層ビット列)と右目映像(拡張階層ビット列)に分離される。 一般に、ビットストリームをデマルチプレクサにより分離するためには、ビット列を識別するための情報が必要であることは当然のことであり、引用発明においても基本階層ビット列と拡張階層ビット列に分離するために何らかの情報を用いていることは明らかである。また、ビット列を分離する手段として、マルチプレクサにおいてビット列の種別を特定する情報としてのフラグ情報をビット列のヘッダ等に記述しておくことが周知慣用技術(例えば、特開2008-211417号公報の段落【0020】等参照のこと)である。 よって、引用発明において、システムマルチプレクサによりビット列を多重化する際に、復号化でデマルチプレクサによりビット列を分離できるように、ビット列にビット列の種別を特定するためのフラグ情報を挿入することは、当業者が容易に想到しうることと認められる。 したがって、引用発明のビットストリームを生成するステップに、上記相違点にかかる「ビット列の特定の単位が基本階層映像に属するか又は前記視点変換が必要な拡張階層映像に属するかを示すフラグ情報を前記生成された1つのビットストリームに挿入する」という構成を付加することは、当業者が容易になし得ることである。 (7)効果等について 本願補正発明の構成は、上記のように当業者が容易に想到できたものであるところ、本願補正発明が奏する効果は、その容易想到である構成から当業者が容易に予測しうる範囲内のものであり、同範囲を超える顕著なものではない。 (8)まとめ 以上のように、本願補正発明は、刊行物1に記載された発明及び周知技術に基づいて当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により、特許出願の際独立して特許を受けることができないものである。 3.むすび 以上のとおり、本件補正は、特許法第17条の2第6項において準用する同法126条第7項の規定に違反してなされたものであるから、同法159条第1項において読み替えて準用する同法第53条第1項の規定により却下すべきものである。 第3.本願発明について 1.本願発明 平成26年3月12日付けの手続補正は上記の通り却下されたので、本願の請求項に係る発明は、平成25年10月9日付け手続補正書の特許請求の範囲の請求項1ないし16に記載した事項により特定されるものであるところ、その請求項1に係る発明(以下「本願発明」という)は、前記第2.1.の(補正前の請求項1)に記載した事項により特定されるとおりのものである。 2.刊行物 原査定の拒絶の理由に引用された刊行物1、及び、その記載事項は、前記第2.2.(2)に記載したとおりである。 3.対比・判断 本願発明は、前記第2.2.で摘示した本願補正発明に追加された限定事項を省いたものである。 そうすると、本願発明の特定事項を全て含み、さらに他の特定事項を付加したものに相当する本願補正発明が前記第2.2.に記載したとおり、刊行物1に記載された発明及び周知技術に基づいて、当業者が容易に発明をすることができたものであるから、本願発明も、同様の理由により、刊行物1に記載された発明及び周知技術に基づいて当業者が容易に発明をすることができたものである。 第4.むすび 以上のとおり、本願の請求項1に係る発明は、刊行物1に記載された発明及び周知技術に基づいて当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。 したがって、本願は、その余の請求項について論及するまでもなく、拒絶をすべきものである。 よって、結論のとおり審決する。 |
審理終結日 | 2015-03-26 |
結審通知日 | 2015-03-31 |
審決日 | 2015-04-14 |
出願番号 | 特願2011-549065(P2011-549065) |
審決分類 |
P
1
8・
121-
Z
(H04N)
P 1 8・ 575- Z (H04N) |
最終処分 | 不成立 |
前審関与審査官 | 深沢 正志、川崎 優 |
特許庁審判長 |
丹治 彰 |
特許庁審判官 |
豊島 洋介 清水 正一 |
発明の名称 | 多視点映像の符号化及び復号化のための装置及び方法 |
代理人 | 伊東 忠重 |
代理人 | 伊東 忠彦 |
代理人 | 大貫 進介 |