• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 特36条4項詳細な説明の記載不備 特許、登録しない(前置又は当審拒絶理由) H04N
審判 査定不服 特36条6項1、2号及び3号 請求の範囲の記載不備 特許、登録しない(前置又は当審拒絶理由) H04N
審判 査定不服 2項進歩性 特許、登録しない(前置又は当審拒絶理由) H04N
管理番号 1284793
審判番号 不服2012-11452  
総通号数 172 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2014-04-25 
種別 拒絶査定不服の審決 
審判請求日 2012-06-20 
確定日 2014-02-12 
事件の表示 特願2008-542900「画像信号の深度依存性フィルタリング」拒絶査定不服審判事件〔平成19年 6月 7日国際公開、WO2007/063477、平成21年 5月14日国内公表、特表2009-519625〕について、次のとおり審決する。 
結論 本件審判の請求は、成り立たない。 
理由 1.手続の経緯
本願は、2006年(平成18年)11月27日(パリ条約による優先権主張外国庁受理2005年12月2日、欧州特許庁)を国際出願日とする出願であって、平成20年6月4日付で手続補正書が提出され、平成21年11月25日付で審査請求がなされ、平成23年11月7日付(起案日)で拒絶の理由が通知され、平成24年1月27日付で意見書・手続補正書が提出されたものの、平成24年2月14日付(起案日)で拒絶査定がなされたものである。
本件は、上記拒絶査定を不服として平成24年6月20日付で請求された拒絶査定不服審判であって、その審判請求と同時に手続補正書が提出され、当審において、前置報告書の内容について審判請求人の意見を求めるために、平成24年10月31日付(起案日)で審尋がなされ、平成25年2月1日付で回答書が提出され、平成25年5月29日付(起案日)で拒絶の理由が通知され、平成25年8月20日付で意見書・手続補正書が提出されたものである。

2.本願発明
本願の請求項1?6に係る発明は、平成20年6月4日付、平成24年1月27日付、平成24年6月20日付、平成25年8月20日付手続補正書によって補正された明細書、特許請求の範囲及び図面の記載からみて、それぞれ、その特許請求の範囲の請求項1?6に記載されたとおりのものと認められるところ、その請求項1に係る発明は請求項1に記載された次のとおりである。(以下「本願発明」という。)

「【請求項1】
マルチビュー・ディスプレイの画像データをレンダリングする方法であって、
第1の画像を表す画像信号を受信する工程であって、前記第1の画像が3D画像データ
を備える工程と、
第1の画像信号を空間フィルタリングして第2の画像信号を供給する工程であって、前記第2の画像信号が第2の画像を表し、前記空間フィルタリングが、前記第1の画像の画素毎に、前記画素を、前記第2の画像の画素の組に対する寄与分にマッピングする工程を含み、空間フィルタは、前記第2の画像の前記画素の組のサイズである強度を有し、前記サイズは、前記第1の画像の基準深度及び前記第1の画像の画素の深度によって求められ、前記空間フィルタリングは、前記第2の画像の画素毎に、前記画素に対する寄与分全てを累積することにより、前記第2の画像を生成する工程を更に含む工程と、
前記第2の画像を複数のサブ画像にサンプリングし、各サブ画像は、画像の表示方向に関連付けられる工程とを含む方法。」

3.引用刊行物
3.1.引用例1
3.1.1.引用例1の記載事項
当審における平成25年5月29日付の拒絶の理由で引用した国際公開第2005/27052号には、図面と共に以下の記載がある。なお、そのファミリーである特表2007-506172号公報の対応箇所を翻訳として併記する。

“The invention relates to a system comprising a 3-D display device with a display screen, a means for addressing the display screen, and a renderer having an input for a 3-D model and an input for at least one viewpoint for rendering image information for supply to the addressing means.”(第1頁第1?4行)
『本発明は、ディスプレイ画面を有する3次元ディスプレイ装置と、ディスプレイ画面をアドレッシングする手段と、及び3次元モデル用入力と少なくとも1つの視点用入力を有する描画器であって、前記アドレッシング手段に供給する画像情報を描画する描画器とを有するシステムに関する。』(段落【0001】)

“The invention also relates to a method for rendering data to be supplied to an addressing means of a 3-D display device.”(第1頁第8?9行)
『本発明は、3次元ディスプレイ装置のアドレッシング手段に供給されるデータを描画する方法にも関する。』(段落【0004】)

“The above describes different types and method for providing 3-D image which each have their advantages and disadvantages. The invention is not restricted to any particular type of 3-D device, although possibly of greater use for some types of devices than for others. The invention is directed to the renderer, i. e. the part of the system which renders the image information (data). There is a trend towards systems with display devices that are able to provide N-views, i. e. a large number of views on the display screen. Such devices are able to provide a 3-D image on a display screen that is visible over a relatively large viewing angle, for several viewers. The number of different views is typically from 10 to 100 views. It is for those types of 3-D image display devices that the invention is of particular interest.”(第2頁第24?32行)
『上記は、それぞれが長所も短所も有する、3次元画像を提供する異なるタイプの方法を説明している。本発明は、一部のタイプの装置にはその他よりもよく使用されるが、特定タイプの3次元装置に限定されない。本発明は、レンダラ、すなわち、画像情報(データ)を描画するシステムの一部にも関する。N個のビュー(すなわち、ディスプレイスクリーン上の多数のビュー)を提供できるディスプレイ装置を有するシステムが求められている。このような装置は、複数の看者に対して、比較的広いビューイングアングルにわたって見ることができるディスプレイスクリーン上に3次元画像を提供することができる。異なるビューの数は、一般的には10から100である。本発明が特に対象としているのは、このようなタイプの3次元画像ディスプレイ装置である。』(段落【0013】)

“To this end the system in accordance with the invention is characterized in that the renderer comprises an initial part having an input for the 3-D model and for a main view point for rendering objects in the form of a main view point Z-stack comprising a stack of layers, each layer comprising an array of elements comprising color information and Z-values, the renderer further comprising a Z-stack constructor for constructing Z-stacks for additional viewpoints from the main view point Z-stack generated by the initial stage, and a further image information occlusion semantics stage for generating image information from the Z-stacks.”(第3頁第32行?第4頁第6行)
『このため、本発明によるシステムは、前記レンダラは、前記3次元モデルの入力とマインビューポイントの入力を有し、それぞれが色情報とZ値を有する要素アレイを有するスタック層を有するメインビューポイントZスタックであるオブジェクトをレンダリングする初期部を有し、前記レンダラは、さらに、前記初期段階により生成されたメインビューポイントZスタックから追加的ビューポイントのZスタックが構成されるZスタックコンストラクタと、前記Zスタックから画像情報を生成するさらなる画像情報隠蔽動作段階とを有することを特徴とする。』(段落【0018】)

“The renderer comprises an initial part which renders objects comprised in the to be displayed image in the form of a set of pixels with a color (RGB) and a depth value (Z). This initial stage has an input for the 3-D model and for a main view point. The output of this initial stage is a Z-stack comprising stacked layers comprising color (RGB or monocolor) information and a Z-value for the main viewpoint. The renderer uses the main view point Z-stack in a following Z-stack constructor in which, from the main view point Z-stack comprising color information (RGB or monocolor) information and Z-values for the main viewpoint, Z-stacks comprising color information (RGB or monocolor) and Z-values for the additional viewpoints are constructed. The respective Z-stacks are then, in a further image information occlusion semantics stage, converted into image information for supply to the addressing means.”(第4頁第7?17行)
『レンダラは、色(RGB)と奥行き値(Z)を有する一組のピクセルである、表示されるべき画像に含まれたオブジェクトを描画する初期部を有する。この初期部には、3次元モデルの入力とメインビューポイントの入力がある。この初期段階の出力は、メインビューポイントについて、色(RGBまたは単一色)情報とZ値を含むスタック層を有するZスタックである。レンダラは、後続のZスタックコンストラクタ中のメインビューポイントZスタックを用いる。Zスタックコンストラクタでは、メインビューポイントの色情報(RGBまたはモノクロ)とZ値を有するメインビューポイントZスタックから、追加的ビューポイントの色情報(RGBまたはモノクロ)とZ値を有するZスタックが構成される。それぞれのZスタックは、さらなる画像情報隠蔽動作段階で、アドレッシング手段に供給する画像情報に変換される。』(段落【0019】)

“Ideally, after all rendering is done, all Z-stacks contain foreground objects as seen from the viewpoint corresponding to each Z-stack. The number of elements with which the object is represented may not be the same in different Z-stacks, as an object may appear with different size as seen from different viewpoints. Therefore, there is no one-to-one correspondence between elements among Z-stacks, while there is a one-to-one correspondence as far as the presence of an object is concerned. When constructing additional Z-stacks on the basis of one main viewpoint Z-stack, objects can be copied on a one-by-one basis, while copying elements on a one-by-one basis is insufficient. The latter would lead to problems when e. g. an object is represented in the main Z-stack by 100 elements but should be represented in a new Z-stack by 110 or 90 elements. It is the insight of the inventors that an object-by-object method in combination with scaling of the number of elements within an object, e. g. by extrapolation or contraction is preferred over an element-by element basis.”(第6頁第19?31行)
『理想的には、レンダリングの後、全てのZスタックが各Zスタックに対応するビューポイントから見える前面オブジェクトを含む。オブジェクトが表されている要素の数は、異なるZスタックでは同じでなくてもよい。オブジェクトは異なるビューポイントから見ると異なるサイズで見えるからである。それゆえ、Zスタックのエレメント間には1対1対応がないが、オブジェクトに関する限り1対1対応がある。1つのメインビューポイントZスタックに基づき追加的Zスタックを構成するとき、オブジェクトは1つずつコピーされるが、要素のコピーは1つずつでは不十分である。後者の場合、オブジェクトがメインZスタック中で100個の要素で表されているが、新しいZスタックでは110または90個の要素で表される時、問題が起きる。本願発明者の洞察によると、例えば、外挿や収縮によるオブジェクト内の要素数のスケーリングと組み合わせたオブジェクト毎の方法は、エレメント毎のよりも好ましい。』(段落【0026】)

“It is advantageous to group the elements of the main view point Z-stack into objects. This enables to copy objects on a one-by-one basis from the main view point Z-stack to a new Z-stack for an additional view point. The contraction and extrapolation operations are basically resampling operations which are well known within the computer graphics area.”(第7頁第4?12行)
『メインビューポイントZスタックの要素をオブジェクトにグループ分けすることは有利である。これにより、メインビューポイントZスタックから追加的ビューポイントの新しいZスタックに1つずつオブジェクトをコピーすることができる。縮小と外挿操作は、基本的には、コンピュータグラフィックスの分野で周知の再サンプリング操作である。好ましい実施形態において、オブジェクト抽出は、メインビューポイントZスタックに対してだけ行われ、その効率は追加的ビューポイントの数N-1には依存しない。追加的ビューポイントの構成の前のオブジェクトの大きさ及び形状について知ることにより、外挿及び縮小に必要なオブジェクト内の要素の再サンプリングを高品質で実施することができる。』(段落【0028】)

“Preferably the renderer comprises a DOF rendering stage. DOF (depth-of field) is related to the fact that there is a focus plane in which the objects are in focus, while objects further away from the focus plane are more or less blurred. Blurring can be established by spatial redistribution of RGB values in the object texture and around the edges of an object, or by small changes in the opacity of objects. DOF blurring may be performed on each of the additional view point Z-stacks, but is preferably performed on the main point view Z-stack. The result is a Z-stack for the main point view with RGB and Z values (and possibly with opacity) data taking into account the blurring due to DOF. The focus plane is almost always roughly the same for the additional points of view. Therefore DOF blurring for the main point of view and then using a"blurred"main view point Z-stack as a basis for generating Z-stacks for all additional view points gives almost as good an end result (in quality) as using a main view point Z-stack, generating Z-stacks for the additional view points and then performing DOF blurring for all additional view point Z-stacks, while the speed is greatly increased.”(第7頁第13?26行)
『好ましくは、前記レンダラはDOFレンダリング段階を有する。DOF(フィールドの奥行き)は、オブジェクトにフォーカスしているフォーカス平面があり、フォーカス平面から離れたオブジェクトは幾分ぼやけているという事実に関する。ぼやかしは、オブジェクトテクスチャ内、及びオブジェクトの周縁におけるRGB値の空間的再配分、またはオブジェクトの不透明性を少し変化させることによりなされる。DOFぼかしは、追加的ビューポイントZスタックのそれぞれについて行われるが、好ましくは、メインポイントビューZスタックに対して行われる。その結果、メインポイントビューのZスタックでは、RGBとZ値(及び、可能性として不透明性)のデータにおいてDOFによるぼやけが考慮される。フォーカス平面は、追加的ビューポイントでもほとんど常に同じである。それ故、メインビューポイントのDOFぼかしと、全ての追加的ビューポイントのZスタックを生成する基礎として「ぼかされた」メインビューポイントZスタックを使用することにより、(品質の)最終結果は、メインポイントビューZスタックを用いて、追加的ビューポイントに対してZスタックを生成し、全ての追加的ビューポイントZスタックに対してDOFぼかしを実行したのと同じくらいよいが、非常に速くなる。』(段落【0029】)

“Fig. 7 illustrates a renderer (rendering pipe) 62 for a display device in accordance with the invention and a method in accordance with the invention.
The renderer 62 comprises a first part 70 for generating a Z-stack for the main viewpoint. This part comprises in this example an input 63 for the main viewpoint and an input 61 for the 3-D model. All geometries (shapes and forms of the objects) are transformed in geometry transformer 71 in accordance with the main viewpoint, the data are pixelized in pixelizer 72, i. e. all objects are transformed into pixels having an X, Y, Z, color (RGB) and possible also an a (opacity or transparency) value, and texture is added in texturizer 73. For the main viewpoint DOF (depth of Field) is added in DOF renderer 74. This is done for the data relating to the main viewpoint. So this is done only once for the main view point regardless of the number N-1 of additional viewpoints. Thereafter the data (in the form of a Z-stack as will be explained below) for the main viewpoint is used as a basis in 3-D rendering stage 75, which has an input for data relating to the remaining N-1 additional viewpoints, and renders as an output N-1 Z-stacks for the N-1 additional viewpoints. In the occlusion semantics stage 76 the data in the N-1 additional view point Z-stacks (together with the data in the Z-stack for the main viewpoint) are converted by means of Z-tracing into N frame buffers for N images from N different viewpoints. The computational requirements are relatively small since the first part of the processing which usually requires the largest amount of computational power (upto and including step 74) is done for the main viewpoint only. The resulting main viewpoint Z-stack (with DOF in this example) is the basis for all the other viewpoints.”(第13頁第13?33行)
『図7は、本発明によるディスプレイ装置用レンダラ(レンダリングパイプ)62及び本発明による方法を示す。
レンダラ62は、メインビューポイント用のZスタックを生成しうる第1の部分70を有する。この部分は、この例において、メインビューポイント用の入力63と3次元モデル用の入力61とを有する。全てのジオメトリ(オブジェクトの形状と形式)はメインビューポイントに従ってジオメトリ変換器71で変換される。データはピクセル化器72でピクセル化される。すなわち、全てのオブジェクトは、X、Y、Z、色(RGB)、及びα(不透明度または透明度)値を有するピクセルに変換される。そして、テクスチャがテクスチャライザ73で付加される。メインビューポイントの場合、DOF(フィールドの奥行き)がDOFレンダラ74で付加される。これはメインビューポイントに関するデータに対して行われる。これは、追加的ビューポイントの数N-1に拘わらず、メインビューポイントに対して1度だけ行われる。その後、メインビューポイントのデータ(下で説明するようにZスタックの形式である)を3次元レンダリング段階75の基礎として使用する。3次元レンダリング段階75は、残りのN-1個の追加的ビューポイントに関するデータの入力を有し、N-1個の追加的ビューポイントのN-1個のZスタックを出力として描画する。隠蔽動作段階76において、N-1個の追加的ビューポイントZスタックは中のデータ(メインビューポイントのZスタック中のデータとともに)は、Zトレーシング手段により、N個の異なるビューポイントからのN個の画像のN個のフレームバッファに変換される。計算量は比較的小さいが、その理由は、通常は最も大きな計算パワーを必要とする処理(ステップ74を含んでステップ74まで)の最初の部分がメインビューポイントに対してだけ実行されるからである。この結果得られるメインビューポイントZスタック(この例ではDOFを有する)は、その他全てのビューポイントの基礎である。』(段落【0053】【0054】)

“Fig. 8 illustrates further the construction of the Z-stack, and the frame buffer for the different view points.
The 3-D model 80 comprises all information i. e. all objects and their mutual orientation. From the full 3-D model a 3 layer Z-stack 81 for the main view point is produced. This is done by a Z-stack constructor schematically indicated in Fig. 8 which constructs a layered structure of (in this example) three sequential buffers comprising elements, wherein for each element (in this example) a Z, I (which stands for color), alpha (which stands for the opaqueness factor a) value is stored. Basically the first stack of the Z-stack comprises the RGB (color information) and Z-coordinate (and possibly also the alpha information, and possibly also further information) of all elements that are first seen from the view point. Thus the first layer of the Z-stack comprises those objects and parts of objects that are first seen, i. e. the elements which are closest to the view point. In this example thus, the first layer S1 of the Z-stack along the central line I-I comprises parts of object D, some parts of object A, and the outer fringes of object F, the second layer S2, along the same line, comprises parts of objects B and C, parts of object F, and parts of object A (the parts behind object D), the third layer comprises parts of object F (those parts behind objects B and C) and object E. It is to be noted that one and the same object may form part of several layers in the Z-stack, due to the fact that as seen from the main viewpoint it is the first, second or third object to be seen. Having constructed the Z-stack a frame buffer may be constructed which basically, if the objects displayed in the first stack are all opaque, comprises the data of the first stack Sl of the Z-stack. If the objects have a transparency (i. e. the alpha number is less than 1, wherein the value for a ranges from 0 (opaque) to 1 (fully transparent) ), then the image buffer comprises a combination of data from the respective layers S 1 to S3. The data from the image buffer 82 are sent to the 3-D display either directly or after further processing. In part B of the Figure a 3-D model 80 is shown which ultimately leads to a frame buffer 82 which still comprises at least some data on all of the different objects A to E which constitute the original 3-D model. Starting from the frame buffer 82 it is, to some extent, possible to generate images for different views, be it that the shapes of the B, C, E objects behind object A have to be guessed on basis of those parts of the objects B, C, E that are visible in the frame buffer. It is, however, not always possible. To illustrate this part C of Fig. 8 differs only from the situation as depicted in the part B of Fig. 8 in that the object D is now placed behind object A. The Z-stack 81'reflects this change in that the elements depicting the object D do not longer form part of the first layer S1, but of layer S2. The image buffer 82'does no longer comprise any trace of object D, object D is simply is no longer present in the frame buffer 82'. Based on the image (or frame) buffer 82'for the main viewpoint, one could generate images for differing viewpoints, these images, however, cannot comprise the object D, for the simple reason that there no information (elements) on the object D present in the image buffer 82'. Even if, on the basis of previous images, it could be deduced that such an object should be, or most likely will be, present, the actual position and/or shape of the object would have to be guessed. However, from a different view point the object D may very well be visible. One solution for this problem would be to calculate (steps 61-73 (74) ) for each additional view point the Z-stack, i. e. using a completely separate rendering pipe for each view point. This however, requires a very substantial computing power. The basis of the invention is that the information on the"hidden"objects, such as object D in the example is, however, present in the 3-or more in general n-layer Z-stack 81' for the main viewpoint. Using the Z-stack 81'for the main view point enables to keep track of a number of objects that are behind foreground objects. This enables also correct rendering of semi-transparent objects, even if the final image sent to the display shows multiple objects located at the same pixel. In this approach, first all scene objects in the full 3-D model are rendered into the Z-stack. Then, a single well known process adopted here as Z-trace method extracts from the Z-stack the frame or image buffer to be sent to the display. The output image information is constructed per-pixel from the Z-stack according to a simple protocol. If all objects are opaque objects, the first layer of the Z-stack is just copied. For transparent objects, several layers may be merged.”(第14頁第5行?第15頁第24行)
『図8は、Zスタックの構成及び異なるビューポイントに対するフレームバッファをさらに示す図である。
3次元モデル80は、全ての情報、すなわち、全てのオブジェクトとその相互の方向を有する。完全な3次元モデルから、メインポイントの3層Zスタック81が生成される。これは、図8に概略を示したZスタックコンストラクタにより行われる。このZスタックコンストラクタは、要素を有する(この例では)3つのシーケンシャルバッファの層構造を構成する。ここで、各要素に対して、(この例では)Z、I(色を示す)、アルファ(不透明性ファクタアルファを示す)の値が格納される。基本的に、Zスタックの第1のスタックは、ビューポイントから最初に見える全ての要素のRGB(色情報)とZ座標(及び、可能なら、アルファ情報その他の情報)を有する。このように、Zスタックの第1層は、最初に見えるオブジェクトとオブジェクトの部分(すなわち、ビューポイントに最も近い要素)を有する。この例では、このように、中央ラインI-Iに沿ったZスタックの
第1層S1は、オブジェクトDの部分、オブジェクトAの一部、オブジェクトFの外縁を有する。同じラインに沿って、第2層S2は、オブジェクトBとCの部分、オブジェクトFの部分、及びオブジェクトAの部分(オブジェクトDの後の部分)を有する。第3層は、オブジェクトFの部分(オブジェクトBとCの後の部分)とオブジェクトEを有する。留意すべきことは、1つのオブジェクトがZスタック中の複数の層の一部となることがあることである。その理由は、メインビューポイントからみると、第1、第2、または第3の見えるオブジェクトになるからである。Zスタックを構成すると、第1のスタックに表示されているオブジェクトが全て不透明である場合、Zスタックの第1のスタックS1のデータを有するフレームバッファが構成される。オブジェクトが透明である場合(すなわち、値が0(不透明)と1(完全に透明)の間であるアルファ数が1より小さい)、画像バッファはそれぞれの層S1からS3からのデータの組み合わせを有する。画像バッファ82からのデータは、直接またはさらに処理した後、3次元ディスプレイに送られる。図のパートBにおいて、最終的にフレームバッファ82に行く3次元モデル80が示されている。この3次元モデル80は、元の3次元モデルを構成する異なるオブジェクトAからEの全ての少なくとも一部のデータを有する。フレームバッファ82から初めて、異なるビューに対する画像を生成することはある程度可能であるが、オブジェクトAに隠れたオブジェクトB,C、Eの形状がフレームバッファ中に見えるオブジェクトB,C,Eの部分に基づき推測しなければならない。しかし、常に可能というわけではない。例示のため、図8のこのパートCは、図8のパートBに示した状況と、オブジェクトDがオブジェクトAの後に置かれていることが異なる。Zスタック81′は、オブジェクトDを示す要素が第1の層S1の一部ではもはやなく、層S2の一部であるとのこの変化を反映する。画像バッファ82′は、オブジェクトDの形跡はもはや有さず、オブジェクトDはフレームバッファ82′中にはもうない。メインビューポイントの画像(またはフレーム)バッファ82′に基づいて、オブジェクトDは含まないが、異なるビューポイントの画像を生成することができる。その理由は、簡単で、画像バッファ82′中にオブジェクトDの情報(要素)はないからである。たとえ、前の画像に基づいて、上記のオブジェクトがあるはず、またはあるであろうと推論できても、そのオブジェクトの実際の位置及び/または形状は推測しなければならない。しかし、異なるビューポイントから、そのオブジェクトDは非常によく見えるかも知れない。この問題に対する解決策の1つは、各追加的ビューポイントに対してZスタックを計算することである(ステップ61-73(74))。すなわち、各ビューポイントに対して完全に別のレンダリングパイプを使用する。しかし、これには、非常に大きな計算パワーが必要となる。本発明の基礎は、上の例のオブジェクトD等の「隠れた」オブジェクトに関する情報は、メインビューポイントの第3層または一般には第N層のZスタック81′にあるということである。メインビューポイントのZスタック81′を用いることにより、前面のオブジェクトに隠れたオブジェクトを追跡することができる。これにより、ディスプレイに送られた最終画像には同じピクセルに位置づけられた複数のオブジェクトがあっても、半透明のオブジェクトを正しくレンダリングすることができる。このアプローチでは、まず、完全な3次元モデル中の全てのシーンのオブジェクトがZスタックに描画される。次に、Zトレース法としてここで受け入れた、周知の単一のプロセスにより、Zスタックから、ディスプレイに送るべきフレームまたは画像バッファを抽出する。出力画像情報は、簡単なプロトコルによりZスタックからピクセル毎に構成される。もし全てのオブジェクトが不透明なオブジェクトであれば、Zスタックの第1層が単にコピーされる。透明なオブジェクトの場合、複数の層がマージされる。』(段落【0056】【0057】)

“In this example after object extraction the data for the main viewpoint are DOF rendered (93). Without DOF (depth of field) rendering all objects would be imaged with the same sharpness. However, this leads to an unnatural image. In a natural image there is a field of focus in which the image is sharp, objects closer to the viewer or further away are out of focus, and thus blurred. Blurring may e. g. be done by object extraction followed by defocusing the texture and edges of objects, i. e. redistributing the texture spatially within objects and transferring some of the intensity outside the object boundaries, and/or making the outer most parts of the objects semi-transparent. The DOF rendering stage has for that object a blur unit. The result of the DOF unit is again a Z-stack 94 comprising the somewhat blurred out-of focus objects and the sharp objects in the plane of focus for the main view point. DOF blurring is in this preferred embodiment performed on the data in the Z-stack 91 for the main viewpoint. This is preferred because the computational power needed for DOF blurring is then needed only for the main viewpoint image. Strictly speaking a better performance in respect to the blurring effect of DOF could be obtained when DOF blurring is done for each and every viewpoint. However the DOF for additional viewpoint does not or hardly differs from that for the main viewpoint, so in preferred embodiments DOF is performed on the Z-stack 91 for the main view point. The DOF blurred objects are reassembled into a new Z-stack 94 for the main view point. This Z-stack 94 is an input for an object extractor 95, which extracts the objects. The extracted objects are, for each of the N- remaining view points, shifted in shifter 96 in accordance with the difference in between the main view point and respective the viewpoint. The shifted objects are then reassembled into a new Z-stack (in Z-stack constructor 97), resulting in N-1 Z-stacks. Finally the 3-D rendering stage has a Z-trace unit (98). Within the frame work of the invention the principal point is that for each of additional view points, on the basis of the Z-stack 91 of the main view point, the Z-stacks 97 of for additional view points are constructed. Object extraction 95 is optional. However, object extraction is a very useful concept. When the data of the original Z-stack 91 for the main view point are converted to construct the Z-stack for additional view points, relatively small objects (for instance those objects which are seen under a small angle) may grow substantially in size. When a transformation is done pixel-by-pixel, the objects that have grown in size (for instance from 3 pixels to 10 pixels) necessarily have pixels missing. The missing pixels may e. g. be reconstructed by object extraction and reconstruction, i.e. finding which pixels form a group, detect the presence of a hole (or holes) in the group of pixels, determine as best as possible the values which would fit the elements in the hole (s) (RGB, Z) and fill in the holes and thereby reconstructing the intermediate, missing elements of the group and thereby"repair"the object. This can be done after the shift operation (stage 96). However, then the reconstruction process step has to be repeated N-1 times, namely for each of the Z-stacks resulting from shifting step 96, i. e. for each of the Z-stacks 96 (for simplicity the results of the various method steps are herein sometimes given the reference numeral belonging to the particular step) for the additional view points. By performing object extraction 95 prior to shifting 96 the objects, object extraction needs to be performed only once namely on the main view point Z-stack 94 thereby reducing the complexity of the procedure and increasing the speed.”(第16頁第4行?第17頁第11行)
『この例では、オブジェクト抽出の後、メインビューポイントのデータをDOFレンダリングする(93)。DOF(フィールドの奥行き)レンダリングをしないと、全てのオブジェクトは同じシャープネスで画像化される。しかし、これでは画像が不自然になる。自然な画像では、画像がシャープなフォーカスするフィールドがあり、看者により近い、または看者から遠いオブジェクトにはフォーカスせず、従ってぼけている。ぼかしは、例えば、オブジェクト抽出の後、オブジェクトのテクスチャやエッジをデフォーカスすること、すなわち、オブジェクト内でテクスチャを空間的に再配布し、オブジェクト境界の外側のインテンシティの一部を移転し、及び/またはオブジェクトの最も外側部分を半透明にすることにより行われる。DOFレンダリング段階は、そのオブジェクトに対するぼかし部を有する。DOF部の結果、メインビューポイントに対する、幾分ぼけてフォーカスがはずれたオブジェクトと、フォーカス面内のシャープなオブジェクトを有するZスタック94が得られる。DOFぼかしは、この好ましい実施形態においては、メインビューポイントに対するZスタック91中のデータに対して実行される。メインビューポイントについてだけDOFぼかしに必要な計算パワーが必要になるという点で、上記の方法は好ましい。厳密に言うと、全てのビューポイントのそれぞれに対してDOFぼかしをすれば、DOFのぼかし効果としてよりよい結果が得られる。しかし、追加的ビューポイントのDOFは、メインビューポイントのDOFとまったく、またはほとんど代わらない。そこで、好ましい実施形態においては、メインビューポイントのZスタック91にDOFを実行する。DOFぼかしされたオブジェクトは、メインビューポイントの新しいZスタック94に再組み立てされる。このZスタック94は、オブジェクトを抽出するオブジェクト抽出器95の入力となる。抽出されたオブジェクトは、残りのN-1個のビューポイントのそれぞれについて、メインビューポイントとそれぞれのビューポイントの間の違いに従って、シフタ96でシフトされる。シフトされたオブジェクトは、(Zスタックコンストラクタ97中の)新しいZスタックに再組み立てされ、N-1個のZスタックとなる。最後に、3次元レンダリング段階はZトレース部(98)を有する。本発明のフレームワーク内において、重要な点は、追加的ビューポイントのそれぞれについて、メインビューポイントのZスタック91にもとづいて、Zスタック97が構成されるということである。オブジェクト抽出95は任意的である。しかし、オブジェクト抽出は非常に有用なコンセプトである。メインビューポイントの元のZスタック91のデータが追加的ビューポイントのZスタックを構成するために変換されるとき、比較的小さいオブジェクト(例えば、小さな角度で見えるオブジェクト)のサイズが非常に大きくなることがある。ピクセルごとに変換をする時、サイズが大きくなった(例えば、3ピクセルから10ピクセルに)オブジェクトには必ず足りないピクセルがある。足りないピクセルは、例えば、オブジェクト抽出と再構成により再構成される。すなわち、どのピクセルがグループであるか見いだし、ピクセルのグループ内に穴があることを検知し、その穴の要素にフィットするであろう値(RGB、Z)をできるだけよく決定し、その穴に入れ、これによりそのグループの中間の足りない要素を再構成し、オブジェクトを「修理」することにより足りないピクセルが再構成される。これはシフト動作(段階96)の後に実行できる。しかし、そうすると、再構成プロセスステップはN-1回、すなわち、シフトステップ96から得られるZスタックのそれぞれについて、すなわち、追加的ビューポイントのZスタック96(説明を簡単にするため、いろいろな方法ステップの結果には、そのステップの参照数字を付すことがある)のそれぞれについて繰り返さなければならない。オブジェクトをシフト96する前に、オブジェクト抽出95を実行することにより、オブジェクト抽出は、メインビューポイントZスタック94に対して1回だけ実行すればよく、動作の複雑性を低減し、速度を速くすることができる。』(段落【0061】)

“Fig. 10 illustrates a method in accordance with the invention. The DOF blurred Z-stack 94 for the main viewpoint is fed to an object extractor. In this example the objects are a house H, two sheds S 1, S2, a fence Fe, with a hole (for instance a door d which is opened) in it, a large tree T and a forest F. From the Z-stack 94 for the main view point (VP1, View Point 1) the objects are extracted in object extraction 95. The objects are shifted (basically the x, y, z values are changed, which can easily be calculated on the basis of the main view point and the relevant additional view point). A new Z-stack 97 is calculated on the basis of the new shifted object data. The Z-stack 97 is the basis for the image buffer for the additional views (VP2, view point 2). In the original view point (VP1) a part of the forest was visible through the opening d, in the shifted view point (VP2) a part of the tree (T) is visible through the opening in the fence. Thus in this example it is schematically shown that part of the tree T are visible for the additional view through the opening in the fence. The Z-stack of VP2 is calculated op the basis of the Z-stack for the main view point (VP1) and a simple shifting operation, and thus can be done fast and for many views.”(第18頁第6?20行)
『図10は、本発明による方法のさらに詳細を示す図である。メインビューポイントのDOFぼかしZスタック94はオブジェクト抽出器に入力される。この例では、オブジェクトは、家H、2つの物置S1、S2、フェンスFe(それには穴(例えば、開いたドア)がある)、大きな木T、及び森Fである。メインビューポイント(VP1、ビューポイント1)のZスタック94から、オブジェクトがオブジェクト抽出95で抽出される。オブジェクトはシフトされる(基本的に、x、y、z値が変更されるが、これはメインビューポイント、及び関連する追加的ビューポイントに基づき簡単に計算できる)。新しいZスタック97が、新しいシフトされたオブジェクトデータに基づき計算される。Zスタック97は、追加的ビュー(VP2、ビューポイント2)の画像バッファの基礎である。元のビューポイント(VP1)において、森の一部は開口dを通して見ることができる。シフトしたビューポイント(VP2)において、木(T)の一部がフェンスの開口を通して見ることができる。このように、この例では、フェンスの開口を通して、追加的ビューの場合、木Tの一部が見えることが概略的に示されている。VP2のZスタックは、メインビューポイント(VP1)のZスタックと簡単なシフト動作に基づいて計算されるので、速く多くのビューに対して実行することができる。』(段落【0064】)

“It should be noted that although the invention allows to generate image for additional views with strongly reduced computational power requirements to generate image for additional views compared to rendering N times a new image, the increase in speed does come at a cost. The Z-stack layer comprises a number of layers, in this example 3. If more than three objects are positioned one behind the other, some of the objects will not be present in the Z-stack layer, because they are the fourth, fifth etc. object to be seen from the main view point. Thus a loss in data may occur. Preferably the Z-stack comprises 2 to 5 layers, most preferably 3 to 4 layers. The more layers there are in the Z-stack, the less the change of a loss of data, however, the higher the computational power required. The inventors have realized that a best compromise may be struck in the indicated range of layers, i. e. 2-5, preferably 3-4, most preferably 3.”(第18頁第21?31行)
『留意すべきことは、本発明は、新しい画像をN回描画することと比較して、追加的ビューの画像を生成するために必要な計算パワーを大幅に減らして追加的ビューの画像を生成することができるが、スピードを高くするにはコストがかかる。Zスタック層は複数の層を有し、この例では3層である。3つより多くのオブジェクトが重なって位置している場合、一部のオブジェクトはZスタック層にはない。その理由は、これらは、メインビューポイントから見える第4、第5、等のオブジェクトであるからである。このように、データが失われることがある。好ましくは、Zスタックは、2つから5つの層、最も好ましくは3つから4つの層を有する。Zスタックに多くの層があればあるほど、データ消失の変化は少なくなるが、しかし、必要な計算パワーは大きくなる。本願の発明者は、もっともよい妥協点は上に示した範囲、すなわち、2ないし5、好ましくは3ないし4、最も好ましくは3であることに気がついた。』(段落【0065】)

“The advantage of having n main viewpoints is that it allows selection of the best main viewpoint to construct an object in an additional viewpoint. The selection is based on which main viewpoint contains the object with the highest detail, that is, represented by the most elements. Also, a combination could be made, e. g. by interpolation of the object's representation in the n main viewpoints. In most current 3-D displays, N views are needed with the viewpoints positions being arranged on a horizontal line, allowing a horizontal look- around capability. Then, preferably n=2.”(第19頁第8?14行)
『このメインビューポイントを有する利点は、最もよいメインビューポイントを選択して追加的ビューポイント中のオブジェクトを構成できることである。選択は、どのメインビューポイントがオブジェクトの詳細を最も多く含むか、すなわち、最も多くの要素で表されるかに基づいてなされる。また、例えば、n個のメインビューポイント中のオブジェクトの表示を外挿することにより、組み合わせルこともできる。最も最近の3次元ディスプレイでは、水平ライン状に配置したビューポイント位置でN個のビューが必要であり、これにより水平方向から見ることができる。そこで、好ましくはn=2である。』(段落【0067】)

“A further loss of data may occur due to the resampling of objects from the main viewpoint to the additional viewpoints. This may be solved by having a main viewpoint with increased resolution, e. g. a factor of two more elements in horizontal and/or vertical direction. In this way, the data loss will be negligible. Within the solution with n main viewpoints, it may be possible to extract an object in more resolution from n normal resolution Z-stacks by well known super-resolution techniques. However, current techniques for this do not ensure performance in all situations, e. g. in the degenerate case where the n main viewpoints contain exactly the same information of an object. The resolution increase method ensures performance in all situations.”(第20頁第3?11行)
『さらに、メインビューポイントから追加的ビューポイントにオブジェクトを再サンプリングすることにより、データの消失が起こる。これにより、メインビューポイントの解像度を、水平及び/または垂直方向の要素を2倍以上に高くすることにより解決される。このように、データ消失は無視できる。n個のメインビューポイントを有するソリューションにおいて、周知の超解像度法により、n個の通常解像度のZスタックからより大きな解像度のオブジェクトを抽出することが可能である。しかし、現在の方法では、全ての状況で実行できるわけではなく、例えば、n個のメインビューポイントがオブジェクトのまったく同じ情報を含んでいる退化した場合には実行できない。解像度を上げる方法は、全ての状況で実行可能である。』(段落【0071】)

“12. A method for rendering data to be supplied to an addressing means of a 3-D display device wherein for a main view point objects in the form of a main viewpoint Z-stack (94) comprising stack layers (SI, S2, S3) are rendered comprising RGB and Z-values, and from the main view point Z-stack (94) Z-stacks (97) for additional viewpoints are constructed, and from the Z-stacks (97) for additional viewpoints by means of Z-tracing data (79) to be supplied to the addressing means is generated.
13. A method as claimed in claim 12, wherein DOF rendering (74) is performed in the main view point Z-stack (91) to render a main view point Z-stack with DOF blurring (94).”(第23頁第15?24行)
『【請求項12】
3次元ディスプレイ装置のアドレッシング手段に供給されるデータをレンダリングする方法であって、
メインビューポイントに対して、RGBとZ値を有するスタック層を有するメインビューポイントZスタックであるオブジェクトがレンダーされ、
前記メインビューポイントZスタックから、追加的ビューポイントのZスタックが構成され、
追加的ビューポイントのZスタックからZトレーシングにより、前記アドレッシング手段に供給されるデータが生成されることを特徴とする方法。
【請求項13】
請求項12に記載の方法であって、
DOFレンダリングは、前記メインビューポイントZスタックに実行され、DOFぼかしを有するメインビューポイントZスタックをレンダーすることを特徴とする方法。』

















3.1.2.引用発明1
ここで、引用例1の記載事項を検討する。

第一に、上記“The invention relates to a system comprising a 3-D display device with a display screen, a means for addressing the display screen, and a renderer having an input for a 3-D model and an input for at least one viewpoint for rendering image information for supply to the addressing means.”(第1頁第1?4行)『本発明は、ディスプレイ画面を有する3次元ディスプレイ装置と、ディスプレイ画面をアドレッシングする手段と、及び3次元モデル用入力と少なくとも1つの視点用入力を有する描画器であって、前記アドレッシング手段に供給する画像情報を描画する描画器とを有するシステムに関する。』(段落【0001】)、“The invention also relates to a method for rendering data to be supplied to an addressing means of a 3-D display device.”(第1頁第8?9行)『本発明は、3次元ディスプレイ装置のアドレッシング手段に供給されるデータを描画する方法にも関する。』(段落【0004】)との記載からみて、引用例1には「3次元モデル用入力と少なくとも1つの視点用入力を有し3次元ディスプレイ装置にデータを描画する方法」が記載されている。
第二に、上記“The renderer comprises an initial part which renders objects comprised in the to be displayed image in the form of a set of pixels with a color (RGB) and a depth value (Z). This initial stage has an input for the 3-D model and for a main view point.”(第4頁第7?9行)『レンダラは、色(RGB)と奥行き値(Z)を有する一組のピクセルである、表示されるべき画像に含まれたオブジェクトを描画する初期部を有する。この初期部には、3次元モデルの入力とメインビューポイントの入力がある。』(段落【0019】)との記載からみて、引用例1記載の発明は「色(RGB)と奥行き値(Z)を有する一組のピクセルである3次元モデルとメインビューポイントが入力され」るものである。
第三に、“The renderer 62 comprises a first part 70 for generating a Z-stack for the main viewpoint. This part comprises in this example an input 63 for the main viewpoint and an input 61 for the 3-D model.”(第13頁第15?17行)『レンダラ62は、メインビューポイント用のZスタックを生成しうる第1の部分70を有する。この部分は、この例において、メインビューポイント用の入力63と3次元モデル用の入力61とを有する。』(段落【0054】)の記載からみて、引用例1記載の発明では「色(RGB)と奥行き値(Z)を有する一組のピクセルである3次元モデルとメインビューポイントからメインビューポイントに対するZスタックが生成される」ものである。
第四に、上記“Preferably the renderer comprises a DOF rendering stage. DOF (depth-of field) is related to the fact that there is a focus plane in which the objects are in focus, while objects further away from the focus plane are more or less blurred. Blurring can be established by spatial redistribution of RGB values in the object texture and around the edges of an object, or by small changes in the opacity of objects. DOF blurring may be performed on each of the additional view point Z-stacks, but is preferably performed on the main point view Z-stack. The result is a Z-stack for the main point view with RGB and Z values (and possibly with opacity) data taking into account the blurring due to DOF. The focus plane is almost always roughly the same for the additional points of view. Therefore DOF blurring for the main point of view and then using a"blurred"main view point Z-stack as a basis for generating Z-stacks for all additional view points gives almost as good an end result (in quality) as using a main view point Z-stack, generating Z-stacks for the additional view points and then performing DOF blurring for all additional view point Z-stacks, while the speed is greatly increased.”(第7頁第13?26行) 『好ましくは、前記レンダラはDOFレンダリング段階を有する。DOF(フィールドの奥行き)は、オブジェクトにフォーカスしているフォーカス平面があり、フォーカス平面から離れたオブジェクトは幾分ぼやけているという事実に関する。ぼやかしは、オブジェクトテクスチャ内、及びオブジェクトの周縁におけるRGB値の空間的再配分、またはオブジェクトの不透明性を少し変化させることによりなされる。DOFぼかしは、追加的ビューポイントZスタックのそれぞれについて行われるが、好ましくは、メインポイントビューZスタックに対して行われる。その結果、メインポイントビューのZスタックでは、RGBとZ値(及び、可能性として不透明性)のデータにおいてDOFによるぼやけが考慮される。フォーカス平面は、追加的ビューポイントでもほとんど常に同じである。それ故、メインビューポイントのDOFぼかしと、全ての追加的ビューポイントのZスタックを生成する基礎として「ぼかされた」メインビューポイントZスタックを使用することにより、(品質の)最終結果は、メインポイントビューZスタックを用いて、追加的ビューポイントに対してZスタックを生成し、全ての追加的ビューポイントZスタックに対してDOFぼかしを実行したのと同じくらいよいが、非常に速くなる。』(段落【0029】)、“In this example after object extraction the data for the main viewpoint are DOF rendered (93). Without DOF (depth of field) rendering all objects would be imaged with the same sharpness. However, this leads to an unnatural image. In a natural image there is a field of focus in which the image is sharp, objects closer to the viewer or further away are out of focus, and thus blurred. Blurring may e. g. be done by object extraction followed by defocusing the texture and edges of objects, i. e. redistributing the texture spatially within objects and transferring some of the intensity outside the object boundaries, and/or making the outer most parts of the objects semi-transparent. The DOF rendering stage has for that object a blur unit. The result of the DOF unit is again a Z-stack 94 comprising the somewhat blurred out-of focus objects and the sharp objects in the plane of focus for the main view point. DOF blurring is in this preferred embodiment performed on the data in the Z-stack 91 for the main viewpoint. This is preferred because the computational power needed for DOF blurring is then needed only for the main viewpoint image. Strictly speaking a better performance in respect to the blurring effect of DOF could be obtained when DOF blurring is done for each and every viewpoint. However the DOF for additional viewpoint does not or hardly differs from that for the main viewpoint, so in preferred embodiments DOF is performed on the Z-stack 91 for the main view point.”(第16頁第4?20行)『この例では、オブジェクト抽出の後、メインビューポイントのデータをDOFレンダリングする(93)。DOF(フィールドの奥行き)レンダリングをしないと、全てのオブジェクトは同じシャープネスで画像化される。しかし、これでは画像が不自然になる。自然な画像では、画像がシャープなフォーカスするフィールドがあり、看者により近い、または看者から遠いオブジェクトにはフォーカスせず、従ってぼけている。ぼかしは、例えば、オブジェクト抽出の後、オブジェクトのテクスチャやエッジをデフォーカスすること、すなわち、オブジェクト内でテクスチャを空間的に再配布し、オブジェクト境界の外側のインテンシティの一部を移転し、及び/またはオブジェクトの最も外側部分を半透明にすることにより行われる。DOFレンダリング段階は、そのオブジェクトに対するぼかし部を有する。DOF部の結果、メインビューポイントに対する、幾分ぼけてフォーカスがはずれたオブジェクトと、フォーカス面内のシャープなオブジェクトを有するZスタック94が得られる。DOFぼかしは、この好ましい実施形態においては、メインビューポイントに対するZスタック91中のデータに対して実行される。メインビューポイントについてだけDOFぼかしに必要な計算パワーが必要になるという点で、上記の方法は好ましい。厳密に言うと、全てのビューポイントのそれぞれに対してDOFぼかしをすれば、DOFのぼかし効果としてよりよい結果が得られる。しかし、追加的ビューポイントのDOFは、メインビューポイントのDOFとまったく、またはほとんど代わらない。そこで、好ましい実施形態においては、メインビューポイントのZスタック91にDOFを実行する。』(段落【0061】)との記載からみて、引用例1記載の発明は「DOFレンダリング段階」を有し、この「DOFレンダリング段階」は「メインビューポイントに対するZスタック91中のデータに対して、オブジェクトにフォーカスしているフォーカス平面があり、フォーカス平面から離れたオブジェクトは幾分ぼやけているような処理を行い、メインビューポイントに対する、幾分ぼけてフォーカスがはずれたオブジェクトと、フォーカス面内のシャープなオブジェクトを有するZスタック94」を求めるようにするものである。
第五に、上記“However the DOF for additional viewpoint does not or hardly differs from that for the main viewpoint, so in preferred embodiments DOF is performed on the Z-stack 91 for the main view point. The DOF blurred objects are reassembled into a new Z-stack 94 for the main view point. This Z-stack 94 is an input for an object extractor 95, which extracts the objects. The extracted objects are, for each of the N- remaining view points, shifted in shifter 96 in accordance with the difference in between the main view point and respective the viewpoint. The shifted objects are then reassembled into a new Z-stack (in Z-stack constructor 97), resulting in N-1 Z-stacks. Finally the 3-D rendering stage has a Z-trace unit (98). Within the frame work of the invention the principal point is that for each of additional view points, on the basis of the Z-stack 91 of the main view point, the Z-stacks 97 of for additional view points are constructed. Object extraction 95 is optional. However, object extraction is a very useful concept. When the data of the original Z-stack 91 for the main view point are converted to construct the Z-stack for additional view points, relatively small objects (for instance those objects which are seen under a small angle) may grow substantially in size. When a transformation is done pixel-by-pixel, the objects that have grown in size (for instance from 3 pixels to 10 pixels) necessarily have pixels missing. The missing pixels may e. g. be reconstructed by object extraction and reconstruction, i.e. finding which pixels form a group, detect the presence of a hole (or holes) in the group of pixels, determine as best as possible the values which would fit the elements in the hole (s) (RGB, Z) and fill in the holes and thereby reconstructing the intermediate, missing elements of the group and thereby"repair"the object. This can be done after the shift operation (stage 96). However, then the reconstruction process step has to be repeated N-1 times, namely for each of the Z-stacks resulting from shifting step 96, i. e. for each of the Z-stacks 96 (for simplicity the results of the various method steps are herein sometimes given the reference numeral belonging to the particular step) for the additional view points. By performing object extraction 95 prior to shifting 96 the objects, object extraction needs to be performed only once namely on the main view point Z-stack 94 thereby reducing the complexity of the procedure and increasing the speed.”(第16頁第18行?第17頁第11行)『しかし、追加的ビューポイントのDOFは、メインビューポイントのDOFとまったく、またはほとんど代わらない。そこで、好ましい実施形態においては、メインビューポイントのZスタック91にDOFを実行する。DOFぼかしされたオブジェクトは、メインビューポイントの新しいZスタック94に再組み立てされる。このZスタック94は、オブジェクトを抽出するオブジェクト抽出器95の入力となる。抽出されたオブジェクトは、残りのN-1個のビューポイントのそれぞれについて、メインビューポイントとそれぞれのビューポイントの間の違いに従って、シフタ96でシフトされる。シフトされたオブジェクトは、(Zスタックコンストラクタ97中の)新しいZスタックに再組み立てされ、N-1個のZスタックとなる。最後に、3次元レンダリング段階はZトレース部(98)を有する。本発明のフレームワーク内において、重要な点は、追加的ビューポイントのそれぞれについて、メインビューポイントのZスタック91にもとづいて、Zスタック97が構成されるということである。オブジェクト抽出95は任意的である。しかし、オブジェクト抽出は非常に有用なコンセプトである。メインビューポイントの元のZスタック91のデータが追加的ビューポイントのZスタックを構成するために変換されるとき、比較的小さいオブジェクト(例えば、小さな角度で見えるオブジェクト)のサイズが非常に大きくなることがある。ピクセルごとに変換をする時、サイズが大きくなった(例えば、3ピクセルから10ピクセルに)オブジェクトには必ず足りないピクセルがある。足りないピクセルは、例えば、オブジェクト抽出と再構成により再構成される。すなわち、どのピクセルがグループであるか見いだし、ピクセルのグループ内に穴があることを検知し、その穴の要素にフィットするであろう値(RGB、Z)をできるだけよく決定し、その穴に入れ、これによりそのグループの中間の足りない要素を再構成し、オブジェクトを「修理」することにより足りないピクセルが再構成される。これはシフト動作(段階96)の後に実行できる。しかし、そうすると、再構成プロセスステップはN-1回、すなわち、シフトステップ96から得られるZスタックのそれぞれについて、すなわち、追加的ビューポイントのZスタック96(説明を簡単にするため、いろいろな方法ステップの結果には、そのステップの参照数字を付すことがある)のそれぞれについて繰り返さなければならない。オブジェクトをシフト96する前に、オブジェクト抽出95を実行することにより、オブジェクト抽出は、メインビューポイントZスタック94に対して1回だけ実行すればよく、動作の複雑性を低減し、速度を速くすることができる。』(段落【0061】)、“Fig. 10 illustrates a method in accordance with the invention. The DOF blurred Z-stack 94 for the main viewpoint is fed to an object extractor. In this example the objects are a house H, two sheds S 1, S2, a fence Fe, with a hole (for instance a door d which is opened) in it, a large tree T and a forest F. From the Z-stack 94 for the main view point (VP1, View Point 1) the objects are extracted in object extraction 95. The objects are shifted (basically the x, y, z values are changed, which can easily be calculated on the basis of the main view point and the relevant additional view point). A new Z-stack 97 is calculated on the basis of the new shifted object data. The Z-stack 97 is the basis for the image buffer for the additional views (VP2, view point 2). In the original view point (VP1) a part of the forest was visible through the opening d, in the shifted view point (VP2) a part of the tree (T) is visible through the opening in the fence. Thus in this example it is schematically shown that part of the tree T are visible for the additional view through the opening in the fence. The Z-stack of VP2 is calculated op the basis of the Z-stack for the main view point (VP1) and a simple shifting operation, and thus can be done fast and for many views.”(第18頁第6?20行)『図10は、本発明による方法のさらに詳細を示す図である。メインビューポイントのDOFぼかしZスタック94はオブジェクト抽出器に入力される。この例では、オブジェクトは、家H、2つの物置S1、S2、フェンスFe(それには穴(例えば、開いたドア)がある)、大きな木T、及び森Fである。メインビューポイント(VP1、ビューポイント1)のZスタック94から、オブジェクトがオブジェクト抽出95で抽出される。オブジェクトはシフトされる(基本的に、x、y、z値が変更されるが、これはメインビューポイント、及び関連する追加的ビューポイントに基づき簡単に計算できる)。新しいZスタック97が、新しいシフトされたオブジェクトデータに基づき計算される。Zスタック97は、追加的ビュー(VP2、ビューポイント2)の画像バッファの基礎である。元のビューポイント(VP1)において、森の一部は開口dを通して見ることができる。シフトしたビューポイント(VP2)において、木(T)の一部がフェンスの開口を通して見ることができる。このように、この例では、フェンスの開口を通して、追加的ビューの場合、木Tの一部が見えることが概略的に示されている。VP2のZスタックは、メインビューポイント(VP1)のZスタックと簡単なシフト動作に基づいて計算されるので、速く多くのビューに対して実行することができる。』(段落【0064】)との記載からみて、引用例1記載の発明は「メインビューポイントのDOFぼかしZスタック94からオブジェクトを抽出し、抽出されたオブジェクトは、残りのN-1個のビューポイントのそれぞれについて、メインビューポイントとそれぞれのビューポイントの間の違いに従って、シフタ96でシフトされ、シフトされたオブジェクトは、新しいZスタックに再組み立てされるもの」である。
第六に、上記“It is advantageous to group the elements of the main view point Z-stack into objects. This enables to copy objects on a one-by-one basis from the main view point Z-stack to a new Z-stack for an additional view point. The contraction and extrapolation operations are basically resampling operations which are well known within the computer graphics area.”(第7頁第4?12行)『メインビューポイントZスタックの要素をオブジェクトにグループ分けすることは有利である。これにより、メインビューポイントZスタックから追加的ビューポイントの新しいZスタックに1つずつオブジェクトをコピーすることができる。縮小と外挿操作は、基本的には、コンピュータグラフィックスの分野で周知の再サンプリング操作である。好ましい実施形態において、オブジェクト抽出は、メインビューポイントZスタックに対してだけ行われ、その効率は追加的ビューポイントの数N-1には依存しない。追加的ビューポイントの構成の前のオブジェクトの大きさ及び形状について知ることにより、外挿及び縮小に必要なオブジェクト内の要素の再サンプリングを高品質で実施することができる。』(段落【0028】)、“A further loss of data may occur due to the resampling of objects from the main viewpoint to the additional viewpoints. This may be solved by having a main viewpoint with increased resolution, e. g. a factor of two more elements in horizontal and/or vertical direction. In this way, the data loss will be negligible. Within the solution with n main viewpoints, it may be possible to extract an object in more resolution from n normal resolution Z-stacks by well known super-resolution techniques. However, current techniques for this do not ensure performance in all situations, e. g. in the degenerate case where the n main viewpoints contain exactly the same information of an object. The resolution increase method ensures performance in all situations.”(第20頁第3?11行)『さらに、メインビューポイントから追加的ビューポイントにオブジェクトを再サンプリングすることにより、データの消失が起こる。これにより、メインビューポイントの解像度を、水平及び/または垂直方向の要素を2倍以上に高くすることにより解決される。このように、データ消失は無視できる。n個のメインビューポイントを有するソリューションにおいて、周知の超解像度法により、n個の通常解像度のZスタックからより大きな解像度のオブジェクトを抽出することが可能である。しかし、現在の方法では、全ての状況で実行できるわけではなく、例えば、n個のメインビューポイントがオブジェクトのまったく同じ情報を含んでいる退化した場合には実行できない。解像度を上げる方法は、全ての状況で実行可能である。』との記載からみて、引用例1記載の発明における「メインビューポイントのDOFぼかしZスタック94からオブジェクトを抽出」する過程には「オブジェクト内の要素の再サンプリング」が含まれるものであって、その「メインビューポイントから追加的ビューポイントにオブジェクトを再サンプリングすることにより、データの消失が起こる」ものである。

したがって、引用例1には以下の発明(以下「引用発明1」という。)が記載されている。

「3次元モデル用入力と少なくとも1つの視点用入力を有し3次元ディスプレイ装置にデータを描画する方法であって、
色(RGB)と奥行き値(Z)を有する一組のピクセルである3次元モデルとメインビューポイントが入力され、
色(RGB)と奥行き値(Z)を有する一組のピクセルである3次元モデルとメインビューポイントからメインビューポイントに対するZスタックが生成され、
メインビューポイントに対するZスタック91中のデータに対して、オブジェクトにフォーカスしているフォーカス平面があり、フォーカス平面から離れたオブジェクトは幾分ぼやけているような処理を行い、メインビューポイントに対する、幾分ぼけてフォーカスがはずれたオブジェクトと、フォーカス面内のシャープなオブジェクトを有するZスタック94を求め、
メインビューポイントのDOFぼかしZスタック94からオブジェクトを抽出し、抽出されたオブジェクトは、残りのN-1個のビューポイントのそれぞれについて、メインビューポイントとそれぞれのビューポイントの間の違いに従って、シフタ96でシフトされ、シフトされたオブジェクトは、新しいZスタックに再組み立てされるものであって、メインビューポイントのDOFぼかしZスタック94からオブジェクトを抽出する過程にはオブジェクト内の要素の再サンプリングが含まれ、そのメインビューポイントから追加的ビューポイントにオブジェクトを再サンプリングすることにより、データの消失が起こる、
3次元モデル用入力と少なくとも1つの視点用入力を有し3次元ディスプレイ装置にデータを描画する方法。」

3.2.引用例2
3.2.1.引用例2の記載事項
当審における平成25年5月29日付の拒絶の理由で引用した特許第3008681号公報(以下「引用例2」という。)には、以下の記載がある。

「【0001】
【産業上の利用分野】本発明は、画像処理装置でコンピュータ・グラフィックスで生成された画像に対してレンズ特性に起因するぼかし効果を与えるのに利用される画像ぼかし処理装置に関する。」
「【0008】本発明は前記問題点に鑑み、カメラで撮影した画像のようにピントのあったところは鮮明に、ピントのあわないところは奥行きに応じてぼかす画像ぼかし処理装置を提供することを目的とする。」
「【0012】図1において、101はぼかし処理制御部で、処理画素アドレスを供給たり、各ブロックの処理の同期をとる。102は入力画像の各画素値(以下処理画素と呼ぶ)を格納する入力画素バッファ、103は各画素ごとの奥行き値を格納する奥行き値バファである。104はぼかし範囲計算部で、処理画素の奥行き値とぼかし特性パラメー(すべての画素に対して共通)からぼかし範囲の大きさを計算する。105はぼかし画素ドレス計算部で、ぼかし範囲計算部104で計算したぼかし範囲の大きさと処理画素アレスとからぼかし画素アドレスを計算する。106は画素値計算部で、処理画素値とぼし画素アドレスからぼかし画素の画素値を計算する。107は画素値バッファ、108分配係数バッファで、それぞれ画素値計算部106の処理で中間結果を格納するためにいる。109は輝度補正部で分配係数と画素値の中間結果から出力画素値を計算する。」
「【0013】以上のように構成された画像ぼかし処理装置について、以下図1及び図2用いてその動作を説明する。」
「【0014】まず処理を開始する前に、あらかじめ入力画素バッファ102へ入力画像各画素値111を、奥行き値バッファ103へ入力画像の各奥行き値112をそれぞれ納しておく。その後、ぼかし処理制御部101へ開始命令110を送り、ぼかし処理制部101は、開始命令110を受けると、ぼかし範囲計算部104とぼかし画素アドレ計算部105と画素値計算部106へ処理画素アドレス126を送る。例えば、640×48の大きさの画像では処理画素アドレスは(0,0)から始まり(639,479)までである。」
「【0015】ぼかし範囲計算部104は、まず処理画素アドレス126のさす画素(はじは(0,0))の奥行き値114とぼかし特性パラメータ113(すべての画素に共通)からぼし範囲の大きさ115を計算する。レンズのぼかし効果を行う場合、ぼかし範囲は処理素を中心とする円(以後、錯乱円と呼ぶ)となる。ぼかし範囲の大きさ115は錯乱円の径のことである。ぼかし特性パラメータ113は、レンズの焦点距離、アイリス値、ピント位置で、これらから錯乱円の半径を(数1)により求める。」
「【0016】
【数1】


「【0017】そして、(数1)により求めた錯乱円の半径(ぼかし範囲の大きさ)をぼかし素アドレス計算部105へ送る。」
「【0018】ぼかし画素アドレス計算部105では、処理画素と処理画素の各近傍画素の距離をそれぞれ計算し、その値が錯乱円の半径以下の画素をぼかし画素として選択するすなわち錯乱円内に含まれる画素のアドレスを求める。」
「【0019】図2はぼかし画素の説明図である。図2において、201が処理画素で、02が半径2(隣接画素の距離を1とした単位)の錯乱円を示しており、このとき203ぼかし画素であり、204はぼかし画素ではない。また処理画素もぼかし画素に含まれる例えば、図2において処理画素201のアドレスを(0,0)とするとき、ぼかし画素のアドレスは、(0,0), (1,0), (2,0), (0,1), (1,1), (2,0), (0,-1), (1,-1), (0,-2), (-1,0),(-2,0), (-1,1), (-1,-1)の計13個である。これらぼかし画素アドレス127は画素値算部106に送る。」
「【0020】画素値計算部106では、ぼかし画素アドレス127の総数の逆数を分配数とし、処理画素値116に分配係数をかけた値を分配画素値とする。例えば、図2にいては分配係数は1/13であり、処理画素値を130とすると分配画素値は10である。そしてその分配画素値を画素値バッファ107に格納されている画素値中間結果117に加算しその画素値118で画素値バッファ107を更新する。 画素値バッファ107は、画ごとに値を保持できる記憶領域を持ち、その初期値は0である。同時に、分配係数を分係数バッファ108に格納されている分配係数中間結果119に加算し、その分配係数20で分配係数バッファ108を更新する。分配係数バッファ108も画素値バッファ07と同様に画素ごとに値を保持できる記憶領域を持ち、その初期値は0である。」
「【0021】画素値計算部106は、すべてのぼかし画素アドレス127に対して処理終了した後、ぼかし処理制御部101へ終了信号121を出し、ぼかし処理制御部10は、終了信号121を受けとると、次の処理画素アドレス126(例えば、(0,0)の次は(10))をぼかし範囲計算部104とぼかし画素アドレス計算部105と画素値計算部106送り、以下同様の処理を繰り返す。入力画素バッファ102に格納されたすべての画素対して処理が終了すれば、ぼかし処理制御部101は、輝度補正部109に実行命令12を出す。」
「【0022】輝度補正部109は、ぼかし処理制御部101から実行命令122を受けと、画素値バッファ107と分配係数バッファ108から各画素値123と各分配係数24を順次読み出し、各画素値123を各分配画素値124でそれぞれ割る。これは、かし画像がぼかし処理のために明暗の差が大きくなって不自然にならないようにするたの輝度補正である。ここで得られた値が出力画像の画素値125となり、フレームメモなどに出力する。」
「【図1】


「【図2】



3.2.2.引用発明2
ここで、引用例2の記載事項を検討する。

第一に、上記段落【0001】【0008】)の記載からみて、引用例2記載の発明は「ピントのあったところは鮮明に、ピントのあわないところは奥行きに応じてぼかす、レンズ特性に起因するぼかし効果を与えるのに利用される画像ぼかし処理装置」である。
第二に、上記段落【0015】?【0017】の記載からみて、引用例2記載の発明は「処理画素アドレス126のさす画素の奥行き値(d)114と、レンズの焦点距離(f)、アイリス値(F)、ピント位置(p)からなるぼかし特性パラメータ113から、【数1】

にしたがって、錯乱円の半径(C)であるぼかし範囲の大きさ115を計算するぼかし範囲計算部104」を有している。
第三に、上記段落【0018】【0019】の記載からみて、引用例2記載の発明は「処理画素と処理画素の各近傍画素の距離をそれぞれ計算し、その値が錯乱円の半径以下の画素をぼかし画素として選択するぼかし画素アドレス計算部105」を有している。
第四に、上記段落【0020】【0021】の記載からみて、引用例2記載の発明は「すべてのぼかし画素アドレス127に対して、ぼかし画素アドレス127の総数の逆数を分配数とし、処理画素値116に分配係数をかけた値を分配画素値とし、その分配画素値を画素値バッファ107に格納されている画素値中間結果117に加算しその画素値118で画素値バッファ107を更新する画素値計算部106」を有している。
第五に、上記段落【0021】の記載からみて、引用例2記載の発明は「次の処理画素アドレス126をぼかし範囲計算部104とぼかし画素アドレス計算部105と画素値計算部106に送り、以下同様の処理を繰り返させ、入力画素バッファ102に格納されたすべての画素に対して処理が終了させるぼかし処理制御部101」を有している。

したがって、引用例2には以下の発明(以下「引用発明2」)が記載されている。

「処理画素アドレス126のさす画素の奥行き値(d)114と、レンズの焦点距離(f)、アイリス値(F)、ピント位置(p)からなるぼかし特性パラメータ113から、【数1】

にしたがって、錯乱円の半径(C)であるぼかし範囲の大きさ115を計算するぼかし範囲計算部104と、
処理画素と処理画素の各近傍画素の距離をそれぞれ計算し、その値が錯乱円の半径以下の画素をぼかし画素として選択するぼかし画素アドレス計算部105と、
すべてのぼかし画素アドレス127に対して、ぼかし画素アドレス127の総数の逆数を分配数とし、処理画素値116に分配係数をかけた値を分配画素値とし、その分配画素値を画素値バッファ107に格納されている画素値中間結果117に加算しその画素値118で画素値バッファ107を更新する画素値計算部106と、
次の処理画素アドレス126をぼかし範囲計算部104とぼかし画素アドレス計算部105と画素値計算部106に送り、以下同様の処理を繰り返させ、入力画素バッファ102に格納されたすべての画素に対して処理が終了させるぼかし処理制御部101を有する、
ピントのあったところは鮮明に、ピントのあわないところは奥行きに応じてぼかす、レンズ特性に起因するぼかし効果を与えるのに利用される画像ぼかし処理装置。」

4.対比・一致点・相違点
ここで、本願発明と引用発明1を対比する。

4.1.「マルチビュー・ディスプレイの画像データをレンダリングする方法・・・とを含む方法。」
引用発明1は「3次元モデル用入力と少なくとも1つの視点用入力を有し3次元ディスプレイ装置にデータを描画する方法」であって、しかも、「メインビューポイント」および「残りのN-1個のビューポイント」のための処理を行うものであって、この「3次元ディスプレイ装置」は「マルチビュー・ディスプレイ」ということができるから、引用発明1と本願発明は「マルチビュー・ディスプレイの画像データをレンダリングする方法・・・とを含む方法。」である点で一致する。

4.2.「第1の画像を表す画像信号を受信する工程であって、前記第1の画像が3D画像データを備える工程」
引用発明1は「色(RGB)と奥行き値(Z)を有する一組のピクセルである3次元モデルとメインビューポイントが入力され」るものであって、この「色(RGB)と奥行き値(Z)を有する一組のピクセルである3次元モデル」は、本願発明の「第1の画像を表す画像信号」ということができるから、、引用発明1は、本願発明の「第1の画像を表す画像信号を受信する工程であって、前記第1の画像が3D画像データを備える工程」を含む点で一致する。

4.3.「第1の画像信号を空間フィルタリングして第2の画像信号を供給する工程であって、前記第2の画像信号が第2の画像を表し、前記空間フィルタリングが、前記第1の画像の画素毎に、前記画素を、前記第2の画像の画素の組に対する寄与分にマッピングする工程を含み、空間フィルタは、前記第2の画像の前記画素の組のサイズである強度を有し、前記サイズは、前記第1の画像の基準深度及び前記第1の画像の画素の深度によって求められ、前記空間フィルタリングは、前記第2の画像の画素毎に、前記画素に対する寄与分全てを累積することにより、前記第2の画像を生成する工程を更に含む工程」
本願明細書段落【0035】の「3D画像の認識画質を高くするために、画像の深度依存性フィルタリングは、画像のブラーが、特定の深度で焦点を合わせたカメラによってもたらされるブラーと一致しているようなものであり得る(これは図4に示す)。」、段落【0043】の「以下の実施例では、深度依存性ブラーに関する実施例を扱う。しかしながら、深度依存性空間フィルタを使用して、深度依存性ブラー化(低域通過フィルタリング)及び深度依存性鮮明化(高域通過フィルタリング)を行う。」、段落【0046】の「図7A及び図7Bは、鮮明度なしの深度依存性ブラーを示す。図7Aは、鮮明度なしでのソース画像のブラー化、すなわち、鮮明度なしでのデスティネーション画像の取得を示す。図7Bの画像は、図6Bに示す深度マップを用いてシフト視点の図7のデスティネーション画像から得られる。」の記載からみて、本願発明の「第1の画像信号を空間フィルタリングして第2の画像信号を供給する工程であって、前記第2の画像信号が第2の画像を表し、前記空間フィルタリングが、前記第1の画像の画素毎に、前記画素を、前記第2の画像の画素の組に対する寄与分にマッピングする工程を含み、空間フィルタは、前記第2の画像の前記画素の組のサイズである強度を有し、前記サイズは、前記第1の画像の基準深度及び前記第1の画像の画素の深度によって求められ、前記空間フィルタリングは、前記第2の画像の画素毎に、前記画素に対する寄与分全てを累積することにより、前記第2の画像を生成する工程を更に含む工程」は、「特定の深度で焦点を合わせたカメラによってもたらされるブラーと一致するような画像のブラーを与えること」を目的としていると認めることができる。
これに対し、引用発明1は「色(RGB)と奥行き値(Z)を有する一組のピクセルである3次元モデルとメインビューポイントからメインビューポイントに対するZスタックが生成され、メインビューポイントに対するZスタック91中のデータに対して、オブジェクトにフォーカスしているフォーカス平面があり、フォーカス平面から離れたオブジェクトは幾分ぼやけているような処理を行い、メインビューポイントに対する、幾分ぼけてフォーカスがはずれたオブジェクトと、フォーカス面内のシャープなオブジェクトを有するZスタック94を求め」るものである。
ここで、本願発明の「・・・前記第2の画像を生成する工程を更に含む工程」の目的である、「特定の深度で焦点を合わせたカメラによってもたらされるブラーと一致するような画像のブラーを与えること」における「ブラー」とは「画像のボケ」のことであるから、引用発明1の「色(RGB)と奥行き値(Z)を有する一組のピクセルである3次元モデルとメインビューポイントからメインビューポイントに対するZスタックが生成され、メインビューポイントに対するZスタック91中のデータに対して、オブジェクトにフォーカスしているフォーカス平面があり、フォーカス平面から離れたオブジェクトは幾分ぼやけているような処理を行い、メインビューポイントに対する、幾分ぼけてフォーカスがはずれたオブジェクトと、フォーカス面内のシャープなオブジェクトを有するZスタック94を求め」ることと本願発明の「・・・前記第2の画像を生成する工程を更に含む工程」は、いずれも、「特定の深度で焦点を合わせたカメラによってもたらされるブラーと一致するような画像のブラーを与えること」を目的としている点で一致している。
また、引用発明1の「メインビューポイントに対する、幾分ぼけてフォーカスがはずれたオブジェクトと、フォーカス面内のシャープなオブジェクトを有するZスタック94」と本願発明の「第2の画像信号」が一致している。
更に、引用発明1の「メインビューポイントに対するZスタック91中のデータに対して、オブジェクトにフォーカスしているフォーカス平面があり、フォーカス平面から離れたオブジェクトは幾分ぼやけているような処理を行い、メインビューポイントに対する、幾分ぼけてフォーカスがはずれたオブジェクトと、フォーカス面内のシャープなオブジェクトを有するZスタック94を求め」ることは空間フィルタリングであるということができるから、引用発明1と本願発明は「第1の画像信号を空間フィルタリングして第2の画像信号を供給する工程」を有する点で一致している。
しかしながら、本願発明の「第1の画像信号を空間フィルタリングして第2の画像信号を供給する工程」は「特定の深度で焦点を合わせたカメラによってもたらされる画像のボケと一致するような画像のボケを与えること」を目的として「前記空間フィルタリングが、前記第1の画像の画素毎に、前記画素を、前記第2の画像の画素の組に対する寄与分にマッピングする工程を含み、空間フィルタは、前記第2の画像の前記画素の組のサイズである強度を有し、前記サイズは、前記第1の画像の基準深度及び前記第1の画像の画素の深度によって求められ、前記空間フィルタリングは、前記第2の画像の画素毎に、前記画素に対する寄与分全てを累積することにより、前記第2の画像を生成する工程を更に含む工程」であるのに対し、引用発明1は「特定の深度で焦点を合わせたカメラによってもたらされる画像のボケと一致するような画像のボケを与えること」を目的として「オブジェクトにフォーカスしているフォーカス平面があり、フォーカス平面から離れたオブジェクトは幾分ぼやけているような処理を行い、メインビューポイントに対する、幾分ぼけてフォーカスがはずれたオブジェクトと、フォーカス面内のシャープなオブジェクトを有するZスタック94を求め」るに留まる点で相違する。

4.4.「前記第2の画像を複数のサブ画像にサンプリングし、各サブ画像は、画像の表示方向に関連付けられる工程」
引用発明1は「メインビューポイントのDOFぼかしZスタック94からオブジェクトを抽出し、抽出されたオブジェクトは、残りのN-1個のビューポイントのそれぞれについて、メインビューポイントとそれぞれのビューポイントの間の違いに従って、シフタ96でシフトされ、シフトされたオブジェクトは、新しいZスタックに再組み立てされるものであって、メインビューポイントのDOFぼかしZスタック94からオブジェクトを抽出する過程にはオブジェクト内の要素の再サンプリングが含まれ、そのメインビューポイントから追加的ビューポイントにオブジェクトを再サンプリングすることにより、データの消失が起こる」ものであるから、引用発明1の「新しいZスタック」と本願発明の「複数のサブ画像」が一致し、結局、引用発明1が「メインビューポイントのDOFぼかしZスタック94からオブジェクトを抽出し、抽出されたオブジェクトは、残りのN-1個のビューポイントのそれぞれについて、メインビューポイントとそれぞれのビューポイントの間の違いに従って、シフタ96でシフトされ、シフトされたオブジェクトは、新しいZスタックに再組み立てされるものであって、メインビューポイントから追加的ビューポイントにオブジェクトを再サンプリングすることにより、データの消失が起こる」処理を行うことと、本願発明の「前記第2の画像を複数のサブ画像にサンプリングし、各サブ画像は、画像の表示方向に関連付けられる工程」が一致する。

4.5.一致点・相違点
したがって、本願発明と引用発明1は以下の点で一致し、相違する。

[一致点]
「マルチビュー・ディスプレイの画像データをレンダリングする方法であって、
第1の画像を表す画像信号を受信する工程であって、前記第1の画像が3D画像データ
を備える工程と、
第1の画像信号を空間フィルタリングして第2の画像信号を供給する工程であって、特定の深度で焦点を合わせたカメラによってもたらされる画像のボケと一致するような画像のボケを与えることを目的としている工程と、
前記第2の画像を複数のサブ画像にサンプリングし、各サブ画像は、画像の表示方向に関連付けられる工程とを含む方法。」

[相違点]
本願発明の「第1の画像信号を空間フィルタリングして第2の画像信号を供給する工程」は「特定の深度で焦点を合わせたカメラによってもたらされる画像のボケと一致するような画像のボケを与えること」を目的として「前記空間フィルタリングが、前記第1の画像の画素毎に、前記画素を、前記第2の画像の画素の組に対する寄与分にマッピングする工程を含み、空間フィルタは、前記第2の画像の前記画素の組のサイズである強度を有し、前記サイズは、前記第1の画像の基準深度及び前記第1の画像の画素の深度によって求められ、前記空間フィルタリングは、前記第2の画像の画素毎に、前記画素に対する寄与分全てを累積することにより、前記第2の画像を生成する工程を更に含む工程」であるのに対し、引用発明1は「特定の深度で焦点を合わせたカメラによってもたらされる画像のボケと一致するような画像のボケを与えること」を目的として「オブジェクトにフォーカスしているフォーカス平面があり、フォーカス平面から離れたオブジェクトは幾分ぼやけているような処理を行い、メインビューポイントに対する、幾分ぼけてフォーカスがはずれたオブジェクトと、フォーカス面内のシャープなオブジェクトを有するZスタック94を求め」るに留まる点。

5.当審の判断
上記相違点について以下検討する。

ここで、引用発明2は「処理画素アドレス126のさす画素の奥行き値(d)114と、レンズの焦点距離(f)、アイリス値(F)、ピント位置(p)からなるぼかし特性パラメータ113から、【数1】

にしたがって、錯乱円の半径(C)であるぼかし範囲の大きさ115を計算するぼかし範囲計算部104と、処理画素と処理画素の各近傍画素の距離をそれぞれ計算し、その値が錯乱円の半径以下の画素をぼかし画素として選択するぼかし画素アドレス計算部105と、すべてのぼかし画素アドレス127に対して、ぼかし画素アドレス127の総数の逆数を分配数とし、処理画素値116に分配係数をかけた値を分配画素値とし、その分配画素値を画素値バッファ107に格納されている画素値中間結果117に加算しその画素値118で画素値バッファ107を更新する画素値計算部106と、次の処理画素アドレス126をぼかし範囲計算部104とぼかし画素アドレス計算部105と画素値計算部106に送り、以下同様の処理を繰り返させ、入力画素バッファ102に格納されたすべての画素に対して処理が終了させるぼかし処理制御部101を有する、ピントのあったところは鮮明に、ピントのあわないところは奥行きに応じてぼかす、レンズ特性に起因するぼかし効果を与えるのに利用される画像ぼかし処理装置。」である。

そして、引用発明1は上記「4.5.一致点・相違点」でも述べたように「特定の深度で焦点を合わせたカメラによってもたらされる画像のボケと一致するような画像のボケを与えること」を目的として「オブジェクトにフォーカスしているフォーカス平面があり、フォーカス平面から離れたオブジェクトは幾分ぼやけているような処理を行い、メインビューポイントに対する、幾分ぼけてフォーカスがはずれたオブジェクトと、フォーカス面内のシャープなオブジェクトを有するZスタック94を求め」るものであるが、この目的と同様の「ピントのあったところは鮮明に、ピントのあわないところは奥行きに応じてぼかす、レンズ特性に起因するぼかし効果を与える」ことを目的とする引用発明2を、引用発明1の「色(RGB)と奥行き値(Z)を有する一組のピクセルである3次元モデルとメインビューポイントからメインビューポイントに対するZスタックが生成され、メインビューポイントに対するZスタック91中のデータに対して、オブジェクトにフォーカスしているフォーカス平面があり、フォーカス平面から離れたオブジェクトは幾分ぼやけているような処理を行い、メインビューポイントに対する、幾分ぼけてフォーカスがはずれたオブジェクトと、フォーカス面内のシャープなオブジェクトを有するZスタック94を求め」る処理の具体的な演算として採用し、上記相違点のように「前記空間フィルタリングが、前記第1の画像の画素毎に、前記画素を、前記第2の画像の画素の組に対する寄与分にマッピングする工程を含み、空間フィルタは、前記第2の画像の前記画素の組のサイズである強度を有し、前記サイズは、前記第1の画像の基準深度及び前記第1の画像の画素の深度によって求められ、前記空間フィルタリングは、前記第2の画像の画素毎に、前記画素に対する寄与分全てを累積することにより、前記第2の画像を生成する工程を更に含む工程」としたことは、当業者が容易に想到し得たことにすぎない。

また、本願発明は、格別の作用効果を奏するものとも認められない。

したがって、本願発明は、引用発明1,2に基づき当業者が容易に発明できたものである。

6.むすび
以上のとおり、本願発明は、引用例1,2に記載された発明に基づいて当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。
したがって、残る請求項2?6に係る発明について検討するまでもなく、本件出願は拒絶をすべきものである。

よって、結論のとおり審決する。
 
審理終結日 2013-09-10 
結審通知日 2013-09-17 
審決日 2013-09-30 
出願番号 特願2008-542900(P2008-542900)
審決分類 P 1 8・ 121- WZ (H04N)
P 1 8・ 537- WZ (H04N)
P 1 8・ 536- WZ (H04N)
最終処分 不成立  
前審関与審査官 伊東 和重  
特許庁審判長 松尾 淳一
特許庁審判官 渡邊 聡
奥村 元宏
発明の名称 画像信号の深度依存性フィルタリング  
代理人 伊東 忠重  
代理人 大貫 進介  
代理人 伊東 忠彦  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ