• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 1項3号刊行物記載 特許、登録しない。 H04N
審判 査定不服 2項進歩性 特許、登録しない。 H04N
管理番号 1362876
審判番号 不服2019-2201  
総通号数 247 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2020-07-31 
種別 拒絶査定不服の審決 
審判請求日 2019-02-18 
確定日 2020-06-03 
事件の表示 特願2016-561358「立体ビューイング」拒絶査定不服審判事件〔平成27年10月15日国際公開、WO2015/155406、平成29年 7月 6日国内公表、特表2017-518663〕について、次のとおり審決する。 
結論 本件審判の請求は、成り立たない。 
理由 第1 手続の経緯
本願は、2015年(平成27年)3月19日(パリ条約による優先権主張 外国庁受理2014年4月7日 英国)を国際出願日とする出願であって、その手続の経緯は以下のとおりである。

平成28年11月22日 :手続補正
平成30年 1月31日付け:拒絶理由通知
同年 5月 2日 :手続補正、意見書の提出
同年10月 9日付け:拒絶査定
平成31年 2月18日 :審判請求

第2 本願発明
本願の請求項に係る発明は、平成30年5月2日付けの手続補正により補正された特許請求の範囲の請求項1?34に記載された事項により特定されるものと認められるところ、その請求項18に係る発明(以下、「本願発明」という。)は、以下のとおりのものである。
なお、本願発明の各構成の符号は、説明のために当審において付与したものであり、以下、構成A?構成Dと称する。

(本願発明)
(A)シーンの立体映像シーケンスを形成するためにユーザーの頭部向きを決定するステップと、
(B)前記頭部向きに基づいて第1の画像ソース、第2の画像ソースおよび第3の画像ソースを選択するステップと、
(C)前記第1の画像ソースおよび前記第2の画像ソースを用いてユーザーの左眼についての画像シーケンス、および、前記第1の画像ソースおよび前記第3の画像ソースを用いて前記ユーザーの右眼についての画像シーケンスをレンダリングすることによって前記立体映像シーケンスをレンダリングするステップであって、
(C1)前記第1の画像ソースが、前記立体映像シーケンスの各立体フレーム内の前記ユーザーの前記左眼および右眼についての前記シーンの異なるエリアをレンダリングするために使用される、ステップと、
(D)を含む方法。

第3 原査定における拒絶の理由
本願発明についての原査定の拒絶の理由の理由1及び理由2は、概略、以下のとおりである。

1.(新規性)この出願の下記の請求項に係る発明は、その出願前に日本国内又は外国において、頒布された下記の刊行物に記載された発明又は電気通信回線を通じて公衆に利用可能となった発明であるから、特許法第29条第1項第3号に該当し、特許を受けることができない。

2.(進歩性)この出願の下記の請求項に係る発明は、その出願前に日本国内又は外国において、頒布された下記の刊行物に記載された発明又は電気通信回線を通じて公衆に利用可能となった発明に基いて、その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。



●理由1(新規性)、理由2(進歩性)について
・引用文献等 1

●理由2(進歩性)について
・引用文献等 2-4

<引用文献等一覧>
1.特表2004-514951号公報
2.特開平6-46313号公報
3.特開2002-171460号公報(周知技術を示す文献)
4.米国特許第5703604号明細書(周知技術を示す文献)

第4 引用文献の記載及び引用発明
1 引用文献1の記載事項
原査定の拒絶の理由に引用文献1として引用された特表2004-514951号公報には、「球面立体視撮影システム及びその方法」(発明の名称)に関して、図面とともに、次の事項が記載されている。

(1)「【0011】
本発明の第4の形態は、立体視表示を可能にする手段を備えるシステムにより、観察者に表示される視界領域の完全な立体視球面画像をキャプチャし、表示するプロセスである。このプロセスは、a)すべてのレンズによりキャプチャされる全体の視界がレンズアレイの周りの視界領域全体をカバーし、この全体の視界における任意の点が少なくとも2つのレンズによりキャプチャされるように、画像群をキャプチャする3次元レンズアレイを配置するステップ;b)立体視表示のためのシステムから、観察者の視界の座標を受け取るステップ;c)画像群から観察者の視界をカバーする立体視画像ペアを形成するステップ;d)立体視表示のためのシステムにより立体視画像ペアを観察者に表示するステップ;から構成される。画像群から立体視画像ペアを形成するステップは、a)観察者の視界を画像群に投影するステップ;b)画像群から、少なくとも部分的に観察者の視界とオーバーラップする画像グループを選択するステップ;c)左画像部分のグループと右画像部分のグループ得るために、観察者の目線に垂直で画像中心を通る直線により選択された画像グループの各画像を左部と右部に分割するステップ;d)選択される左部のグループを得るために、左画像部分のグループから観察者の視界とオーバーラップする部分を選択するステップ;e)選択された左部を立体視ペアの右側画像である単一の2次元第1画像に統合するステップ;f)選択される右部のグループを得るために、右画像部分のグループから観察者の視界とオーバーラップする部分を選択するステップ;g)選択された右部を立体視ペアの左側画像である単一の2次元第2画像に統合するステップ;から構成される。
[好適実施例の詳細な説明]
本発明は、完全な立体視球面画像あるいはその連続部分を同時にキャプチャするシステム及び方法を提供する。立体視画像を形成するための本発明による方法は光学原理に基づくものであり、したがって任意の撮影技術に適用可能である。本発明の実施例では、本発明によるシステムはデジタルビデオカメラを備えるが、アナログビデオカメラやフィルムカメラが使われてもよい。本発明によるシステムでは、静止画あるいは動画のための時系列画像が生成されてもよい。」

(2)「【0029】
(中略)
図4及び図5は、画像の記録及び表示に関する主要なステップを示している。ステップ510においてレンズ1のそれぞれによりキャプチャされた画像(あるいは画像系列)情報が、ステップ520において画質の向上のため画像プロセッサ30により随意的に処理される。ステップ530において、これらの画像は記録システム40により記録され、適当な記憶媒体に随意的に記憶される。カメラ5のそれぞれからの(アナログあるいはデジタル、1つの画像あるいは画像系列)画像情報が、レンズ指標と時間指標とともに記録される。レンズ指標は、レンズ特徴と球体座標に関する位置についての情報を含む。従って、記録される画像群が、各画像が個別に記憶され、隣接画像に関する相対位置についての情報を含むように形成される。」

(3)「【0031】
記録された画像は既知のバーチャルリアリティ装置60を利用した表示システム50を介して観察者に表示される。また、表示システム50はカメラシステムから直接にリアルタイムで画像情報を受信視してもよい。」

(4)「【0033】
図6は、表示パラメータに従い観察者に表示するために、記録された画像群から立体視画像のペアを生成するステップを示すフローチャートである。観察者の表示パラメータはバーチャルリアリティに関する既知の手段60を利用することにより検出される。(中略)
【0034】
ステップ610において、観察者がバーチャルリアリティヘッドセットの装着中に頭を動かすことによって、あるいはコンピュータ装置に接続されたポインティングデバイスによりある視界を選択すると、表示システムにより表示パラメータが検出・受信される。観察者の表示パラメータには、観察者の表示方向と観察者の目線が含まれる。
【0035】
ステップ620において、これらの表示パラメータに従い、観察者の視界がその周囲の球体の座標に関して決定され、記録されている画像群に投影される。ステップ630において、観察者の視界を少なくとも部分的に重複しているすべての画像が、記録画像群から選択される。」

(5)「【0038】
図7は、本発明による立体視ペアの生成例を示す。フレーム100は表示システム60により受け取られた観察者の視界を表す。図示されたフレームは矩形形状を有する。しかしながら、カメラの技術的能力に依存して、同一の立体視原理が丸いフレームに適用されてもよい。フレーム31、32及び33は、カメラシステム10のレンズにより(下方から)撮影された観察者の視界100をオーバーラップする3つの隣接画像を示す。フレーム31と33がフレーム100のそれぞれ左側と右側を部分的にオーバーラップしている一方、真ん中のフレーム32はフレーム100を完全にカバーしている。図6のステップ640?660に従って、観察者の右目に表示される新たな画像40が、画像32の左部と画像33の左部を統合することにより形成される。同様にして左画像41は、画像31の右部と画像32の右部を統合することにより形成され、ペア画像が形成される。新たに生成された画像40と41はともに、観察者の視界をカバーしているが、これらは明らかに同一のものではない。これらは2つの視点から撮影されているので、観察者に立体的な感覚を与えることができる。この新たな画像ペアは、観察者の視界方向に向いた光軸と水平方向のずれを有する2つのバーチャルレンズにより撮影された画像と一致する。」

(6)「【0040】
このように形成された立体視画像ペアが、テレビやコンピュータスクリーンのようなフラットスクリーン上に、あるいはバーチャルリアリティーヘッドセットのような表示装置を利用することにより表示される。フラットスクリーンに表示されるとき、立体視表示のための標準的なカラーフィルタリング方法に従って、あるいは立体視表示の既知の手法により、適当な視野から観察された立体視ペアとして表示される。表示される画像は上述のように観察者の視点に従い変化する。」

(7)「[図7]


(8)「Reference is now made to Fig 6 which is a flowchart describing the steps for generating a pair of stereoscopic images from the collection of recorded images in order to be displayed to the viewer according to his viewing parameters. The viewer's viewing parameters are detected by employing known means in the art of virtual reality, designated 60.(中略)
In step 610, when a viewer selects a specific view, either by actually turning his head while wearing a virtual reality headset, or by a pointing device coupled to a computer device, the viewing parameters are detected and received by the displaying system. The viewer's viewing parameters include the viewer's viewing direction and viewer's horizon.
In step 620, in accordance with these parameters, the viewer's field of vision is determined in terms of the coordinates of the sphere surrounding the viewer and is projected into the collection of stored images. In step 630 all the images that overlap at least partially the viewer's field of vision are selected from the collection of recorded images.」(第26頁第25行?第27頁第12行)

(9)「Fig. 7 pictorially describes one example of generating a stereoscopic pair according to the present invention. Frame 100 represents the viewer's field of vision as received by viewing system 60. The illustrated frame has rectangular shape, however the same stereoscopic principles can be applied to circular frames depending on the cameras technological capabilities. Frames 31, 32 and 33 represent three adjacent images, taken by the lenses (as viewed from underneath) of the camera system 10, which overlap viewer's field of vision 100. The middle frame 32 covers frame 100 completely while frames 31 and 33 partly overlap the left and the right sides of frame 100, respectively. In accordance with steps 640-660 of Fig. 6, a new image 40, to be displayed to the viewer's right eye, is formed from images 32 and 33 by merging a left portion of image 32 with a left portion of image 33. Left image 41 is formed similarly by merging a right portion of image 32 with a right portion of image 31 to form a uniform image. New images 40 and 41 both cover the viewer's field of vision but obviously they are not identical, and are perceived as were taken from two viewpoints, thus giving the viewer a stereoscopic perception. Roughly, this new image pair is equivalent to a pair of images as if were taken by two virtual lenses having their optical axes directed forward in the viewer's viewing direction and having horizontal disparity.」(第27頁第29行?第28頁第14行)

2 引用文献1に記載された発明
引用文献1に記載された発明を以下に認定する。

(1)上記1(1)によれば、引用文献1には、「立体視表示を可能にする手段を備えるシステムにより、観察者に表示される視界領域の完全な立体視球面画像をキャプチャし、表示するプロセス」が記載されており、当該プロセスは、
「a)すべてのレンズによりキャプチャされる全体の視界がレンズアレイの周りの視界領域全体をカバーし、この全体の視界における任意の点が少なくとも2つのレンズによりキャプチャされるように、画像群をキャプチャする3次元レンズアレイを配置するステップ;
b)立体視表示のためのシステムから、観察者の視界の座標を受け取るステップ;
c)画像群から観察者の視界をカバーする立体視画像ペアを形成するステップ;
d)立体視表示のためのシステムにより立体視画像ペアを観察者に表示するステップ」
から構成されることが記載されている。
また、上記c)のステップである「画像群から立体視画像ペアを形成するステップ」は、
「a)観察者の視界を画像群に投影するステップ;
b)画像群から、少なくとも部分的に観察者の視界とオーバーラップする画像グループを選択するステップ;
c)左画像部分のグループと右画像部分のグループ得るために、観察者の目線に垂直で画像中心を通る直線により選択された画像グループの各画像を左部と右部に分割するステップ;
d)選択される左部のグループを得るために、左画像部分のグループから観察者の視界とオーバーラップする部分を選択するステップ;
e)選択された左部を立体視ペアの右側画像である単一の2次元第1画像に統合するステップ;
f)選択される右部のグループを得るために、右画像部分のグループから観察者の視界とオーバーラップする部分を選択するステップ;
g)選択された右部を立体視ペアの左側画像である単一の2次元第2画像に統合するステップ;
から構成されるプロセス」
から構成されることが記載されている。
これらを統合すると、引用文献1には、
「(a)立体視表示を可能にする手段を備えるシステムにより、観察者に表示される視界領域の完全な立体視球面画像をキャプチャし、表示するプロセスであって、当該プロセスは、
(b)すべてのレンズによりキャプチャされる全体の視界がレンズアレイの周りの視界領域全体をカバーし、この全体の視界における任意の点が少なくとも2つのレンズによりキャプチャされるように、画像群をキャプチャする3次元レンズアレイを配置するステップ;
(c)立体視表示のためのシステムから、観察者の視界の座標を受け取るステップ;
(d)画像群から観察者の視界をカバーする立体視画像ペアを形成するステップ;
前記画像群から立体視画像ペアを形成するステップは、
(d1)観察者の視界を画像群に投影するステップ;
(d2)画像群から、少なくとも部分的に観察者の視界とオーバーラップする画像グループを選択するステップ;
(d3)左画像部分のグループと右画像部分のグループ得るために、観察者の目線に垂直で画像中心を通る直線により選択された画像グループの各画像を左部と右部に分割するステップ;
(d4)選択される左部のグループを得るために、左画像部分のグループから観察者の視界とオーバーラップする部分を選択するステップ;
(d5)選択された左部を立体視ペアの右側画像である単一の2次元第1画像に統合するステップ;
(d6)選択される右部のグループを得るために、右画像部分のグループから観察者の視界とオーバーラップする部分を選択するステップ;
(d7)選択された右部を立体視ペアの左側画像である単一の2次元第2画像に統合するステップ;
(e)立体視表示のためのシステムにより立体視画像ペアを観察者に表示するステップ;
(a)から構成されるプロセス。」
が記載されている。(ただし、上記1(1)のとおり、引用文献1において、異なる構成に、同一のa)?d)という符号が用いられているため、便宜的に、新たな符号(a)?(e)を用いている。)

(2)上記1(2)によれば、引用文献1に記載されたプロセスは、「画像の記録に関するステップ」を含むことが記載されている。
当該画像の記録に関するステップは、「レンズ1のそれぞれによりキャプチャされた画像(あるいは画像系列)情報が、画質の向上のため処理され、(画像あるいは画像系列)画像情報が、レンズ指標と時間指標とともに記録される」ことが記載されている。
また、上記1(3)によれば、当該画像情報は、「カメラシステムから直接にリアルタイムで受信」してもよいことが記載されている。
これらを統合すると、引用文献1に記載されたプロセスは、「レンズ1のそれぞれによりキャプチャされた画像(あるいは画像系列)情報が、画質の向上のため処理され、(画像あるいは画像系列)画像情報がレンズ指標と時間指標とともに記録され、カメラシステムから直接にリアルタイムで受信するステップ」から構成されることが記載されている。

(3)上記1(4)【0033】及び【0034】によれば、上記(c)の立体視表示のためのシステムから受け取るステップは、「観察者がバーチャルリアリティヘッドセットの装着中に頭を動かすことによって、表示システムにより表示パラメータが検出・受信され、観察者の表示パラメータには、観察者の表示方向と観察者の目線が含まれる」ことが記載されている。
上記1(4)は、上記1(8)を翻訳したものであって、上記「観察者の表示方向」は、上記1(8)の「viewer's viewing direction」を翻訳したものである。
ここで、上記1(5)の「観察者の視界方向に向いた光軸と水平方向のずれを有する2つのバーチャルレンズにより撮影された画像」は、上記1(9)の「a pair of images as if were taken by two virtual lenses having their optical axes directed forward in the viewer's viewing direction and having horizontal disparity」を翻訳したものであることを鑑みると、上記1(4)の「観察者の表示方向」(viewer's viewing direction)は、上記1(5)の「観察者の視界方向」(viewer's viewing direction)と同じものとして認定する。
そうすると、引用文献1に記載されたプロセスは、「前記立体視表示のためのシステムから受け取るステップは、観察者がバーチャルリアリティヘッドセットの装着中に頭を動かすことによって、表示システムにより表示パラメータが検出・受信され、観察者の表示パラメータには、観察者の視界方向と観察者の目線が含まれる」ことが記載されている。

(4)上記1(4)【0035】によれば、上記(d1)のステップは、「表示パラメータに従い、観察者の視界がその周囲の球体の座標に関して決定され、記録されている画像群に投影される」ことが記載されている。

(5)上記1(5)によれば、上記(d2)の画像群から選択するステップが選択する画像グループは、「フレーム31、32及び33は、カメラシステムのレンズにより撮影された観察者の視界をオーバーラップする3つの隣接画像であり、フレーム31と33がフレーム100のそれぞれ左側と右側を部分的にオーバーラップしている一方、真ん中のフレーム32はフレーム100を完全にカバーしている」であることが記載されている。

(6)上記1(5)及び(7)によれば、上記(d4)のステップにおいて、前記「観察者の視界とオーバーラップする部分」は、「画像32の左部と画像33の左部である」ことが記載されている。
また、上記(d5)のステップにおいて、前記「立体視ペアの右側画像である単一の2次元第1画像」は、「その左側が当該画像32の左部であり、右側が当該画像33の左部である」ことが記載されている。

(7)上記1(5)及び(7)によれば、上記(d6)のステップにおいて、前記「観察者の視界とオーバーラップする部分」は、「画像31の右部と画像32の右部である」ことが記載されている。
また、上記(d7)のステップにおいて、前記「立体視ペアの左側画像である単一の2次元第2画像」は、「その左側が当該画像31の右部であり、右側が当該画像32の右部である」ことが記載されている。

(8)上記1(6)によれば、上記(e)の立体視表示のためのシステムにより表示するステップにおいて、「バーチャルリアリティーヘッドセットのような表示装置を利用することにより、立体視画像ペアを観察者に表示する」ことが記載されている。

(9)まとめ
以上によれば、引用文献1には、以下のとおりの発明(以下、「引用発明」という。)が記載されている。
なお、引用発明の各構成を、以降では、構成a?構成eと称する。

(引用発明)
(a)立体視表示を可能にする手段を備えるシステムにより、観察者に表示される視界領域の完全な立体視球面画像をキャプチャし、表示するプロセスであって、当該プロセスは、
(b)すべてのレンズによりキャプチャされる全体の視界がレンズアレイの周りの視界領域全体をカバーし、この全体の視界における任意の点が少なくとも2つのレンズによりキャプチャされるように、画像群をキャプチャする3次元レンズアレイを配置するステップ;
(b1)レンズ1のそれぞれによりキャプチャされた画像(あるいは画像系列)情報が、画質の向上のため処理され、(画像あるいは画像系列)画像情報がレンズ指標と時間指標とともに記録され、カメラシステムから直接にリアルタイムで受信するステップ;
(c)立体視表示のためのシステムから、観察者の視界の座標を受け取るステップ;
(c1)前記立体視表示のためのシステムから受け取るステップは、観察者がバーチャルリアリティヘッドセットの装着中に頭を動かすことによって、表示システムにより表示パラメータが検出・受信され、観察者の表示パラメータには、観察者の視界方向と観察者の目線が含まれ、
(d)画像群から観察者の視界をカバーする立体視画像ペアを形成するステップ;
前記画像群から立体視画像ペアを形成するステップは、
(d1)観察者の視界を画像群に投影するステップ;
(d11)ここで、前記観察者の視界を画像群に投影するステップは、前記表示パラメータに従い、観察者の視界がその周囲の球体の座標に関して決定され、記録されている画像群に投影され、
(d2)画像群から、少なくとも部分的に観察者の視界とオーバーラップする画像グループを選択するステップ;
(d21)ここで、前記画像グループであるフレーム31、32及び33は、カメラシステムのレンズにより撮影された観察者の視界をオーバーラップする3つの隣接画像であり、フレーム31と33がフレーム100のそれぞれ左側と右側を部分的にオーバーラップしている一方、真ん中のフレーム32はフレーム100を完全にカバーしており、
(d3)左画像部分のグループと右画像部分のグループ得るために、観察者の目線に垂直で画像中心を通る直線により選択された画像グループの各画像を左部と右部に分割するステップ;
(d4)選択される左部のグループを得るために、左画像部分のグループから観察者の視界とオーバーラップする部分を選択するステップ;
(d41)ここで、前記観察者の視界とオーバーラップする部分は、画像32の左部と画像33の左部であり、
(d5)選択された左部を立体視ペアの右側画像である単一の2次元第1画像に統合するステップ;
(d51)ここで、前記立体視ペアの右側画像である単一の2次元第1画像は、その左側が当該画像32の左部であり、右側が当該画像33の左部であり、
(d6)選択される右部のグループを得るために、右画像部分のグループから観察者の視界とオーバーラップする部分を選択するステップ;
(d61)ここで、前記観察者の視界とオーバーラップする部分は、画像31の右部と画像32の右部であり、
(d7)選択された右部を立体視ペアの左側画像である単一の2次元第2画像に統合するステップ;
(d71)ここで、前記立体視ペアの左側画像である単一の2次元第2画像は、その左側が当該画像31の右部であり、右側が当該画像32の右部であり、
(e)立体視表示のためのシステムにより、バーチャルリアリティーヘッドセットのような表示装置を利用することにより、立体視画像ペアを観察者に表示するステップ;
(a)から構成されるプロセス。

第5 対比
本願発明と、引用発明を対比する。

1 構成Aについて
(1)構成c?構成d11の「観察者」は、構成aの「立体視表示を可能にする手段を備えるシステム」のユーザであるといえる。

(2)構成c1の「観察者の視界方向」は、「観察者がバーチャルリアリティヘッドセットの装着中に頭を動かすことによって」検出されるものであるから、構成Aの「ユーザーの頭部向き」に相当する。
そして、構成d11の「前記表示パラメータに従い、観察者の視界がその周囲の球体の座標に関して決定され」ることは、「ユーザーの頭部向きを決定する」といえる。

(3)構成d1及び構成d11で決定した「観察者の視界」を用いて、構成dの「前記画像群から立体視画像ペアを形成するステップ」が行われるから、構成c?構成d11は、「画像群から立体視画像ペアを形成する」ためのものであるといえる。
ここで、当該画像群の画像は、構成b1のとおり、画像系列情報であり、カメラシステムから直接にリアルタイムで受信してもよいものであるから、引用発明において形成される当該「立体視画像ペア」は、複数の時刻における「立体視画像ペア」、すなわち、シーンの立体映像シーケンスであるといえる。
してみると、構成c?構成d11は、画像群からシーンの立体映像シーケンスを形成するためのステップであるといえる。

(4)上記(1)?(3)より、引用発明は、「シーンの立体映像シーケンスを形成するために、ユーザーの頭部向きを決定するステップ」を含んでいるといえるから、引用発明は、構成Aを含む点で、本願発明と一致する。

2 構成Bについて
(1)構成d2及びd21は、「画像群から、少なくとも部分的に観察者の視界とオーバーラップする画像グループ」として、「フレーム31、32及び33」の画像のグループを選択するものであるから、「観察者の視界に基づいて、フレーム31、32及び33の画像のグループを選択する」ものといえる。
そして、当該「観察者の視界」は、上記1(2)より、決定された観察者の頭部の向きに基づくものであるから、構成d2及び構成d21は、「観察者の頭部の向きに基づいて、フレーム31、32及び33の画像のグループを選択する」ものといえる

(2)また、構成d21の当該「フレーム31、32及び33」の画像は、構成d?構成d71において、「立体視画像ペアを形成する」ためのソースであるといえる。

(3)上記(1)及び(2)より、構成d?d71は、「頭部向きに基づいて第1の画像ソース、第2の画像ソースおよび第3の画像ソースを選択するステップ」を含んでいるといえるから、引用発明は、構成Bを含む点で、本願発明と一致する。

3 構成C及びC1について
(1)構成d7の「立体視ペアの左側画像」は、観察者の左眼に表示する画像であり、また、構成d5の「立体視ペアの右側画像」は、観察者の右眼に表示する画像である。
当該「立体視ペアの左側画像」は、構成d6?構成d71のとおり、「画像31の右部と画像32の右部」を統合することにより、また、当該「立体視ペアの右側画像」は、構成d4?構成d51のとおり、「画像32の左部と画像33の左部」を統合することにより」形成することから、構成d21?構成d71の「画像32」、「画像31」、「画像33」はそれぞれ、構成Cの「第1の画像ソース」、「第2の画像ソース」、「第3の画像ソース」に相当する。

(2)構成d7において、「選択された右部」すなわち構成d61の「画像31の右部と画像32の右部」を、「立体視ペアの左側画像である単一の2次元第2画像に統合する」ことは、上記(1)及び上記1(3)より、第1の画像ソースおよび第2の画像ソースを用いてユーザーの左眼についての画像シーケンスをレンダリングすることといえる。
同様に、構成d5において、「選択された左部」、すなわち、構成d41の「画像32の左部と画像33の左部」を、「立体視ペアの右側画像である単一の2次元第1画像に統合する」ことは、上記(1)及び上記1(3)より、第1の画像ソースおよび前記第3の画像ソースを用いて前記ユーザーの右眼についての画像シーケンスをレンダリングすることといえる。

(3)また、構成dにおける「立体視画像ペア」は、構成d5の「立体視ペアの右側画像」及び構成d7の「立体視ペアの左側画像」であるから、構成d?d7において、当該「立体視画像ペアを形成する」ことは、上記(2)及び上記1(3)より、「立体映像シーケンスをレンダリングする」ことといえる。

(4)上記(2)及び(3)より、構成d?構成d7は、「前記第1の画像ソースおよび前記第2の画像ソースを用いてユーザーの左眼についての画像シーケンス、および、前記第1の画像ソースおよび前記第3の画像ソースを用いて前記ユーザーの右眼についての画像シーケンスをレンダリングすることによって前記立体映像シーケンスをレンダリングするステップ」を含んでいるといえるから、引用発明は、構成Cを含む点で、本願発明と一致する。

(5)構成d4?d71の「画像32」は、構成d51及び構成d71のとおり、「立体視ペアの右側画像である単一の2次元第1画像」と「立体視ペアの左側画像である単一の2次元第2画像」とで、異なる側で使用されている。

(6)また、当該「立体視ペア」は、上記1(3)より、シーンの立体映像シーケンスを形成するものであり、その立体映像シーケンスの1つ1つが、「立体フレーム」といえることは自明である。

(7)上記(1)、(5)及び(6)より、構成d?d71は、「第1の画像ソースを、立体映像シーケンスの各立体フレーム内のユーザの左眼および右眼についてのシーンの異なる領域をレンダリングするために使用する」ものといえるから、引用発明は、構成C1を含む点で、本願発明と一致する。

5 構成Dについて
構成aは「プロセス」であるから、構成Dの「方法」と一致する。

6 まとめ
したがって、本願発明と引用発明とは、
(A)シーンの立体映像シーケンスを形成するためにユーザーの頭部向きを決定するステップと、
(B)前記頭部向きに基づいて第1の画像ソース、第2の画像ソースおよび第3の画像ソースを選択するステップと、
(C)前記第1の画像ソースおよび前記第2の画像ソースを用いてユーザーの左眼についての画像シーケンス、および、前記第1の画像ソースおよび前記第3の画像ソースを用いて前記ユーザーの右眼についての画像シーケンスをレンダリングすることによって前記立体映像シーケンスをレンダリングするステップであって、
(C1)前記第1の画像ソースが、前記立体映像シーケンスの各立体フレーム内の前記ユーザーの前記左眼および右眼についての前記シーンの異なるエリアをレンダリングするために使用される、ステップと、
(D)を含む方法。
として一致しており、相違点はない。

したがって、本願発明は、引用文献1に記載された発明である。

第6 むすび
以上のとおり、本願発明は、引用文献1に記載された発明であるから、特許法第29条第1項第3号に該当し、特許を受けることができない。

したがって、本願は、その余の請求項について検討するまでもなく、拒絶をすべきものである。
よって、結論のとおり審決する。

 
別掲
 
審理終結日 2019-12-27 
結審通知日 2020-01-07 
審決日 2020-01-22 
出願番号 特願2016-561358(P2016-561358)
審決分類 P 1 8・ 113- Z (H04N)
P 1 8・ 121- Z (H04N)
最終処分 不成立  
前審関与審査官 益戸 宏  
特許庁審判長 千葉 輝久
特許庁審判官 小池 正彦
菊池 智紀
発明の名称 立体ビューイング  
代理人 三橋 真二  
代理人 青木 篤  
代理人 森 啓  
代理人 渡辺 陽一  
代理人 胡田 尚則  
代理人 南山 知広  
代理人 鶴田 準一  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ