ポートフォリオを新規に作成して保存 |
|
|
既存のポートフォリオに追加保存 |
|
PDFをダウンロード |
審決分類 |
審判 査定不服 2項進歩性 特許、登録しない(前置又は当審拒絶理由) H04N |
---|---|
管理番号 | 1368544 |
審判番号 | 不服2019-380 |
総通号数 | 253 |
発行国 | 日本国特許庁(JP) |
公報種別 | 特許審決公報 |
発行日 | 2021-01-29 |
種別 | 拒絶査定不服の審決 |
審判請求日 | 2019-01-11 |
確定日 | 2020-11-18 |
事件の表示 | 特願2015-544084「3Dプレノプティックビデオ画像を作成するためのシステムおよび方法」拒絶査定不服審判事件〔平成26年 6月 5日国際公開、WO2014/085092、平成28年 2月12日国内公表、特表2016-504825〕について、次のとおり審決する。 |
結論 | 本件審判の請求は、成り立たない。 |
理由 |
第1 経緯 本件出願は、2013年(平成25年)11月13日(パリ条約による優先権主張外国庁受理2012年11月27日 米国)を国際出願日とする出願であって、その手続の経緯は以下のとおりである。 平成28年10月14日 :手続補正 平成29年12月26日付け:拒絶理由通知 平成30年 4月16日 :意見書及び手続補正 平成30年 9月 4日付け:拒絶査定 平成30年 9月11日 :拒絶査定の謄本の送達 平成31年 1月11日 :審判請求 令和 元年11月19日付け:当審の拒絶理由通知 令和 2年 2月26日 :意見書及び手続補正 第2 本願発明について1 本願発明 本願の請求項に係る発明は、令和2年2月26日付け手続補正で補正された特許請求の範囲の請求項1ないし13に記載した事項により特定されるものであるところ、その請求項1に係る発明(以下、「本願発明」という。)は、次のとおりのものである。 なお、各構成の符号(A)?(F)は、説明のために当審で付したものであり、以下、構成A?構成Fと称する。 (本願発明) 「【請求項1】 (A)複数の深度面を有する少なくとも1つのプレノプティック画像を作成することが可能なプレノプティック画像ソースと、 (B)前記少なくとも1つのプレノプティック画像内の物体を前記複数の深度面のうちの1つに割り当てるように構成された深度マッピングモジュールと、 (C1)前記複数の深度面のうちの前記1つに割り当てられた前記物体を有する (C2)前記少なくとも1つのプレノプティック画像 (C)を表示するためのディスプレイと、 (D1)前記表示されたプレノプティック画像の前記複数の深度面のうちの1つ内の前記物体へのユーザの注視位置をトラッキングし、 (D2)かつ前記ユーザによって観察されている前記物体の前記深度面に前記表示されたプレノプティック画像のフォーカルプレーンを設定する (D)ように構成されるアイトラッキングシステムと、 (E1)前記ユーザによって観察されている前記物体の前記深度面と連携するように (E2)前記プレノプティック画像のフォーカスを変更するとともに (E3)表示されるフォーカルプレーンを更新する (E)ように構成される深度面フォーカスモジュールと (F)を備える、プレノプティック画像を作成するためのシステム。」 2 引用文献に記載される発明及び技術 (1)引用文献1 (1-1)引用文献1の記載事項 令和元年11月19日付けの当審の拒絶の理由に記載された引用文献1である米国特許出願公開第2012/0019703号明細書には、「カメラシステム及び写真の表示方法」(発明の名称)に関し、図面と共に次に掲げる事項が記載されている。 なお、下線は、強調のために当審で付したものである。 ア 「[0001] The technology of the present disclosure relates generally to photography and, more particularly, to digital camera systems and methods for displaying photographs in a manner that simulates how people see.」 (仮訳)「[0001]本開示の技術は、一般に、写真に関し、より詳細には、人の視覚をシミュレートするように写真を表示するデジタルカメラシステムおよび方法に関する。」 イ 「[0022] Described below in conjunction with the appended figures are various embodiments of camera systems and methods of displaying a photo. In the illustrated embodiments, the camera system is embodied as a digital camera assembly that is made part of a mobile telephone. It will be appreciated that the disclosed camera technology may be applied to other operational contexts such as, but not limited to, a dedicated camera or another type of electronic device that has a camera. Examples of these other devices include, but are not limited to a video camera, a digital photo viewer (sometimes referred to as a digital picture frame), a navigation device (commonly referred to as a "GPS" or "GPS device"), a personal digital assistant (PDA), a media player (e.g., an MP3 player), a gaming device, a "web" camera, a computer (including a laptop, an "ultra-mobile PC" or other type of computer), and an accessory for another electronic device. The camera assembly may be used to capture image data in the form of still images, also referred to as pictures, photos, and photographs, but it will be understood that the camera assembly may be capable of capturing video images in addition to still images. The camera operation and photo display techniques are described in the exemplary context of still photography, but it will be appreciated that the techniques may be used in connection with videography. [0023] Referring initially to FIGS. 1 and 2, an electronic device 10 is shown. The illustrated electronic device 10 is a mobile telephone. The electronic device 10 includes a camera assembly 12 for taking digital still pictures and/or digital video clips. It is emphasized that the electronic device 10 need not be a mobile telephone, but could be a dedicated camera or some other device as indicated above. [0024] With additional reference to FIG. 3, the camera assembly 12 may be arranged as a light-field camera assembly. Light-field cameras are also referred to by the names plenoptic cameras and polydioptric cameras. The camera assembly includes imaging optics 14 to focus light from a scene within the field of view of the camera assembly 12. A sensor 16 is present to convert the light into image data. A microlens array 18 (also known as a lenticular lens array) is located between the optics 14 and the sensor 16. The microlens array 18 allows the sensor 16 to capture a "4D" light field by refocusing light onto the image sensor 16 so that the resulting image data contains many small images taken from slightly different viewpoints. As will be described, the image data may be manipulated to extract depth information and "refocus" the image as a whole after it has been taken and stored. The refocusing may include focusing the displayed image so that that the photo appears to a user to have an equivalent focal length that brings objects in one distance range away from the camera assembly when the photo was taken into focus in the displayed version of the photo. Therefore, the refocusing may be considered a change in the depth of field for the photo. Alternatively, the refocusing may include bringing the entire photo into focus when the photo is displayed.」 (仮訳)「[0022]添付の図面と併せて以下に記載されたカメラシステムの様々な実施形態および写真を表示する方法が提供される。図示の実施形態では、上記カメラシステムは、携帯電話機の一部を構成するデジタルカメラアセンブリとして実現される。(中略) [0023]図1及び図2を参照すると、電子装置10が示されている。図示の電子装置10は携帯電話である。電子装置10はデジタル静止画像及び/又はデジタルビデオクリップを撮影するためのカメラアセンブリ12を含む。上述のように、電子機器10は携帯電話である必要はなく、専用カメラ又は他のいかなる装置であってもよいことが強調される。 [0024]図3を更に参照すると、カメラアセンブリ12は、ライトフィールドカメラアセンブリとして構成されてもよい。ライトフィールドカメラは、プレノプティックカメラ及びポリディオプトリックカメラとも呼ばれる。カメラアセンブリは、カメラアセンブリ12の視野内の光景からの光を集束させる結像光学系14を備える。センサ16は、光を画像データに変換する。マイクロレンズアレイ18(レンチキュラレンズアレイとしても知られている。)は、光学系14とセンサ16との間に配置されている。マイクロレンズアレイ18は、画像センサ16上の光を再焦点合せすることによって、センサ16が“4D”のライトフィールドを補足可能とし、結果として得られる画像データは、わずかに異なる視点から撮られる多くの小さな画像を含むこととなる。後述するように、画像データは、撮影及び記憶が行われた後に、深さ情報の抽出及び再焦点合せが行われる。再焦点合せは、写真が表示されるバージョンに焦点合せされた際に、カメラアセンブリからの距離の同じオブジェクトがユーザにとって同じ焦点距離にあるように見えるよう、表示される画像を焦点合せすることを含む。したがって、再焦点合せは、写真の被写界深度の変化を考慮することができる。あるいは、写真が表示されたときに再焦点合わせは、光を焦点合わせすることを含むことができる。」 ウ 「 」 エ 「[0030] In addition to the camera assembly 12, the electronic device 10 may include a rearward facing camera 32. The rearward facing camera 32 may be arranged so as to be directed toward and capable of capturing images or video of the user of the electronic device 10 when the user views the display 24. In one embodiment, the rearward camera 32 may be used in connection with video telephony to capture images or video of the user for transmission to a called or calling device. [0031] With additional reference to FIG. 4, illustrated is a flow diagram of an exemplary method of operating the camera assembly 12 and displaying photos that are taken with the camera assembly 12. In other embodiments, the displaying may occur with an electronic device that is different than the electronic device that takes the photos. While displaying a photo, the method includes using the rearward camera 32 to track eye movement, inclusive of eye gaze direction, to determine where on the display 24 the user has directed his or her visual attention. A corresponding location of the displayed photo at which the user is looking may be ascertained. Object identification may then be used to identify an object in the photo at which the used is looking. Then, the focus of the photo may be dynamically updated to match the gaze of the user. This is similar to the manner in which a person visually perceives the world around them. That is, when a user looks at an object in the foreground of a photo, the focus of the photo may be adjusted so that foreground objects are in focus. In this case, midground and background objects will likely appear blurry, with the midground objects appearing less blurry than the background objects. If the user move his or her eyes to a background object, the focus may be changed so that background objects appear to be in focus and the midground and foreground objects may appear to be blurry, with the midground objects appearing less blurry than the background objects. In order to conduct the focusing of the displayed photo, the focus distance for the object drawing the user's visual attention may be calculated from a source file of the photo that is generated by the light-field camera assembly 12.」 (仮訳)「[0030]カメラアセンブリ12に加えて、電子装置10は、後方カメラ32を含むことができる。後方カメラ32は、ユーザがディスプレイ24を見ている時、電子機器10のユーザの画像又は映像を撮像することができるように配置される。一実施形態では、後方カメラ32は、被呼側装置または発呼側装置に送信するためのユーザの画像又はビデオを捕捉するために、ビデオ電話通信に関連して使用することができる。 [0031]さらに、図4を参照すると、カメラアセンブリ12と、カメラアセンブリ12で撮影された写真の表示についての例示的な方法のフロー図が示されている。他の実施形態では、写真を撮影した電子デバイスとは異なる電子デバイスを用いて表示を行ってもよい。写真を表示している間、方法は、後方カメラ32を用いて、視線方向を含む目の動きを追跡し、ディスプレイ24上でユーザが視覚的注意を向けている位置を特定する。ユーザが見ている、表示される写真の対応する位置が確認される。次に、オブジェクト識別が実行され、写真中で、ユーザ(※)の見ているオブジェクトが識別される。その後、写真の焦点は、ユーザの視線と一致するように動的に更新される。これは、人が周りの世界を視認する方法に類似している。すなわち、ユーザが写真の前景中のオブジェクトを見る場合、写真の焦点は、前景オブジェクトに焦点が合うように調節される。この場合、中景及び背景のオブジェクトはぼやけて見え、背景オブジェクトは中景のオブジェクトよりも更にぼやけて見えるであろう。ユーザは、彼または彼女の視線を背景のオブジェクトに移動する場合、焦点は、背景物体が、焦点が合っているように見えるように変更することができ、ミッドグラウンドとフォアグラウンドオブジェクトはぼやけて見えることを示しており、背景物体よりもぼやけて見える景オブジェクトであってもよい。表示された写真の焦点合せを行うために、ユーザの視覚的な注意を受けているオブジェクトの焦点距離は、ライトフィールドカメラアセンブリ12により生成された写真のソースファイルから計算することができる。」 (※:usedはuserの誤記と考えられることから、ユーザと訳した。) オ 「 」 カ 「[0033] Variations to the illustrated method are possible and, therefore, the illustrated embodiment should not be considered the only manner of carrying out the techniques that are disclosed in this document. Also, while FIG. 4 shows a specific order of executing functional logic blocks, the order of executing the blocks may be changed relative to the order shown and/or may be implemented in an object-oriented manner or a state-oriented manner. In addition, two or more blocks shown in succession may be executed concurrently or with partial concurrence. Certain blocks also may be omitted. The exemplary method may be carried out by executing code stored by the electronic device 10, for example. The code may be embodied as a set of logical instructions that may be executed by a processor. Therefore, the method may be embodied as software in the form of a computer program that is stored on a computer readable medium, such as a memory. In the illustrated embodiment, the method is embodied as a photo display program 34 (FIG. 3). In view of this arrangement, the flow chart of FIG. 4 may be thought of as depicting steps of a method carried out by the electronic device 10. [0034] The logical flow may begin in block 36 where a photo is taken with the camera assembly 12 and stored in a memory 36 as an image file 38. Next, in block 40, the photo may be displayed on the display 24. [0035] FIGS. 5A, 5B and 5C illustrate an exemplary photo displayed in accordance with the method. FIGS. 6A, 6B and 6C illustrate an exemplary line drawing representation of a photo displayed in accordance with the method. In each of these examples, three women are portrayed where one woman is in the foreground, another is in the midground and a third is in the background. Depending on eye gaze of the user, the focus of the displayed photo will be adjusted to correspond to an object present at the location in the photo at which the user is looking. It will be appreciated that the method may be applied to photos that do not include people as subjects or include a mix of people and other subjects. For instance, objects in the photo may include people, animals, buildings, landscapes, and so forth. [0036] In block 42, the eye gaze of the user of the electronic device 10 may be detected. As indicated, eye gaze (or where on the display 24 the user's visual attention is directed) may be determined by analyzing images or video that is taken with the rearward camera 32. In FIGS. 5A-5C and 6A-6C, the eye gaze location is marked with a circle designated as eye gaze location 44. In FIGS. 5A and 6A, the user's eye gaze location 44 corresponds to the foreground object in the displayed photos. In FIGS. 5B and 6B, the user's eye gaze location 44 corresponds to the midground object in the displayed photos. In FIGS. 5C and 6C, the user's eye gaze location 44 corresponds to the background object in the displayed photos. [0037] In block 46, the focus of the displayed photo may be adjusted to correspond to the eye gaze location 44 of the user. Therefore, as an example, if the user were looking at the foreground woman as illustrated in FIGS. 5A and 6A, then the focus may be adjusted so that the foreground woman is in focus, and the midground and background women may be adjusted to be less distinct (e.g., out of focus or blurry) as described in greater detail above and as would be the case if the user were actually viewing the scene represented in the photo. Similarly, if the user were looking at the midground woman as illustrated in FIGS. 5B and 6B, then the focus may be adjusted so that the midground woman is in focus, and the foreground and background women may be adjusted to be less distinct (e.g., out of focus or blurry). And, if the user were looking at the background woman as illustrated in FIGS. 5C and 6C, then the focus may be adjusted so that the background woman is in focus, and the foreground and midground women may be adjusted to be less distinct (e.g., out of focus or blurry). [0038] In block 48, a determination may be made as to whether the user's eye gaze has changed. For instance, if the user first looks at the foreground woman as shown in FIG. 5A or FIG. 6A, and then looks at the midground or the background woman, then a positive determination may be made in block 48. Upon making a positive determination in block 48, the logical flow may return to block 46 where the focus of the displayed photo is adjusted to match the changed eye gaze of the user.」 (仮訳)「[0033]例示の方法は変形が可能であり、したがって、図示の実施形態は、本明細書に開示された技術を実行する唯一の態様と考えるべきではない。また、図4は機能論理ブロックを実行する特定の順序を示すが、ブロックを実行する順序は、オブジェクト指向又は状態指向に示され、及び/又は実装される順序に関連して、変更することができる。加えて、連続して示される2以上のブロックは、同時に又は部分的に同時に実行されてもよい。あるブロックはまた、省略されてもよい。例示的な方法は、電子デバイス10によって記憶されているコードを実行することにより行うことができる。コードは、プロセッサによって実行されてもよい論理命令のセットとして具現化されてもよい。したがって、方法は、メモリのようなコンピュータ可読媒体上に記憶されるコンピュータプログラムの形態で、ソフトウェアとして実現するようにしてもよい。図示の実施形態では、この方法は、写真表示プログラム34(図3)として実現される。このような構成によって、図4のフローチャートは、電子機器10によって実行される方法のステップを描写するものと理解される。 [0034]論理フローはブロック36で開始し、写真がカメラアセンブリ12によって撮影され、画像ファイル38としてメモリ36に記憶される。次に、ブロック40において、写真は、ディスプレイ24上に表示される。 [0035]図5A、図5B及び図5Cは、上述の方法によって表示される写真を例示している。図6A、図6B及び図6Cは、上述の方法に従って表示される写真の線画図を例示している。これらの例の各々においては、3人の女性が描かれており、1人はフォアグラウンドに、もう1人はミッドグラウンドに、3人目はバックグラウンドに描かれている。ユーザの視線に応じて、表示される写真の焦点は、ユーザが見ている写真の位置に存在するオブジェクトに対応するように調節される。本方法は、被写体として人が含まれていなかったり、人及び他の対象が共に含まれたりする写真に適用されてもよい。例えば、写真中のオブジェクトは、人、動物、建物、風景等を含むことができる。 [0036]ブロック42において、電子機器10のユーザの視線が検出される。示されるように、視線(又はユーザの視覚的な注意が向けられているディスプレイ24上の位置)は、後方カメラ32にて撮影された画像又はビデオを分析することによって決定される。(中略) [0037]ブロック46において、表示される写真の焦点は、ユーザの視線位置44に対応して調整される。したがって、例えば、図5A及び図6Aに示すように、ユーザがフォアグラウンドの女性を見ていたとき、焦点が調節され、詳細については上述されるように、フォアグラウンドの女性に焦点が合い、ミッドグラウンド及びバックグラウンドの女性は明瞭でなくなる(例えば、ピンぼけ)ようにされることで、ユーザが写真の光景を実際に見ているかのようにされる。(中略) [0038]ブロック48において、ユーザの視線方向が変化したか否かが判断される。例えば、ユーザが最初に、図5A又は図6Aに示すように、フォアグラウンドの女性を見ており、その後、ミッドグラウンド又はバックグラウンドの女性を見た場合、ブロック48の判断結果は正となる。ブロック48で正の判定がされた場合、論理フローはブロック46へ戻り、表示されている写真の焦点は、変更後のユーザの視線と一致するように調整される。」 キ 「 」 (1-2) 引用文献1に記載された発明 上記ア?キに摘記した記載事項から、引用文献1には、次の発明(以下、「引用発明」という。)が記載されていると認められる。 なお、各構成の符号(a)?(f12)は説明のために当審において付したものであり、以下、構成a?f12と称する。 (引用発明) (a)人の視覚をシミュレートするように写真を表示するデジタルカメラシステムであって、 デジタルカメラシステムは、携帯電話機の一部を構成するデジタルカメラアセンブリとして実現されるカメラシステムであって、 (b)電子装置10は携帯電話であり、電子装置10はデジタル静止画像及び/又はデジタルビデオクリップを撮影するためのカメラアセンブリ12を含み、 (c)カメラアセンブリ12は、 (c1)ライトフィールドカメラアセンブリとして構成されてもよく、 (c2)ライトフィールドカメラは、プレノプティックカメラとも呼ばれ、 (c3)カメラアセンブリは、カメラアセンブリ12の視野内の光景からの光を集束させる結像光学系14を備え、 (c4)センサ16は、光を画像データに変換し、 (c5)マイクロレンズアレイ18は、光学系14とセンサ16との間に配置され、 マイクロレンズアレイ18は、画像センサ16上の光を再焦点合せすることによって、センサ16が“4D”のライトフィールドを補足可能とし、結果として得られる画像データは、わずかに異なる視点から撮られる多くの小さな画像を含み、 (c6)画像データは、撮影及び記憶が行われた後に、深さ情報の抽出及び再焦点合せが行われ、 (c7)再焦点合せは、写真が表示されるバージョンに焦点合せされた際に、カメラアセンブリからの距離の同じオブジェクトがユーザにとって同じ焦点距離にあるように見えるよう、表示される画像を焦点合せすることを含み、 (c8)したがって、再焦点合せは、写真の被写界深度の変化を考慮することができ、 (d)電子装置10は、後方カメラ32を含むことができ、後方カメラ32は、ユーザがディスプレイ24を見ている時、電子装置10のユーザの画像又は映像を撮像することができるように配置され、 (e)カメラアセンブリ12と、カメラアセンブリ12で撮影された写真の表示についての方法は、 (e1)後方カメラ32を用いて、視線方向を含む目の動きを追跡し、ディスプレイ24上でユーザが視覚的注意を向けている位置を特定し、 (e2)ユーザが見ている、表示される写真の対応する位置が確認され、 (e3)次に、オブジェクト識別が実行され、写真中で、ユーザの見ているオブジェクトが識別され、 (e4)その後、写真の焦点は、ユーザの視線と一致するように動的に更新され、 (e5)表示される写真の焦点合せを行うために、ユーザの視覚的な注意が向けられているオブジェクトの焦点距離は、ライトフィールドカメラアセンブリ12により生成された写真のソースファイルから計算することができ、 (f)図4は、機能論理ブロックを実行する特定の順序を示し、 (f1)ブロックを実行する順序は、オブジェクト指向又は状態指向に示され、及び/又は実装される順序に関連して、変更することができ、 (f2)例示的な方法は、電子装置10によって記憶されているコードを実行することにより行うことができ、コードは、プロセッサによって実行されてもよい論理命令のセットとして具現化されてもよく、 (f3)この方法は、写真表示プログラム34として実現され、このような構成によって、図4のフローチャートは、電子装置10によって実行される方法のステップを描写し、 (f4) 論理フローは、ブロック36で開始し、写真がカメラアセンブリ12によって撮影され、画像ファイル38としてメモリ36に記憶され、 (f5)ブロック40において、写真はディスプレイ24上に表示され、 (f6)図5A、図5B及び図5Cは、上述の方法によって表示される写真を例示し、図6A、図6B及び図6Cは、上述の方法に従って表示される写真の線画図を例示し、これらの例の各々においては、3人の女性が描かれており、1人はフォアグラウンドに、もう1人はミッドグラウンドに、3人目はバックグラウンドに描かれており、 (f7)ユーザの視線に応じて、表示される写真の焦点は、ユーザが見ている写真の位置に存在するオブジェクトに対応するように調節され、 (f8)本方法は、オブジェクトとして人を含まない写真に適用されてもよいし、例えば、写真中のオブジェクトは、人、動物、建物、風景等を含むことができ、 (f9)ブロック42において、電子装置10のユーザの視線が検出され、視線(又はユーザの視覚的な注意が向けられているディスプレイ24上の位置)は、後方カメラ32によって撮影された画像又はビデオを分析することによって決定され、 (f10)ブロック46において、表示される写真の焦点は、ユーザの視線位置44に対応して調整され、 例えば、図5A及び図6Aに示すように、ユーザがフォアグラウンドの女性を見ていたとき、焦点が調節され、フォアグラウンドの女性に焦点が合い、ミッドグラウンド及びバックグラウンドの女性は明瞭でなくなるようにされ、 (f11)ブロック48において、ユーザの視線方向が変化したか否かが判断され、 例えば、ユーザが最初に、図5A又は図6Aに示すように、フォアグラウンドの女性を見ており、その後、ミッドグラウンド又はバックグラウンドの女性を見た場合、ブロック48の判断結果は正となり、 (f12)ブロック48で正の判定がされた場合、論理フローはブロック46へ戻り、表示される写真の焦点は、変更後のユーザの視線と一致するように調整される、 (a)カメラシステム。 3 対比 本願発明の構成A?Fを引用発明の構成a?f12と対比する。 (1)「プレノプティック画像」、「物体」及び「深度面」について 構成cの「画像データ」は、ライトフィールドカメラアセンブリとして構成されたカメラアセンブリ12によって撮影され(構成c1及びc3)、マイクロレンズアレイ18によって得られた「わずかに異なる視点から撮られる多くの小さな画像」を含み(構成c5)、「撮像されて格納された後、画像全体として奥行き情報の抽出及び再焦点合せが行われ」(構成c6)るから、「プレノプティック画像」といえる。 そして、構成f5のディスプレイ24上に表示される「写真」は構成cの「画像データ」が表示されたものといえるから、構成c7の「表示される画像」並びに構成f6、f7及びf10の「表示される写真」は、「表示されるプレノプティック画像」といえる。 また、構成e3、e5及びf7の「オブジェクト」、構成f8の「写真中のオブジェクト」並びに構成f6、f10及びf11の「女性」は、「プレノプティック画像内の物体」といえる。 構成f6、f10及びf11の「フォアグラウンド」、「ミッドグラウンド」及び「バックグラウンド」は、「写真の被写界深度」(構成c8)の1つであるから、「複数の深度面のうちの1つ」の「深度面」といえる。 そして、構成e4、f7、f10及びf12の、写真の焦点が調整された「表示される写真」は、ユーザが見ている写真の位置に存在するオブジェクトに焦点が合った「表示される写真」であるから、「表示される写真の焦点」は、「表示されるプレノプティック画像のフォーカルプレーン」といえる。 以上のことから、引用発明の「画像データ」、「表示される画像」、「オブジェクト」及び「女性」並びに写真の焦点が調整された「表示される写真の焦点」は、本願発明の「プレノプティック画像」、「表示されたプレノプティック画像」、「プレノプティック画像内の物体」及び「表示されるプレノプティック画像のフォーカルプレーン」に相当する。 また、引用発明の「フォアグラウンド」、「ミッドグラウンド」及び「バックグラウンド」は、本願発明の「複数の深度面のうちの1つ」の「深度面」に相当する。 (2)構成Aについて 構成f4の「画像ファイル38」は、構成cの「画像データ」をメモリに格納したファイルであって、「フォアグラウンド」、「ミッドグラウンド」及び「バックグラウンド」の1つに写真の焦点が調整された「表示される写真」を作成することが可能なものであるから、「(A)複数の深度面を有する少なくとも1つのプレノプティック画像を作成することが可能なプレノプティック画像ソース」といえる。 よって、引用発明は、本願発明の構成Aと一致する構成を有するといえる。 (2)構成Bについて 引用発明は、プレノプティック画像の「複数の深度面のうちの1つ」に物体を割り当てるものではない。 よって、本願発明は構成Bを備えるのに対して、引用発明はそのような構成を有しない点で相違する。 (3)構成Cについて 引用発明のディスプレイ24は、「(C2)前記少なくとも1つのプレノプティック画像を表示するためのディスプレイ」である点で、本願発明の構成Cと共通する。 ここで、上記(1)で検討したとおり、引用発明の構成f5の「写真」及び構成f7、f10及びf12の「表示される写真」は、「表示されるプレノプティック画像」といえるが、上記(2)で検討したとおり、引用発明は、プレノプティック画像の複数の深度面のうちの1つに物体を割り当てるものではない。 したがって、表示するプレノプティック画像について、本願発明は、「(C1)前記複数の深度面のうちの前記1つに割り当てられた前記物体を有する」ものであるのに対して、引用発明はそのような構成でない点で本願発明の構成Cと相違する。 (4)構成Dについて 構成e1の「ユーザが視覚的注意を向けている位置」は、「ユーザの注視位置」といえるから、構成e1の「視線方向を含む目の動きを追跡し、ディスプレイ24上でユーザが視覚的注意を向けている位置を特定し」は、構成D1の「ユーザの注視位置をトラッキングし」に相当する。 よって、引用発明は、「(D1)前記表示されたプレノプティック画像の前記複数の深度面のうちの1つ内の前記物体へのユーザの注視位置をトラッキングするように構成されるアイトラッキングシステム」の構成を有する点で、本願発明の構成Dと共通する。 構成e1の「ユーザが視覚的注意を向けている位置」は、構成e4、f7、f10及びf12の「表示される写真の焦点」の調整に用いられるから、構成e1の「視線方向を含む目の動きを追跡し、ディスプレイ24上でユーザが視覚的注意を向けている位置を特定し」は、「プレノプティック画像のフォーカルプレーン」を調整するように構成されているといえる。 よって、引用発明は、「(D2’)前記表示されたプレノプティック画像のフォーカルプレーンを調整するように構成されるアイトラッキングシステム」の構成を有する点で、本願発明の構成Dと共通する。 (5)構成Eについて 上記(4)にて検討したとおり、構成e1の「ユーザが視覚的注意を向けている位置」に対応して、構成e4、f7、f10及びf12の「表示される写真の焦点」を調整することは、「前記ユーザによって観察されている前記物体と連携するように、プレノプティック画像のフォーカスを変更する」といえ、また、「前記ユーザによって観察されている前記物体と連携するように、表示されるフォーカルプレーンを更新する」ことといえる。 よって、引用発明は、「(E1’)前記ユーザによって観察されている前記物体と連携するように、(E2)前記プレノプティック画像のフォーカスを変更するとともに、(E3)表示されるフォーカルプレーンを更新する(E)ように構成される深度面フォーカスモジュール」の構成を有する点で、本願発明の構成Eと共通する。 しかしながら、上記(4)にて検討したとおり、引用発明は、プレノプティック画像の複数の深度面のうちの1つに物体を割り当てるものではない。 したがって、表示されるフォーカルプレーンを更新することについて、 本願発明は、「(E1)前記ユーザによって観察されている前記物体の前記深度面と連携するように、表示されるフォーカルプレーンを更新する」構成を備えるのに対して、引用発明は、そのような構成を有していない点で、本願発明の構成Eと相違する。 (6)構成Fについて 引用発明は、上記(1)において検討したように、「プレノプティック画像を作成する」といえるから、本願発明の構成Fと一致する。 (7)まとめ 以上をまとめると、本願発明と引用発明の一致点及び相違点は、以下のとおりである。 [一致点] (A)複数の深度面を有する少なくとも1つのプレノプティック画像を作成することが可能なプレノプティック画像ソースと、 (C2)前記少なくとも1つのプレノプティック画像 (C)を表示するためのディスプレイと、 (D1)前記表示されたプレノプティック画像の前記複数の深度面のうちの1つ内の前記物体へのユーザの注視位置をトラッキングし、 (D2’)かつ前記表示されたプレノプティック画像のフォーカルプレーンを調整する (D)ように構成されるアイトラッキングシステムと、 (E1’)前記ユーザによって観察されている前記物体と連携するように (E2)前記プレノプティック画像のフォーカスを変更するとともに (E3)表示されるフォーカルプレーンを更新する (E)ように構成される深度面フォーカスモジュールと (F)を備える、プレノプティック画像を作成するためのシステム。 [相違点1] 本願発明は、「(B)前記少なくとも1つのプレノプティック画像内の物体を前記複数の深度面のうちの1つに割り当てるように構成された深度マッピングモジュール」を備えるのに対して、引用発明はそのような構成を有しない点。 [相違点2] 表示するプレノプティック画像について、本願発明は、「(C1)前記複数の深度面のうちの前記1つに割り当てられた前記物体を有する」ものであるのに対して、引用発明はそのような構成を有しない点。 [相違点3] 表示されたプレノプティック画像のフォーカルプレーンを調整することについて、本願発明は、「(D2)前記ユーザによって観察されている前記物体の前記深度面に前記表示されたプレノプティック画像のフォーカルプレーンを設定する」構成を備えるのに対して、引用発明はそのような構成を有しない点。 [相違点4] 表示されるフォーカルプレーンを更新することについて、本願発明は、「(E1)前記ユーザによって観察されている前記物体の前記深度面と連携するように、表示されるフォーカルプレーンを更新する」構成を備えるのに対して、引用発明はそのような構成を有しない点。 4 判断 (1)相違点1及び相違点2について 引用発明の構成fの「写真表示プログラム34」の論理フローについて検討する。 引用発明の構成f7及びf10の「表示される写真の焦点」の調整の論理フローは、 (ア)構成e1の「ディスプレイ24上でユーザが視覚的注意を向けている位置」を特定する論理ブロック、 (イ)構成e2の「表示される写真の対応する位置」を確認する論理ブロック、 (ウ)構成e3の「写真中で、ユーザが見ている写真のオブジェクト」の識別を行う論理ブロック、 (エ)構成e5の「オブジェクトの焦点距離」を写真のソースファイルから計算する論理ブロック、 (オ)構成f12の「表示される写真の焦点」の調整を行う論理ブロック、 (カ)ユーザの視線方向が変化した場合に、(ア)?(オ)を繰り返す論理ブロックから構成されているといえる。 また、引用発明は、構成f1にあるとおり、プログラムの機能論理ブロックの実行順序を変更することができるものである。 ここで、繰り返す論理フローの中で計算が実行される計算処理を、繰り返す論理フローの事前に行うように論理ブロックを構成することは、計算処理の高速化等の一般的課題に対応して行われる周知技術と認められる。 そして、引用発明が、上記論理フロー(ア)?(カ)において、上記一般的課題を有することは明らかであって、上記論理フロー(ア)?(カ)に上記周知技術を採用することは、当業者が容易に想到し得たことであるから、 引用発明の上記論理フロー(ア)?(カ)において、論理ブロック(エ)(オブジェクトの焦点距離を写真のソースファイルから計算)について、論理ブロック(ア)?(ウ)後に行う構成に換えて、事前に「表示される写真中のオブジェクトの焦点距離を計算しておく」ように構成することは、当業者が容易に想到し得たことである。 そうすると、引用発明において、事前に「表示される写真中のオブジェクトの焦点距離を計算しておく」(3人の女性のフォアグラウンド、ミッドグラウンド又はバックグラウンドの焦点距離を計算する)ことは、「表示される写真中のオブジェクトを複数の焦点距離のうちの1つに割り当てる」こととなり、「複数の焦点距離」は「プレノプティック画像の複数の深度面」といえることから、 引用発明において、「プレノプティック画像内の物体を前記複数の深度面のうちの1つに割り当てる」ように構成することは、当業者が容易に想到し得たことである。 したがって、引用発明において、 「(B)前記少なくとも1つのプレノプティック画像内の物体を前記複数の深度面のうちの1つに割り当てるように構成された深度マッピングモジュール」を備えるようにすること、及び 表示するプレノプティック画像について、「(C1)前記複数の深度面のうちの前記1つに割り当てられた前記物体を有する」ものとすることは、 当業者が容易に想到し得たことである。 (2)相違点3及び相違点4について 上記(1)にて検討したとおり、引用発明において、ユーザの視覚的注意が当てられたオブジェクトに対して「プレノプティック画像内の物体を前記複数の深度面のうちの1つに割り当てる」ように構成した場合に、論理ブロック(オ)についても、事前に計算された「オブジェクトの焦点距離」を、焦点を合わせる焦点距離として設定することとなる。 したがって、引用発明において、 表示されたプレノプティック画像のフォーカルプレーンを調整することについて、「(D2)前記ユーザによって観察されている前記物体の前記深度面に前記表示されたプレノプティック画像のフォーカルプレーンを設定する」構成とすること、及び 表示されるフォーカルプレーンを更新することについて、「(E1)前記ユーザによって観察されている前記物体の前記深度面と連携するように、表示されるフォーカルプレーンを更新する」構成とすることは、 当業者が容易に想到し得たことである。 (3)本願発明の効果について 本願発明の構成は、上記(1)及び(2)において検討したとおり、当業者が容易に想到できたものであるところ、本願発明が奏する効果は、その容易想到し得た構成から当業者が容易に予測し得る範囲内のものであり、同範囲を超える格別顕著なものがあるとは認められない。 (4)まとめ 以上のとおりであるから、本願発明は、引用文献1に記載された発明及び周知技術に基づいて当業者が容易に発明をすることができたものである。 第3 むすび 以上のとおり、本願の請求項1に係る発明は、引用文献1に記載された発明及び周知技術に基づいて当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。 したがって、本願は、その余の請求項について言及するまでもなく、拒絶をすべきものである。 よって、結論のとおり審決する。 |
別掲 |
|
審理終結日 | 2020-06-15 |
結審通知日 | 2020-06-16 |
審決日 | 2020-06-30 |
出願番号 | 特願2015-544084(P2015-544084) |
審決分類 |
P
1
8・
121-
WZ
(H04N)
|
最終処分 | 不成立 |
前審関与審査官 | 益戸 宏 |
特許庁審判長 |
千葉 輝久 |
特許庁審判官 |
鳥居 稔 間宮 嘉誉 |
発明の名称 | 3Dプレノプティックビデオ画像を作成するためのシステムおよび方法 |
代理人 | 中丸 慶洋 |
代理人 | 岡田 貴志 |
代理人 | 福原 淑弘 |
代理人 | 井関 守三 |
代理人 | 蔵田 昌俊 |