ポートフォリオを新規に作成して保存 |
|
|
既存のポートフォリオに追加保存 |
|
PDFをダウンロード |
審決分類 |
審判 査定不服 2項進歩性 取り消して特許、登録 G06F |
---|---|
管理番号 | 1368669 |
審判番号 | 不服2019-15633 |
総通号数 | 253 |
発行国 | 日本国特許庁(JP) |
公報種別 | 特許審決公報 |
発行日 | 2021-01-29 |
種別 | 拒絶査定不服の審決 |
審判請求日 | 2019-11-21 |
確定日 | 2020-12-15 |
事件の表示 | 特願2017-513647「画像を表示するための方法、装置およびコンピュータ・プログラム」拒絶査定不服審判事件〔平成28年 3月17日国際公開、WO2016/038253、平成29年 9月28日国内公表、特表2017-528834、請求項の数(14)〕について、次のとおり審決する。 |
結論 | 原査定を取り消す。 本願の発明は、特許すべきものとする。 |
理由 |
第1 手続の経緯 本願は、2015年(平成27年)9月11日(パリ条約による優先権主張外国庁受理2014年9月11日 欧州)を国際出願日とする出願であって、平成29年4月19日に手続補正書が提出され、平成30年2月26日付けで拒絶理由通知がされ、同年6月6日に意見書とともに手続補正書が提出され、同年11月14日付けで最後の拒絶理由通知がされ、平成31年2月19日に意見書とともに手続補正書が提出され、令和元年7月26日付けで平成31年2月19日に提出された手続補正書による手続補正が却下されるとともに拒絶査定(原査定)がされ、これに対し、令和元年11月21日に拒絶査定不服審判の請求がされると同時に手続補正書が提出されたものである。 第2 令和元年7月26日付けの補正の却下の決定及び原査定の概要 1 補正の却下の決定の概要 令和元年7月26日付けの補正の却下の決定の概要は、以下のとおりである。 平成31年2月19日に提出された手続補正書による手続補正(以下、「本件手続補正」という。)は、特許請求の範囲の限定的減縮を目的とするものであるが、当該補正後の本願請求項1ないし14に係る発明は、以下の引用文献1及び2に記載された発明に基づいて、その発明の属する技術の分野における通常の知識を有する者(以下、「当業者」という。)が容易に発明できたものであり、特許出願の際独立して特許を受けることができないから、本件手続補正は却下すべきものである。 <引用文献等一覧> 1 特開2009-025918号公報 2 特開2012-204998号公報 2 原査定の概要 原査定(令和元年7月26日付け拒絶査定)の概要は、以下のとおりである。 本願請求項1ないし15に係る発明は、上記引用文献1及び2に記載された発明に基づいて、当業者が容易に発明できたものであるから、特許法第29条第2項の規定により特許を受けることができない。 第3 本願発明 本願請求項1ないし14に係る発明(以下、それぞれ「本願発明1」ないし「本願発明14」という。)は、令和元年11月21日付けの手続補正で補正された特許請求の範囲の請求項1ないし14に記載された事項により特定される発明であり、本願発明1は以下のとおりの発明である。 「 少なくとも部分的に、ヘッド・マウント・ディスプレイ上に仮想現実環境を表示するステップと、 実世界オブジェクトとのユーザ・インタラクションのための前記仮想現実環境の内においてオポチュニティが存在するか否かを決定するステップと、 前記決定されたオポチュニティに応答して、ヘッド・マウント・ディスプレイのユーザの実世界視点内に位置設定された前記実世界オブジェクトを検出するステップと、 前記検出された実世界物理オブジェクトの少なくとも一部の1つ以上の画像を、前記ヘッド・マウント・ディスプレイ上に表示するようにさせるステップと、 ユーザ入力の検出に応答して前記実世界物理オブジェクトの前記少なくとも一部の前記1つ以上の画像の前記表示を除去するステップと、 を含む方法。」 なお、本願発明1において、「実世界物理オブジェクト」は、「実世界オブジェクト」の誤記と認められる。 本願発明2ないし11は、本願発明1を減縮した発明であり、本願発明12は、本願発明1ないし11のいずれかを「装置」として特定した発明であり、本願発明13は、本願発明12の「装置」を含む「デバイス」として特定した発明であり、また、本願発明14は、本願発明1ないし11のいずれかを「コンピュータ・プログラム」として特定したものである。 第4 引用文献記載事項及び引用発明 1 引用文献1について (1)引用文献1記載事項 原査定の拒絶の理由に引用された引用文献1には、図面とともに次の事項が記載されている。なお、下線は、強調のために当審が付与した。(以下の記載においても同様。) ア 「【発明の名称】 画像処理装置、画像処理方法」 イ 「【0002】 …(中略)…ヘッドマウントディスプレイ(HMD:Head-Mounted Display)等の表示装置に表示する。」 ウ 「【0032】 ハンド位置姿勢取得部107は、右目用現実空間画像、左目用現実空間と、カメラ位置姿勢取得部105が取得した位置姿勢とを用いて、ユーザの手の位置を取得する。例えば、ユーザの手にマーカを貼り付けておき、係るマーカを含む手の撮像画像を用いて、この手の位置を求める。なお、係る技術についても周知であるので、これについての詳細な説明は省略する。また、センサを用いて手の位置を取得しても良く、その場合における取得方法については、上述した、カメラの位置姿勢を取得する方法と同じである。 【0033】 実物位置姿勢取得部109は、右目用現実空間画像、左目用現実空間と、カメラ位置姿勢取得部105が取得した位置姿勢とを用いて、ユーザの手による操作対象としての現実物体(ここでは金槌)の位置を取得する。例えば、金槌にマーカを貼り付けておき、係るマーカを含む金槌の撮像画像を用いて、この金槌の位置を求める。なお、係る技術についても周知であるので、これについての詳細な説明は省略する。また、センサを用いて金槌の位置を取得しても良く、その場合における取得方法については、上述した、カメラの位置姿勢を取得する方法と同じである。」 エ 「【0039】 複合現実感画像入力部136は、受けた右目用合成画像、左目用合成画像のそれぞれを、画像表示部137に対して送出する。 【0040】 画像表示部137は、右目用の表示部と左目用の表示部とを有し、右目用の表示部と左目用の表示部とはそれぞれ、HMD131を頭部に装着したユーザの右目、左目の眼前に位置するように、HMD131に対して取り付けられている。従って、複合現実感画像入力部136から受けた右目用合成画像は、右目用の表示部に送出し、左目用合成画像は、左目用の表示部に送出する。 【0041】 これにより、HMD131を頭部に装着したユーザの左目の眼前には、左目用合成画像が提示されることになるし、右目の眼前には、右目用合成画像が提示されることになる。」 オ 「【0044】 以下の説明では、ユーザは、手に現実物体としての金槌を持ち、図4に示す仮想物体に対するインタラクションを計るものとする。もちろん、ユーザはHMD131を介して手を見れば、図2に示した金槌上に図3に示した仮想物体の画像が見えることになる。 …(中略)… 【0047】 ここで、ユーザ501が金槌500を手に掴もうとすべく、手を仮想物体601の位置にのばしても、遠近感が分かりずらいので、手が仮想物体601に届いたと感じても、実際には図8に示す如く、未だ手801は金槌500の手前に位置していることもある。 【0048】 本実施形態では、係る問題を解消すべく、金槌500と手801との間の距離が小さくなるほど、金槌500に重畳させる仮想物体601の透明度を上げる。更には、金槌500と手801との間の距離が小さくなるほど、金槌500の周囲に描画されている仮想空間の画像をマスクし、金槌500の周囲には、現実空間しか見えないようにする。これにより、ユーザ501に、実際の自分の手801の位置と金槌500の位置とを把握させ、それぞれの位置間の距離を把握させることを容易にする。」 カ 「【0051】 図10は、システム制御部101が行う、現実空間の画像と仮想空間の画像との合成画像を、HMD131に対して送出する為の一連の処理(画像処理)のフローチャートである。 【0052】 ステップS1001では、現実画像入力部102は、左現実画像出力部134、右現実画像出力部135のそれぞれから送出された左目用現実空間、右目用現実空間画像を受ける。そして受けたそれぞれの画像を、画像合成部103、カメラ位置姿勢取得部105、ハンド位置姿勢取得部107、実物位置姿勢取得部109、のそれぞれに送出する。 【0053】 ステップS1002では、カメラ位置姿勢取得部105は、右目用現実空間画像を取得すると、係る画像を用いて、右カメラ133の位置姿勢を計算する。同様に、左目用現実空間を取得すると、係る画像を用いて、左カメラ132の位置姿勢を計算する。 【0054】 次にステップS1003では、ハンド位置姿勢取得部107は、上述のようにして、ユーザの手の位置を取得する。また、実物位置姿勢取得部109は、上述のようにして、金槌の位置を取得する。 【0055】 ステップS1004では、仮想世界生成部106は、ステップS1003で取得した手の位置と、金槌の位置と、の間の距離Dを求める。係る距離Dが閾値θ1以下であれば処理はステップS1005を介してステップS1009に進み、閾値θ1より大きければ処理はステップS1005を介してステップS1006に進む。 【0056】 ステップS1006では、仮想世界生成部106は先ず、実物位置姿勢取得部109が求めた位置姿勢に、金槌に重畳させる仮想物体を配置する。なお、その他にも仮想空間中に配置すべき仮想物体があれば、それについても配置する。このようにして仮想空間を構築する。 【0057】 そして、カメラ位置姿勢取得部105が求めた左カメラ132の位置姿勢に、仮想空間を観察する視点を配置し、係る視点から見える仮想空間の画像を、左目用仮想空間画像として生成する。一方、カメラ位置姿勢取得部105が求めた右カメラ133の位置姿勢に、仮想空間を観察する視点を配置し、係る視点から見える仮想空間の画像を、右目用仮想空間画像として生成する。仮想世界生成部106は、生成した左目用仮想空間画像、右目用仮想空間画像のそれぞれを、画像合成部103に対して送出する。 【0058】 ステップS1007では、画像合成部103は、現実画像入力部102から受けた右目用現実空間画像上に、右目用仮想空間画像を重畳させた右目用合成画像を生成する。同様に、画像合成部103は、現実画像入力部102から受けた左目用現実空間画像上に、左目用仮想空間画像を重畳させた左目用合成画像を生成する。そして、生成した右目用合成画像、左目用合成画像のそれぞれを、複合現実感画像出力部104に対して送出する。 【0059】 ステップS1008では、複合現実感画像出力部104は、受けた右目用合成画像、左目用合成画像のそれぞれを、HMD131が有する複合現実感画像入力部136に対して送出する。 【0060】 一方、ステップS1009では、仮想世界生成部106は、これから生成しようとする「金槌に重畳させる仮想物体」の透明度を上げる。実際には、係る仮想物体を構成する各画素のアルファ値を上げることで、透明度を上げる。なお、距離Dに対してどの程度透明度を上げるのかについては特に限定するものではないが、距離Dが小さくなるほど透明度を上げ、距離Dが大きくなるほど透明度を下げるような、距離Dと透明度の関係であればよい。 【0061】 次に、距離Dが閾値θ2(<θ1)以下であれば、処理はステップS1010を介してステップS1011に進み、閾値θ2よりおおきければ、処理はステップS1010を介してステップS1006に進む。このとき、ステップS1006において、「金槌に重畳させる仮想物体」を生成する場合には、その透明度は、ステップS1009で設定されたものとなる。 【0062】 ステップS1011では、マスク領域作成部108は、画像合成部103に対して、以降に行うステップS1007における合成処理で「金槌に重畳させる仮想物体」の周囲については合成対象とせず、現実空間画像を用いるように指示する。即ち、図9に示す如く、仮想空間画像上で、「金槌に重畳させる仮想物体」の描画領域周辺については、現実空間画像に対して何も重畳させない。 【0063】 次に、距離Dが閾値θ3(<θ2)以下で、且つ距離Dが閾値θ3(<θ2)以下である状態が連続して予め定められた時間以上経過した、という条件が満たされた場合には、処理をステップS1012を介してステップS1013に進む。一方、係る条件が満たされていない場合には、処理をステップS1012を介してステップS1006に進める。 【0064】 ここで、係る条件は、要は、ユーザが自身の手で現実物体としての金槌を握っているか否かを判断するためのものである。従って、ここで用いている閾値θ3とは、ユーザが現実物体としての金槌を手に持ったときに、手と現実物体としての金槌との距離に近い値であることが好ましい。 【0065】 処理がステップS1012からステップS1006に進んだ場合、ステップS1006では上述のようにして仮想空間画像を生成し、ステップS1007では上述のようにして合成処理を行う。しかし、ステップS1007では上述のように、画像合成部103は、現実空間画像上に仮想空間画像を重畳させる場合に、「金槌に重畳させる仮想物体」の周囲については現実空間画像をそのまま用いる。これにより、例えば、図9に示すような、「現実物体としての金槌」の周囲には他の仮想物体の画像が重畳されていない合成画像を得ることができる。 【0066】 一方、ステップS1013では、ユーザは手に現実物体としての金槌を持ったのであるから、もう係る現実物体としての金槌上に仮想物体を重畳表示させても良いので、仮想世界生成部106は、係る仮想物体の画像の透明度を元に戻す。更に仮想世界生成部106は、上記マスク領域作成部108に対して、マスク指示を出すのをキャンセルさせる。」 キ 「【0078】 外部記憶装置1106内に保存されているプログラムやデータは、CPU1101による制御に従って適宜RAM1102にロードされる。そしてCPU1101はこのロードされたプログラムやデータを用いて処理を実行することで、本コンピュータは、システム制御部101が行うものとして上述した各処理を実行することになる。」 ク 「【図1】 」 ケ 「【図10】 」 (2)引用発明1 したがって、上記引用文献1には次の発明(以下、「引用発明1」という。)が記載されていると認められる。 「 システム制御部101が行う、現実空間の画像と仮想空間の画像との合成画像を、ヘッドマウントディスプレイ(HMD)131に対して送出する為の一連の処理(画像処理)は、 ユーザは、手に現実物体としての金槌を持ち、仮想物体に対するインタラクションを計るものとし、 カメラ位置姿勢取得部105は、右カメラ133と左カメラ132の位置姿勢を計算し、 ハンド位置姿勢取得部107は、ユーザの手にマーカを貼り付けておき、係るマーカを含む手の撮像画像を用いて、又は、センサを用いて、手の位置を求め、 実物位置姿勢取得部109は、ユーザの手による操作対象としての現実物体(金槌)にマーカを貼り付けておき、係るマーカを含む金槌の撮像画像を用いて、又は、センサを用いて、金槌の位置を求め、 仮想世界生成部106は、取得した手の位置と、金槌の位置と、の間の距離Dを求め、 距離Dが閾値θ1以下であれば、 仮想世界生成部106は、これから生成しようとする「金槌に重畳させる仮想物体」の透明度を上げ、さらに距離Dが閾値θ2(<θ1)以下であれば、マスク領域作成部108は、画像合成部103に対して、以降に行う合成処理で「金槌に重畳させる仮想物体」の周囲については合成対象とせず、現実空間画像を用いるように指示し、さらに距離Dが閾値θ3(<θ2)以下で、且つ距離Dが閾値θ3(<θ2)以下である状態が連続して予め定められた時間以上経過した、という条件が満たされた場合には、ユーザは手に現実物体としての金槌を持ったのであるから、もう係る現実物体としての金槌上に仮想物体を重畳表示させても良いので、仮想世界生成部106は、係る仮想物体の画像の透明度を元に戻し、上記マスク領域作成部108に対して、マスク指示を出すのをキャンセルさせ、係る条件が満たされていない場合には、処理をステップS1006に進め、 また、距離Dが閾値θ1より大きければ、処理はステップS1006に進め、 ステップS1006において、仮想世界生成部106は、実物位置姿勢取得部109が求めた位置姿勢に、金槌に重畳させる仮想物体を配置し、その他にも仮想空間中に配置すべき仮想物体があれば、それについても配置することにより、仮想空間を構築し、カメラ位置姿勢取得部105が求めた左カメラ132の位置姿勢に、仮想空間を観察する視点を配置し、係る視点から見える仮想空間の画像を、左目用仮想空間画像として生成し、カメラ位置姿勢取得部105が求めた右カメラ133の位置姿勢に、仮想空間を観察する視点を配置し、係る視点から見える仮想空間の画像を、右目用仮想空間画像として生成し、仮想世界生成部106は、生成した左目用仮想空間画像、右目用仮想空間画像のそれぞれを、画像合成部103に対して送出し、 画像合成部103は、現実画像入力部102から受けた右目用現実空間画像上に、右目用仮想空間画像を重畳させた右目用合成画像を生成し、現実画像入力部102から受けた左目用現実空間画像上に、左目用仮想空間画像を重畳させた左目用合成画像を生成し、生成した右目用合成画像、左目用合成画像のそれぞれを、複合現実感画像出力部104に対して送出し、 複合現実感画像出力部104は、受けた右目用合成画像、左目用合成画像のそれぞれを、HMD131が有する複合現実感画像入力部136に対して送出し、 複合現実感画像入力部136は、受けた右目用合成画像、左目用合成画像のそれぞれを、画像表示部137に対して送出し、 画像表示部137は、複合現実感画像入力部136から受けた右目用合成画像は、右目用の表示部に送出し、左目用合成画像は、左目用の表示部に送出し、これにより、HMD131を頭部に装着したユーザの左目の眼前には、左目用合成画像が提示されることになるし、右目の眼前には、右目用合成画像が提示される、 画像処理装置、画像処理方法又はCPU1101が各処理を実行するために用いられるプログラム。」 2 引用文献2について (1)引用文献2記載事項 コ 「【請求項11】 操作面を有する頭部装着型表示装置の制御方法であって、 (a)画像を表す画像光を生成し射出させる画像光生成部と、射出された前記画像光を使用者の眼に導く導光部と、を用いて、使用者に虚像を視認させる工程と、 (b)前記工程(a)による画像表示を制御する工程と、 (c)使用者が前記工程(b)のために前記操作面の前記操作面を向いているかを判定する工程と、 (d)使用者が前記工程(b)のために前記操作面を向いていると判定された場合に、 前記虚像の視認性を低下させるように、前記画像光生成部の輝度を調整し、または、前記画像光生成部により生成される前記画像光を調整する工程と、 を備える、頭部装着型表示装置の制御方法。」 サ 「【0056】 図7は、手元透過処理(図5)が実行される様子を示す説明図である。図7(A)は、ヘッドマウントディスプレイHMを装着した使用者が制御部10の操作面以外の場所を向いている場合の様子を示している。ヘッドマウントディスプレイHMを装着した使用者が制御部10の操作面以外の場所を向いている場合、画像表示部20の頭部側発光部61から射出される赤外線CAと、制御部10の制御部側発光部62から射出される赤外線MAとは、共に受光されない(図5、ステップS104:NO)。従って、手元透過処理におけるバックライトの消灯(ステップS106)は行われないため、使用者の視野VRには虚像VIが表示される。 【0057】 図7(B)は、ヘッドマウントディスプレイHMを装着した使用者が制御部10の操作面を向いた場合の様子を示している。ヘッドマウントディスプレイHMを装着した使用者が制御部10の操作面を向いた場合、画像表示部20の頭部側発光部61から射出される赤外線CAは、制御部10の制御部側受光部66によって受光される。同様に、制御部10の制御部側発光部62から射出される赤外線MAも、画像表示部20の頭部側受光部65によって受光される(図5、ステップS104:YES)。従って、手元透過処理におけるバックライトの消灯(ステップS106)が行われ、使用者の視野VRから虚像VIの表示が消える。視野VRを遮る虚像VIの表示が消える結果、使用者は、外景、すなわち制御部10の操作面をはっきりと見ることができる。」 シ 「【0076】 (B-2)手元透過処理: 図11は、第2実施例におけるヘッドマウントディスプレイHMaの手元透過処理の手順を示すフローチャートである。図5に示した第1実施例との違いは、ステップS202、S204をさらに備える点のみであり、他の動作は第1実施例と同様である。まず、向き判定部145aは、接触検出部71からの出力信号によって、制御部10aへの接触が検出されたか否かを判定する(ステップS202)。接触が検出されていない場合、向き判定部145aは処理をステップS202へ遷移させる。一方、接触が検出された場合、制御部10の向き判定部145aは処理をステップS204へ遷移させ、頭部側発光部61aと、制御部側発光部62とを駆動する。」 (2)引用発明2 したがって、上記引用文献2には次の発明(以下、「引用発明2」という。)が記載されていると認められる。 「 操作面を有する頭部装着型表示装置の制御方法であって、 (a)画像を表す画像光を生成し射出させる画像光生成部と、射出された前記画像光を使用者の眼に導く導光部と、を用いて、使用者に虚像を視認させる工程と、 (b)前記工程(a)による画像表示を制御する工程と、 (c)使用者が前記工程(b)のために前記操作面の前記操作面を向いているかを判定する工程と、 (d)使用者が前記工程(b)のために前記操作面を向いていると判定された場合に、前記虚像の視認性を低下させるように、前記画像光生成部の輝度を調整し、または、前記画像光生成部により生成される前記画像光を調整する工程と、 を備え、 接触検出部71からの出力信号によって、制御部10aへの接触が検出されたか否かを判定し、接触が検出された場合、頭部側発光部61aと、制御部側発光部62とを駆動し、 画像表示部20の頭部側発光部61から射出される赤外線CAが、制御部10の制御部側受光部66によって受光され、制御部10の制御部側発光部62から射出される赤外線MAも、画像表示部20の頭部側受光部65によって受光されると、使用者が前記操作面を向いていると判定され、 画像表示部20の頭部側発光部61から射出される赤外線CAと、制御部10の制御部側発光部62から射出される赤外線MAとが共に受光されないと、使用者が前記操作面以外を向いていると判定される、 頭部装着型表示装置の制御方法。」 第5 対比・判断 1 本願発明1について (1)対比 本願発明1と引用発明1とを対比すると、次のことがいえる。 a 引用発明1における「ヘッドマウントディスプレイ(HMD)」は、本願発明1の「ヘッド・マウント・ディスプレイ」に相当する。 b 引用発明1の「仮想空間画像」は、「仮想物体」が配置された「仮想空間」をカメラの位置姿勢に配置された視点から見える画像であって、「仮想空間」の「環境」を表現したものといえるから、本願発明1の「仮想現実環境」に相当する。 c 引用発明1の構成である、 「 ステップS1006において、仮想世界生成部106は、実物位置姿勢取得部109が求めた位置姿勢に、金槌に重畳させる仮想物体を配置し、その他にも仮想空間中に配置すべき仮想物体があれば、それについても配置することにより、仮想空間を構築し、カメラ位置姿勢取得部105が求めた左カメラ132の位置姿勢に、仮想空間を観察する視点を配置し、係る視点から見える仮想空間の画像を、左目用仮想空間画像として生成し、カメラ位置姿勢取得部105が求めた右カメラ133の位置姿勢に、仮想空間を観察する視点を配置し、係る視点から見える仮想空間の画像を、右目用仮想空間画像として生成し、仮想世界生成部106は、生成した左目用仮想空間画像、右目用仮想空間画像のそれぞれを、画像合成部103に対して送出し、 画像合成部103は、現実画像入力部102から受けた右目用現実空間画像上に、右目用仮想空間画像を重畳させた右目用合成画像を生成し、現実画像入力部102から受けた左目用現実空間画像上に、左目用仮想空間画像を重畳させた左目用合成画像を生成し、生成した右目用合成画像、左目用合成画像のそれぞれを、複合現実感画像出力部104に対して送出し、 複合現実感画像出力部104は、受けた右目用合成画像、左目用合成画像のそれぞれを、HMD131が有する複合現実感画像入力部136に対して送出し、 複合現実感画像入力部136は、受けた右目用合成画像、左目用合成画像のそれぞれを、画像表示部137に対して送出し、 画像表示部137は、複合現実感画像入力部136から受けた右目用合成画像は、右目用の表示部に送出し、左目用合成画像は、左目用の表示部に送出し、これにより、HMD131を頭部に装着したユーザの左目の眼前には、左目用合成画像が提示されることになるし、右目の眼前には、右目用合成画像が提示される、」 は、概略、「仮想空間画像」を生成し、当該「仮想空間画像」を「現実空間画像」上に重畳した「合成画像」を生成し、当該「合成画像」をHMD(ヘッドマウントディスプレイ)131の「表示部」に表示するものと理解することができる。 さらに、引用発明1は、「仮想世界生成部106は、これから生成しようとする「金槌に重畳させる仮想物体」の透明度を上げ、さらに距離Dが閾値θ2(<θ1)以下であれば、マスク領域作成部108は、画像合成部103に対して、以降に行う合成処理で「金槌に重畳させる仮想物体」の周囲については合成対象とせず、現実空間画像を用いるように指示し」との構成を備えることから、「仮想空間画像」は、その一部(「金槌に重畳させる仮想物体」とその周囲)は「現実空間画像」上に重畳されない場合もあるから、「少なくとも部分的」に表示されているといえる。 よって、引用発明1は、本願発明1の「少なくとも部分的に、ヘッド・マウント・ディスプレイ上に仮想現実環境を表示するステップ」との構成を備える。 d 本願発明1の「実世界オブジェクトとのユーザ・インタラクションのための前記仮想現実環境の内においてオポチュニティが存在するか否かを決定するステップ」(以下、「本願構成A」という。)及び「前記決定されたオポチュニティに応答して、ヘッド・マウント・ディスプレイのユーザの実世界視点内に位置設定された前記実世界オブジェクトを検出するステップ」(以下、「本願構成B」という。)に関して、請求人は、平成30年6月6日に提出した意見書の「1.補正の内容」(1)において、「請求項1において、『前記仮想現実環境の内におけるアベイラビリティを決定するステップ』、『前記決定されたアベイラビリティに応答して』を、それぞれ『前記仮想現実環境の内においてオポチュニティが存在するか否かを決定するステップ』、『前記決定されたオポチュニティに応答して』に補正しました。これは、本願明細書段落[0022]-[0024]等の記載に基づいています。」と主張している。 ここで、本願明細書の【0022】ないし【0024】には、次のように記載されている。 「【0022】 方法200において、ユーザーは、仮想現実環境(例えば図6Bの仮想世界602’)を視るために、ヘッド・マウント・ディスプレイを使用する。ブロック201において、仮想現実環境内に実世界オブジェクトとのユーザー・インタラクションのためのアベイラビリティ/オポチュニティが存在するか否かの決定がなされる。例えば、実世界オブジェクトが、仮想現実環境内にユーザー入力(例えばコマンドまたは通信)を提供するためのユーザー入力デバイスである場合、ユーザー入力デバイスを介したユーザー入力のための適切なオポチュニティが存在するか否かの決定を行なうことができる。例えば図6A?8Bに示されているある特定の実施例においては、これは、ポップ・アップ・チャート・ボックス605’またはテキスト入力用の他のオポチュニティに対応することができる。実世界オブジェクトとのユーザー・インタラクションのためのアベイラビリティについてのブロック201’での決定に応答して、これにより次に、ブロック101のようにユーザーの実世界視点内で実世界物理オブジェクトを検出するためのプロシージャがトリガーされる可能性がある。 【0023】 実世界オブジェクトの捕捉画像を示すことでヘッド・マウント・ディスプレイ上のスペースが占有されることから、必要なときにだけ捕捉画像を示すことが望ましい。開示のある実施例においては、実世界オブジェクトを介したユーザー・インタラクションのためのオポチュニティの決定後にのみブロック101のプロセスを開示することによって、ユーザーが実世界オブジェクトとインタラクトするオポチュニティが全く存在しない場合に不必要にブロック101の検出および後続するブロック102の表示を回避するという技術的効果を提供することができる。例えば、テキスト入力のオポチュニティが全く存在しない場合、キーボードの不必要な検出および仮想現実環境内でのその捕捉画像の表示が回避されるが、これにより、そうでなければリソース(例えば特に処理および電力)が浪費されるだけでなく仮想現実環境を遮り、ひいては仮想現実環境内でのユーザーの没入レベルに不利な影響を及ぼすことが回避されると思われる。 【0024】 ブロック201の決定プロセスに応答して、ユーザーの実世界視点内の実世界物理オブジェクトの検出が、ブロック101で発生し得る。この検出は、ブロック202において、ユーザーの実世界視点の少なくとも一部分の1つ以上の画像の捕捉ステップを含むことができる。これは、例えば、ユーザーの実世界視点のオブジェクト・シーンに対応する1つ以上の一人称パース画像を捕捉する、すなわち実際には、ユーザーがヘッド・マウント・ディスプレイを装着していなかった場合に目にすると思われる実世界シーンの1つ以上の画像を捕捉するように、ヘッド・マウント・ディスプレイ上に適切に、位置づけされ整列されている1つ以上の画像捕捉デバイスを含むヘッド・マウント・ディスプレイを介して達成可能である。ブロック203では、決定ステップ201によりインタラクトするアベイラビリティが存在すると決定された実世界物理オブジェクトなどの実世界物理オブジェクトを特定し検出することを目的として、ブロック202内で捕捉された1つ以上の画像について、オブジェクト/画像認識プロセスが行なわれる。オブジェクト/画像認識を介して検出すべき実世界物理オブジェクトは、1つ以上の既定の物理オブジェクト、例えば、キーボード、ゲーム・コントローラ;およびタッチ・センス入力デバイスおよびタッチ・センシティブ・ディスプレイを含めた他の手で操作する入力デバイスに対応する可能性がある。」 また、本願明細書には、具体的な実施例として、以下の記載がある。 「【0056】 最初に、ブロック501において、ユーザーがキーボードを用いて何かを入力できるか否かが決定される。仮想環境/世界ビュー内のユーザーのキーボードを示すことはスクリーンのスペースを占有することから、必要なときにのみキーボードを示すことが望ましい。何かを入力する可能性がない場合には、プロセスの一連の部分は実施されず、キーボードは示されない。テキストを入力する可能性がない場合、システムは、プロシージャを継続する前にテキストを入力する可能性が出て来るまで待機する。 【0057】 テキストを入力する可能性は、チャット・ウィンドウ・コメント・ボックス605’が仮想環境602’内に存在する/表示されることに対応し得る。これは、キーボード入力が可能であることを標示し得る。テキストを入力する可能性がある場合、流れ図はブロック502へと続行する。」 以上の記載(特に、下線を付した箇所の記載)からすると、本願構成Aの「実世界オブジェクトとのユーザ・インタラクション」とは、実世界オブジェクト(キーボード等)を用いたユーザによる操作(テキスト入力等)であり、また、本願構成Aの「オポチュニティ」とは、実世界オブジェクトを用いたユーザによる操作がなされる可能性であると理解することができる。 そうすると、本願構成Aの「前記仮想現実環境の内においてオポチュニティが存在するか否かを決定する」とは、実世界オブジェクトを用いたユーザによる操作がなされる可能性があることを仮想現実環境の内による事象が示す(例えば、チャット・ウィンドウ・コメント・ボックス605’が仮想環境602’内に存在する/表示されるなど。)か否かを判断するものと理解することができる。 そして、本願構成Bの「前記決定されたオポチュニティに応答して」とは、実世界オブジェクトを用いたユーザによる操作がなされる可能性があることを仮想現実環境が示すと判断されたことを契機とすることを意味し、本願構成Bは、前記の判断を契機として「オポチュニティ」(例えば、テキスト入力の可能性)に対応する、ユーザによる操作に使用される「前記実世界オブジェクト」を、「ヘッド・マウント・ディスプレイのユーザの実世界視点内に位置設定された」ものの中から検出することを意味すると理解することができる。 一方、引用発明1の「ユーザは、手に現実物体としての金槌を持ち、仮想物体に対するインタラクションを計るものとし」との構成によれば、引用発明1において想定されているユーザによる操作は、現実物体としての金槌を手に持つという操作、ないし、現実物体として金槌を用いた仮想物体に対するインタラクションであり、ここで、引用発明1の「現実物体としての金槌」は、本願発明1の「実世界オブジェクト」に相当し、また、引用発明1における、現実物体としての金槌を手に持つという操作、ないし、現実物体として金槌を用いた仮想物体に対するインタラクションというユーザによる操作は、本願発明1の「実世界オブジェクトとのユーザ・インタラクション」に相当する。 すなわち、本願発明1の「実世界オブジェクト」と、引用発明1の「現実物体としての金槌」は、「ユーザ・インタラクション」のためのものである点において共通する。 また、引用発明1の 「ハンド位置姿勢取得部107は、ユーザの手にマーカを貼り付けておき、係るマーカを含む手の撮像画像を用いて、又は、センサを用いて、手の位置を求め、 実物位置姿勢取得部109は、ユーザの手による操作対象としての現実物体(金槌)にマーカを貼り付けておき、係るマーカを含む金槌の撮像画像を用いて、又は、センサを用いて、金槌の位置を求め」及び「カメラ位置姿勢取得部105が求めた左カメラ132の位置姿勢に、仮想空間を観察する視点を配置し、…カメラ位置姿勢取得部105が求めた右カメラ133の位置姿勢に、仮想空間を観察する視点を配置し」 との構成からすれば、カメラの位置姿勢に基づいて視点が配置されるのであるから、カメラによる撮像画像は、「ヘッド・マウント・ディスプレイのユーザの実世界視点内に位置設定された」撮像画像といえる。また、引用発明1は、「現実物体としての金槌」の撮像画像を用いてその位置を求める態様を含むから、「ヘッド・マウント・ディスプレイのユーザの実世界視点内に位置設定された前記実世界オブジェクトを検出するステップ」を備えるといえる。 もっとも、引用発明1は、「実世界オブジェクトとのユーザ・インタラクション」の可能性があることを前提に、常に、「ヘッド・マウント・ディスプレイのユーザの実世界視点内に位置設定された前記実世界オブジェクトを検出」するものであり、「実世界オブジェクトとのユーザ・インタラクションのための前記仮想現実環境の内においてオポチュニティが存在するか否かを決定するステップ」を備えず、よって、「前記決定されたオポチュニティに応答して、」前記の「検出」を行うものではない。 以上からすれば、本願発明1の本願構成A及び本願構成Bと、引用発明1とは、「ヘッド・マウント・ディスプレイのユーザの実世界視点内に位置設定された、ユーザ・インタラクションのための前記実世界オブジェクトを検出するステップ」を備える点において共通する。 e 引用発明1は、 「 仮想世界生成部106は、ステップS1003で取得した手の位置と、金槌の位置と、の間の距離Dを求め、 距離Dが閾値θ1以下であれば、 仮想世界生成部106は、これから生成しようとする「金槌に重畳させる仮想物体」の透明度を上げ、さらに距離Dが閾値θ2(<θ1)以下であれば、マスク領域作成部108は、画像合成部103に対して、以降に行う合成処理で「金槌に重畳させる仮想物体」の周囲については合成対象とせず、現実空間画像を用いるように指示し、」 との構成を備え、前記cを参酌すると、「金槌に重畳させる仮想物体」の透明度が上がることにより、「現実物体としての金槌」の「現実空間画像」が、前記「仮想物体」に重畳されることなくHMD(ヘッドマウントディスプレイ)131の「表示部」に表示される場合を含んでいる。 ここで、「現実物体としての金槌」の「現実空間画像」は、本願発明1の「前記検出された実世界物理オブジェクトの少なくとも一部の1つ以上の画像」に含まれるものである。 よって、引用発明1は、本願発明1の「前記検出された実世界物理オブジェクトの少なくとも一部の1つ以上の画像を、前記ヘッド・マウント・ディスプレイ上に表示するようにさせるステップ」との構成を備える。 f 引用発明1の「距離Dが閾値θ3(<θ2)以下である状態が連続して予め定められた時間以上経過した、という条件が満たされた場合には、ユーザは手に現実物体としての金槌を持ったのであるから、もう係る現実物体としての金槌上に仮想物体を重畳表示させても良いので、仮想世界生成部106は、係る仮想物体の画像の透明度を元に戻し、上記マスク領域作成部108に対して、マスク指示を出すのをキャンセルさせ」との構成は、「ユーザは手に現実物体としての金槌を持った」ということに応答して、仮想物体の画像の透明度を元に戻すことにより、「現実物体としての金槌」の「現実空間画像」(「前記検出された実世界物理オブジェクトの少なくとも一部の1つ以上の画像」)の表示を実質的に除去していることに等しい。 また、本願発明1の「ユーザ入力」と、引用発明1の「ユーザは手に現実物体としての金槌を持った」こととは、ユーザによる動作である点において共通する。 よって、引用発明1と、本願発明1の「ユーザ入力の検出に応答して前記実世界物理オブジェクトの前記少なくとも一部の前記1つ以上の画像の前記表示を除去するステップ」とは、「ユーザによる動作の検出に応答して前記実世界物理オブジェクトの前記少なくとも一部の前記1つ以上の画像の前記表示を除去するステップ」を備える点において共通する。 (2)一致点・相違点 したがって、本願発明1と引用発明1との間には、次の点において一致ないし相違する。 [一致点] 「 少なくとも部分的に、ヘッド・マウント・ディスプレイ上に仮想現実環境を表示するステップと、 ヘッド・マウント・ディスプレイのユーザの実世界視点内に位置設定された、ユーザ・インタラクションのための前記実世界オブジェクトを検出するステップと、 前記検出された実世界物理オブジェクトの少なくとも一部の1つ以上の画像を、前記ヘッド・マウント・ディスプレイ上に表示するようにさせるステップと、 ユーザによる動作の検出に応答して前記実世界物理オブジェクトの前記少なくとも一部の前記1つ以上の画像の前記表示を除去するステップと、 を含む方法。」 [相違点] <相違点1> 本願発明1は、「実世界オブジェクトとのユーザ・インタラクションのための前記仮想現実環境の内においてオポチュニティが存在するか否かを決定するステップ」との構成を備えるとともに、「前記決定されたオポチュニティに応答して、」を契機として、「ヘッド・マウント・ディスプレイのユーザの実世界視点内に位置設定された前記実世界オブジェクトを検出するステップ」を実施するのに対し、引用発明1は、実世界オブジェクト(現実物体としての金槌)が「ユーザ・インタラクション」に用いられることを前提として、ヘッド・マウント・ディスプレイのユーザの実世界視点内に位置設定された前記実世界オブジェクト(現実物体としての金槌)を検出するステップに相当する構成を備えるものの、「実世界オブジェクトとのユーザ・インタラクションのための前記仮想現実環境の内においてオポチュニティが存在するか否かを決定するステップ」との構成を備えず、よって、前記の「検出するステップ」の契機として、「前記決定されたオポチュニティに応答して、」を契機とするものではない点。 <相違点2> 「前記実世界物理オブジェクトの前記少なくとも一部の前記1つ以上の画像の前記表示を除去するステップ」の契機として検出される「ユーザによる動作」は、本願発明1は、「ユーザ入力」であるのに対し、引用発明1は、「ユーザは手に現実物体としての金槌を持った」ことである点。 (3)相違点についての判断 上記相違点1について検討するに、相違点1に係る本願発明1の構成(「実世界オブジェクトとのユーザ・インタラクションのための前記仮想現実環境の内においてオポチュニティが存在するか否かを決定するステップ」との構成を備えるとともに、「前記決定されたオポチュニティに応答して、」を契機として、「ヘッド・マウント・ディスプレイのユーザの実世界視点内に位置設定された前記実世界オブジェクトを検出するステップ」を実施すること。)は、上記引用文献1及び2のいずれにも記載されておらず、本願優先日前において周知技術であるともいえない。 したがって、本願発明1は、相違点2を検討するまでもなく、当業者であっても引用文献1及び2に記載された発明に基づいて容易に発明できたものであるとはいえない。 なお、平成30年11月14日付けの拒絶理由通知においては、 「引用文献2における「制御部10a」は、本願の請求項1に係る発明における「実世界オブジェクト」に対応し、「制御部10a」の操作は、同じく「実世界オブジェクトとのユーザ・インタラクション」に対応する。 してみると、引用文献2に記載された発明における、(虚像の表示中に)使用者が制御部10aを操作しようとして手に持ったことをタッチセンサーによって検出する構成は、本願の請求項1に係る発明における「実世界オブジェクトとのユーザ・インタラクションのための前記仮想現実環境の内においてオポチュニティが存在するか否かを決定するステップ」に対応し、そこで接触が検知された場合にヘッドマウントディスプレイと制御部が向き合っているか検出するための発光部を駆動することから、「前記決定されたオポチュニティに応答して、ヘッド・マウント・ディスプレイのユーザの実世界視点内に位置設定された前記実世界オブジェクトを検出するステップ」に対応する構成を有しているといえる。」 との判断がされているが、引用発明2において、「接触検出部71からの出力信号によって、制御部10aへの接触が検出されたか否かを判定」すること(使用者が制御部10aを操作しようとして手に持ったことをタッチセンサーによって検出する構成)は、現実世界における事象の検出の有無を判定するものであるから、前記(1)dを参酌すれば、本願発明1の「実世界オブジェクトとのユーザ・インタラクションのための前記仮想現実環境の内においてオポチュニティが存在するか否かを決定するステップ」には相当しない。 2 本願発明2ないし14について 本願発明2ないし14も、上記相違点1に係る本願発明1の構成を有するものであるから、本願発明1と同じ理由により、当業者であっても、引用文献1及び2に記載された発明に基づいて容易に発明できたものとはいえない。 第6 原査定について 審判請求時の補正により、本願発明1ないし14は、上記相違点1に係る本願発明1の構成を有するものとなっており、当業者であっても、拒絶査定において引用された引用文献1及び2に基づいて、容易に発明できたものとはいえない。したがって、原査定の理由を維持することはできない。 第7 むすび 以上のとおり、原査定の理由によっては、本願を拒絶することはできない。 また、他に本願を拒絶すべき理由を発見しない。 よって、結論のとおり審決する。 |
審決日 | 2020-11-24 |
出願番号 | 特願2017-513647(P2017-513647) |
審決分類 |
P
1
8・
121-
WY
(G06F)
|
最終処分 | 成立 |
前審関与審査官 | 菅原 浩二 |
特許庁審判長 |
角田 慎治 |
特許庁審判官 |
林 毅 北川 純次 |
発明の名称 | 画像を表示するための方法、装置およびコンピュータ・プログラム |
代理人 | 鶴田 準一 |
代理人 | 三橋 真二 |
代理人 | 渡辺 陽一 |
代理人 | 南山 知広 |
代理人 | 森 啓 |
代理人 | 青木 篤 |
代理人 | 胡田 尚則 |