• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 特許、登録しない(前置又は当審拒絶理由) G06F
管理番号 1336581
審判番号 不服2016-15576  
総通号数 219 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2018-03-30 
種別 拒絶査定不服の審決 
審判請求日 2016-10-19 
確定日 2018-01-17 
事件の表示 特願2015-522005「仮想オブジェクトに関する条件付き対話コントロール」拒絶査定不服審判事件〔平成26年 1月23日国際公開、WO2014/012717、平成27年 8月 6日国内公表、特表2015-522885〕について、次のとおり審決する。 
結論 本件審判の請求は、成り立たない。 
理由 1.手続の経緯
本願は、2013年6月12日(パリ条約による優先権主張外国庁受理2012年7月17日、欧州特許庁)を国際出願日とする出願であって、平成28年3月7日付けで拒絶理由通知がなされ、平成28年5月12日付けで手続補正がされるとともに意見書が提出され、平成28年6月16日付けで拒絶査定がなされ(発送日:同年6月21日)、平成28年10月19日に拒絶査定不服審判の請求がなされ、その後、平成29年5月8日付けで当審より拒絶理由(以下、「当審拒絶理由」という。)が通知され、平成29年7月31日に意見書が提出されたものである。

2.本願発明
本願の請求項1ないし15に係る発明は、平成28年5月12日付け手続補正書により補正された特許請求の範囲の請求項1ないし15に記載された事項により特定されるものと認められるところ、その請求項1に係る発明(以下、「本願発明」という。)は、次のとおりのものである。
「 【請求項1】
モバイル・デバイス(1)を用いてアクセス可能な仮想オブジェクト(2)に関する条件付き対話を提供するための方法であって、
前記モバイル・デバイス(1)が、前記モバイル・デバイス(1)に対する現実世界の地理的ロケーション(P1)を査定するためのジオロケーション手段を含み、前記仮想オブジェクト(2)が、現実世界の地理的ロケーションに対応するロケーション情報(P2)を査定され、
前記方法が、
前記モバイル・デバイス(1)を通じた前記仮想オブジェクト(2)との少なくとも1つの対話を、少なくとも、前記モバイル・デバイス(1)の前記現実世界の地理的ロケーション(P1)と、前記仮想オブジェクト(2)の前記ロケーション情報(P2)との関数において条件付けるステップと、
前記条件付けステップが満たされるケースにおいては、前記仮想オブジェクト(2)の前記ロケーション情報(P2)を修正することによって前記仮想オブジェクトに関して前記モバイル・デバイス(1)と対話するステップ(7)とを含む、方法。」

3.引用文献、引用発明について
(1) 引用文献1について
当審拒絶理由に引用され、本願優先日前に公開された、引用文献1(特開2012-108842号公報)には、図面とともに以下の記載がある(下線は、特に着目した箇所を示す。以下同様。)。

ア 段落【0002】
「【背景技術】
【0002】
撮影画像に仮想世界を表わす画像情報を重ねて表示し、表示上、仮想現実を表示させる技術が提案されている。仮想現実の表示では、実世界を表わす撮影画像と仮想世界を表わす画像情報とがレイヤ構成になっており、実空間と仮想空間とが、実座標でリンクしている。」

イ 段落【0027】-【0039】
「【発明を実施するための形態】
【0027】
以下に、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。
【0028】
<システム構成>
図1は、本実施の形態にかかる表示システムの構成の具体例を示す図である。
【0029】
図1を参照して、本実施の形態にかかる表示システムは、処理装置100と、ポインタ200と、カメラ300と、ディスプレイ400とを含む。
【0030】
処理装置100は、カメラ300およびディスプレイ400とそれぞれ電気的に接続されている。この接続は、LAN(Local Area Network)などの特定のネットワークを介した接続であってもよいし、インターネットなどの公衆回線を介した接続であってもよい。また、無線、有線のいずれであってもよい。
【0031】
処理装置100は、一般的なパーソナルコンピュータ(PC)などで構成されてよい。
カメラ300は、処理装置100と電気的に接続可能であって、撮影画像を処理装置100に送信する機能を有するものであれば、どのようなものであってもよい。
【0032】
ディスプレイ400は、処理装置100と電気的に接続可能であって、処理装置100から送信された画像データを表示する機能を有するものであれば、どのようなものであってもよい。図1では、カメラ300およびディスプレイ400として、これらが一体となったウェアラブルディスプレイである例が示されている。
【0033】
ポインタ200は所定の形状または模様を有する。該形状または模様は処理装置100に予め登録されており、マーカとして用いられる。すなわち、処理装置100は、カメラ300によって撮影された画像中に存在するマーカとしてのポインタ200の位置を画像処理によって特定する。なお、図1の例では、ポインタ200はユーザの指先に装着される筒状のものであり、処理装置100には予め該筒状の形状またはその表面に施された模様が記憶されているものとする。しかしながら、ポインタ200はユーザの身体の一部に装着されるものには限定されず、たとえば、予め記憶された形状または模様を有した指示棒のようなものであってもよい。さらには、ポインタ200が用いられず、直接ユーザの指先などの指示に用いる身体の一部の形状またはその表面に施された模様が予めマーカとして処理装置100に記憶されており、カメラ300によって撮影された画像中に存在する該マーカの位置が処理装置100での画像処理によって特定されるものであってもよい。
【0034】
なお、ポインタ200の他の例として、処理装置100と電気的に接続可能であり、位置センサ、加速度センサ、傾きセンサなどのセンサを搭載し、該ポインタ200を用いて位置を指定するユーザ操作を受付けて位置などを検出し、処理装置100に対して送信する機能を有するポインティングデバイスであってもよい。
【0035】
処理装置100は、カメラ300から受信した画像を元に処理を行なう。そして、その処理結果をディスプレイ400に表示させるための処理を行なう。
【0036】
本実施の形態にかかる表示システムが図1に示される構成である場合、ユーザがウェアラブルディスプレイであるディスプレイ400に表示される画像(透過型が望ましい)を見ながら、指先に装着したポインタ200を使ってポイントする。
【0037】
なお、図1に示された表示システムには、カメラ300からディスプレイ400で表示するため、およびポインタ200の位置を特定するための撮影画像が処理装置100に入力されるものとしている。しかしながら、ポインタ200の位置を特定するための撮影画像を得るためのカメラがカメラ300と別に備えられてもよい。
【0038】
<システム構成の他の例>
なお、本実施の形態にかかる表示システムは図1に示された構成に限定されない。他の例として、たとえば図2に示されるように、カメラ300およびポインタ200と電気的に接続されたPCで構成されるものであってもよい。この場合、PC本体が処理装置100となり得、PCに接続されているディスプレイがディスプレイ400となり得る。カメラ300とPCとの接続がインターネットを介したものである場合、カメラ300として、たとえばWEBカメラが挙げられる。
【0039】
さらに他の例として、図3に示されるように、ポインタ200と直接的またはサーバ等の他の装置を介して電気的に接続された、カメラ機能を搭載した携帯端末であってもよい。この場合、携帯端末本体が処理装置100およびディスプレイ400となり得、携帯端末のカメラがカメラ300となり得る。」


ウ 段落【0044】-【0058】
「【0044】
<動作概要>
本実施の形態にかかる表示システムは、現実世界を表わす撮影画像に、コンピュータグラフィックスなどによって予め生成された仮想物体(仮想オブジェクト)を表わす画像を、その撮影画像に位置に応じて重畳して表示する。その際、仮想オブジェクトが撮影画像に表わされた現実世界に浮かんでいるように表示させるため、撮影画像および仮想オブジェクトの表示位置に対して奥行きを設定し、設定された奥行きに応じて3次元で仮想オブジェクトを表示する。3次元で表わされた仮想オブジェクトは合成されることで、撮影画像に表わされた実空間のある奥行きの位置に浮かんでいるように表示される。
【0045】
「仮想オブジェクト」とは、現実世界を表わす撮影画像内のコンテンツに関連付けられた選択肢である3次元の画像を指す。仮想オブジェクトごとに、当該仮想オブジェクトを表示させるための画像情報と、撮影画像で表わされた撮影空間に対して設定された3次元の座標系における表示位置(以下、仮想オブジェクト座標とも称する)と、選択されることによって実行される動作とが規定されている。この仮想オブジェクトに関する情報は予め処理装置100に記憶されている。
【0046】
処理装置100は、カメラ300から入力された撮影画像にその撮影空間に対して設定されている3次元座標系を設定した上で、同じ3次元座標系で表示位置、奥行きが設定されている仮想オブジェクトの表示位置を特定する。そして、その位置に表示させるように該仮想オブジェクトの画像を撮影画像に合成して、合成された表示画像をディスプレイ400に対して送信する。
【0047】
処理装置100は、撮影画像に対して画像処理を実行することによってポインタ200で指定された位置を特定し、その位置を、撮影空間に対して設定されている3次元座標系における位置に変換する。そして、指定された位置に応じた仮想オブジェクトに対して規定された動作を実行する。または、該動作を実行させるために図示しない必要な装置に対して制御信号を出力する。
【0048】
この表示システムの用いられ方の一例として、図4に示されるような用いられ方が挙げられる。図4は、室内を表わした撮影画像に仮想現実である画像情報を合成して表示させた、表示システムでの表示の一例を示している。図4において、3次元の球体が仮想オブジェクトを表わしている。
【0049】
図4の表示は、表示システムが図1の構成である場合、カメラ300およびディスプレイ400が搭載されたウェアラブルディスプレイを装着したユーザが机に向かっているユーザの右後ろに立って室内に向いたときに、ディスプレイ400に表示される表示となる。
【0050】
図4の例において、仮想オブジェクトで表わされた選択肢は、撮影画像で表わされた室内のコンテンツとしてカレンダやユーザの左上の位置の実座標と関連付けられている。そのため、仮想オブジェクトは、予め規定された表示位置に基づいて、図4の例では、カレンダやユーザの左上の位置の近傍など、選択肢が関連付けられたコンテンツの近傍に3次元の仮想オブジェクトが表示されている。
【0051】
その表示を視認しながらウェアラブルディスプレイを装着したユーザがポインタ200を装着した指先等をディスプレイ400に表示される仮想オブジェクトの位置にすると、該ユーザは、該仮想オブジェクトに対して規定された動作として、関連付けされているデータが表示され閲覧できたり、リモコンの様に対応した機器を操作できたりする。一例として、図4のカレンダの近傍に表示されている仮想オブジェクトにポインタ200で触れると、予め登録されているユーザのスケジュール情報が表示される。また、他の例として、ユーザの左上の仮想オブジェクトに触れると、予めその位置と対応付けられている空気調和機に対して制御信号が出力され、空調温度が変更される。
【0052】
この表示システムの用いられ方の他の例として、図5に示されるような用いられ方が挙げられる。図5は、工場内を表わした撮影画像に仮想現実である画像情報を合成して表示させた、表示システムでの表示の一例を示している。図5においても、3次元の球体が仮想オブジェクトを表わしている。
【0053】
図5の表示は、表示システムが図1の構成である場合、カメラ300およびディスプレイ400が搭載されたウェアラブルディスプレイを装着したユーザが机に向かっている2人のユーザのさらに右側に立って室内から工場に向いたときに、ディスプレイ400に表示される表示となる。
【0054】
図5の例において、仮想オブジェクトで表わされた選択肢は、撮影画像で表わされた工場内のコンテンツとしての機器などの実座標と関連付けられている。そのため、仮想オブジェクトは、予め規定された表示位置に基づいて、図5の例では、工場内の各機器の近傍など、選択肢が関連付けられたコンテンツの近傍に3次元の仮想オブジェクトが表示されている。
【0055】
その表示を視認しながらウェアラブルディスプレイを装着したユーザがポインタ200を装着した指先等をディスプレイ400に表示される仮想オブジェクトの位置にすると、該仮想オブジェクトに対して規定された動作の一例として、関連付けされている工場内の各機器から発信されている情報(進捗管理、エラー情報、取扱方法)にアクセスできる。より好ましくは、表示システムにおいて、エラーの緊急度やアクセスできるデータの種類に応じて、予め設定された対応関係に基づいて仮想オブジェクトの色や形を変更させてもよい。これにより、エラーの緊急度やアクセスできるデータの種類などをユーザに分かりやすく報知することができる。
【0056】
より好ましくは、仮想オブジェクトに関する情報はユーザごと、またはユーザの所属するグループ(部署等)に対応付けられてもよい。このようにすることで、予め当該表示システムにログインすることによって、ユーザまたはユーザの所属するグループに付与された権限により該ユーザまたはグループに応じた(操作可能または許可された)仮想オブジェクトが表示される。
【0057】
図4や図5に表わされたように、表示システムでの表示では、仮想オブジェクトがある範囲に複数近接して表示される場合がある。このとき、ディスプレイ400にて異なる奥行きが設定された複数の仮想オブジェクトが近接して表示されると、2次元平面の表示画面では仮想オブジェクトの表示が重なり、ユーザがそのうちの所望する仮想オブジェクトを指定し難くなる。
【0058】
そこで、本実施の形態にかかる表示システムは、仮想オブジェクトに規定された表示位置(3次元座標)とポインタ200で指定された位置(3次元座標)との間の距離に応じた表示処理を実行することで、このような場合であっても、ユーザが所望する仮想オブジェクトを指定しやすいように表示する。」

エ 段落【0059】-【0068】
「【0059】
<機能構成>
図6は、本実施の形態にかかる表示システムが上の動作概要で説明された動作を行なうための、処理装置100の機能構成の具体例を示すブロック図である。図6は、主に、図示しないCPUがメモリに記憶されるプログラムを読み出して実行することで、CPUが画像処理統括部として機能する場合の機能構成の具体例を示している。図6に示された機能は、主にCPU上に構成されるものである。しかしながら、その一部がハードウェア構成で実現されてもよい。
【0060】
図6を参照して、画像処理統括部として機能する処理装置100のCPUは、カメラ300からの撮影画像の入力を受付けるためのカメラ画像入力部101と、入力された撮影画像に対して画像認識処理を行なうための画像認識処理部102と、ポインタ200の形状を記憶しておくためのポインタ形状記憶部103と、必要に応じて記憶されているポインタ200の形状を用いて撮影画像上にポインタ200を表示させる表示データを生成するためのポインタ表示データ生成部104と、画像認識処理部102での処理結果に基づいて、ポインタ200での表示位置(以下、ポインタ位置とも称する)と仮想オブジェクトの表示位置との距離を算出するための仮想オブジェクト-ポインタ間距離判定部105と、仮想オブジェクトごとに表示位置を記憶するための仮想オブジェクト座標記憶部106と、表示させる仮想オブジェクトの形状を記憶するための仮想オブジェクト形状記憶部107と、仮想オブジェクトを表示させる表示データを生成するための仮想オブジェクト表示データ生成部108と、仮想オブジェクトに対して規定された動作を実行するための仮想オブジェクトアクション処理部109と、ディスプレイ400に対して表示画像と制御信号とを送信して該表示画像を表示させるように制御するための表示制御部110とを含む。
【0061】
さらに図6を参照して、画像認識処理部102は、ポインタ座標検出部1021と、仮想オブジェクト表示領域検出部1022とを含む。
【0062】
ポインタ座標検出部1021は、ポインタ200で指示された位置を撮影画像上で特定するための機能である。具体的には、入力された撮影画像からポインタ形状記憶部103に記憶されているポインタ200の形状を検出し、撮影画像上における位置や奥行きを特定する。そして、該撮影座標に設定された3次元座標系においてその3次元の位置を表わす座標(以下、ポインタ座標とも称する)に換算する。
【0063】
ポインタ200が上述のポインティングデバイスである場合には、処理装置100は、この機能に替えてポインティングデバイスであるポインタ200から検出結果の入力を受付けて、その検出結果に基づいて撮影画像上の位置を特定する機能を有する。
【0064】
仮想オブジェクト表示領域検出部1022は、撮影画像において仮想オブジェクトが表示される領域を特定するための機能である。具体的には、仮想オブジェクト座標記憶部106に予め仮想オブジェクトに規定されている情報として該仮想オブジェクトの3次元座標系での表示位置が記憶されており、仮想オブジェクト表示領域検出部1022は、入力された撮影画像に対して設定された3次元の座標系に基づいて、該仮想オブジェクトの表示位置を含む領域を表示領域として検出する。
【0065】
また、仮想オブジェクト表示領域検出部1022は、後述する表示処理によって仮想オブジェクトについて予め規定されている表示位置が変化した場合に、変化後の表示位置を特定する。そして、仮想オブジェクト座標記憶部106は、変化後の表示位置も記憶する。
【0066】
仮想オブジェクト-ポインタ間距離判定部105は、3次元座標系で表わされたポインタ座標および仮想オブジェクト座標とからその間の距離を求める。
【0067】
さらに、仮想オブジェクト-ポインタ間距離判定部105は、予め基準距離を記憶しておき、算出された距離が該基準距離よりも小さい場合、すなわち、仮想オブジェクトの表示位置として規定された位置から所定範囲内が指定された場合に、該仮想オブジェクトが特定されたと判定し、その結果を仮想オブジェクトアクション処理部109に入力する。仮想オブジェクトアクション処理部109はかかる判定結果に応じて該仮想オブジェクトに対して規定されている動作を実行する。すなわち、予め規定されている動作、または、予め規定されている図示しない装置に対して制御信号を出力する動作、などを実行する。
【0068】
また、仮想オブジェクト表示データ生成部108は、予め仮想オブジェクトの画像情報や該画像情報を決定するための情報を記憶しておき、仮想オブジェクト-ポインタ間距離判定部105での判定結果に応じて、仮想オブジェクトの表示形態を決定して仮想オブジェクトを表示させるための画像情報を生成する。」

オ 段落【0085】-【0114】
「【0085】
図12は、仮想オブジェクト-ポインタ間距離を計算する動作の具体例を示すフローチャートである。
【0086】
図12を参照して、画像処理統括部として機能する処理装置100のCPUは、ステップS201で記憶されている3次元座標系上でのポインタ座標の値と各仮想オブジェクトの座標値とを参照し、ステップS203で一例として、それぞれの座標値の差の二乗の和の平方根を算出してユークリッド距離を求めることで、ポインタ位置と各仮想オブジェクトの表示位置との間のそれぞれの、撮影画像に設定された3次元座標系における距離を計算する。
【0087】
以下、計算されたポインタ位置と仮想オブジェクトの表示位置との間の距離を用いた表示処理の例について説明する。
【0088】
<表示処理例1>


・・・(省略)・・・


【0095】
<表示処理例2>


・・・(省略)・・・


【0103】
<表示処理例3>
図19は、ポインタ位置と仮想オブジェクトの位置との間の距離を用いた表示処理の第3の例を説明する図である。図19を参照して、第3の例では、画像処理統括部として機能する処理装置100のCPUは、ポインタ位置から予め規定された範囲内に表示される仮想オブジェクトをポインタ位置に近づくように移動させる。すなわち、図19に示されるように、指先に装着されたポインタ200の位置と表示されている1つの仮想オブジェクトとの間の距離Dが所定の距離Dtである場合に、該仮想オブジェクトの表示位置をポインタ位置に近づけるように移動させる。
【0104】
この表示処理を行なうため、仮想オブジェクト表示データ生成部108は、予め、ポインタ200の位置と仮想オブジェクトとの間の距離Dの範囲ごとに、仮想オブジェクトの表示位置の移動量を記憶しておく。図20は、距離Dの範囲と仮想オブジェクトの移動量との対応関係を示す図である。図20に示されるように、ポインタ200の位置と仮想オブジェクトとの間の距離Dが小さくなるほど移動量が大きくなり、ポインタ位置により近づくような関係で仮想オブジェクトの移動量が規定されており、たとえば図20のテーブル形式などで、この関係が仮想オブジェクト表示データ生成部108に予め記憶されている。
【0105】
図21は、第3の表示処理のための動作の具体例を示すフローチャートである。図21を参照して、ステップS501で画像処理統括部として機能する処理装置100のCPUは、ポインタ位置と仮想オブジェクトの表示位置との間の距離Dを算出する。ステップS501の動作の詳細は図12で説明されたものである。
【0106】
算出された距離Dが予め規定されているしきい値とする距離Dtよりも小さい場合、すなわち、ポインタ位置が仮想オブジェクトの表示位置から予め規定された距離内であった場合(ステップS503でYES)、ステップS505でCPUは、ステップS501で算出された距離Dに基づいて、該当する仮想オブジェクトについて図20の対応関係より移動距離を決定し、ステップS507で規定されている表示位置に対して決定された移動量だけ移動させるように、新たな表示位置を計算する。
【0107】
そして、ステップS509でCPUは、決定された表示位置に仮想オブジェクトを表示させるように該仮想オブジェクトの画像を撮影画像に合成する。
【0108】
この処理により、図19に示されたような表示が実現される。これにより、ポインタ位置から所定の範囲内に表示される仮想オブジェクトは、規定されている表示位置がポインタ位置に近いほどポインタ位置に近づいた位置に表示されることになる。そのため、ポインタ200を装着したユーザは、その仮想オブジェクトを指定しやすくなる。
【0109】
なお、より好ましくは、いったんポインタ位置に移動した仮想オブジェクトがその後の表示処理によってポインタ位置との間の距離Dが上記しきい値とされる距離Dtよりも大きくなった場合、すなわち、その後に該仮想オブジェクトから遠い位置が指定された場合、該仮想オブジェクトの表示位置を元の規定された表示位置に戻す。
【0110】
図22はその場合の動作の具体例を示すフローチャートであって、図21のステップS509の後に実行される動作を表わしている。すなわち、図22を参照して、ステップS505?S509の処理によって表示位置を変更した仮想オブジェクトについて、CPUは、ステップS511で、さらに、表示に用いた撮影画像の後に入力された撮影画像から検出されるポイント位置と該仮想オブジェクトの位置との間の距離Dを算出する。算出された距離Dが予め規定されているしきい値とする距離Dtよりも大きい場合、すなわち、ポインタ位置が仮想オブジェクトの位置から予め規定された距離よりも外となった場合(ステップS513でYES)、ステップS515でCPUは、当該仮想オブジェクトを記憶されている該仮想オブジェクトに対して規定されている表示位置に表示させるように、該仮想オブジェクトの画像を撮影画像に合成する。
【0111】
図23は、この処理が実行されることによる表示の変化を説明する図である。図23を参照して、上の動作によって表示位置が移動したことによって、図23(A)に示されるように、指先に装着されたポインタ200の位置の近くに表示された仮想オブジェクトにから、図23(B)で点線で示されたように、その後の撮影画像においてポインタ位置がしきい値とする距離Dtよりも遠くなると、図23(B)に示されたように、該仮想オブジェクトが元の(規定された)表示位置に戻ることになる。そのため、ポインタ200で指定しない仮想オブジェクトは元の位置に戻ることになり、ポインタ200を装着したユーザは、所望する仮想オブジェクトをより指定しやすくなる。
【0112】
なお、ポインタ位置と仮想オブジェクトの位置との間の距離に基づいて該仮想オブジェクトの表示態様を変化させた後、ポインタ位置と該仮想オブジェクトの位置との間の距離が離れた場合に、該仮想オブジェクトの表示態様を元に戻す動作が、表示処理例3において行なわれるものとして説明しているが、同様に、上述の表示処理例1、2、および後述する表示処理例4でもなされてもよい。
【0113】
すなわち、表示処理例1においては、ポインタ位置と仮想オブジェクトの表示位置との間の距離に基づいて該仮想オブジェクトの形状を大きくした後にポインタ位置と該仮想オブジェクトの位置との間の距離がしきい値Dt以上離れたことが検出されると、該仮想オブジェクトの形状を元に戻すようにしてもよい。同様に、表示処理例2においては、ポインタ位置と仮想オブジェクトの表示位置との間の距離に基づいて該仮想オブジェクトの形状をポインタ位置に近づく形状に変化させた後にポインタ位置と該仮想オブジェクトの位置との間の距離がしきい値Dt以上離れたことが検出されると、該仮想オブジェクトの形状を元に戻すようにしてもよい。
【0114】
なお、上の説明では、ポインタ位置に近づける動作で用いたしきい値とする距離と元の表示位置に戻す動作で用いたしきい値とする距離とが同じ距離Dtであるものとしているが、これらが異なる距離であってもよい。」

よって、上記各記載事項を関連図面(特に、「表示システム」の構成の具体例に関する【図3】、「表示システム」の用いられ方の一例に関する【図5】、及び、「表示処理例3」に関する、【図19】-【図23】を参照。)と技術常識に照らし、下線部に着目すれば、引用文献1には次の発明(以下、「引用発明」という。)が記載されているといえる。

「仮想現実の表示では、実世界を表わす撮影画像と仮想世界を表わす画像情報とがレイヤ構成になっており、実空間と仮想空間とが、実座標でリンクしており、

表示システムは、
処理装置100と、ポインタ200と、カメラ300と、ディスプレイ400とを含み、
ポインタ200は、処理装置100と電気的に接続可能であり、位置センサ、加速度センサ、傾きセンサなどのセンサを搭載し、該ポインタ200を用いて位置を指定するユーザ操作を受付けて位置などを検出し、処理装置100に対して送信する機能を有するポインティングデバイスであって、
表示システムは、ポインタ200と直接的、電気的に接続された、カメラ機能を搭載した携帯端末であって、携帯端末本体が処理装置100およびディスプレイ400となり、携帯端末のカメラがカメラ300となり、

この表示システムの用いられ方として、
工場内を表わした撮影画像に仮想現実である画像情報を合成して表示させ、
仮想オブジェクトで表わされた選択肢は、撮影画像で表わされた工場内のコンテンツとしての機器などの実座標と関連付けられているため、仮想オブジェクトは、予め規定された表示位置に基づいて、工場内の各機器の近傍など、選択肢が関連付けられたコンテンツの近傍に3次元の仮想オブジェクトが表示され、
ユーザがポインタ200を装着した指先等をディスプレイ400に表示される仮想オブジェクトの位置にすると、該仮想オブジェクトに対して規定された動作の一例として、関連付けされている工場内の各機器から発信されている情報(進捗管理、エラー情報、取扱方法)にアクセスでき、
予め当該表示システムにログインすることによって、ユーザまたはユーザの所属するグループに付与された権限により該ユーザまたはグループに応じた(操作可能または許可された)仮想オブジェクトが表示され、

処理装置100の機能構成において、
ポインタ200が、ポインティングデバイスである場合には、処理装置100は、ポインティングデバイスであるポインタ200から検出結果の入力を受付けて、その検出結果に基づいて撮影画像上の位置を特定する機能を有し、
仮想オブジェクト座標記憶部106に予め仮想オブジェクトに規定されている情報として該仮想オブジェクトの3次元座標系での表示位置が記憶されており、
仮想オブジェクト表示領域検出部1022は、後述する表示処理によって仮想オブジェクトについて予め規定されている表示位置が変化した場合に、変化後の表示位置を特定し、そして、仮想オブジェクト座標記憶部106は、変化後の表示位置も記憶し、
仮想オブジェクト-ポインタ間距離判定部105は、3次元座標系で表わされたポインタ座標および仮想オブジェクト座標とからその間の距離を求め、
仮想オブジェクト表示データ生成部108は、予め仮想オブジェクトの画像情報や該画像情報を決定するための情報を記憶しておき、仮想オブジェクト-ポインタ間距離判定部105での判定結果に応じて、仮想オブジェクトの表示形態を決定して仮想オブジェクトを表示させるための画像情報を生成し、

計算されたポインタ位置と仮想オブジェクトの表示位置との間の距離を用いた表示処理において、
処理装置100のCPUは、ポインタ位置から予め規定された範囲内に表示される仮想オブジェクトをポインタ位置に近づくように移動させる表示処理を行い、
この表示処理を行なうため、仮想オブジェクト表示データ生成部108は、予め、ポインタ200の位置と仮想オブジェクトとの間の距離Dの範囲ごとに、仮想オブジェクトの表示位置の移動量を記憶しておき、
ポインタ200の位置と仮想オブジェクトとの間の距離Dが小さくなるほど移動量が大きくなり、ポインタ位置により近づくような関係で仮想オブジェクトの移動量が規定されており、
ステップS501で、処理装置100のCPUは、ポインタ位置と仮想オブジェクトの表示位置との間の距離Dを算出し、
算出された距離Dが予め規定されているしきい値とする距離Dtよりも小さい場合、すなわち、ポインタ位置が仮想オブジェクトの表示位置から予め規定された距離内であった場合(ステップS503でYES)、
ステップS505でCPUは、ステップS501で算出された距離Dに基づいて、該当する仮想オブジェクトについての対応関係より移動距離を決定し、
ステップS507で規定されている表示位置に対して決定された移動量だけ移動させるように、新たな表示位置を計算し、
そして、ステップS509でCPUは、決定された表示位置に仮想オブジェクトを表示させるように該仮想オブジェクトの画像を撮影画像に合成し、
これにより、ポインタ位置から所定の範囲内に表示される仮想オブジェクトは、規定されている表示位置がポインタ位置に近いほどポインタ位置に近づいた位置に表示されることになり、そのため、ポインタ200を装着したユーザは、その仮想オブジェクトを指定しやすくなる、
方法。」

(2) 引用文献2について
当審拒絶理由に引用され、本願優先日前に公開された、引用文献2(米国特許出願公開第2010/0302143号明細書)には、図面とともに、以下の記載がある。

ア 段落[0032]-[0033]
「[0032] In one embodiment, the host server 124 is operable to provide simulated objects (e.g., objects, computer-controlled objects, or simulated objects) that correspond to real world physical locations to be presented to users on client devices 102A-N. The simulated objects are typically software entities or occurrences that are controlled by computer programs and can be generated upon request when certain criteria are met. The host server 124 also processes interactions of simulated object with one another and actions on simulated objects caused by stimulus from a real user and/or the real world environment. Services and functions provided by the host server 124 and the components therein are described in detail with further references to the examples of FIG.3A-3B.
[0033] The client devices 102A-N are generally operable to provide access (e.g., visible access, audible access) to the simulated objects to users, for example via user interface 104A-N displayed on the display units. The devices 102A-N may be able to detect simulated objects based on location and/or timing data and provide those objects authorized by the user for access via the devices. Services and functions provided by the client devices 102A-N and the components therein are described in detail with further references to the examples of FIG.4A-4B.」
(当審訳:[0032]一実施例において、ホストサーバ124は、クライアント装置102A-N上でユーザに提示される、現実世界の物理的位置に対応する模擬オブジェクト(simulated objects)(例えば、オブジェクト、コンピュータ制御オブジェクト、または、模擬オブジェクト)を提供するように動作できる。模擬オブジェクトは、一般的にはソフトウェア・エンティティまたはコンピュータ・プログラムに制御される存在であって、特定の条件が満足されるとき、要求に応じて生成され得る。ホストサーバ124は、模擬オブジェクト間の対話と、現実のユーザ及び/または現実世界の環境からの刺激で起こされる模擬オブジェクトのアクションも処理する。図3A-3Bの例示を更に参照して、ホストサーバ124及びその構成要素が提供するサービスと機能を詳細に説明する。
[0033]クライアント装置102A-Nは、一般に、例えば、ディスプレイユニット上に表示されたユーザ・インタフェース104A-Nを介して、模擬オブジェクトへのアクセス(例えば、可視アクセスや、可聴アクセス)をユーザに提供するように動作できる。装置102A-Nは、位置及び/またはタイミングデータによって、模擬オブジェクトを検出し、次いで、装置を介したアクセスのためにユーザが認証したそれらのオブジェクトを提供できる。図4A-4Bの例示をさらに参照して、クライアント装置102A-N及びその構成要素が提供するサービスと機能を詳細に説明する。)

イ 段落[0052]
「[0052] In one embodiment, the host server 200 includes a gaming server 214 including software agents and/or hardware modules for providing games and gaming software to client devices. The games and gaming environments typically include simulations of real world environments. The gaming server 214 also provides games and gaming environments such that the simulated objects provided therein have characteristics that are affected and can be manipulated by external stimuli (e.g., stimuli that occur in the real world environment) and can also interact with other simulated objects. External stimuli can include real physical motion of the user, motion of the device, user interaction with the simulated object on the device, and/or real world environmental factors, etc.」
(当審訳:[0052]一実施例において、ホストサーバ200はゲーム用サーバ214を含んでおり、これは、クライアント装置にゲーム及びゲーム用ソフトウェアを提供する、ソフトウェア・エージェント及び/又はハードウェア・モジュールを含んでいる。ゲーム及びゲーム環境は、一般的に、現実世界の環境の模擬を含んでいる。ゲーム用サーバ214は、また、そこで提供された模擬オブジェクトが、外部からの刺激(例えば、現実世界の環境で起きる刺激)によって影響されたり、操作されたりできるという特徴を備えており、また、他の模擬オブジェクトとも対話ができるような、ゲーム及びゲーム環境をも提供する。外部からの刺激には、現実世界でのユーザの物理的な動き、デバイスの動き、デバイス上でのユーザと模擬オブジェクト及び/または現実世界の環境的な要因との対話が含まれ得る。)

ウ 段落[0064]-[0066]
「[0064] In one embodiment, these simulated objects are associated with physical locations in the real world environment and have associated accessibilities based on a spatial parameter (e.g., the location of a device through which the simulated object is to be accessed). In some instances, the simulated objects have associated accessibilities based on a temporal parameter as well as user-specificities (e.g., certain users may be different access rights to different simulated objects).
[0065] Objects may be simulated by the simulator module 304 automatically or manually based on a user request. For example, objects may be simulated automatically when certain criterion (e.g., qualifying location data and/or qualifying timing data) are met or upon request by an application. Objects may also be newly created/simulated when an authorized user requests objects that are not yet available (e.g., object is not stored in the simulated object repository 330). Generated objects can be stored in the simulated object repository 330 for future use.
[0066] In one embodiment, the simulated object is implemented using a data structure having metadata. The metadata can include a computer program that controls the actions/behavior/properties of the simulated object and how behaviors of the simulated object are affected by a user or other external factors (e.g., real world environmental factors). The metadata can also include location and/or timing parameters that include the qualifying parameters (e.g., qualifying timing and/or location data) that satisfy one or more criteria for access of the simulated object to be enabled. The location data can be specified with longitude and latitude coordinates, GPS coordinates, and/or relative position. In one embodiment, the object is associated with a unique identifier. The unique identifier may be further associated with a location data structure having a set of location data that includes the qualifying location data for the simulated object.」
(当審訳:[0064]一実施例において、これらの模擬オブジェクトは、現実世界の環境における物理的位置と関連付けられており、そして空間的パラメータ(例えば、模擬オブジェクトにアクセスする装置の位置)に基づく関連するアクセス可能性を備えている。いくつかの場合においては、模擬オブジェクトは、ユーザ特有性(例えば、特定のユーザは、異なる模擬オブジェクトに対して、異なるアクセス権を持ち得る。)とともに、時間的パラメータに基づく関連するアクセス可能性も有している。
[0065]模擬モジュール304による、オブジェクトの模擬は、自動的に、あるいは、ユーザの要求に基づき手動で行われる。例えば、特定の条件が満足されると(例えば、位置データ条件を満足すると、及び/または、時刻データ条件を満足すると)、またはアプリケーションにより要求されると、自動的に、オブジェクトが模擬される。オブジェクトは、また、権限を有するユーザが、まだ利用できないオブジェクト(例えば、模擬オブジェクト・レポジトリ330に保存されていないオブジェクト)を要求すると、新たに作成され/模擬される。作成されたオブジェクトは、将来の利用のために、模擬オブジェクト・レポジトリ330に保存することができる。
[0066]一実施例において、模擬オブジェクトは、メタデータを備えたデータ構造を用いて実現できる。メタデータには、模擬オブジェクトのアクション/振る舞い/プロパティ、及び、ユーザや他の外部要因(例えば、現実世界の環境要因)によって、模擬オブジェクトの振る舞いがどのように影響されるかをコントロールするコンピュータ・プログラムを含むことができる。メタデータには、また、位置及び/または時刻パラメータである、条件付けパラメータ(例えば、タイミング及び/又は位置の条件付けデータ)であって、模擬オブジェクトへのアクセスが許されるための1つ以上の条件を満たすものを含むことができる。位置データは、緯度、経度座標、GPS座標、及び/または、相対的な位置によって特定することができる。一実施例において、オブジェクトは、ユニークなIDと関連付けられる。ユニークなIDは、さらに、模擬オブジェクトのための条件付け位置データを含むような、位置データの集合を有する位置データ構造に関連付けることができる。)

エ 段落[0084]
「[0084] The criteria can include spatio-temporal criteria having a timing parameter and/or a location parameter. For example, a simulated object may be associated with a physical location in the real world environment. The location parameter may include a set of locations including the physical location and/or surrounding regions where the device is to be located to access the simulated object. In addition, the timing parameter includes a time or set of times when the simulated object can be accessed. The timing parameter and the location parameter can be used independently or in conjunction with each other.」
(当審訳:[0084] 条件には、時刻パラメータ、及び/または、位置パラメータを有する、時間的-空間的な条件が含まれ得る。例えば、模擬オブジェクトは、現実世界の環境における物理的位置と関連付けられ得る。
位置パラメータには、模擬オブジェクトをアクセスするために装置が置かれるべき、物理的位置、及び/または、周辺の領域を含む、位置の集合を含み得る。それに加えて、時刻パラメータには、模擬オブジェクトにアクセス可能な時刻または時刻の集合を含み得る。時刻パラメータと位置パラメータとは、個別に、または、相互に併せて用い得る。)

オ 段落[0086]
「[0086] In one embodiment, location data and/or the timing data that satisfy the criterion include the location of the device and the time the device is located at the location. The enable signal may be sent to the simulator and environmental simulator modules such that the simulator module 304 an enable access to the simulated object via a device when the criteria is met. The access permission module 314 may retrieve the relevant simulated objects and simulated environments from other modules to be provided to a user via a device.」
(当審訳:[0086]一実施例において、条件を満足する位置データ、及び/または、時刻データには、装置の位置と、その位置に装置が置かれるべき時刻とが含まれる。条件が満足されたとき、イネーブル信号がシミュレータ・モジュール及び環境シミュレータ・モジュールに送られることによって、シミュレータ・モジュール304がデバイスを介した模擬オブジェクトへのアクセスを許可する。アクセス許可モジュール314は、デバイスを介してユーザに提供される、関連する模擬オブジェクトと模擬された環境を、他のモジュールから読み出せる。)

カ 段落[0092]
「[0092] If the user is permitted to interact with the simulated object, the manager module 316 can perform the requested action on the simulated object by updating stored attributes of the simulated objects and presenting the updated attributes via the device to be perceived by the user. In one embodiment, the simulator module 304 updates the attributes according to the requested action upon receiving the commands or signals. The user requested actions can include, by way of example but not limitation, collecting an item (e.g., a reward), firing ammunition, throwing an item, eating an item, attending an event, dialoguing with another character (real or virtual), surmounting a barrier, hitting a ball, blocking a ball, kicking a ball, and/or shooting a goblin, etc. These actions may be requested by the user using an input device or a combination of input devices.」
(当審訳:[0092] ユーザが模擬オブジェクトとの対話を許されると、管理モジュール316は、模擬オブジェクトの保持されている属性を更新して、更新された属性を装置を介してユーザが感知できるように提示することによって、要求されたアクションを実行できる。一実施例において、シミュレータ・モジュール304は、コマンドまたは信号を受信すると直ちに、要求されたアクションに応じて、属性を変更する。ユーザにより要求されたアクションには、例示であって限定ではないが、アイテム(例えば、報酬)の収集、弾薬の発射、アイテムを投げること、アイテムを食べること、イベントへの参加、(現実または仮想の)他のキャラクターとの会話、バリアを突破すること、ボールを打つこと、ボールをブロックすること、ボールを蹴ること、及び/または、ゴブリンを射撃することなどが含まれる。これらのアクションは、入力デバイスまたは入力デバイスの組合せを用いて、ユーザから要求され得る。)

キ 段落[0142]-[0143]
「[0142] One embodiment of the client device 402 includes a location sensor 408. The location sensor 408 can be any combination of software agents and/or hardware modules able to identify, detect, transmit, compute, a current location, a previous location, a range of locations, a location at or in a certain time period, and/or a relative location of the client device 402.
[0143] The location sensor 408 can include a local sensor or a connection to an external entity to determine the location information. The location sensor 408 can determine location or relative location of the client device 402 via any known or convenient manner including but not limited to, GPS, cell phone tower triangulation, mesh network triangulation, relative distance from another location or device, RF signals, RF fields, optical range finders or grids, etc.」
(当審訳:[0142] クライアント装置402の1つの実施例は、位置センサー408を含む。位置センサー408としては、現在の位置、過去の位置、位置の範囲、ある時点または所定期間での位置、及び/または、クライアント装置402の相対的位置を、識別、検出、送信、計算できるような、ソフトウェア・エージェント、及び/または、ハードウェア・モジュールの任意の組合せが可能である。
[0143] 位置センサー408には、ローカルなセンサーや、位置情報を決定する外部エンティティーへの接続を含む。位置センサー408は、GPS、携帯電話用タワーの三角測量法、メッシュ・ネットワークの三角測量法、別の位置またはデバイスからの相対的な距離、RF信号、RF電界、光学式距離計、または、光学格子などを含むがそれらに限定されない、任意の公知または都合の良い方法によって、クライアント装置402の位置または相対的な位置を決定できる。)

(3) 引用文献3にについて
当審拒絶理由に引用され、本願優先日前に公開された、引用文献3(米国特許出願公開第2011/0216002号明細書)には、図面とともに、以下の記載がある。

ア 段落[0039]
「[0039] …… The portable device can include a variety of position tracking modules, as discussed below in reference to FIG. 18, such as an accelerometer, a magnetometer, a Global Positioning System (GPS) device, a camera, a depth camera, a compass, a gyroscope, etc.」
(当審訳:[0039] ……携帯デバイスは、多様な位置追跡モジュールを含むことができ、図18を参照して以下で説明するように、加速度計、磁力計、GPS(Global Positioning System)装置、カメラ、深度センサ付きカメラ、コンパス、ジャイロスコープ、等である。)

4.対比
(1) 本願発明と引用発明との対比
ア 本願発明の「モバイル・デバイス(1)を用いて ……(中略)…… 条件付き対話を提供するための方法であって、」について
(ア) 引用発明の「処理装置100と、ポインタ200と、カメラ300と、ディスプレイ400とを含」む「表示システム」は、「ポインタ200は、処理装置100と電気的に接続可能であり、位置センサ、 ……(中略)…… などのセンサを搭載し、該ポインタ200を用いて位置を指定するユーザ操作を受付けて位置などを検出し、処理装置100に対して送信する機能を有するポインティングデバイスであって」、「表示システムは、ポインタ200と直接的、電気的に接続された、カメラ機能を搭載した携帯端末であって、この場合、携帯端末本体が処理装置100およびディスプレイ400となり、携帯端末のカメラがカメラ300とな」るから、引用発明の「表示システム」は、全体として、本願発明の「モバイル・デバイス(1)」に相当するといえる。

(イ) 引用発明の「仮想オブジェクト」は、本願発明の「仮想オブジェクト(2)」に相当する。
引用発明において、「表示システム」に含まれる「ポインタ200」を用いて、「該仮想オブジェクトに対して規定された動作の一例として、関連付けされている工場内の各機器から発信されている情報(進捗管理、エラー情報、取扱方法)にアクセスでき」、また、「(操作可能または許可された)仮想オブジェクトが表示され」るから、引用発明の「仮想オブジェクト」は、本願発明の「モバイル・デバイス(1)を用いてアクセス可能な仮想オブジェクト(2)」に相当する。

(ウ) 引用発明の「ポインタ位置と仮想オブジェクトの表示位置との間の距離D」が、「予め規定されているしきい値とする距離Dtよりも小さい場合、すなわち、ポインタ位置が仮想オブジェクトの表示位置から予め規定された距離内であった場合(ステップS503でYES)」、「ポインタ位置から予め規定された範囲内に表示される仮想オブジェクトをポインタ位置に近づくように移動させる」方法は、ポインタと仮想オブジェクト間の距離Dがしきい値(距離Dt)よりも小さいという「条件付き」で、仮想オブジェクトをポインタに近づけるという「対話」を行う点で、本願発明の「モバイル・デバイス(1)を用いてアクセス可能な仮想オブジェクト(2)に関する条件付き対話を提供するための方法」に相当するといえる。

(エ) なお、ここで念のため、本願発明における用語「条件付き対話」の意義に関連する、本願の発明の詳細な説明の記載を参照すると、段落【0058】-【0063】には、以下の記載がある。
「 【0058】
以降で示されているように、さまざまな実施形態においては、仮想オブジェクト2と対話することは、仮想オブジェクト2のロケーション情報P2を修正することを含む。


・・・(省略)・・・


【0062】
図6を参照すると、ステップ601において、仮想オブジェクト・データを格納しているアプリケーション・プラットフォーム9は、前記モバイル・デバイス1の現実世界の地理的ロケーションP1および前記仮想オブジェクト2のロケーション情報P2を分析して、前記ロケーションが、事前に定義された条件を満たしているかどうかをチェックする。たとえば、位置P2が、位置P1に対する事前に定義された距離範囲内にあるかどうかを判定するために、位置P2が位置P1と比較されることが可能である。あるいは、位置P1およびP2がともに、事前に定義されたエリア内に含まれているかどうかを確認するために、位置P1およびP2が分析されることが可能である。
【0063】
ステップ602において、前記条件付けステップが満たされるケースにおいては、ユーザは、仮想オブジェクト2の前記ロケーション情報P2を修正することによって前記モバイル・デバイス1と対話することができる。」
これらの記載から、本願発明の「条件付き対話」には、少なくとも、仮想オブジェクトが、モバイル・デバイスから所定の距離範囲内にあるという「条件付き」で、仮想オブジェクトのロケーション情報を修正するという「対話」を行うことが含まれていると理解できる。
一方、上記(ウ)記載のとおり、引用発明は、ポインタと仮想オブジェクト間の距離Dがしきい値(距離Dt)よりも小さいという「条件付き」で、仮想オブジェクトをポインタに近づけるという「対話」を行うものである。
なおここで、引用発明は、「処理装置100の機能構成において、 ……(中略)…… 仮想オブジェクト座標記憶部106に予め仮想オブジェクトに規定されている情報として該仮想オブジェクトの3次元座標系での表示位置が記憶されており、仮想オブジェクト表示領域検出部1022は、後述する表示処理によって仮想オブジェクトについて予め規定されている表示位置が変化した場合に、変化後の表示位置を特定し、そして、仮想オブジェクト座標記憶部106は、変化後の表示位置も記憶し」ているから、仮想オブジェクトをポインタに近づけるように移動させるとき、仮想オブジェクトの位置情報も修正されていると認定できる。
よって、たとえ本願発明の実施例の記載を参照しても、引用発明における、ポインタと仮想オブジェクト間の距離Dがしきい値(距離Dt)よりも小さいという「条件付き」で、仮想オブジェクトをポインタに近づけるという「対話」を行うことは、本願発明の「条件付き対話」に相当するといえる。

イ 本願発明の「前記モバイル・デバイス(1)が、 ……(中略)…… ロケーション情報(P2)を査定され、」について
(ア) 引用発明では、「仮想現実の表示では、 ……(中略)…… 実空間と仮想空間とが、実座標でリンクしており」、引用発明の「表示システム」に含まれる「ポインタ200」は、「ポインタ200は、 ……(中略)…… 位置センサ、加速度センサ、傾きセンサなどのセンサを搭載し、該ポインタ200を用いて位置を指定するユーザ操作を受付けて位置などを検出し、処理装置100に対して送信する機能を有するポインティングデバイスであ」るから、引用発明の「表示システム」に含まれる「ポインタ200」が検出する「位置」は、本願発明の「前記モバイル・デバイス(1)に対する現実世界の地理的ロケーション(P1)」と、「前記モバイル・デバイス(1)に対する現実世界のロケーション(P1)」である点で共通するといえる。
引用発明の「位置センサ」などを搭載する「ポインタ200」は、本願発明の「ジオロケーション手段」と、「ロケーション手段」である点で共通するといえる。
よって、引用発明の「表示システム」が、上記のような「ポインタ200」を含むことは、本願発明の「前記モバイル・デバイス(1)が、前記モバイル・デバイス(1)に対する現実世界の地理的ロケーション(P1)を査定するためのジオロケーション手段を含」むことと、「前記モバイル・デバイス(1)が、前記モバイル・デバイス(1)に対する現実世界のロケーション(P1)を査定するためのロケーション手段を含」む点で共通するといえる。

(イ) 引用発明の「仮想オブジェクトの3次元座標系での表示位置」は、本願発明の「仮想オブジェクト(2)」の「ロケーション情報(P2)」に対応するといえる。
引用発明の「処理装置100の機能構成において、 ……(中略)…… 仮想オブジェクト座標記憶部106に予め仮想オブジェクトに規定されている情報として該仮想オブジェクトの3次元座標系での表示位置が記憶されており、仮想オブジェクト表示領域検出部1022は、後述する表示処理によって仮想オブジェクトについて予め規定されている表示位置が変化した場合に、変化後の表示位置を特定し、そして、仮想オブジェクト座標記憶部106は、変化後の表示位置も記憶し」ており、「ステップS501で画像処理統括部として機能する処理装置100のCPUは、ポインタ位置と仮想オブジェクトの表示位置との間の距離Dを算出し」ていることは、ここで、引用発明では、「実空間と仮想空間とが、実座標でリンクしており」、仮想オブジェクトの表示位置と、現実世界に存在するポインタ位置間の「距離D」が算出できる以上、仮想オブジェクトの3次元座標系での表示位置も「現実世界の」位置にほかならないことを考慮すると、本願発明の「前記仮想オブジェクト(2)が、現実世界の地理的ロケーションに対応するロケーション情報(P2)を査定され」ることと、「前記仮想オブジェクト(2)が、現実世界のロケーションに対応するロケーション情報(P2)を査定され」る点で共通するといえる。

ウ 本願発明の「前記方法が、 ……(中略)…… 条件付けるステップと、」を含むことについて
上記「ア(ウ)、(エ)」記載のとおり、引用発明において「ステップS501で、処理装置100のCPUは、ポインタ位置と仮想オブジェクトの表示位置との間の距離Dを算出し、算出された距離Dが予め規定されているしきい値とする距離Dtよりも小さい場合、すなわち、ポインタ位置が仮想オブジェクトの表示位置から予め規定された距離内であった場合(ステップS503でYES)、ステップS505でCPUは、ステップS501で算出された距離Dに基づいて、該当する仮想オブジェクトについての対応関係より移動距離を決定し、ステップS507で規定されている表示位置に対して決定された移動量だけ移動させるように、新たな表示位置を計算し」ていることは、本願発明の「前記モバイル・デバイス(1)を通じた前記仮想オブジェクト(2)との少なくとも1つの対話を、少なくとも、前記モバイル・デバイス(1)の前記現実世界の地理的ロケーション(P1)と、前記仮想オブジェクト(2)の前記ロケーション情報(P2)との関数において条件付けるステップ」と、「前記モバイル・デバイス(1)を通じた前記仮想オブジェクト(2)との少なくとも1つの対話を、少なくとも、前記モバイル・デバイス(1)の前記現実世界のロケーション(P1)と、前記仮想オブジェクト(2)のロケーション情報(P2)との関数において条件付けるステップ」である点で共通するといえる。

エ 本願発明の(前記方法が)「前記条件付けステップが満たされるケースにおいては、 ……(中略)…… 対話するステップ(7)とを含む、方法。」について
上記「ア(ウ)、(エ)」記載のとおり、引用発明の前記「ポインタ位置が仮想オブジェクトの表示位置から予め規定された距離内であった場合(ステップS503でYES)、 ……(中略)…… ステップS505でCPUは、ステップS501で算出された距離Dに基づいて、該当する仮想オブジェクトについての対応関係より移動距離を決定し、ステップS507で規定されている表示位置に対して決定された移動量だけ移動させるように、新たな表示位置を計算し、そして、ステップS509でCPUは、決定された表示位置に仮想オブジェクトを表示させるように該仮想オブジェクトの画像を撮影画像に合成し」ていることは、本願発明の「前記条件付けステップが満たされるケースにおいては、前記仮想オブジェクト(2)の前記ロケーション情報(P2)を修正することによって前記仮想オブジェクトに関して前記モバイル・デバイス(1)と対話するステップ(7)」と「前記条件付けステップが満たされるケースにおいては、前記仮想オブジェクト(2)のロケーション情報(P2)を修正することによって前記仮想オブジェクトに関して前記モバイル・デバイス(1)と対話するステップ(7)」である点で共通するといえる。

したがって、両者の一致点、相違点は以下のとおりであるといえる。

[一致点]
「モバイル・デバイス(1)を用いてアクセス可能な仮想オブジェクト(2)に関する条件付き対話を提供するための方法であって、
前記モバイル・デバイス(1)が、前記モバイル・デバイス(1)に対する現実世界のロケーション(P1)を査定するためのロケーション手段を含み、前記仮想オブジェクト(2)が、現実世界のロケーションに対応するロケーション情報(P2)を査定され、
前記方法が、
前記モバイル・デバイス(1)を通じた前記仮想オブジェクト(2)との少なくとも1つの対話を、少なくとも、前記モバイル・デバイス(1)の前記現実世界のロケーション(P1)と、前記仮想オブジェクト(2)のロケーション情報(P2)との関数において条件付けるステップと、
前記条件付けステップが満たされるケースにおいては、前記仮想オブジェクト(2)のロケーション情報(P2)を修正することによって前記仮想オブジェクトに関して前記モバイル・デバイス(1)と対話するステップ(7)とを含む、方法。」

[相違点]
本願発明は、「モバイル・デバイスを用いて ……(中略)…… 前記モバイル・デバイス(1)が、前記モバイル・デバイス(1)に対する現実世界の「地理的」ロケーション(P1)を査定するための「ジオ」ロケーション手段を含み、前記仮想オブジェクト(2)が、現実世界の「地理的」ロケーションに対応するロケーション情報(P2)を査定され、 ……(中略)…… 前記モバイル・デバイス(1)を通じた前記仮想オブジェクト(2)との少なくとも1つの対話を、少なくとも、前記モバイル・デバイス(1)の前記現実世界の「地理的」ロケーション(P1)と、前記仮想オブジェクト(2)の「前記」ロケーション情報(P2)との関数において条件付けるステップと、前記条件付けステップが満たされるケースにおいては、前記仮想オブジェクト(2)の「前記」ロケーション情報(P2)を修正することによって前記仮想オブジェクトに関して前記モバイル・デバイス(1)と対話するステップ(7)とを含む、方法。」であるのに対して、
引用発明の「表示システム」の「ポインタ200」は、「位置センサ」などのセンサを搭載し、「位置」を検出して処理装置100に対して送信する機能を有するポインティングデバイスであるものの、前記モバイル・デバイス(1)に対する現実世界の「地理的」ロケーション(P1)を査定するための「ジオ」ロケーション手段を含み、前記仮想オブジェクト(2)が、現実世界の「地理的」ロケーションに対応するロケーション情報(P2)を査定され、前記モバイル・デバイス(1)の前記現実世界の「地理的」ロケーション(P1)と、前記仮想オブジェクト(2)の「前記」ロケーション情報(P2)との関数において条件付けるステップと、前記条件付けステップが満たされるケースにおいては、前記仮想オブジェクト(2)の「前記」ロケーション情報(P2)を修正することによって前記仮想オブジェクトに関して前記モバイル・デバイス(1)と対話するステップ(7)とを含むことは、特定されていない点。

5.当審の判断
[相違点]について
位置の検出手段として、どのような種別のセンサを用いるかは、必要とされる検出の精度や、検出の対象となる空間の広がりなどを考慮して、当業者が適宜選択すべき設計的事項である。
位置の検出手段として、例えば「GPS」などの「地理的」な位置の検出手段を用いることは、周知技術である。
この点について、必要ならば、例えば、先の拒絶理由で引用された引用文献2(米国特許出願公開第2010/0302143号明細書)の上記「3(2)」の摘記箇所、特に段落[0143]「…位置センサー408は、GPS…」の記載を参照。
この点について、さらに、必要であれば、先の拒絶理由で引用された「引用文献3」である、米国特許出願公開第2011/0216002号明細書の上記「3(3)」の摘記箇所(段落[0039])の摘記箇所も参照されたい。
一方、引用発明は、例えば、「工場内の各機器から発信されている情報(進捗管理、エラー情報、取扱方法)にアクセス」するケースとして、広い空間を位置検出の対象にするケースが想定されているといえる。
したがって、引用発明の表示システムの「ポインタ200」の「位置センサ」として、例えば「GPS」などの、周知の「地理的」な位置の検出手段を採用することで、現実世界の地理的ロケーション(P1)を査定するためのジオロケーション手段を含み、前記仮想オブジェクト(2)が、現実世界の地理的ロケーションに対応するロケーション情報(P2)を査定されるように構成することによって、上記[相違点]に係る構成とすることは、当業者が容易に推考し得ることである。

さらに、本願発明の効果も、引用発明及び周知技術に基づいて、当業者が予測し得る範囲内のものである。

6.むすび
したがって、本願発明は、引用発明、及び、周知技術に基づいて、当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。
したがって、本願は、その余の請求項について論及するまでもなく拒絶すべきものである。
よって、結論のとおり審決する。
 
審理終結日 2017-08-23 
結審通知日 2017-08-24 
審決日 2017-09-06 
出願番号 特願2015-522005(P2015-522005)
審決分類 P 1 8・ 121- WZ (G06F)
最終処分 不成立  
前審関与審査官 浜岸 広明  
特許庁審判長 高瀬 勤
特許庁審判官 山澤 宏
稲葉 和生
発明の名称 仮想オブジェクトに関する条件付き対話コントロール  
代理人 吉澤 弘司  
代理人 岡部 讓  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ