• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 取り消して特許、登録 G06T
管理番号 1325199
審判番号 不服2015-15875  
総通号数 208 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2017-04-28 
種別 拒絶査定不服の審決 
審判請求日 2015-08-27 
確定日 2017-03-13 
事件の表示 特願2014-502814「各ユーザの視点に対する共有デジタルインターフェースのレンダリングのためのシステム」拒絶査定不服審判事件〔平成24年10月 4日国際公開、WO2012/135554、平成26年 6月19日国内公表、特表2014-514653、請求項の数(37)〕について、次のとおり審決する。 
結論 原査定を取り消す。 本願の発明は、特許すべきものとする。 
理由 第1 手続の経緯
本願は、2012年3月29日(パリ条約による優先権主張外国庁受理2011年3月29日 米国、2012年3月29日 米国)を国際出願日とする出願であって、平成26年10月3日付けで拒絶理由が通知され、平成27年4月9日付けで手続補正がされ、平成27年6月16日付けで拒絶査定がなされた。
本件は、上記拒絶査定を不服として、平成27年8月27日付けで請求された拒絶査定不服審判であって、請求と同時に手続補正がされ、その後、当審において平成28年10月21日付けで拒絶理由が通知され、平成29年1月18日付けで手続補正がされたものである。

第2 本願発明
本願の請求項1ないし37に係る発明(以下、「本願発明1」・・・「本願発明37」という。)は、平成29年1月18日付けの手続補正で補正された特許請求の範囲の請求項1ないし37に記載された事項により特定される以下のものと認められる。
なお、本願発明1のA、B、・・・については、説明のために当審にて付したものである。(以下、「構成A」、「構成B」・・・という。)

「 【請求項1】
A ボディマウントカメラおよびヘッドマウントディスプレイを各々が備える第1および第2のボディマウントデバイスを備える拡張現実システムにおいて画像をレンダリングする方法であって、
B 前記第1のボディマウントデバイスの前記ボディマウントカメラを用いて、シーンの第1のシーン画像をキャプチャするステップと、
C 前記第1のボディマウントデバイスの前記ヘッドマウントディスプレイ上に仮想オブジェクトの第1の画像を表示するステップであって、前記第1の画像が、前記仮想オブジェクトを、前記第1のボディマウントデバイスの装着者にとって第1の向きに見えるように、かつ、前記キャプチャされた第1のシーン画像内の第1のアンカー表面にアンカーされるように表示するステップと、
D 前記第2のボディマウントデバイスの前記ヘッドマウントディスプレイ上に前記仮想オブジェクトの第2の画像を表示するステップであって、前記第2の画像が、前記仮想オブジェクトを、前記第2のボディマウントデバイスの装着者にとって第2の向きに見えるように、かつ、前記第2のボディマウントデバイスのボディマウントカメラを用いてキャプチャされた第2のシーン画像内の第2のアンカー表面にアンカーされるように表示し、前記第2のアンカー表面が、前記第1のアンカー表面とは異なるステップとを含む方法。
【請求項2】
前記仮想オブジェクトを、前記第1のボディマウントデバイスから前記第2のボディマウントデバイスへ送るステップと、
前記仮想オブジェクトを、前記第2のボディマウントデバイスにおいて受信するステップと、
前記第2のボディマウントデバイスの前記ボディマウントカメラを用いて、前記シーンの第2のシーン画像をキャプチャするステップと、
前記キャプチャされた第2のシーン画像を分析して、前記第2のボディマウントデバイスの前記装着者が見ている方向に近い方向である、前記第2のシーン画像内の適切なアンカー表面を識別するステップとをさらに含み、
前記第2のボディマウントデバイスの前記ヘッドマウントディスプレイ上に第2の画像を表示するステップが、前記第2の画像を、前記仮想オブジェクトが前記識別された適切なアンカー表面にアンカーされるように表示するステップを含む、請求項1に記載の方法。
【請求項3】
前記仮想オブジェクトの向きを示す信号を、前記第1のボディマウントデバイスから前記第2のボディマウントデバイスへ送信するステップをさらに含み、
前記第2の画像を表示するステップが、前記第2の画像を、仮想オブジェクトの向きが前記第1のボディマウントデバイスから受信された前記信号に部分的に基づいて設定されるように表示するステップを含む、請求項1に記載の方法。
【請求項4】
前記仮想オブジェクトの好ましい向きを示す信号を、前記第1のボディマウントデバイスから前記第2のボディマウントデバイスへ送信するステップと、
前記第2のボディマウントデバイスの前記装着者に、前記示された好ましい向きを通知するステップと、
前記示された好ましい向きを受け入れるか、または拒否する、前記第2のボディマウントデバイスの前記装着者からの入力を受信するステップとをさらに含み、
前記第2のボディマウントデバイスの前記ヘッドマウントディスプレイ上に前記仮想オブジェクトの第2の画像を表示するステップが、前記第2の画像を、前記受信された入力が前記示された好ましい向きを受け入れるとき、前記仮想オブジェクトの向きが前記示された好ましい向きに部分的に基づいて設定されるように、および前記受信された入力が前記示された好ましい向きを拒否するとき、前記仮想オブジェクトの向きが前記示された好ましい向きとは異なるように設定されるように表示するステップを含む、請求項1に記載の方法。
【請求項5】
前記仮想オブジェクトを、前記第1のボディマウントデバイスから前記第2のボディマウントデバイスへ送信するステップをさらに含み、
前記第2のボディマウントデバイスの前記ヘッドマウントディスプレイ上に前記仮想オブジェクトの第2の画像を表示するステップが、前記第2の画像を、前記第2の向きで前記第1のアンカー表面にアンカーされるように表示するステップを含む、請求項1に記載の方法。
【請求項6】
前記第1および第2のボディマウントデバイスが異なるロケーションに位置し、前記方法が、前記仮想オブジェクトを、前記第1および第2のボディマウントデバイスの各々へ、ネットワークを介して送信するステップをさらに含む、請求項1に記載の方法。
【請求項7】
前記第2のボディマウントデバイスの前記ボディマウントカメラを用いて、第2のシーン画像をキャプチャするステップと、
前記キャプチャされた第2のシーン画像内の前記第2のアンカー表面を示す入力を、前記第2のボディマウントデバイスにおいて受信するステップであって、前記示された第2のアンカー表面が、前記第1のアンカー表面とは異なるステップとをさらに含み、
前記第2のボディマウントデバイスの前記ヘッドマウントディスプレイ上に第2の画像を表示するステップが、前記仮想オブジェクトを、前記示された第2のアンカー表面と前記第2のボディマウントデバイスの前記装着者とに適する構成において、前記示された第2のアンカー表面にアンカーされるように表示するステップを含む、請求項1に記載の方法。
【請求項8】
第2の仮想オブジェクトを、前記第2のボディマウントデバイスから前記第1のボディマウントデバイスへ送信するステップと、
前記第1のボディマウントデバイスの前記ヘッドマウントディスプレイ上に第3の画像を表示するステップであって、前記第3の画像が、前記第2の仮想オブジェクトを、前記第1のアンカー表面にアンカーされるように表示するステップとをさらに含む、請求項7に記載の方法。
【請求項9】
第1のボディマウントカメラ、第1のヘッドマウントディスプレイ、第1の送受信機、ならびに前記第1のカメラ、第1のディスプレイおよび第1の送受信機に結合された第1のボディマウントデバイスプロセッサを備える第1のボディマウントデバイスと、
第2のボディマウントカメラ、第2のヘッドマウントディスプレイ、第2の送受信機、ならびに前記第2のカメラ、第2のディスプレイおよび第2の送受信機に結合された第2のボディマウントデバイスプロセッサを備える第2のボディマウントデバイスとを備えるシステムであって、
前記第1のボディマウントデバイスプロセッサが、
シーンの第1のシーン画像を前記第1のカメラでキャプチャすること、および
前記第1のディスプレイ上に仮想オブジェクトの第1の画像を表示することであって、前記第1の画像が、前記第1のボディマウントデバイスの装着者にとって第1の向きに見えるように、かつ、前記キャプチャされた第1のシーン画像内の第1のアンカー表面にアンカーされるように前記仮想オブジェクトを表示することを含む動作を実施するためのプロセッサ実行可能命令で構成され、
前記第2のボディマウントデバイスプロセッサが、
前記第2のディスプレイ上に前記仮想オブジェクトの第2の画像を表示することであって、前記第2の画像が、前記第2のボディマウントデバイスの装着者にとって第2の向きに見えるように、かつ、前記第2のボディマウントデバイスの前記第2のカメラを用いてキャプチャされた第2のシーン画像内の第2のアンカー表面にアンカーされるように前記仮想オブジェクトを表示し、前記第2のアンカー表面が、前記第1のアンカー表面とは異なることを含む動作を実施するためのプロセッサ実行可能命令で構成されるシステム。
【請求項10】
前記第2のボディマウントデバイスプロセッサが、
前記第1のボディマウントデバイスから前記仮想オブジェクトを受信すること、
第2のシーン画像を前記第2のカメラでキャプチャすること、および
前記キャプチャされた第2のシーン画像を分析して、前記第2のボディマウントデバイスの前記装着者が見ている方向に近い方向である、前記第2のシーン画像内の適切なアンカー表面を識別することをさらに含む動作を実施するためのプロセッサ実行可能命令で構成され、
前記仮想オブジェクトの前記第2の画像を表示することが、前記仮想オブジェクトを、前記識別された適切なアンカー表面にアンカーされるように表示することを含むような動作を実施するためのプロセッサ実行可能命令で、前記第2のボディマウントデバイスプロセッサが構成される、請求項9に記載のシステム。
【請求項11】
前記仮想オブジェクトの向きを示す信号を、前記第2のボディマウントデバイスへ送信することをさらに含む動作を実施するためのプロセッサ実行可能命令で、前記第1のボディマウントデバイスプロセッサが構成され、
前記第2の画像を表示することが、前記第1のボディマウントデバイスによって送信された前記信号中の、前記仮想オブジェクトの前記示された向きに部分的に基づいて決定された向きで仮想オブジェクトを表示することを含むような動作を実施するためのプロセッサ実行可能命令で、前記第2のボディマウントデバイスプロセッサが構成される、請求項9に記載のシステム。
【請求項12】
前記第1のボディマウントデバイスプロセッサが、前記仮想オブジェクトの好ましい向きを示す信号を、前記第2のボディマウントデバイスへ送信することをさらに含む動作を実施するためのプロセッサ実行可能命令で構成され、
前記第2のボディマウントデバイスプロセッサが、
前記第2のボディマウントデバイスの前記装着者に、前記示された好ましい向きを通知すること、および
前記示された好ましい向きを受け入れるか、または拒否する、前記第2のボディマウントデバイスの前記装着者からの入力を受信することを含む動作を実施するためのプロセッサ実行可能命令で構成され、
前記第2のボディマウントデバイスプロセッサが、
前記第2のディスプレイ上に前記仮想オブジェクトの第2の画像を表示することが、前記受信された入力が前記示された好ましい向きを受け入れるとき、前記仮想オブジェクトの向きが前記示された好ましい向きに部分的に基づいて設定されるように、および前記受信された入力が前記示された好ましい向きを拒否するとき、前記仮想オブジェクトの向きが前記示された好ましい向きとは異なるように設定されるように、前記第2の画像を表示することを含むような動作を実施するためのプロセッサ実行可能命令でさらに構成される、請求項9に記載のシステム。
【請求項13】
前記仮想オブジェクトを前記第2のボディマウントデバイスへ送信することを含む動作を実施するためのプロセッサ実行可能命令で、前記第1のボディマウントデバイスプロセッサが構成され、
前記仮想オブジェクトの前記第2の画像を表示することが、前記第2の画像を前記第2の向きで前記第1のアンカー表面にアンカーされるように表示することを含むような動作を実施するためのプロセッサ実行可能命令で、前記第2のボディマウントデバイスプロセッサが構成される、請求項9に記載のシステム。
【請求項14】
メモリと、
前記メモリに結合されたサーバプロセッサとを備えるサーバであって、前記サーバプロセッサが、
前記仮想オブジェクトを、前記第1および第2のボディマウントデバイスの各々へネットワークを介して送信することを含む動作を実施するためのサーバ実行可能命令で構成されるサーバをさらに備える、請求項9に記載のシステム。
【請求項15】
前記第2のボディマウントデバイスプロセッサが、
第2のシーン画像を前記第2のカメラでキャプチャすること、および
前記キャプチャされた第2のシーン画像にある第2のアンカー表面を示す入力を受信することであって、前記示された第2のアンカー表面が、前記第1のアンカー表面とは異なる表面であることをさらに含む動作を実施するためのプロセッサ実行可能命令で構成され、
第2の画像を表示することが、前記仮想オブジェクトを、前記示された第2のアンカー表面と前記第2のボディマウントデバイスの前記装着者とに適する構成において、前記示された第2のアンカー表面にアンカーされるように表示することを含むような動作を実施するためのプロセッサ実行可能命令で、前記第2のボディマウントデバイスプロセッサが構成される、請求項9に記載のシステム。
【請求項16】
第2の仮想オブジェクトを、前記第2のボディマウントデバイスから前記第1のボディマウントデバイスへ送信することをさらに含む動作を実施するためのプロセッサ実行可能命令で、前記第2のボディマウントデバイスプロセッサが構成され、
前記第1のボディマウントデバイスの前記ヘッドマウントディスプレイ上に第3の画像を表示することであって、前記第3の画像が、前記第2の仮想オブジェクトを、前記第1のアンカー表面にアンカーされるように表示することをさらに含む動作を実施するためのプロセッサ実行可能命令で、前記第1のボディマウントデバイスプロセッサが構成される、請求項15に記載のシステム。
【請求項17】
メモリと、
ボディマウントカメラと、
ヘッドマウントディスプレイと、
送受信機と、
前記メモリ、カメラ、ディスプレイおよび送受信機に結合されたプロセッサとを備えるボディマウントコンピューティングデバイスであって、前記プロセッサが、
シーンのシーン画像を前記カメラでキャプチャすること、
前記ディスプレイ上に仮想オブジェクトの第1の画像を表示することであって、前記第1の画像が、前記ボディマウントコンピューティングデバイスの装着者に適する第1の向きで、前記キャプチャされたシーン画像内の第1のアンカー表面にアンカーされるように、前記仮想オブジェクトを表示すること、および
第2のボディマウントコンピューティングデバイスに、前記仮想オブジェクトの第2の画像を第2のヘッドマウントディスプレイ上に表示させるための信号を、前記第2のボディマウントコンピューティングデバイスへ送信することであって、前記第2の画像が、前記仮想オブジェクトを、前記第2のボディマウントデバイスの装着者に適する第2の向きで、前記第2のボディマウントデバイスのボディマウントカメラを用いてキャプチャされた第2のシーン画像内の第2のアンカー表面にアンカーされるように表示し、前記第2のアンカー表面が、前記第1のアンカー表面とは異なることを含む動作を実施するためのプロセッサ実行可能命令で構成されるボディマウントコンピューティングデバイス。
【請求項18】
前記プロセッサが、
前記キャプチャされたシーン画像を分析して、前記ボディマウントデバイスの前記装着者が見ている方向に近い方向である、前記シーン画像内の適切なアンカー表面を識別することをさらに含む動作を実施するためのプロセッサ実行可能命令で構成され、
仮想オブジェクトの第1の画像を前記ディスプレイ上に表示することが、前記仮想オブジェクトを、前記識別された適切なアンカー表面にアンカーされるように表示することを含むような動作を実施するためのプロセッサ実行可能命令で、前記プロセッサが構成される、請求項17に記載のボディマウントコンピューティングデバイス。
【請求項19】
前記第2のボディマウントコンピューティングデバイスに前記第2の画像を表示させることが、前記第2のボディマウントコンピューティングデバイスに、前記第1のボディマウントデバイスによって送信された前記信号中の、前記仮想オブジェクトの前記示された向きに部分的に基づいて決定された向きで、前記仮想オブジェクトを表示させることを含むように、第2のボディマウントコンピューティングデバイスへ信号を送信することが、前記仮想オブジェクトの向きを示す信号を、前記第2のボディマウントデバイスへ送信することを含むような動作を実施するためのプロセッサ実行可能命令で前記プロセッサが構成される、請求項17に記載のボディマウントコンピューティングデバイス。
【請求項20】
第2のボディマウントコンピューティングデバイスへ信号を送信することが、
前記仮想オブジェクトの好ましい向きを示す信号を、前記第2のボディマウントデバイスへ送信することであって、前記第2のコンピューティングデバイスに、前記第2のボディマウントデバイスの前記装着者が、示された好ましい向きを受け入れるか、または拒否することを可能にするように、前記示された好ましい向きを前記第2のボディマウントデバイスの前記装着者へ通知させて、前記好ましい向きが受け入れられるとき、前記仮想オブジェクトの向きが前記示された好ましい向きに基づいて設定され、前記好ましい向きが拒否されるとき、前記仮想オブジェクトの向きが前記示された好ましい向きとは異なるように設定されるように、前記第2の画像を前記第2のヘッドマウントディスプレイ上に表示させるための情報を、前記信号が含むことを含むような動作を実施するためのプロセッサ実行可能命令で前記プロセッサが構成される、請求項17に記載のボディマウントコンピューティングデバイス。
【請求項21】
前記第2の画像を表示することが、前記仮想オブジェクトを、前記第2の向きで前記第1のアンカー表面にアンカーされるように表示することを含むように、第2のボディマウントコンピューティングデバイスへ信号を送信することが、前記仮想オブジェクトを前記第2のボディマウントデバイスへ送信することを含むような動作を実施するためのプロセッサ実行可能命令で前記プロセッサが構成される、請求項17に記載のボディマウントコンピューティングデバイス。
【請求項22】
前記プロセッサが、
前記仮想オブジェクトをネットワークから受信することをさらに含む動作を実施するためのプロセッサ実行可能命令で構成される、請求項17に記載のボディマウントコンピューティングデバイス。
【請求項23】
前記プロセッサが、
前記仮想オブジェクトを前記第2のボディマウントコンピューティングデバイスへ送信することをさらに含む動作を実施するためのプロセッサ実行可能命令で構成される、請求項17に記載のボディマウントコンピューティングデバイス。
【請求項24】
コンピューティングデバイスであって、
シーンのシーン画像をカメラでキャプチャするための手段と、
ディスプレイ上に仮想オブジェクトの第1の画像を表示するための手段であって、前記第1の画像が、前記ボディマウントコンピューティングデバイスの装着者にとって第1の向きに見えるように、かつ、前記キャプチャされたシーン画像内の第1のアンカー表面にアンカーされるように、前記仮想オブジェクトを表示する手段と、
第2のボディマウントコンピューティングデバイスに、前記仮想オブジェクトの第2の画像を第2のヘッドマウントディスプレイ上に表示させる信号を、前記第2のボディマウントコンピューティングデバイスへ送信するための手段であって、前記第2の画像が、前記仮想オブジェクトを、前記第2のボディマウントデバイスの装着者にとって第2の向きに見えるように、かつ、前記第2のボディマウントデバイスのボディマウントカメラを用いてキャプチャされた第2のシーン画像内の第2のアンカー表面にアンカーされるように表示し、前記第2のアンカー表面が、前記第1のアンカー表面とは異なる手段とを備えるコンピューティングデバイス。
【請求項25】
前記キャプチャされたシーン画像を分析して、前記ボディマウントデバイスの前記装着者が見ている方向に近い方向である前記シーン画像内の適切なアンカー表面を識別するための手段をさらに備え、仮想オブジェクトの第1の画像を前記ディスプレイ上に表示するための手段が、前記仮想オブジェクトを、前記識別された適切なアンカー表面にアンカーされるように表示するための手段を備える、請求項24に記載のコンピューティングデバイス。
【請求項26】
前記第2のボディマウントコンピューティングデバイスに前記第2の画像を表示させることが、前記第2のボディマウントコンピューティングデバイスに、前記第1のボディマウントデバイスによって送信された前記信号中の、前記仮想オブジェクトの前記示された向きに部分的に基づいて決定された向きで前記仮想オブジェクトを表示させることを含むように、第2のボディマウントコンピューティングデバイスへ信号を送信するための手段が、前記仮想オブジェクトの向きを示す信号を、前記第2のボディマウントデバイスへ送信するための手段を備える、請求項24に記載のコンピューティングデバイス。
【請求項27】
第2のボディマウントコンピューティングデバイスへ信号を送信するための手段が、前記仮想オブジェクトの好ましい向きを示す信号を前記第2のボディマウントデバイスへ送信するための手段を備える、請求項24に記載のコンピューティングデバイス。
【請求項28】
前記第2の画像を表示することが、前記仮想オブジェクトを、前記第2の向きで前記第1のアンカー表面にアンカーされるように表示することを含むように、第2のボディマウントコンピューティングデバイスへ信号を送信するための手段が、前記仮想オブジェクトを前記第2のボディマウントデバイスへ送信するための手段を備える、請求項24に記載のコンピューティングデバイス。
【請求項29】
前記仮想オブジェクトをネットワークから受信するための手段をさらに備える、請求項24に記載のコンピューティングデバイス。
【請求項30】
前記仮想オブジェクトを前記第2のボディマウントコンピューティングデバイスへ送信するための手段をさらに備える、請求項24に記載のコンピューティングデバイス。
【請求項31】
シーンのシーン画像をキャプチャすること、
電子ディスプレイ上に仮想オブジェクトの第1の画像を表示することであって、前記第1の画像が、前記ボディマウントコンピューティングデバイスの装着者にとって第1の向きに見えるように、かつ、前記キャプチャされたシーン画像内の第1のアンカー表面にアンカーされるように、前記仮想オブジェクトを表示すること、および
第2のボディマウントコンピューティングデバイスに、前記仮想オブジェクトの第2の画像を第2のヘッドマウントディスプレイ上に表示させるための信号を、前記第2のボディマウントコンピューティングデバイスへ送信することであって、前記第2の画像が、前記仮想オブジェクトを、前記第2のボディマウントデバイスの装着者にとって第2の向きに見えるように、かつ、前記第2のボディマウントデバイスのボディマウントカメラを用いてキャプチャされた第2のシーン画像内の第2のアンカー表面にアンカーされるように表示し、前記第2のアンカー表面が、前記第1のアンカー表面とは異なることを含む動作をプロセッサに実施させるように構成されたプロセッサ実行可能ソフトウェア命令を記憶した非一時的コンピュータ可読記憶媒体。
【請求項32】
前記記憶されたプロセッサ実行可能ソフトウェア命令が、
前記キャプチャされたシーン画像を分析して、前記ボディマウントデバイスの前記装着者が見ている方向に近い方向である前記シーン画像内の適切なアンカー表面を識別することをさらに含む動作をプロセッサに実施させるように構成され、仮想オブジェクトの第1の画像を前記ディスプレイ上に表示することが、前記仮想オブジェクトを、前記識別された適切なアンカー表面にアンカーされるように表示することを含むような動作をプロセッサに実施させるように、前記記憶されたプロセッサ実行可能ソフトウェア命令が構成される、請求項31に記載の非一時的コンピュータ可読記憶媒体。
【請求項33】
前記第2のボディマウントコンピューティングデバイスに前記第2の画像を表示させることが、前記第2のボディマウントコンピューティングデバイスに、前記第1のボディマウントデバイスによって送信された前記信号中の、前記仮想オブジェクトの前記示された向きに部分的に基づいて決定された向きで前記仮想オブジェクトを表示させることを含むように、第2のボディマウントコンピューティングデバイスに信号を送信することが、前記仮想オブジェクトの向きを示す信号を、前記第2のボディマウントデバイスへ送信することを含むような動作をプロセッサに実施させるように、前記記憶されたプロセッサ実行可能ソフトウェア命令が構成される、請求項31に記載の非一時的コンピュータ可読記憶媒体。
【請求項34】
前記記憶されたプロセッサ実行可能ソフトウェア命令が、
前記仮想オブジェクトの好ましい向きを示す信号を、前記第2のボディマウントデバイスへ送信することであって、前記第2のコンピューティングデバイスに、前記第2のボディマウントデバイスの前記装着者が、示された好ましい向きを受け入れるか、または拒否することを可能にするように、前記示された好ましい向きを前記第2のボディマウントデバイスの前記装着者へ通知させて、前記好ましい向きが受け入れられるとき、前記仮想オブジェクトの向きが前記示された好ましい向きに基づいて設定され、前記好ましい向きが拒否されるとき、前記仮想オブジェクトの向きが前記示された好ましい向きとは異なるように設定されるように、前記第2の画像を前記第2のヘッドマウントディスプレイ上に表示させるための情報を、前記信号が含むことを含む動作をプロセッサに実施させるように構成される、請求項31に記載の非一時的コンピュータ可読記憶媒体。
【請求項35】
前記第2の画像を表示することが、前記仮想オブジェクトを、前記第2の向きで前記第1のアンカー表面にアンカーされるように表示することを含むように、第2のボディマウントコンピューティングデバイスへ信号を送信することが、前記仮想オブジェクトを前記第2のボディマウントデバイスへ送信することを含むような動作をプロセッサに実施させるように、前記記憶されたプロセッサ実行可能ソフトウェア命令が構成される、請求項31に記載の非一時的コンピュータ可読記憶媒体。
【請求項36】
前記記憶されたプロセッサ実行可能ソフトウェア命令が、
前記仮想オブジェクトをネットワークから受信することを含む動作をプロセッサに実施させるように構成される、請求項31に記載の非一時的コンピュータ可読記憶媒体。
【請求項37】
前記記憶されたプロセッサ実行可能ソフトウェア命令が、
前記仮想オブジェクトを前記第2のボディマウントコンピューティングデバイスへ送信することを含む動作をプロセッサに実施させるように構成される、請求項31に記載の非一時的コンピュータ可読記憶媒体。」

第3 原査定の理由及び当審の拒絶理由の概要について
1.原査定の理由の概要
請求項1?42に係る発明は、その出願前に日本国内又は外国において、頒布された下記の刊行物に記載された発明又は電気通信回線を通じて公衆に利用可能となった発明に基いて、その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。

刊行物1:南谷真哉,外3名,”変型ビルボードを用いた人物像の提示による複合現実感卓上作業の遠隔共有”,日本バーチャルリアリティ学会論文誌,日本,特定非営利活動法人日本バーチャルリアリティ学会,2008年9月30日,第13巻,第3号,p.363-373
刊行物2:松下光範,外5名,”天地問題を解消した対面協調作業支援システム”,情報処理学会論文誌,日本,社団法人情報処理学会,2005年7月15日,第46巻,第7号,p.1603-1617
刊行物3:特開2010-217719号公報(周知技術を示す文献)

2.当審の拒絶理由の概要
請求項1、2、5、6、10、11、14、15、19、20、26、27、28、34、35、36、42に係る発明は、その出願前に日本国内又は外国において、頒布された下記の刊行物に記載された発明又は電気通信回線を通じて公衆に利用可能となった発明であるから、特許法第29条第1項第3号に該当し、特許を受けることができない。
請求項1?3、5?7、10?12、14?16、19?21、23?26、27?34、35?37、39?42に係る発明は、その出願前に日本国内又は外国において、頒布された下記の刊行物に記載された発明又は電気通信回線を通じて公衆に利用可能となった発明に基いて、その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。

刊行物3:特開2010-217719号公報(原査定の刊行物3と同じ文献である。)

第4 各刊行物の記載事項
1.刊行物1の記載事項
原査定の拒絶の理由に引用された刊行物1には、「変型ビルボードを用いた人物像の提示による複合現実感卓上作業の遠隔共有」として、図面とともに以下の事項が記載されている。(なお、下線は当審が付したものである。)

「複合現実空間中のユーザは,現実空間に仮想物体を重畳した映像を観察するためにヘッドマウントディスプレイ(HMD:Head Mounted Display)を装着している.特に,現実世界の見え方をビデオデータとして撮影・提示を行うビデオシースルー型HMDを利用する場合,図1に示すように,仮想物体だけでなく,人物や現実の背景などの実物体も,ビデオ映像として電子的に取り扱われる.」(363頁左欄23行?右欄3行)

「一方,遠隔協調型複合現実感では,相手ユーザがその場に存在しないため,実空間映像の中には相手ユーザの人物像が含まれていない.また,卓上面にある実物体も,片方のユーザ側の卓上にある物体は,もう片方のユーザ側の実空間映像には含まれていない.つまり,遠隔地間において従来の協調型複合現実感と同様の視覚効果を再現するためには,相手ユーザの人物像と,相手側にある実物体の視覚情報を再現する必要がある.」(365頁左欄25?33行)

「そこで,この視点の見回しに対応するため,図6に示すように人物像と卓上面を撮影するカメラ(正面カメラ)を相手ユーザの視点位置付近に設置し,そこからユーザの人物像と卓上面が画角中に収まるように,カメラの光軸方向を斜め下方向(約30度)に傾けて固定した.正面カメラには超広角レンズ(水平画角:89.08度)が取り付けてあり,このカメラを光軸中心に90度回転させて使用しているため,卓上面全体と人物像の頭部までの撮影が可能である.」(366頁左欄10?19行)

「本節では,図11のような遠隔オセロゲームを遠隔協調型複合現実感によって実現し,遠隔地の対戦相手があたかも目の前にいるかのような映像を提示するための人物像の取得・伝送・提示方法を述べるとともに,ゲーム盤上の駒を取得し遠隔地の相手の盤上に仮想物体として提示する手法について述べる.
5.1 ハードウェア構成とデータフロー
本システムにおけるハードウェアは,図12に示すような構成となっている.ユーザは互いにゲーム盤の置かれた机の前に座っている.机の向う正面には,垂直画角89.08度の超広角レンズが取り付けられたカメラ(正面カメラ)が一台設置されており,ユーザの人物像全体と卓上面全体を撮影する.その光軸は水平から約30度下に傾けてられた状態で固定されている.卓上面に置かれる実物体(本システムの場合はオセロの駒)の状態は,正面カメラの映像から抽出される.
双方のユーザは,両眼提示ビデオシースルー型HMDを装着している.HMDの位置と姿勢は,ARToolkit-Plusのマルチマーカ機能を利用して算出する[14].マルチマーカは図13に示すようにビルボードや実物体がレンダリングされる領域全体に配置されており,ユーザの頭部がどこを向いていてもHMD内蔵カメラにマーカが写りこむようになっている.
これらのカメラとHMDは,一台のPCに接続され,そのPCはイーサネットを介して遠隔地の複合現実空間のPCに接続されている.ネットワーク経由で,ユーザの人物像や卓上の状態をリアルタイムで相手に伝送することにより,遠隔協調作業を実現する.
図14に本システムの処理の流れを表すデータフローを示す.本システムの処理内容は,人物像の取得・伝送・提示の各々の処理にあわせて,“CapturingStage”,“DataTransmission”,“RenderingStage”の3つのステージで構成されており,我々はこれらを各PCにてリアルタイムで処理可能なシステムを構築した.」(367頁右欄20行?368頁左欄18行)

ここで、図14には、「ユーザA」と「ユーザB」の双方において、「正面カメラ」にて「盤上の駒検出処理」により「自盤面状態」を生成し、「自盤面状態」についてのストリームを生成し、相手ユーザに送信する「ストリーム生成・送信」を行い、相手ユーザから受信したストリームを解析する「ストリーム受信・解析」を行い、受信した「相手盤面状態」と「自盤面状態」から「盤上駒CGオブジェクト生成」を行い、「HMD内蔵カメラ」による「HMD位置姿勢推定」と、盤上駒CGオブジェクトより「MR空間レンダリング」を行い、「HMD映像提示」を行うことが記載されている。

そうすると、刊行物1には、次の発明(以下、「刊行物1発明」という。)が記載されていると認められる。
なお、刊行物1発明のa1、b1・・・については、説明のために当審で付したものであり、以下、「構成a1」、「構成b1」・・・という。

「a1 HMD内蔵カメラを各々が備えるユーザA及びユーザBのビデオシースルー型HMDを用いて、現実空間に仮想物体を重畳した映像を観察するシステムにおける、盤上駒CGオブジェクトをレンダリングする方法であって、
b1 ユーザAのビデオシースルー型HMDのHMD内蔵カメラを用いて、卓上面にある実物体や領域全体に配置されているマルチマーカを含む現実世界を撮影し、
c1 ユーザAのHMDに、ユーザBの正面カメラを用いた撮影により検出されたユーザBにおける盤面状態と、ユーザAの正面カメラを用いた撮影により検出されたユーザAにおける盤面状態から生成された盤上駒CGオブジェクトを表示する際に、
ユーザAのHMD内蔵カメラによるARToolkit-Plusのマルチマーカ機能を利用したHMD位置姿勢推定と、盤上駒CGオブジェクトよりMR空間レンダリングを行い、HMD映像提示を行い、
d1 ユーザBのHMDに、ユーザAの正面カメラを用いた撮影により検出されたユーザAにおける盤面状態と、ユーザBの正面カメラを用いた撮影により検出されたユーザBにおける盤面状態から生成された盤上駒CGオブジェクトを表示する際に、
ユーザBのHMD内蔵カメラによるARToolkit-Plusのマルチマーカ機能を利用したHMD位置姿勢推定と、盤上駒CGオブジェクトよりMR空間レンダリングを行い、HMD映像提示を行い、
ユーザAとユーザBは遠隔地である方法。」

2.刊行物2の記載事項
原査定の拒絶の理由に引用された刊行物2の「3.方向依存ディスプレイLumisightTable」、「4.協調作業支援システムソフトウェアの基本設計 4.1情報の共有と天地問題の解消」の記載からみて、当該刊行物2には、「正方形のテーブル面上に、プロジェクタに正対する方向からのみ映像をみることができるフィルムを添付し、4台のプロジェクタで異なる方向から映像を投影することにより、テーブルの各辺に座っている4人のユーザのそれぞれが認識しやすい方向で映像が表示されるようにしたディスプレイ」という技術的事項が記載されていると認められる。

3.刊行物3の記載事項
原査定の拒絶の理由に周知例として引用された刊行物3(当審拒絶理由に引用された刊行物3)には、「装着型表示装置、その制御方法及びプログラム」(発明の名称)として、図面とともに以下の事項が記載されている。

【0023】
(利用シーン)
本発明が想定している利用場所は、壁、天井、床、道路、また机、椅子、板などの人工物のように、何の変哲も無い平面が存在する実空間である。実空間における平面側には、人やHMDを検知するためのセンサ類は一切取り付けられていない。以下で、具体的な利用シーンの一例を説明する。
【0024】
図1(a)のように、Aさん (図の左側の女性)が普段あまり顔を合わせない知り合いであるBさん (図の右側の男性が)と廊下でバッタリ会ったという状況を考える。2人は現在全く別の部署に配属されているが、以前一緒に仕事をする機会があり、今でもお互いの仕事の状況や専門分野を知っているような間柄にある。このとき、Aさんが仕事である課題を抱えており、Bさんがその課題解決のための専門知識を持っているとする。AさんはBさんと会ったことをチャンスと思い、その課題について相談しようとするものの、あまりに内容が細か過ぎて、その場の立ち話で課題の内容を伝えることは不可能であると気付いていた。Aさんは、Bさんを自席に連れて行き、資料をBさんに見せながら課題の内容を説明しようと考えたが、BさんがAさんの席まで移動する時間の余裕はなさそうであった。また、後でBさんに課題の内容をメールする旨だけ伝えて、この場は終わりにすることも考えたが、自席に戻った頃には他の業務に忙殺されてしまい、Bさんにメールを送るどころではなってしまうのではと心配になった。そこで2人は、携帯していたHMDを装着することにより、廊下の壁上に重ね合わせて表示された「仮想的なPC画面(以下、仮想画面)」を共有しながら、その場でその課題について話し合うことにした。Aさんは、仮想画面に映されたアプリケーション画面を操作して、現在抱えている課題を説明するための資料にアクセスした。Bさんは、仮想画面において表示された資料の内容、及びAさんがその資料のどこをポインティングしているのかを参照することにより、その場で課題の内容を理解すると共に、的確なアドバイスをAさんに与えることができる。
【0025】
図1(b)は、本発明が効果を発揮する別の利用シナリオを示す図である。複数名のマネージャ (図では2人だが)が、極秘である次の経営戦略について急遽打ち合わせることになったという状況を考える。このとき、全ての会議室は予約されており空きがなかったため、社内のオープンスペースに並んでいる机を1つ占拠し、そこでノートPCを用いて文書を開きながら議論を進めようと考えた。しかし、その文書は一般の社員に公開できない機密性の高いものであったため、ノートPCを用いることは断念した。そこで、彼らは携帯していたHMDを装着することにより、オープンスペースに設置されている机を仮想画面として活用し、その上で文書を開くことにした。この仮想画面は、HMDを装着していない者には一切見えないため、機密性を確保した状態で意思決定を迅速に進めることができる。

【0037】
第1カメラ101/第2カメラ102は、HMDにおいて装着者の両眼の略上部に設置される小型カメラであり、装着者から見て前方の現実世界の光景を撮影するのに使用される。取得された映像信号は、A/D変換器を介してデジタル化され、DRAM110に格納される。

【0051】
(HMDの基本動作)
ここでは簡単のためユーザ数を2人とし、2人のユーザがHMD 1、HMD 2をそれぞれ装着したときの協調作業空間システムの動作を、図9のシーケンス図に基づいて説明する。図9は、HMD1の開始/終了ボタンの押下に係る処理の一例を示すシーケンス図である。図9はHMD1が正常に動作した場合のみを示したものであり、例外やエラー発生時の動作については、下記の説明中に記載することとする。また、各HMDは、作業空間生成状態、待機状態という2つの状態を持つが、図9のシーケンス図に記載の動作が開始される直前は、各HMDは待機状態であると仮定する。

【0061】
(仮想画面の重畳表示の動作)
図9のシーケンス図のステップS907における、各HMDの仮想画面の重畳表示の動作について、詳細に説明する。
【0062】
まず、図10乃至図11に基づいて仮想画面の表示形態の一例について説明する。図10乃至図11は、それぞれHMD 1、HMD 2を装着している2人のユーザが、現実空間の壁上に重畳して表示された仮想画面を参照しているときの仮想画面の表示形態の一例を示す。図10(a)は、2人のユーザが現実空間の壁に対してやや斜めに向いた状態で、仮想画面の特定箇所を互いに参照している様子を表す図である。また図10(b)は、図10(a)に示すHMD 1を装着したユーザ1の視野に入る光景を表した図である。図10(b)に示すように、HMD 1には、ユーザ1の壁に対する向きに応じて、本来矩形である仮想画面が遠近法の原理により歪んだ形で表示される。
【0063】
図10(b)に示すように、HMD 1のLCD104には、現実空間の壁に対して正面から画面が投射されたかのような仮想画面の像が形成・重畳して表示される。この動作の一例を、図11を用いて説明する。HMD 2との協調作業空間が生成されたとき (初期状態)のHMD 1の仮想画面を図11(a)とする。図11(a)に示す初期状態から、ユーザ1が向きを変えずに壁から遠ざかると、HMD 1の仮想画面は図11(b)のように縮小されて表示される。また、図11(a)に示す初期状態からユーザ1が向きを変えずに左に移動すると、HMD 1の仮想画面は図11(c)のように、左端が切れた形で表示される。同様に、図11(a)に示す初期状態からユーザ1が向きを変えずに右に移動すると、HMD 1の仮想画面は図11(d)のように、右端が切れた形で表示される。このように、HMD 1の仮想画面は、ユーザ1の移動や向きの変化に伴って、随時表示形態が変化する。このように、ユーザ1は、壁上の模様やユーザ1自身の手などの現実世界の物体と、プロジェクタから正面投射されたかのような仮想画面とが融合されたかのような光景を目にすることになる。
【0064】
これに対し、ユーザ2が装着しているHMD 2に形成される仮想画面は、図10(c)のように、双方のユーザの位置・向きに関わらず、一定の大きさ (フルスクリーン)で矩形表示される。また、HMD 2の仮想画面においては、ユーザ1が指し示す仮想画面上の位置に、指カーソルが表示される。
以上を実現するための動作を、図12乃至図20を用いて、以下詳細に説明する。
【0065】
(HMD1における仮想画面の重畳表示のための動作)
図12のフローチャートに基づき、HMD 1における仮想画面の重畳表示のための動作を説明する。
【0066】
まず、映像フレームの取得を行う(ステップS1201)。図9のシーケンス図のステップS905により、HMD 2との無線LAN接続が確立すると、HMD1のメイン制御部201は映像処理部202に対して、映像フレームの取得の開始を命令する。これに対して映像処理部202は、第1カメラ101及び第2カメラ102による撮影を開始し、各々のカメラにより取得された映像フレームをDRAM110に格納する。
【0067】
続いてステップS1202へ移って、映像処理部202はGPU109を用いて、ステップS1201で取得された第1カメラ101の映像フレーム (以下、現フレームと呼ぶ)と、その1回前に取得された第1カメラ101の映像フレーム (以下、前フレームと呼ぶ)との間で、映像中の対象物の追跡を行う。追跡は具体的にいうと、例えば、CV (Computer Vision)の研究で一般的に使用されているKLTトラッカ (Kanade-Lucas-Tomasi Tracker)を利用して、対象物に相当する前フレームにおける特徴点群が現フレームにおいてどの画像座標に位置するかを求めることによって実現する。ただし、映像フレーム取得が初回である場合など、前フレームの特徴点群が存在しない場合、対象物の追跡は実行されない。
【0068】
次に、映像処理部202はGPU109を用いて、現フレームにおける新たな特徴点群を抽出する。特徴点の抽出はヘシアン行列などの既存の方法を用いることによって実現できる。ここでは、既に存在する現フレームの特徴点と座標が同一でない特徴点のみを新たに追加する。
【0069】
次に、映像処理部202はGPU109を用いて、第1カメラ101の現フレームの特徴点群が、第2カメラ102の現フレームにおいてどの画像座標に位置するかを求める、対応付けの処理を行う。ここで、本実施の形態では図7で示したように、双方のカメラの内部パラメータ及び外部パラメータが既知であるため、エピポーラ拘束 (epipolar constraint)を用いて、第1カメラ101の現フレームにおける特徴点に対応する第2カメラ102の現フレーム上の点の座標を、線上探索により高速に求めることができる。
【0070】
最後に映像処理部202は、以上で得られた第1カメラ101及び第2カメラ102の現フレーム上の特徴点群の画像座標を、DRAM110に格納する。そのデータ構造を、図13に示す。図13に示すように、第1カメラ101と第2カメラ102それぞれに対する、現フレームを含めて過去30フレーム分の特徴点群の座標データを格納するためのポインタ配列を示すptr_cam1、ptr_cam2、当該ポインタ配列の現在の要素番号を示す変数cur_pos (値域は0?29)をデータ構造として持つ。更に、ptr_cam1、ptr_cam2の各要素は、属性u、vを持つ固定長配列を指し示すようになっている。例えば、cur_posの値が1のとき、映像処理部202は、第1カメラ101の現フレームの特徴点群をptr_cam1[1]が指す固定長配列の属性(u, v)に、第2カメラ102の現フレームの特徴点群をptr_cam2[1]が指す固定長配列の属性(u, v)に、それぞれ格納する。
【0071】
続いてステップS1203へ移って、第1カメラ101及び第2カメラ102の現フレームの特徴点群が求まると、3-D演算部203はCPU108を用いて、仮想画面をHMD 1に変形して表示するために必要なパラメータを算出する。以下で、係るパラメータを算出するための動作を、図14のフローチャートに基づいて説明する。
【0072】
まず、特徴点群及びカメラの3次元座標を計算する(ステップS1401)。3-D演算部203は、ステレオカメラによる三角測量の原理に基づき、第1カメラ101と第2カメラ102の現フレームに共通に存在する特徴点群を用いて、基準座標系を基準にした3次元座標(x, y, z)を計算する。
【0073】
また、3-D演算部203は、第1カメラ101及び第2カメラ102の前フレーム及び現フレームの計4枚の映像フレームを用いて、前フレームの基準座標系を基準としたHMD 1の位置・姿勢を算出する。具体的には、3-D演算部203は、図13に示すポインタ配列ptr_cam1及びptr_cam2のcur_pos-1 (ただし、cur_posが0の場合は29)及びcur_pos番目の要素が指し示す特徴点の画像座標を読み出して、公知技術である移動ステレオ (motion stereo)法に基づいて、前フレーム取得時点と現フレーム取得時点の間の基準座標系の位置・姿勢の変化を算出する。
【0074】
以上の計算が終わると、3-D演算部203は、特徴点群の3次元座標の計算結果をDRAM110に格納する。そのデータ構造を、図15に示す。図13と同様に、現フレームを含めて過去30フレーム分の特徴点群の3次元座標データを格納するためのポインタ配列ptr_3dをデータ構造として持つ。更に、ptr_3dの各要素は、属性(x, y, z, plane)を持つ固定長配列を指し示すようになっている。ここで、現在の要素番号を示す変数cur_posは、図13に記載したものと共通である。また、属性(x, y, z)属性は、図6の基準座標系から見た特徴点群の3次元座標を表す。また、属性planeは、当該特徴点が仮想画面が重畳表示される壁などの現実世界の平面上に、あるか否かを示すフラグであり、平面上にあるときは1が、ないときは0が設定される。この時点で3-D演算部203は、ptr_3d[cur_pos]に対して、計算結果である3次元座標(x, y, z)を属性(x, y, z)に、さらに、値1を属性planeに格納する。
【0075】
続いてステップS1402に移って、以上で算出された3次元座標(x, y, z)を用いて、
仮想画面の重畳表示に用いる現実世界の平面のパラメータを計算する。ここで、平面のパラメータは、基準座標系を基準にした平面方程式
ax + by + c = d (a^2 + b^2 + c^2 = 1、c > 0)
の係数a乃至dで表される。
【0076】
双方のカメラで撮影された映像フレーム中には、ユーザ自身の腕など、仮想画面の重畳表示に用いる平面以外の物体が映り込むこともあり、これらが特徴点として抽出されてしまうこともある。このような場合を想定して、3-D演算部203は、公知技術であるRANSACなどのロバスト推定を用いて、まず各特徴点が平面上にあるか否かを判定する。そして3-D演算部203は、平面上にないと判定された特徴点に関しては、図15のptr_3d[cur_pos]の属性planeの値を0に設定する。このようにすることで、仮想画面の重畳表示に用いる平面とユーザ自身の腕などの物体とを区別することができる。
【0077】
次に3-D演算部203は、属性planeの値が1である3次元座標(x, y, z)のみを用いて、上記平面パラメータ(a, b, c, d)を最小自乗法により算出する。
【0078】
以上の計算が終わると、3-D演算部203は、ステップS1401で得られたHMD 1の位置・姿勢の計算結果、並びに平面パラメータ(a, b, c, d)の計算結果をDRAM110に格納する。そのデータ構造を、図16(a)に示す。図のように、現フレームを含めて過去30フレーム分のHMD 1の位置・姿勢及び平面パラメータを格納するための固定長配列ary_locationをデータ構造として持つ。ここで、現在の要素番号を示す変数cur_posは、図13に記載したものと共通である。3-D演算部203はary_location[cur_pos]に対して、前フレーム取得時点を基準にしたHMD 1の位置を属性(tx, ty, tz)に、前フレーム取得時点を基準にしたHMD 1の姿勢を属性(q0, q1, q2, q3)に、また現フレームの基準座標系を基準にした平面パラメータを属性(a, b, c, d)に、それぞれ格納する。
【0079】
続いてステップS1403に移って、仮想画面の表示領域を決定する。3-D演算部203は、以上で求められた平面パラメータ(a, b, c, d)に基づいて、現実世界の平面上に、あたかも矩形の仮想画面が貼り付いているかのようなグラフィックス画面を生成するために必要なパラメータを算出する。具体的には、図17のように、壁に仮想的に貼り付いている長方形を、基準座標系のXY軸と平行な画面を持つ「仮想カメラ」で撮影したときの仮想グラフィックスを生成するために必要なパラメータを算出する。

【0091】
続いて図12のステップS1204へ移って、以上で求められた変形パラメータに基づき、表示制御部204はGPU109を用いて、仮想画面をHMD 1のLCD104上にレンダリングする。具体的には、本来縦横比4:3を持つ画面を、ステップS1403で決定された仮想画面の表示領域に、座標変換して表示する処理を行う。この座標変換は、2次元射影変換行列により行われる。

ここで、刊行物3の方法は、段落0023?0025及び図1の記載から、『HMD1を装着しているユーザとHMD2を装着しているユーザが同じ場所に位置して、同じ平面に仮想画面をレンダリングする方法』であるといえる。

そうすると、刊行物3には、次の発明(以下、「刊行物3発明」という。)が記載されていると認められる。
なお、刊行物3発明のa3、b3・・・については、説明のために当審で付したものであり、以下、「構成a3」、「構成b3」・・・という。

「a3 小型カメラが設置されたHMD1とHMD2を用いて、壁や机などの平面に仮想画面をレンダリングする方法であって、
b3 HMD1の小型カメラにより、前方の現実世界の光景を撮影し、映像フレームを取得し、
c3 HMD1に仮想画面を表示する際に、HMD1の小型カメラにより取得された映像フレームから壁や机などの平面を検出し、平面上に、仮想画面が貼り付いているかのようにグラフィックス画面を生成し、
d3 HMD2の小型カメラにより、前方の現実世界の光景を撮影し、映像フレームを取得し、HMD2に仮想画面を表示する際に、HMD2の小型カメラにより取得された映像フレームから壁や机などの平面を検出し、平面上に、仮想画面が貼り付いているかのようにグラフィックス画面を生成し、HMD1を装着しているユーザとHMD2を装着しているユーザが同じ場所に位置して、同じ平面に仮想画面をレンダリングする方法。」

第5 原査定の理由についての判断
1.本願発明1について
(1)対比
本願発明1と刊行物1発明を対比する。

(1-1)構成Aについて
刊行物1発明の構成a1の「HMD内蔵カメラを各々が備えるユーザA及びユーザBのビデオシースルー型HMD」は、本願発明1の構成Aの「ボディマウントカメラおよびヘッドマウントディスプレイを各々が備える第1および第2のボディマウントデバイス」に相当する。
構成a1の「現実空間に仮想物体を重畳した映像を観察するシステム」は、現実空間に仮想物体という別の画像を加え、現実を拡張表現しているものといえるから、構成Aの「拡張現実システム」といえる。
構成a1の「盤上駒CGオブジェクトをレンダリングする」とは、盤上駒CGオブジェクトという画像をレンダリングすることであるから、構成Aの「画像をレンダリングする」に相当する。
したがって、構成a1は構成Aに相当する。

(1-2)構成Bについて
刊行物1発明の構成b1の「ユーザAのビデオシースルー型HMDのHMD内蔵カメラ」は、本願発明1の構成Bの「前記第1のボディマウントデバイスの前記ボディマウントカメラ」に相当する。
構成b1の「卓上面にある実物体や領域全体に配置されているマルチマーカを含む現実世界」とは、HMD内蔵カメラで撮影した実際の映像であり、構成Bの「シーンの第1のシーン画像」に相当する。
したがって、構成b1は構成Bに相当する。

(1-3)構成Cについて
刊行物1発明の構成c1の「盤上駒CGオブジェクト」は、「ユーザBの正面カメラを用いた撮影により検出されたユーザBにおける盤面状態と、ユーザAの正面カメラを用いた撮影により検出されたユーザAにおける盤面状態から生成された」CGのオブジェクトであり、自分のHMD内蔵カメラで撮影した現実世界に重畳される仮想的なオブジェクトであるといえるから、本願発明1の構成Cの「仮想オブジェクト」に相当する。
また、構成c1において、「盤上駒CGオブジェクト」を、MR空間レンダリングを行い、HMD映像提示を行う際には、ユーザにとって、天地左右が適した向きで提示されるものであるから、構成Cのように、「前記仮想オブジェクトを、前記第1のボディマウントデバイスの装着者にとって第1の向きに見えるように」しているものといえ、このような適した向きで提示されている画像を第1の画像と称するものとすれば、構成c1の「ユーザAのHMDに、ユーザBの正面カメラを用いた撮影により検出されたユーザBにおける盤面状態と、ユーザAの正面カメラを用いた撮影により検出されたユーザAにおける盤面状態から生成された盤上駒CGオブジェクトを表示する」ことは、構成Cの「前記第1のボディマウントデバイスの前記ヘッドマウントディスプレイ上に仮想オブジェクトの第1の画像を表示するステップであって、前記第1の画像が、前記仮想オブジェクトを、前記第1のボディマウントデバイスの装着者にとって第1の向きに見えるように」することに相当する。

構成c1における「ユーザAのHMD内蔵カメラによるARToolkit-Plusのマルチマーカ機能を利用したHMD位置姿勢推定と、盤上駒CGオブジェクトよりMR空間レンダリングを行い、HMD映像提示を行」うことは、HMD内蔵カメラで、領域全体に配置されているマルチマーカを含む現実世界を撮影した後に、配置されたマルチマーカに基づいて、HMDがどこに位置し、どの方向を向いているかを推定し、撮影された現実世界内のマルチマーカで特定される面に盤上駒CGオブジェクトを重畳して映像表示することである。
すなわち、刊行物1発明の構成c1は、『撮影された現実世界内のマルチマーカで特定される面に盤上駒CGオブジェクトを重畳して映像表示する』ものといえる。
ここで、構成c1の『撮影された現実世界内』、『重畳して映像表示する』は、本願発明1の構成Cの「前記キャプチャされた第1のシーン画像内」、「アンカーされるように表示する」に相当する。
よって、構成c1の『撮影された現実世界内のマルチマーカで特定される面に盤上駒CGオブジェクトを重畳して映像表示する』ことと、構成Cの「前記キャプチャされた第1のシーン画像内の第1のアンカー表面にアンカーされるように表示する」こととは、「前記キャプチャされた第1のシーン画像内にアンカーされるように表示する」点で共通する。

したがって、構成c1と構成Cは、「前記第1のボディマウントデバイスの前記ヘッドマウントディスプレイ上に仮想オブジェクトの第1の画像を表示するステップであって、前記第1の画像が、前記仮想オブジェクトを、前記第1のボディマウントデバイスの装着者にとって第1の向きに見えるように、かつ、前記キャプチャされた第1のシーン画像内にアンカーされるように表示するステップ」という点で共通する。
しかし、アンカーされることに関して、構成c1は、「マルチマーカで特定される面」にアンカーされるのに対し、構成Cは、「第1のアンカー表面」にアンカーされる点で相違する。

(1-4)構成Dについて
本願発明1の構成Dの「前記第2のボディマウントデバイスの前記ヘッドマウントディスプレイ上に前記仮想オブジェクトの第2の画像を表示するステップであって、前記第2の画像が、前記仮想オブジェクトを、前記第2のボディマウントデバイスの装着者にとって第2の向きに見えるように」する構成については、構成Cの「前記第1のボディマウントデバイスの前記ヘッドマウントディスプレイ上に仮想オブジェクトの第1の画像を表示するステップであって、前記第1の画像が、前記仮想オブジェクトを、前記第1のボディマウントデバイスの装着者にとって第1の向きに見えるように」する構成の「第1」と「第2」を逆にした構成であるから、上記(1-3)の検討を援用すると、構成d1の「ユーザBのHMDに、ユーザAの正面カメラを用いた撮影により検出されたユーザAにおける盤面状態と、ユーザBの正面カメラを用いた撮影により検出されたユーザBにおける盤面状態から生成された盤上駒CGオブジェクトを表示する」ことは、構成Dの「前記第2のボディマウントデバイスの前記ヘッドマウントディスプレイ上に前記仮想オブジェクトの第2の画像を表示するステップであって、前記第2の画像が、前記仮想オブジェクトを、前記第2のボディマウントデバイスの装着者にとって第2の向きに見えるように」することに相当する。

また、構成Dの「前記第2のボディマウントデバイスのボディマウントカメラを用いてキャプチャされた第2のシーン画像内の第2のアンカー表面にアンカーされるように表示」する構成は、構成Cの「前記キャプチャされた第1のシーン画像内の第1のアンカー表面にアンカーされるように表示」する構成の「第1」と「第2」を逆にし、「前記第2のボディマウントデバイスのボディマウントカメラを用いて」という構成を加えたものであるが、構成d1においても、HMD内蔵カメラは、ユーザBのHMD内蔵カメラであるから、上記(1-3)の検討もふまえると、刊行物1発明の構成d1は、『ユーザBのHMD内蔵カメラで撮影された現実世界内のマルチマーカで特定される面に盤上駒CGオブジェクトを重畳して映像表示する』ものといえ、本願発明1の構成Dの「前記第2のボディマウントデバイスのボディマウントカメラを用いてキャプチャされた第2のシーン画像内の第2のアンカー表面にアンカーされるように表示」することとは、「前記第2のボディマウントデバイスのボディマウントカメラを用いてキャプチャされた第2のシーン画像内にアンカーされるように表示する」点で共通する。

また、刊行物1発明の構成d1の「ユーザAとユーザBは遠隔地である」ことは、『ユーザAにおける画像を表示する箇所とユーザBにおける画像を表示する箇所が異なる』ことを意味するものであるから、本願発明1の構成Dの「前記第2のアンカー表面が、前記第1のアンカー表面とは異なる」こととは、「第2の画像を表示する箇所が、第1の画像を表示する箇所とは異なる」という点で共通する。

したがって、構成d1と構成Dは、「前記第2のボディマウントデバイスの前記ヘッドマウントディスプレイ上に前記仮想オブジェクトの第2の画像を表示するステップであって、前記第2の画像が、前記仮想オブジェクトを、前記第2のボディマウントデバイスの装着者にとって第2の向きに見えるように、かつ、前記第2のボディマウントデバイスのボディマウントカメラを用いて前記キャプチャされた第2のシーン画像内にアンカーされるように表示し、第2の画像を表示する箇所が、第1の画像を表示する箇所とは異なるステップ」という点で共通する。
しかし、アンカーされることに関して、構成d1は、「マルチマーカで特定される面」にアンカーされるのに対し、構成Dは、「第2のシーン画像内の第2のアンカー表面」にアンカーされる点で相違する。
また、第2の画像を表示する箇所と第1の画像を表示する箇所に関して、刊行物1発明は、アンカー表面にアンカーされる構成ではないことに起因して、本願発明1のように「前記第2のアンカー表面が、前記第1のアンカー表面とは異なる」構成ではない点で相違する。

(1-5)一致点・相違点
したがって、本願発明1と刊行物1発明は、以下の一致点・相違点がある。

[一致点]
「ボディマウントカメラおよびヘッドマウントディスプレイを各々が備える第1および第2のボディマウントデバイスを備える拡張現実システムにおいて画像をレンダリングする方法であって、
前記第1のボディマウントデバイスの前記ボディマウントカメラを用いて、シーンの第1のシーン画像をキャプチャするステップと、
前記第1のボディマウントデバイスの前記ヘッドマウントディスプレイ上に仮想オブジェクトの第1の画像を表示するステップであって、前記第1の画像が、前記仮想オブジェクトを、前記第1のボディマウントデバイスの装着者にとって第1の向きに見えるように、かつ、前記キャプチャされた第1のシーン画像内にアンカーされるように表示するステップと、
前記第2のボディマウントデバイスの前記ヘッドマウントディスプレイ上に前記仮想オブジェクトの第2の画像を表示するステップであって、前記第2の画像が、前記仮想オブジェクトを、前記第2のボディマウントデバイスの装着者にとって第2の向きに見えるように、かつ、前記第2のボディマウントデバイスのボディマウントカメラを用いて前記キャプチャされた第2のシーン画像内にアンカーされるように表示し、第2の画像を表示する箇所が、第1の画像を表示する箇所とは異なるステップとを含む方法。」

[相違点]
(相違点1)
シーン画像内にアンカーされることに関して、本願発明1は、「第1のシーン画像内の第1のアンカー表面」、「第2のシーン画像内の第2のアンカー表面」にアンカーされる、すなわち、シーン画像内にある任意の表面にアンカーされるのに対し、刊行物1発明は、シーン画像内にあるマルチマーカで特定される面にアンカーされる点。

(相違点2)
刊行物1発明が、アンカー表面にアンカーされる構成ではないことに起因して、本願発明1は、「前記第2のアンカー表面が、前記第1のアンカー表面とは異なる」構成であるのに対し、刊行物1発明はそのような構成を有しない点。

(2)相違点についての検討
相違点1について検討する。
相違点1に関連して、本願明細書に(なお、下線は当審で付したものである。)は、以下の記載がある。

「【0002】
本出願は、仮想オブジェクトまたはインターフェースを選択された物理的表面上に配置し、単一のユーザまたは複数のユーザが共同作業して物理的表面上の仮想オブジェクトを見て、仮想オブジェクトと対話できるようにすることができる、ヘッドマウントディスプレイを使用した拡張もしくは仮想現実システム、または、スマートフォンもしくはタブレットなど、他のモバイルデバイスに関する。
【背景技術】
【0003】
ますます、人々は、プレゼンテーション、文書、ビデオ、グラフ、および写真を含む様々なメディア上で、世界中で共同作業している。一般に、会議室における大型のフラットパネルディスプレイは、マイクロソフト(登録商標)PowerPoint(登録商標)プレゼンテーションを含むメディアを見るための優れたソースである。加えて、いくつかの家具は、ユーザがテーブルトップの表面上で直接ビデオを見ることができるように、タッチスクリーン入力デバイスを含むことがある。しばしば、そのような大型の部材は極めて高価であり、リモートロケーションにいるユーザ間の共同作業のために制限されたサポートを提供する。個人は、これらの制限から抜け出し、同じロケーションにいるユーザとリモートユーザとの両方の間で共有される大型画面の仮想または拡張現実体験を得ることができることから、恩恵を受けるようになる。」
すなわち、補正後発明1は、遠隔地にいるユーザ同士が、プレゼンテーション等を行うために、仮想オブジェクトを表面上に配置するものであり、配置する箇所は、各ユーザの視野範囲内の表面であれば任意の面で良いものである。

それに対し、刊行物1発明は、遠隔地にいるユーザ同士が、オセロゲームを行う際に、相手方の盤上駒と自分の盤上駒を仮想的に配置するための発明であり、そのために、双方の盤上を正面カメラで撮影し、現時点での各駒の位置を決定し、マーカに基づいた特定の位置の面に仮想的な駒を配置するものであり、卓上面であれば任意に配置しても良いというものではない。

そうすると、刊行物1発明において、仮想的な駒を配置する際に、視野内であれば任意の面で良いようにすることは、到底想定できないものであり、補正後発明1のような「シーン画像内のアンカー表面にアンカーされる」構成は、当業者であっても容易に想到し得るものであるとはいえない。

刊行物3発明は、「仮想画面を表示する際に、映像フレームから壁や机などの平面を検出し、平面上に、仮想画面が貼り付いているかのようにグラフィックス画面を生成する」発明であるが、そもそも、第6 1.(2)で後述するように、2人のユーザが同じ場所で、同じ壁や机などの平面に仮想画面をレンダリングすることにより、相談や会議をするための発明であり、ユーザ同士が遠隔である刊行物1発明に刊行物3発明を組み合わせる動機付けがない。

さらに、刊行物2をみても、当該相違点が容易に想到し得るものであるとはいえない。

相違点2は、アンカー表面にアンカーされる構成ではないことに起因している相違点であるから、同様に容易に想到し得るものであるとはいえない。

(3)小活
したがって、本願発明1は、当業者であっても、刊行物1発明、刊行物2、刊行物3に基づいて容易に発明できたものであるとはいえない。

2.本願発明2?8について
本願発明2?8については、本願発明1を直接若しくは間接的に引用する発明であるから、同様に上記相違点に係る構成を全て有しているものであるので、本願発明1と同様に、当業者であっても、刊行物1発明、刊行物2、刊行物3に基づいて容易に発明できたものであるとはいえない。

3.本願発明9?16、17?23、24?30、31?37について
本願発明9、17、24、31は、本願発明1の「方法」を、「システム」、「ボディマウントコンピューティングデバイス」、「コンピューティングデバイス」、「コンピュータ可読記録媒体」としたものであり、いずれにおいても、同様に上記相違点に係る構成を有しているものであるので、本願発明1と同様に、当業者であっても、刊行物1発明、刊行物2、刊行物3に基づいて容易に発明できたものであるとはいえない。
また、本願発明10?16、18?23、25?30、32?37については、本願発明9、17、24、31を直接若しくは間接的に引用する発明であるから、同様に上記相違点に係る構成を全て有しているものであるので、本願発明1と同様に、当業者であっても、刊行物1発明、刊行物2、刊行物3に基づいて容易に発明できたものであるとはいえない。

4.まとめ
よって、原査定の理由によっては、本願を拒絶することはできない。

第6 当審拒絶理由についての判断
1.本願発明1について
(1)対比
本願発明1と刊行物3発明を対比する。
(1-1)構成Aについて
刊行物3発明の構成a3の「小型カメラが設置されたHMD1とHMD2」は、本願発明1の構成Aの「ボディマウントカメラおよびヘッドマウントディスプレイを各々が備える第1および第2のボディマウントデバイス」に相当する。
構成a3の「壁や机などの平面に仮想画面をレンダリングする」は、壁や机などの平面という現実空間に仮想画面という別の画像を加え、現実を拡張表現しているものといえ、構成Aの「拡張現実システムにおいて画像をレンダリングする」に相当する。
したがって、構成a3は構成Aに相当する。

(1-2)構成Bについて
刊行物3発明の構成b3の「HMD1の小型カメラ」は、本願発明1の構成Bの「前記第1のボディマウントデバイスの前記ボディマウントカメラ」に相当する。
構成b3の「前方の現実世界の光景を撮影し、映像フレームを取得」とは、小型カメラで撮影した実際の映像を取得することであり、構成Bの「シーンの第1のシーン画像をキャプチャする」に相当する。
したがって、構成b3は構成Bに相当する。

(1-3)構成Cについて
刊行物3発明の構成c3の「仮想画面」は、本願発明1の構成Cの「仮想オブジェクト」に相当し、仮想画面は、ユーザにとって、天地左右が適した向きで提示されるものであるから、構成Cのように、「前記仮想オブジェクトを、前記第1のボディマウントデバイスの装着者にとって第1の向きに見えるように」しているものといえ、このような適した向きで提示されている画像を第1の画像と称するものとすれば、構成c3の「HMD1に仮想画面を表示する際に、」は、構成Cの「前記第1のボディマウントデバイスの前記ヘッドマウントディスプレイ上に仮想オブジェクトの第1の画像を表示するステップであって、前記第1の画像が、前記仮想オブジェクトを、前記第1のボディマウントデバイスの装着者にとって第1の向きに見えるように、」に相当する。
また、構成c3の「壁や机などの平面」は、映像の中にある平面であるから、構成Cの「前記キャプチャされた第1のシーン画像内の第1のアンカー表面」に相当し、構成c3の「平面上に、仮想画面が貼り付いているかのようにグラフィックス画面を生成」することは、構成Cの「アンカーされるように表示する」ことに相当する。
したがって、構成c3は構成Cに相当する。

(1-4)構成Dについて
本願発明1の構成Dの「前記第2のボディマウントデバイスの前記ヘッドマウントディスプレイ上に前記仮想オブジェクトの第2の画像を表示するステップであって、前記第2の画像が、前記仮想オブジェクトを、前記第2のボディマウントデバイスの装着者にとって第2の向きに見えるように、かつ、前記第2のボディマウントデバイスのボディマウントカメラを用いてキャプチャされた第2のシーン画像内の第2のアンカー表面にアンカーされるように表示」する構成は、構成Cの「第1」と「第2」を逆にし、「前記第2のボディマウントデバイスのボディマウントカメラを用いて」という構成を加えたものであるが、構成d3は、「HMD2の小型カメラにより、前方の現実世界の光景を撮影し、映像フレームを取得し、HMD2に仮想画面を表示する」、すなわち、HMD2に仮想画面を表示する際に、映像フレームを取得するために使用する小型カメラは、HMD2の小型カメラであるから、上記(1-3)の検討もふまえると、構成d3の「HMD2の小型カメラにより、前方の現実世界の光景を撮影し、映像フレームを取得し、HMD2に仮想画面を表示する際に、HMD2の小型カメラにより取得された映像フレームから壁や机などの平面を検出し、平面上に、仮想画面が貼り付いているかのようにグラフィックス画面を生成」することは、構成Dの「前記第2のボディマウントデバイスの前記ヘッドマウントディスプレイ上に前記仮想オブジェクトの第2の画像を表示するステップであって、前記第2の画像が、前記仮想オブジェクトを、前記第2のボディマウントデバイスの装着者にとって第2の向きに見えるように、かつ、前記第2のボディマウントデバイスのボディマウントカメラを用いてキャプチャされた第2のシーン画像内の第2のアンカー表面にアンカーされるように表示」することに相当する。

しかし、刊行物3発明の構成d3は「HMD1を装着しているユーザとHMD2を装着しているユーザが同じ場所に位置して、同じ平面に仮想画面をレンダリングする」すなわち、『HMD2に仮想画面を表示する際の平面とHMD1に仮想画面を表示する際の平面が同じ』であるのに対し、本願発明1の構成Dは「前記第2のアンカー表面が、前記第1のアンカー表面とは異なる」点で相違する。

したがって、構成d3と構成Dは、「前記第2のボディマウントデバイスの前記ヘッドマウントディスプレイ上に前記仮想オブジェクトの第2の画像を表示するステップであって、前記第2の画像が、前記仮想オブジェクトを、前記第2のボディマウントデバイスの装着者にとって第2の向きに見えるように、かつ、前記第2のボディマウントデバイスのボディマウントカメラを用いて前記キャプチャされた第2のシーン画像内にアンカーされるように表示するステップ」という点で共通する。
しかし、構成d3は、『HMD2に仮想画面を表示する際の平面とHMD1に仮想画面を表示する際の平面が同じ』であるのに対し、構成Dは、「前記第2のアンカー表面が、前記第1のアンカー表面とは異なる」である点で相違する。

(1-5)一致点・相違点
したがって、本願発明1と刊行物3発明は、以下の一致点・相違点がある。

[一致点]
「ボディマウントカメラおよびヘッドマウントディスプレイを各々が備える第1および第2のボディマウントデバイスを備える拡張現実システムにおいて画像をレンダリングする方法であって、
前記第1のボディマウントデバイスの前記ボディマウントカメラを用いて、シーンの第1のシーン画像をキャプチャするステップと、
前記第1のボディマウントデバイスの前記ヘッドマウントディスプレイ上に仮想オブジェクトの第1の画像を表示するステップであって、前記第1の画像が、前記仮想オブジェクトを、前記第1のボディマウントデバイスの装着者にとって第1の向きに見えるように、かつ、前記キャプチャされた第1のシーン画像内の第1のアンカー表面にアンカーされるように表示するステップと、
前記第2のボディマウントデバイスの前記ヘッドマウントディスプレイ上に前記仮想オブジェクトの第2の画像を表示するステップであって、前記第2の画像が、前記仮想オブジェクトを、前記第2のボディマウントデバイスの装着者にとって第2の向きに見えるように、かつ、前記第2のボディマウントデバイスのボディマウントカメラを用いてキャプチャされた第2のシーン画像内の第2のアンカー表面にアンカーされるように表示するステップとを含む方法。」

[相違点]
本願発明1は、「前記第2のアンカー表面が、前記第1のアンカー表面とは異なる」構成であるのに対し、刊行物3発明は、『HMD2に仮想画面を表示する際の平面とHMD1に仮想画面を表示する際の平面が同じ』である点。

(2)相違点についての検討
上記第5 1.(2)で検討したように、補正後発明1は、遠隔地にいるユーザ同士が、プレゼンテーション等を行うために、仮想オブジェクトを同じ表面上に配置するものである。
それに対して、刊行物3発明は、段落0023?0025の(利用シーン)に記載されているように、2人のユーザが同じ場所に位置して、同じ壁や机などの平面に仮想画面をレンダリングすることにより、相談や会議をするための発明であり、そもそも、発明の前提や目的が異なるものであり、刊行物3発明のような、同じ場所にいるユーザ同士が相談や会議をするための発明において、補正後発明1のような、「前記第2のアンカー表面が、前記第1のアンカー表面とは異なる」構成は、想定できないものである。

(3)小活
したがって、本願発明1は、刊行物3発明と同一のものではなく、また、当業者が、刊行物3発明に基づいて容易に発明できたものであるとはいえない。

2.本願発明2?8について
本願発明2?8については、本願発明1を直接若しくは間接的に引用する発明であるから、同様に上記相違点に係る構成を全て有しているものであるので、本願発明1と同様に、刊行物3発明と同一のものではなく、また、当業者が、刊行物3発明に基づいて容易に発明できたものであるとはいえない。

3.本願発明9?16、17?23、24?30、31?37について
本願発明9、17、24、31は、本願発明1の「方法」を、「システム」、「ボディマウントコンピューティングデバイス」、「コンピューティングデバイス」、「コンピュータ可読記録媒体」としたものであり、いずれにおいても、同様に上記相違点に係る構成を有しているものであるので、本願発明1と同様に、刊行物3発明と同一のものではなく、また、当業者が、刊行物3発明に基づいて容易に発明できたものであるとはいえない。
また、本願発明10?16、18?23、25?30、32?37については、本願発明9、17、24、31を直接若しくは間接的に引用する発明であるから、同様に上記相違点に係る構成を全て有しているものであるので、本願発明1と同様に、刊行物3発明と同一のものではなく、また、当業者が、刊行物3発明に基づいて容易に発明できたものであるとはいえない。

4.まとめ
よって、当審で通知した理由によっては、本願を拒絶することはできない。
なお、原査定で提示した刊行物1、2が適用できるかについても検討すると、刊行物1発明は、ユーザ同士が遠隔である構成が記載されているが、2人のユーザが同じ場所で、同じ壁や机などの平面に仮想画面をレンダリングすることにより、相談や会議をするための発明である刊行物3発明に、刊行物1発明を組み合わせる動機付けがない。
また、刊行物2をみても、当該相違点が容易に想到し得るものであるとはいえない。

さらに、前置報告で提示された刊行物(坂内祐一,外4名,”実物体を用いたMR空間での遠隔協調作業”,情報処理学会論文誌,日本,社団法人情報処理学会,2007年7月15日,第48巻,第7号,p.2465-2476)には、「HMDを利用して、各ユーザがマグカップの表面に模様を描くと、ペイント結果がMR技術を用いてCGとして重畳され、遠隔ユーザとの間で共有される技術」が開示されているが、当該刊行物をみても、当該相違点が容易に想到し得るものであるとはいえない。

第7 むすび
以上のとおり、原査定の理由によっては、本願を拒絶することはできない。
また、他に本願を拒絶すべき理由を発見しない。
よって、結論のとおり審決する。
 
審決日 2017-02-24 
出願番号 特願2014-502814(P2014-502814)
審決分類 P 1 8・ 121- WY (G06T)
最終処分 成立  
前審関与審査官 千葉 久博  
特許庁審判長 藤井 浩
特許庁審判官 渡辺 努
清水 正一
発明の名称 各ユーザの視点に対する共有デジタルインターフェースのレンダリングのためのシステム  
代理人 村山 靖彦  
代理人 黒田 晋平  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ