• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 特36条6項1、2号及び3号 請求の範囲の記載不備 取り消して特許、登録 G06F
審判 査定不服 2項進歩性 取り消して特許、登録 G06F
審判 査定不服 1項3号刊行物記載 取り消して特許、登録 G06F
管理番号 1364593
審判番号 不服2018-8824  
総通号数 249 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2020-09-25 
種別 拒絶査定不服の審決 
審判請求日 2018-06-27 
確定日 2020-08-18 
事件の表示 特願2014- 30614「視線に応じた触覚感覚」拒絶査定不服審判事件〔平成26年10月16日出願公開、特開2014-197388、請求項の数(15)〕について、次のとおり審決する。 
結論 原査定を取り消す。 本願の発明は、特許すべきものとする。 
理由 第1 手続の経緯
本願は、平成26年2月20日(パリ条約による優先権主張2013年3月11日、米国)の出願であって、平成29年10月4日付けで拒絶理由通知がされ、平成29年12月22日付けで手続補正がされるとともに意見書が提出され、平成30年2月19日付けで拒絶査定がなされ、平成30年6月27日に拒絶査定不服審判の請求がされ、令和元年5月31日付けで当審より拒絶理由が通知され(以下、「当審拒絶理由(1)」という。)、令和元年11月5日に手続補正がされるとともに意見書が提出され、令和2年3月23日付けで当審より拒絶理由(最後)(以下、「当審拒絶理由(2)」という。)が通知され、令和2年6月22日に手続補正がされるとともに意見書が提出されたものである。

第2 原査定の概要
原査定(平成30年2月19日付け拒絶査定)の概要は次のとおりである。

理由1 本願請求項1、4-5、12-15、17-19に係る発明は、以下の引用文献Aに記載された発明であるから、特許法第29条第1項第3号に該当し、特許を受けることができない。

理由2 本願請求項1-22に係る発明は、以下の引用文献A-Cに基づいて、その発明の属する技術の分野における通常の知識を有する者(以下、「当業者」という。)が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。

引用文献等一覧
A.特開平10-153946号公報
B.特開2012-120798号公報
C.国際公開第2012/132495号

第3 当審拒絶理由の概要
1 当審拒絶理由(1)の概要

理由A(特許法第36条第6項第2号)について
本願は、特許請求の範囲の請求項1-22の記載が不備のため、特許法第36条第6項第2号に規定する要件を満たしていない。

理由B(特許法第29条第1項第3号)について
本願請求項1-5、8-15、17に係る発明は、以下の引用文献Aに記載された発明であるから、特許法第29条第1項第3号に該当し、特許を受けることができない。

理由C(特許法第29条第2項)について
本願請求項1-22に係る発明は、引用文献A、X-Z、Bに基づいて、当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。

引用文献等一覧
A.特開平10-153946号公報(拒絶査定時の引用文献A)
X.国際公開第2006/100645号
Y.特開2009-70139号公報
Z.米国特許出願公開第2004/0178890号明細書
B.特開2012-120798号公報(拒絶査定時の引用文献B)

2 当審拒絶理由(2)の概要
本願請求項1-19に係る発明は、引用文献1-5に基づいて、当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。

引用文献等一覧
1.特開平10-153946号公報(拒絶査定時の引用文献A)
2.米国特許出願公開第2002/0044152号明細書
3.米国特許出願公開第2012/0176410号明細書
4.米国特許出願公開第2012/0113223号明細書
5.特開2012-120798号公報(拒絶査定時の引用文献B)

第4 本願発明
本願請求項1-15に係る発明(以下、それぞれ「本願発明1」-「本願発明15」という。)は、令和2年6月22日付けの手続補正で補正された特許請求の範囲の請求項1-15に記載された事項により特定される発明であり、本願発明1は以下のとおりの発明である。

「【請求項1】
システムであって、
当該システムのユーザの視線の方向を判定するように構成された検出器と、
前記視線の前記方向に基づいて触覚効果を表す信号を生成するように構成されたプロセッサと、
前記プロセッサから前記信号を受信し、前記ユーザに対して前記触覚効果を出力するように構成された触覚出力装置と、
を備え、
前記プロセッサは、前記ユーザの前記視線が前記システムに関連付けられるディスプレイ装置に表示される第1のオブジェクトに向けられていると判定された場合に、第1の触覚効果を表す第1の信号を生成し、前記ユーザの前記視線が前記第1のオブジェクトとは異なる前記ディスプレイ装置に表示される第2のオブジェクトに向けられていると判定された場合に、前記第1の触覚効果と異なる第2の触覚効果を表す第2の信号を生成するように構成され、前記第1のオブジェクトは実オブジェクトであり、前記第2のオブジェクトは仮想オブジェクトであり、
前記ユーザの前記視線が前記ディスプレイ装置に向けられていると判断される場合に前記システムとの接触に関連付けられる前記触覚効果の強さが低減され、前記ユーザの前記視線が前記ディスプレイ装置に向けられていないと判断される場合には前記強さが増強される、システム。」

なお、本願発明2-8は、概略、本願発明1を減縮した発明である。
本願発明9は、概略、システムの発明である本願発明1に対応する、方法の発明である。
本願発明10-11は、概略、本願発明9を減縮した発明である。
本願発明12は、概略、システムの発明である本願発明1に対応する、電子装置の発明である。
本願発明13-15は、概略、本願発明12を減縮した発明である。

第5 引用文献、引用発明等
1 引用文献1及び引用発明

(1) 引用文献1の記載
当審拒絶理由(2)において引用された、引用文献1(特開平10-153946号公報)には、図面とともに、以下の記載がある(下線は、特に着目した箇所を示す。以下同様。)。

ア 段落【0043】-【0046】(「実施の形態3」)
「【0043】実施の形態3.図5はこの発明の実施の形態3による感覚情報提示装置を示すブロック図であり、図において、30は被提示者に提示する画像データ、31は環境温度によって決定される色と画像データ30を合成する画像合成部(視覚情報生成手段)、32は合成された画像を再生する画像再生部(視覚情報提示手段)、33は再生画像を映示するモニタ(視覚情報提示手段)、34は被提示者の置かれた環境の温度を計測するデジタル温度計等の環境温度計測手段、35は計測された環境温度に対応する色(色調)を決定する環境温度-色調変換手段、36は画像データ30と色(色調)の合成方法を制御する合成方法制御部(視覚情報生成手段)である。
【0044】次に動作について説明する。環境温度計測手段34で計測された温度データは環境温度-色調変換手段35に送られ、環境温度-色調変換手段35は、環境温度が高くなるに従って寒色系の色から暖色系の色にするなど、あらかじめ設定された変換法則に従って環境温度を色に変換する。画像合成部31は画像データ30と前記環境温度-色調変換手段35が決定した色(色調)を、含成方法制御部36にあらかじめ設定された法則に従って合成し、画像再生部32に送る。
【0045】画像の合成方法は、例えば、画面全体を環境温度-色調変換手段35で求めた色にしたり、映しだされる画像の背景だけを変えるなどの方法が可能である。画像再生部32は、合成された画像データを再生してモニタ33によりこれを映示する。
【0046】以上のように、この実施の形態3によれば、被提示者に視覚的に温冷感を体験させることができ、例えば、温度感覚に障害を持つ人が温冷感を体験することを補助したり、気温が高いときに逆に画像を寒色系の色調に補正して提示することにより被提示者に清涼感を与えるなどのことが可能となる。」

イ 段落【0047】-【0056】(「実施の形態4」)
「【0047】実施の形態4.

・・・(中略)・・・

【0053】注視判定手段44,物体検索手段46,およびズーム判定部47からの信号を画像編集再生部41が受け取り、画像編集再生部41は、被提示者が注視した状態で、注視点の物体が例えば花瓶であれば、提示画面上での花瓶の重心位置を基に、ズームアップの場合は重心位置を画像提示部42の中心に近づけながら拡大表示するように制御する。物体の重心位置は、例えば事前に画像データの各時刻に対応させて求め、物体属性データとして保持しておけばよい。
【0054】また、物体検索手段46において、提示画面上の注視点が壁や空といった背景部分と判定された場合は重心位置が存在しないので、被提示者が見ている注視点をそのまま利用し、注視点座標を中心としたある一定範囲を画像提示部42の中心に近づけながら拡大表示すればよい。これにより任意の物体のみではなく背景部分のズームアップも行なえる。また、いうまでもなく、注視点が物体にある場合の拡大においても、物体の重心位置ではなく注視点を基準とした拡大も可能である。また、ズームアウトの場合はズームアップの逆の操作を行なうことにより実現する。
【0055】なお、提示画像としては、画像蓄積部40に蓄積された実写画像やCG(コンピュータグラフィックス)画像等を用いることができるが、リアルタイムで撮影している実写画像を用いる場合には、上記実施の形態において、画像編集再生部41の部分に撮影アングルを制御可能なカメラを用い、カメラで撮影された画像を解析して物体属性データとしての重心等を求める画像解析手段を画像蓄積部40や物体検索手段46などに用いる。この場合には、画像処理技術をリアルタイムで用いて実写物体の輪郭等を検出し、これを基に大きさや色などの情報を実写画像から得て、実写物体の認識や重心の導出等を行なう。
【0056】以上のように、この実施の形態4によれば、提示画像中の物体を被提示者が注視している場合にその被注視物体をズームアップまたはズームアウトして提示することが可能となる。」

ウ 段落【0077】-【0081】(「実施の形態8」)
「【0077】実施の形態8.

・・・(中略)・・・

【0078】次に動作について説明する。画像編集再生部41は画像蓄積部40の画像データを再生して、画像提示部42において被提示者に提示する。前記実施の形態4と同様に、視点検出手段43、注視判定手段44、注視点座標変換手段45、物体検索手段46により、注視点座標になんらかの物体があるかどうかの判定を実施する。音源蓄積部80には各物体に対応する音が蓄えられており、提示画面上の注視点座標に物体がある場合には対応する音を音編集再生部81に送り、音提示部82により被提示者に提示する。
【0079】また、音質音量制御部83では、注視判定手段44より注視点の滞留時間を得て、音の音質、音量を制御する。例えば、滞留時間が短い場合には音質はノイジーであり音量は小さいとし、滞留時間が長くなるに従い音質はよりクリアになり音量もより大きくなる等である。これにより、被提示者の見ている任意の物体の発する音の音量、音質を制御することができ、提示画像に臨場感を持たせることができる。
【0080】また、音源蓄積部80には各々の物体に対応する音とともに、各々の画像部分に対応する音場の情報が蓄えられており、提示画面上の注視点座標に物体がない場合でも注視点座標が属する画像部分に対応する音を音編集再生部81に送り、音提示部82により被提示者に提示する。このときも音質音量制御部83では、注視判定手段44より注視点の滞留時間を得て、音の音質、音量を制御する。これにより、被提示者の見ている任意の視線方向から発する音の音量、音質を制御することができ、提示画像に臨場感を持たせて提示することができる。
【0081】以上のように、この実施の形態8によれば、提示画像中の物体を被提示者が注視している場合にその被注視物体に対応した音の音量または音質を変化させて提示することができ、臨場感を持たせて画像を提示することが可能となる。」

エ 段落【0111】-【0115】(「実施の形態14」)
「【0111】実施の形態14.図19はこの発明の実施の形態14による感覚情報提示装置を示すブロック図であり、図において、40は画像データおよび物体属性データを保持する画像蓄積部、41は画像データの編集および再生を行なう画像編集再生部、42はスクリーン,モニタ等の画像提示部、43は被提示者が見ている所を検出する視点検出手段、44は被提示者が何かを注視しているか否かを判定する注視判定手段、45は視点検出手段43上の注視点座標を画像提示部42上の座標に変換する注視点座標変換手段、46は変換された提示画面上の注視点座標に何らかの物体が存在するかどうかを判定する物体検索手段であり、以上は図6に示した前記実施の形態4におけるものとほぼ同様のものである。140は画像中の様々な物体の視覚情報と触覚情報の対応に関するデータベースを蓄積する物体視覚・触覚情報蓄積部(触覚情報提示手段)、141は物体の視覚特性から触覚特性を特定する触覚特性特定手段(触覚情報提示手段)、142は被提示者に触覚情報を提示する触覚情報提示部143を制御する触覚情報制御部(触覚情報提示手段)、143は被提示者に触覚情報を提示する触覚情報提示部(触覚情報提示手段)である。
【0112】次に動作について説明する。画像編集再生部41は画像蓄積部40の画像データを受け取り画像を再生して画像提示部42に送り、画像提示部42により被提示者に画像が提示される。視点検出手段43では、視線方向撮影カメラにより視線方向を検出すると同時に視線方向の映像を撮影し、撮影された画像と検出された視線方向から視点を検出する。注視判定手段44では視点検出手段43によって検出された視点の停留時間から、例えば停留時間が一定時間を超えたかどうかを基準に、被提示者が提示された画像中の何らかの物体を注視しているか否かを判定する。注視点座標変換手段45では、注視判定手段44で被提示者が何らかの物体に注視していると判断された場合に、視線方向検出手段43の視線方向撮影カメラ中の注視点座標を画像提示部42により提示される画像中の座標に変換し、物体検索手段46では画像蓄積部40の物体属性データを基にして、注視点座標変換手段45によって変換された画像提示部42の提示画像中の注視点に物体が存在するかどうかを検索する。
【0113】触覚特性特定手段141は、物体検索手段46において物体が検索された場合に、特定された物体の画像情報と、物体視覚・触覚データ蓄積部140における画像中の様々な物体の視覚情報と触覚情報の対応に関するデータベースをもとに、注視点に存在することが特定された物体の触覚特性を特定する。この際に触覚特性特定手段141は、特定された物体の画像情報から、明るさ、色、きめなどの定量化可能ないくつかの視覚情報を抽出し、前記データベースからこれに対応した最も特性の近い触覚特性を選択するなどの方法を用いる。
【0114】特定された物体の触覚特性データは触覚提示制御部142に送られ、触覚提示手段143により触覚情報が被提示者に提示される。触覚提示手段143としては、種々の触覚特性データに対応してあらかじめ作成された複数の提示面を選択的に被提示者に提示するようなものを用いることが可能である。
【0115】以上のように、この実施の形態15(当審注:「実施の形態14」の誤記と認める。)によれば、画像を提示されている被提示者に、被提示者が画像中で注視している対象物の触覚を併せて体験させることが可能となり、より臨場感を増した感覚情報を提示することが可能となる。」

オ 段落【0169】-【0179】(「実施の形態25」)
「【0169】実施の形態25.図31はこの発明の実施の形態25による感覚情報提示装置を示すブロック図であり、図において、251は被提示者の生理反応,注視点,身体の動き(動態)と,被提示者が置かれている環境の環境温度を計測する計測手段、252は被提示者に対して快適な環境を提示するための視覚情報,聴覚情報,力覚情報等の環境情報を保持する情報保持手段、253は実施の形態1?7のいずれかに示したような方法で被提示者に視覚情報を提示する視覚提示手段、254は実施の形態8?10のいずれかに示したような方法で被提示者に聴覚情報を提示する聴覚提示手段、255は実施の形態11?13のいずれかに示したような方法で被提示者に力覚情報を提示する力覚提示手段、256は実施の形態14に示したような方法で被提示者に触覚情報を提示する触覚提示手段、257は実施の形態15,16のいずれかに示したような方法で被提示者に風による触覚情報を提示する風提示手段である。

・・・(中略)・・・

【0174】これらの構成によりなる感覚情報提示装置は、計測手段251によって計測される被提示者の生理反応・注視点・動態・環境温度という複合的な情報から、視覚提示手段253・聴覚提示手段254・力覚提示手段255・触覚提示手段256・風提示手段257によって、被提示者の状態に応じて快適性を保持するようにフィードバックするシステムであるが、フィードバックした環境の変化に応じて、被提示者の状態が変化し、また、被提示者の状態に応じて環境を快適にするように常に繰り返しフィードバックを重ね続けることで、被提示者に対し非常に多様できめこまやかなフィードバック機能を持つ快適なVR(バーチャルリアリティー)空間を提示し続けることができる。
【0175】例えば、被提示者に、室内にいながら快適な森の中の画像・音像・触感を提示し、被提示者が寝返りを打つなど、体動によって、提示される映像がより明るくなったり、生理反応から推定される覚醒水準の低下とともに注視点付近の画像がズームアウトされたり、森の中のものに自由に触れて触感を楽しむと同時に触れる動作やその際の生理反応からまた新たに刺激の状態がフィードバックされるなど、動態・生理反応・注視点など総合的な被提示者の状態に応じて、視覚・聴覚・力覚・触覚の複合的な感覚様相に環境刺激をフィードバックし、フィードバックされた刺激によって誘発される被提示者の反応から、またより快適になるような刺激をフィードバックすることを繰り返し、被提示者に対して非常に多様できめこまやかなフィードバック機能を持つ快適VR空間を提示し続けることができる。
【0176】また、同様に被提示者の状態に応じて、快適な入眠を誘う環境刺激を複合的な感覚様相へ繰り返しフィードバックさせることによって、様々な被提示者の状態が変動してもそれに対応して常に快適な就寝環境を提示し続けることが可能になる。
【0177】その他、例えば、トレッドミルを用いた歩行訓練によって被提示者がリハビリテーションを行う際に、快適な海辺の画像・音像・触感を提示し、リハビリ運動に対応して、提示される画像が移動したり、生理反応から推定される疲労の水準の上昇とともに、提示する音を小さくすることによって被提示者を休憩に導いたり、海辺の砂や貝殻などに自由に触れて触感を楽しむと同時に触れる動作やその際の生理反応から快適な刺激がフィードバックされるなど、訓練環境を安全かつ快適に保ち続けることに使用することも可能である。
【0178】また、視覚提示と聴覚提示の2種類を使い、例えば、ウェイトリフティング、ゴルフ、アーチェリーといった個人競技のスポーツにおいて、実際の試合のときの状況を録画および録音しておき、常に試合を再現した状況の中で訓練することにより試合の雰囲気に慣れ、実際の試合でのミスを減らすという用途にも使用することも可能である。
【0179】以上のように、この実施の形態25によれば、被提示者の生理反応,注視点,動態,環境温度の計測に基づいた多様な感覚情報提示装置によるフィードバックの繰り返しによりきめ細かな環境制御を行ない、被提示者に快適な環境を継続的に提示することが可能となる。」

(2) 引用発明
よって、引用文献1には、特に、上記エ(「実施の形態14」)に関連して、次の発明(以下、「引用発明」という。)が開示されているものと認められる。

「感覚情報提示装置であって、
画像データおよび物体属性データを保持する画像蓄積部40、
画像データの編集および再生を行なう画像編集再生部41、
スクリーン,モニタ等の画像提示部42、
被提示者が見ている所を検出する視点検出手段43、
被提示者が何かを注視しているか否かを判定する注視判定手段44、
視点検出手段43上の注視点座標を画像提示部42上の座標に変換する注視点座標変換手段45、
変換された提示画面上の注視点座標に何らかの物体が存在するかどうかを判定する物体検索手段46、
物体の視覚特性から触覚特性を特定する触覚特性特定手段(触覚情報提示手段)141、
被提示者に触覚情報を提示する触覚情報提示部143を制御する触覚情報制御部(触覚情報提示手段)142、
被提示者に触覚情報を提示する触覚情報提示部(触覚情報提示手段)143を備え、
視点検出手段43では、視線方向撮影カメラにより視線方向を検出すると同時に視線方向の映像を撮影し、撮影された画像と検出された視線方向から視点を検出し、
注視判定手段44では視点検出手段43によって検出された視点の停留時間から、例えば停留時間が一定時間を超えたかどうかを基準に、被提示者が提示された画像中の何らかの物体を注視しているか否かを判定し、
注視点座標変換手段45では、注視判定手段44で被提示者が何らかの物体に注視していると判断された場合に、視線方向検出手段43の視線方向撮影カメラ中の注視点座標を画像提示部42により提示される画像中の座標に変換し、
物体検索手段46では画像蓄積部40の物体属性データを基にして、注視点座標変換手段45によって変換された画像提示部42の提示画像中の注視点に物体が存在するかどうかを検索し、
触覚特性特定手段141は、物体検索手段46において物体が検索された場合に、特定された物体の画像情報と、物体視覚・触覚データ蓄積部140における画像中の様々な物体の視覚情報と触覚情報の対応に関するデータベースをもとに、注視点に存在することが特定された物体の触覚特性を特定し、この際に触覚特性特定手段141は、特定された物体の画像情報から、明るさ、色、きめなどの定量化可能ないくつかの視覚情報を抽出し、前記データベースからこれに対応した最も特性の近い触覚特性を選択するなどの方法を用い、特定された物体の触覚特性データは触覚提示制御部142に送られ、
触覚提示手段143により触覚情報が被提示者に提示され、
触覚提示手段143としては、種々の触覚特性データに対応してあらかじめ作成された複数の提示面を選択的に被提示者に提示するようなものを用いることが可能であり、
画像を提示されている被提示者に、被提示者が画像中で注視している対象物の触覚を併せて体験させることが可能となり、より臨場感を増した感覚情報を提示することが可能となる、
感覚情報提示装置。」

2 引用文献2-4について
(1) 引用文献2
当審拒絶理由(2)において、周知技術を示す文献として引用された、引用文献2(米国特許出願公開第2002/0044152号明細書)には、以下の記載がある。(訳は、当審訳。以下同様。)。

ア 段落[0023]
「[0023] The computer 100 also has a variety of body-worn output devices, including the hand-held flat panel display 112 , an earpiece speaker 116 , and a head-mounted display in the form of an eyeglass-mounted display 118 . The eyeglass-mounted display 118 is implemented as a display type that allows the user to view real world images from their surroundings while simultaneously overlaying or otherwise presenting computer-generated information to the user in an unobtrusive manner. The display may be constructed to permit direct viewing of real images (i.e., permitting the user to gaze directly through the display at the real world objects) or to show real world images captured from the surroundings by video devices, such as digital cameras. The display and techniques for integrating computer-generated information with the real world surrounding are described below in greater detail. Other output devices 120 may also be incorporated into the computer 100 , such as a tactile display, an olfactory output device, tactile output devices, and the like. 」
([0023] コンピュータ100はまた、様々な身体装着型の出力デバイスを備える。例えば、ハンドヘルド型フラットパネルディスプレイ112、イヤホン型スピーカ116、及び、眼鏡搭載型ディスプレイの形態のヘッドマウントディスプレイ118が含まれる。眼鏡搭載型ディスプレイ118は、オーバレイ表示や他の邪魔にならない方法で、コンピュータが生成した情報をユーザに提示しながら、ユーザが周囲の現実世界の画像を見ることを可能にするディスプレイとして実施されている。ディスプレイは、現実の画像を直接見ることを可能にすること(すなわち、ユーザが、ディスプレイ越しに、現実世界のオブジェクトを直接的に注視することを可能にすること)、又は、デジタルカメラなどのビデオ装置によって周囲から取り込まれた現実世界の画像を表示するように構成される。コンピュータが生成した情報を現実世界の周囲と一体化するためのディスプレイと表示技術は、以下にさらに詳細に記載される。他の出力デバイス120もまた、コンピュータ100に組み込むことができ、例えば、触覚ディスプレイ、嗅覚出力デバイス、触覚出力デバイスなどでもよい。)

イ 段落[0055]-[0056]
「[0055] Context Aware Presentation
[0056] The transparent UI may also be configured to present information in different degrees of transparency depending upon the user's context. When the wearable computer 100 is equipped with context aware components (e.g., eye movement sensors, blink detection sensors, head movement sensors, GPS systems, and the like), the application program 146 may be provided with context data that influences how the virtual information is presented to the user via the transparent UI.」
([0055] コンテキスト(文脈)を意識した提示
[0056] また、透過型UIは、ユーザのコンテキスト(文脈)に応じて、異なった透明度で、情報を提示するように構成されてもよい。ウェアラブル・コンピュータ100に、コンテキストを意識した構成要素(例えば、眼球運動センサ、まばたき検出センサ、頭部動きセンサ、GPSシステム等)が設けられている場合、透過型UIを介して仮想データをユーザに提示する方法に影響を与えるコンテクストデータを、アプリケーションプログラム146に提供できる。)

ウ 段落[0067]-[0069]
「[0067] Color Changing
[0068] Another technique for displaying virtual information in a manner that educes(当審注:「reduces」の誤記と認める。) the user's distraction from viewing of the real world is to change colors of the virtual objects to control their transparency, and hence visibility, against a changing real world view. When a user interface containing virtually displayed information such as program windows, icons, etc. is drawn with colors that clash with, or blend into, the background of real-world colors, the user is unable to properly view the information. To avoid this situation, the application program 146 can be configured to detect conflict of colors and re-map the virtual-world colors so the virtual objects can be easily seen by the user, and so that the virtual colors do not clash with the real-world colors. This color detection and re-mapping makes the virtual objects easier to see and promotes greater control over the transparency of the objects.
[0069] Where display systems are limited in size and capabilities (e.g., resolution, contrast, etc.), color re-mapping might further involve mapping a current virtual-world color-set to a smaller set of colors. The need for such reduction can be detected automatically by the computer or the user can control all configuration adjustments by directing the computer to perform this action.」
([0067] 色の変更
[0068] 現実世界を見るユーザの注意をそらさないように、仮想情報を表示するための別の方法は、変化する現実世界の景色に応じて、透過性を制御し、それによって視認性を制御するために、仮想オブジェクトの色を変更することである。プログラム・ウインドウ、アイコンなどの仮想の表示情報を含むユーザインタフェースを、現実世界の背景の色とぶつかり合ったり、混じり合ったりするような色で描画すると、ユーザは、適切に情報を見られなくなる。このような状況を回避するために、色同士の衝突を検出して、仮想世界の色を再マッピングすることで、ユーザが仮想オブジェクトを見やすくなるようにして、仮想の色が現実世界の色と衝突しないように、アプリケーションプログラム146を構成できる。この色の検出と再マッピングによって、仮想オブジェクトが見やすくなり、オブジェクトの透過性の制御がさらに促進される。
[0069] ディスプレイ・システムのサイズ及び性能(例えば、解像度、コントラスト等)が限られている場合に、色のマッピングは、さらに、現時点での仮想世界の色集合を、より少ない色集合にマッピングすることを含み得る。このような削減が必要であることを、コンピュータが自動的に検出でき、または、コンピュータがこのような動作を実行するように指示することで、ユーザが全ての設定の調節を制御することができる。)

エ 段落[0072]-[0074]
「[0072] Prominence
[0073] Another feature provided by the computer system with respect to the transparent UI is the concept of "prominence". Prominence is a factor pertaining to what part of the display should be given more emphasis, such as whether the real world view or the virtual information should be highlighted to capture more of the user's attention. Prominence can be considered when determining many of the features discussed above, such as the degree of transparency, the position of the virtual information, whether to post a watermark notification, and the like.
[0074] In one implementation, the user dictates prominence. For example, the computer system uses data from tracking the user's eye movement or head movement to determine whether the user wants to concentrate on the real-world view or the virtual information. Depending on the user's focus, the application program will grant more or less prominence to the real world (or virtual information). This analysis allows the system to adjust transparency dynamically. If the user's eye is focusing on virtual objects, then those objects can be given more prominence, or maintain their current prominence without fading due to lack of use. If the user's eye is focusing on the real-world view, the system can cause the virtual world to become more opaque, and occlude less of the real world.」
([0072] 強調度
[0073] 透過性UIについてコンピュータ・システムが提供する別の特徴は、“強調度”の概念である。強調度とは、ディスプレイのどの部分をより強調すべきかに関係するファクターであり、例えば、現実世界の景色と仮想情報のどちらに、ユーザの注意をより多く向けるように強調すべきかということである。強調度を、上述した特徴の多くを決定する際に考慮できる。例えば、透過性の程度、仮想情報の位置、透かし情報による通知をするか否かなどである。
[0074] 一実施形態では、ユーザが強調度を指定する。例えば、コンピュータシステムは、ユーザの眼球運動や頭部運動トラッキングからのデータを利用して、ユーザが現実世界と仮想の情報のどちらに集中することを望んでいるかを決定する。ユーザの関心に応じて、アプリケーションプログラムは、現実世界(又は仮想情報)に対する強調度の増減を許す。この分析により、システムの透過性を動的に調整できる。ユーザの眼が、仮想オブジェクトに関心を向けている場合には、それらのオブジェクトがさらに強調され、または、不使用に基づき徐々に退色させずに、現時点の強調度のまま維持する。ユーザの眼が、現実世界の景色に関心を向けている場合には、システムは、仮想世界をより一層ぼんやりとさせて、現実世界がより遮られれないようにする。)

(2) 引用文献3
当審拒絶理由(2)において、周知技術を示す文献として引用された、引用文献3(米国特許出願公開第2012/0176410号明細書)には、以下の記載がある。

ア 段落[0004]-[0005]
「[0004] 2. Background Information
[0005] Augmented Reality (AR) is a technology in which virtual data are overlaid with reality and which thus facilitates the association of data with reality. The use of mobile AR systems is already known in the prior art. In the past years, high-performance mobile devices (e.g. smartphones) turned out to be suitable for AR application. These devices meanwhile have comparatively large color displays, installed cameras, good processors and additional sensors, such as e.g. orientation sensors and GPS. In addition thereto, the position of the device can be approximated via radio networks.
([0004] 2.技術的背景
[0005] 拡張現実(AR)とは、仮想データが現実と重ね合わされ、それ故に、現実とデータの統合を容易にする技術である。モバイルARシステムの使用は、既に先行技術において知られている。過去数年の間に、高性能のモバイル機器(例えば、スマートフォン)は、ARアプリケーションに適していることが判明した。その間、これらの機器は、比較的大きなカラーディスプレイ、複数の搭載カメラ、優れたプロセッサ及び付加センサ、例えば、方位センサ、GPSなどを有する。これに加えて、無線ネットワーク経由で、この装置の位置を概側できる。)

イ 段落[0048]
「[0048] The view 1 according to FIG. 4 has at least one item of virtual information blended in (in the present embodiment, several items of virtual information POI1-POI4, POI11-POI14 and P0I21-POI23 are blended in). In the present embodiment these represent points of interest (POIs) in relation to the reality that can be seen in view 1. For, example virtual information POI1 is blended in relating to a building visible in view 1 (not shown in FIG. 4) that makes reference to this building and/or is optically associated with the same and possibly permits additional information to be retrieved with respect to the building. The information POI1 is blended in on the display device 21 and 31, respectively, in at least part of the view 1 of the real environment, considering the position and orientation of the corresponding system setup 20 or 30 or part thereof, respectively. As will still be explained in more detail hereinafter, the blended in virtual information is shown differently in the near region 3 than in the far region 4, with respect to type of blending in in view 1. In other words, the same virtual information (e.g. POI1) in the near region 3, e.g. when it is associated with a real object in the near region 3, is shown differently from its blending in in the far region 4, e.g. when it is associated with a real object in the far region 4 (a POI is present here at the same time in one region only).」
([0048] 図4によれば、景色1中には、少なくとも1つの仮想情報のアイテムがブレンドされている(本実施形態では、複数の仮想情報のアイテムPOI1-POI4、POI11-POI14、P0I21-POI23がブレンドされている)。本実施形態では、これらは、景色1中で見ることのできる現実に関連した、興味のあるスポット(Point of interest、POI)を表している。例えば、仮想情報POI1は、景色1中で見ることができる(図4に図示されない)建物とブレンドされており、この建物を参照しており、及び/または、この建物と光学的に関連付けられており、その建物に関する付加的情報を検索することを許容している。ディスプレイ・デバイス21、31それぞれにおいて、対応するシステム構成20、30、または、その構成要素の位置と姿勢をそれぞれ考慮して、情報POI1は、現実の環境の視野1の少なくとも一部分にブレンドされる。以下でさらに詳細に説明されるように、ブレンドされた仮想情報は、近傍領域3と、遠方領域4とで、景色1でのブレンドのタイプに関して、異なる表示がされる。すなわち、同じ情報(例えばPOI1)が、近傍領域3、例えば、近傍領域3の現実のオブジェクトに関連して、遠方領域4、例えば、遠方領域4の現実のオブジェクトでのブレンドの方法とは異なって表示される(ここで、あるPOIは、ある時点では一つの領域のみで表示される。)。)

ウ 段落[0063]-[0066]
「 Representation of Objects
[0063]

・・・(中略)・・・

[0064] Basically, a point of interest (POI) can be represented by a symbol, an image, a 3D object or the like. For representation, it is possible to use a 3D rendering technology (such as the known methods OpenGL or DirectX) using 3D objects, the rendering of so-called billboards (2D objects that always face the viewer) or so-called 2D overlays with 2D rendering techniques the projection of which is calculated autonomously. The kind of representation may be based on the category of the POIs (e.g. a globe for representing a website) or can be determined by the user (e.g. placing a dinosaur with additional information). In particular, the POIs can be shown in a contrasting color.
[0065]

・・・(中略)・・・

[0066] As an alternative, the display can also be controlled by so-called eye tracking. The POIs viewed by the user are displayed with additional information. The additional information advantageously can be anchored in the view in non-movable manner and can be connected to the movable POI representation by way of a dynamic connection. This provides for enhanced legibility of the information. The use of eye tracking for activating additional information via a POI in AR can also be applied independently of the method according to claim 1.」
(「オブジェクトの表現」
[0063]

・・・(中略)・・・

[0064] 基本的に、興味のあるスポット(Point of interest、POI)は、シンボル、画像、3次元オブジェクトなどで表示できる。表示には、(公知の方法であるOpenGL,DirectX等の)3次元オブジェクトを用いたる3次元レンダリング技術を利用でき、(常に2次元オブジェクトが観察者の方を向く)いわゆる「ビルボード」のレンダリングや、投影方向が自律的に算出される、2次元レンダリング技術を用いる、いわゆる「2次元オーバレイ」を利用できる。表示の種別は、(例えば、サイトを表すために地球儀など)POIのカテゴリに基づいてもよく、または、(例えば、追加情報を持つ恐竜を配置することなど)ユーザによって決定することもできる。特に、POIは、対照的な色(Contrasting Color)で示すことができる。

・・・(中略)・・・

[0066] 他の実施例として、ディスプレイはまた、いわゆる「視線追跡」により制御することもできる。ユーザが見たPOIには、付加的情報が表示される。有利には、付加的情報は、非可動状態で固定されることができ、動的コネクションを介して、可動のPOIの表示に接続できる。これは、情報の可読性を向上する。アイトラッキングを使用して、ARにおけるPOIを介して追加的情報を活性化することは、請求項1に記載の方法とは独立しても適用することができる。)

エ 段落[0087]
「[0087] In a user action for selecting virtual information of for switching between several items of virtual information, the user may be given acoustic and/or haptic feedback at an input device used for making a selection.」
([0087] 複数の仮想情報のアイテムを切り替えるための、仮想情報を選択するユーザアクションにおいて、ユーザは、選択を行うために使用される入力デバイスで音響および/または触覚フィードバックを与えることができる。)

(3) 引用文献4
当審拒絶理由(2)において、周知技術を示す文献として引用された、引用文献4(米国特許出願公開第2012/0113223号明細書)には、図面(特に、図4)とともに、以下の記載がある。

ア 段落[0033]
「[0033] However, in the direct-interaction augmented reality system of FIG. 1 , the user 100 can find it difficult to control accurately how the interaction is occurring with the virtual objects. This is because the user cannot actually feel the presence of the virtual objects, and hence it can be difficult for the user to tell precisely when they are touching a virtual object. In other words, the user has only visual guidance for the interaction, and no tactile or haptic feedback. Furthermore, it is beneficial if the user can be provided with complex, rich interactions, that enable the user to interact with the virtual objects in ways they leverage their flexible virtual nature (i.e. without being constrained by real-world limitations), whilst at the same time being intuitive. This is addressed by the flowcharts shown in FIGS. 2 and 6 . FIG. 2 illustrates a flowchart of a process for providing haptic feedback in a direct interaction augmented reality system, and FIG. 6 illustrates a flowchart of a process for detecting gestures to control interaction in a direct interaction augmented reality system. 」
([0033] しかし、図1の直接的な相互作用による、拡張現実感システムにおいては、ユーザ100は、仮想オブジェクトとの相互作用がどのように生じるかを正確に制御することが困難であると感じる可能性がある。これは、ユーザが仮想オブジェクトの存在を実際に感じ取ることができず、したがって、いつ仮想物体と接触したかを、ユーザは正確に知ることができないためである。すなわち、ユーザは、相互作用のために視覚的なガイダンスのみを有しており、触感または触覚フィードバックは有していない。さらに、ユーザが仮想的な性質のフレキシビリティーを活用できる方法で(すなわち、現実世界での制限により制約されることなく)、かつ、直感的に、仮想オブジェクトと対話することを可能にするような、複雑で豊かな相互作用がユーザに提供されるならば、有益であろう。このことは、図2と図6に示されたフローチャートにおいて扱われる。図2は、直接的な相互作用による、拡張現実感システムにおいて、触覚フィードバックを提供するためのプロセスのフローチャートを示し、図6は、直接的な相互作用、拡張現実感システムにおける相互作用を制御するためにジェスチャーを検出するための処理のフローチャートを示す図である。)

イ 段落[0065]-[0066]
「[0065] The augmented reality system 900 also comprises the camera 106, which captures images in the user interaction region 902, to allow the tracking of the real objects, as described above. In order to further improve the spatial registration of the augmented reality environment with the user's hand 108, a further camera 908 can be used to track the face, head or eye position of the user 100. Using head or face tracking enables perspective correction to be performed, so that the graphics are accurately aligned with the real objects. The camera 908 shown in FIG. 9 is positioned between the display screen 906 and the optical beam-splitter 904. However, in other examples, the camera 908 can be positioned anywhere where the user's face can be viewed, including within the user-interaction region 902 so that the camera 908 views the user through the optical beam-splitter 904. Not shown in FIG. 9 is the computing device 110 that performs the processing to generate the augmented reality environment and controls the interaction, as described above.
[0066] This augmented reality system can utilize the interaction techniques described above to provide improved direct interaction between the user 100 and the virtual objects rendered in the augmented reality environment. The user's own hands (or other body parts or held objects) are visible through the optical beam splitter 904, and by visually aligning the augmented reality environment 102 and the user's hand 108 (using camera 908) it can appear to the user 100 that their real hands are directly manipulating the virtual objects. Virtual objects and controls can be rendered so that they appear superimposed on the user's hands and move with the hands, enabling the haptic feedback technique, and the camera 106 enables the pose of the hands to be tracked and gestures recognized.」
([0065] 拡張現実感システム900は、現実のオブジェクトの追跡を可能にする、ユーザ相互作用領域902の画像を取得するカメラ106も備えている。拡張現実環境とユーザの手108との空間的な位置合わせをさらに改善するために、さらなるカメラ908をユーザ100の顔、頭又は目の位置を追跡するために使用することができる。頭部又は顔の追跡を利用することにより、パースペクティブ補正が行われて、画像が現実のオブジェクトと正確に位置合わせされるようになっている。図9に示すカメラ908は、スクリーン906と、偏光ビームスプリッタ904との間に配置されている。しかしながら、他の例では、ユーザの顔が見られる場所ならどこにでも配置でき、ユーザ対話領域902内に配置することもできる、この場合、カメラ908は、光ビームスプリッタ904越しにユーザを見ることになる。図9に図示されていない計算装置110は、上記のように、拡張現実環境を生成するための処理を行い、相互作用を制御する。
[0066] この拡張現実感システムは、拡張現実環境でレンダリングされた仮想オブジェクトと、ユーザ100との間のより改善された直接的な相互作用を提供するために、上述の相互作用技術を利用することができる。ユーザ自身の手(または、他の身体部分、または、保持されたオブジェクト)は、光ビームスプリッタ904を介して目に見えるようになり、拡張現実環境102とユーザの手108とを(カメラ908を用いて)視覚的に位置合せすることによって、ユーザの現実の手が、直接的に仮想オブジェクトを操作しているようにユーザ100に表示できる。仮想オブジェクトとコントロールとをレンダリングして、ユーザの手の上に重畳されて、手と一緒に移動するように表示でき、触覚フィードバック技術を可能とすることができ、カメラ106によって、手のポーズを追跡して、ジェスチャを認識することができる。)

(4) 引用文献2-4についてのまとめ
ア 上記引用文献2-4の記載から、一般に、いわゆる「拡張現実(AR)」、「複合現実(MR)」として、現実世界のオブジェクトと、仮想世界のオブジェクトとを両方同時に表示することは、周知技術であると認められる。

イ 上記引用文献2-3の記載から、一般に、現実世界のオブジェクトと、仮想世界のオブジェクトとを両方同時に表示する際、両者が視覚的に「衝突」しないように、現実世界のオブジェクトとは違う「色」などの視覚特性を、仮想オブジェクトに割り当てることは、周知技術であると認められる。

3 引用文献5
当審拒絶理由(2)において、請求項6-7、15について、周知技術を示す文献として引用された、引用文献5(特開2012-120798号公報)には、特に、段落【0035】-【0041】の記載及び図3A-図3Eを参照すると、ユーザの目の付近の動きを監視するセンサに基づいて、視線方向を判定する周知技術が開示されていると認められる。

4 引用文献C
原査定において、請求項20、24について、「電子装置から目をそらしている時にユーザの注意を向けるよう第2の触覚効果を表す第2の触覚駆動信号を出力する」との周知技術を示す文献として引用された、引用文献C(国際公開第2012/132495号)には、段落[0062]-[0063]に、以下の記載がある。
「[0062]
また、フィードバック制御部22は、例えば、視線検出部23から出力される操作者の視線方向の検出結果に基づき、操作者の視線方向が表示画面12aに向けられているか否かを判定し、この判定結果に応じてフィードバックの実行有無を判定する。
例えば、フィードバック制御部22は、操作者の視線方向が表示画面12aに向けられていないと判定した場合にはフィードバックを実行し、操作者の視線方向が表示画面12aに向けられていると判定した場合にはフィードバックの実行を停止する。
[0063]
これにより、操作者の視線方向が表示画面12aに向けられている場合には、いわば表示によるフィードバックが行なわれることになり、他のフィードバックが不要となり、過剰なフィードバックの実行を防止することができ、操作者に違和感や煩わしさを与えてしまうことを防止することができる。」

5 引用文献X
当審拒絶理由(1)において、請求項18-22について、「電子装置等の対象物から目をそらしたことを検出した場合に、ユーザに異なる知覚効果を提示すること」の周知技術を示す文献として引用された、引用文献X(国際公開第2006/100645号)には、15ページ6-9行に、以下の記載がある。

「Of course, if the user's eyes stray outside the dimensions of the page (for example, as detected by interpolation of the IR spot in the current images), the current effects may be temporarily frozen, faded over time, or treated according to another setting or user preference. 」
(当審訳:
もちろん、もし(例えば、現在の各画像における赤外線スポットの補間による検出結果として)ユーザの目が、ページの寸法を外れた場合、現在の効果は、一時的にフリーズするか、時間に応じてフェードされるか、他の設定やユーザ・プリファレンスに応じて取り扱われる。)

6 引用文献Z
当審拒絶理由(1)において、請求項18-22について、「電子装置等の対象物から目をそらしたことを検出した場合に、ユーザに異なる知覚効果を提示すること」の周知技術を示す文献として引用された、引用文献Z(米国特許出願公開第2004/0178890号明細書)には、図4と共に、段落[0040]-[0041]に、以下の記載がある。

「[0040] FIG. 4 depicts one illustrative embodiment that accords with the above configurations. The system monitors as suggested above to detect potential hazards 41 . When no such hazards are detected, no actions regarding the provision of cautionary indicia are instigated 42. When a potential hazard is detected 41, however, the system determines 43 whether the driver appears to be looking in the direction of the detected hazard. For example, if the hazard comprises another vehicle approaching rapidly from the passenger side of the driver's vehicle, the system determines 43 whether the driver is presently looking (or, in some embodiments, has recently looked) in the direction of the potential hazard. When this determination 43 suggests that the driver is not viewing (or, in some embodiments, will not likely view in the near future) the potential hazard, a high level alarm is provided 44. For example, a particularly compelling audible, visible, and/or haptic presentation can be provided to likely draw the attention of the driver to the presence of the potential hazard.
[0041] When this determination 43 reveals, however, that the driver is likely viewing (or, in some embodiments, will likely view in the immediate or near future) the potential hazard, the system can determine whether the driver has taken an action 45 in apparent response to the potential hazard. For example, if the potential hazard comprises a rapidly approaching obstacle towards the front of the vehicle, the system can determine whether the driver has applied the vehicle's brakes, reduced the provision of gasoline to the engine, or taken some other prophylactic action such as, for example, steering to avoid the obstacle. When such an action has been detected, the system can determine to take no particular action 47 with respect to the provision of any cautionary warnings to the driver. When, however, no such action has yet been taken, the system can provide 46 a relatively low-level alert. For example, a low-level audible alarm can be provided or a relatively less-compelling graphic indicator can be provided on a heads-up, high-heads down, or other display for the driver. This lower level of cautionary warning accords with the previously determined information that the driver is already likely aware of the potential hazard.」
(当審訳:
[0040] 図4は、上記構成に従う1つの例示的な実施形態を示している。このシステムは、上記のような潜在的な危険を検出するために監視を行う(ステップ41)。このような危険が検出されない場合、警告表示の提供の開始は実行しない(ステップ42)。ステップ41で潜在的な危険が検出された場合、システムは、検出された危険の方向をドライバが見ているように見えるかどうかを判定する(ステップ43)。例えば、危険が、運転者の車両に側方から急速に接近する他の車両である場合、システムは、ドライバが、潜在的な危険の方向を、現在見ているか否か(または、いくつかの実施形態では、最近見たか否か)を判定する(ステップ43)。この判定43により、運転者が潜在的な危険を、見ていない場合(または、いくつかの実施形態では、近い将来に見る可能性がない場合)、高いレベルのアラームが与えられる(ステップ44)。例えば、運転者の注意を、潜在的な危険の存在に向けさせるために、格別に強制的な、可聴、可視、及び/または触覚的な表示を提示することができる。
[0041] 一方、この判定43により、ドライバが、潜在的な危険を見ている可能性が高い場合(または、いくつかの実施形態では、直近または近い将来に見る可能性が高い場合)、システムは、運転者が潜在的な危険に明らかに応答して行動したか否かを判断する(ステップ45)。例えば、潜在的な危険が、車両前方から急速に接近する障害物である場合、システムは、運転者が車両のブレーキを掛けたか否か、エンジンへのガソリンの供給を減少させたか否か、又は、障害物を避けるために、例えば、ハンドル操作のような他の予防措置を取ったか否かを判定することができる。このような動作が検出された場合、運転者への警戒警報の提供に関して、システムは、特定のアクションをとらないと決定できる(ステップ47)。一方、このような動作がまだ行われていない場合、システムは、相対的に低いレベルの警告を提供することができる(ステップ46)。例えば、相対的に低いレベルの可聴警報を与えることができる、または、相対的に強制力の低い表示インジケータを運転者用のヘッドアップ、ヘッドダウン、またはその他のディスプレイ上で提供することができる。より低いレベルのこの警戒警報は、運転者が既に潜在的な危険を認識しているであろうと以前に決定された情報と合致している。)

7 引用文献α
技術水準を示す文献として、当審で新たに引用する引用文献α(特表2012-511749号公報)には、 段落【0055】に、以下の記載がある。

「【0055】
このように、デジタルテレビジョンセット4又はコンピュータ装置26が、ある主体が非常に動的なオブジェクト(飛んでいる蝶、爆弾の爆発、自動車事故等)を見ていることを検出した場合、システムは、たとえば、(図1の構成における)強い触覚によるフィードバック又は(図1の構成におけるラウドスピーカ12,13及び図2の構成における装置32?34を使用して)強い振動によるフィードバックをその特定の主体に割り当てる。主体が背景の詳細を見ている場合、又はディスプレイ9又は広告ボード23を全く見ていない場合、フィードバックが提供される必要がない。」

第6 対比・判断
(1) 本願発明1について

本願発明1と、引用発明とを対比すると、以下のことがいえる。

ア 引用発明の「感覚情報提示装置」は、本願発明1の「システム」に相当する。

イ 引用発明の「被提示者が見ている所を検出する視点検出手段43」は、「視点検出手段43では、視線方向撮影カメラにより視線方向を検出すると同時に視線方向の映像を撮影し、撮影された画像と検出された視線方向から視点を検出し」ているから、本願発明1の「当該システムのユーザの視線の方向を判定するように構成された検出器」に相当する。

ウ 引用発明の「注視判定手段44、注視点座標変換手段45、注視点座標に何らかの物体が存在するかどうかを判定する物体検索手段46、触覚特性特定手段(触覚情報提示手段)141、触覚情報制御部(触覚情報提示手段)142」は、「触覚特性特定手段141は、物体検索手段46において物体が検索された場合に、特定された物体の画像情報と、物体視覚・触覚データ蓄積部140における画像中の様々な物体の視覚情報と触覚情報の対応に関するデータベースをもとに、注視点に存在することが特定された物体の触覚特性を特定し、この際に触覚特性特定手段141は、特定された物体の画像情報から、明るさ、色、きめなどの定量化可能ないくつかの視覚情報を抽出し、前記データベースからこれに対応した最も特性の近い触覚特性を選択するなどの方法を用い、特定された物体の触覚特性データは触覚提示制御部142に送られ」るという処理を行うから、全体として、本願発明1の「前記視線の前記方向に基づいて触覚効果を表す信号を生成するように構成されたプロセッサ」に相当する。

エ 引用発明の「触覚提示手段143」は、「触覚提示手段143により触覚情報が被提示者に提示され」るから、本願発明1の「前記プロセッサから前記信号を受信し、前記ユーザに対して前記触覚効果を出力するように構成された触覚出力装置」に相当する。

オ 引用発明の「スクリーン,モニタ等の画像提示部42」は、本願発明1の「システムに関連付けられるディスプレイ装置」に相当する。
引用発明の「物体検索手段46では画像蓄積部40の物体属性データを基にして、注視点座標変換手段45によって変換された画像提示部42の提示画像中の注視点に物体が存在するかどうかを検索し、
触覚特性特定手段141は、物体検索手段46において物体が検索された場合に、特定された物体の画像情報と、物体視覚・触覚データ蓄積部140における画像中の様々な物体の視覚情報と触覚情報の対応に関するデータベースをもとに、注視点に存在することが特定された物体の触覚特性を特定し、この際に触覚特性特定手段141は、特定された物体の画像情報から、明るさ、色、きめなどの定量化可能ないくつかの視覚情報を抽出し、前記データベースからこれに対応した最も特性の近い触覚特性を選択するなどの方法を用い、特定された物体の触覚特性データは触覚提示制御部142に送られ」ていることは、つまり、視線が向けられたオブジェクト毎に、「色」などの視覚情報に対応する触覚効果を表す信号を生成するものであって、すなわち、プロセッサが、ユーザの視線がディスプレイ装置に表示される第1のオブジェクトに向けられていると判定された場合に触覚効果を表す第1の信号を生成し、ユーザの視線がディスプレイ装置に表示される第2のオブジェクトに向けられていると判定された場合に、プロセッサが第2の触覚効果を表す第2の信号を生成するものと認められるから、本願発明1の「前記プロセッサは、前記ユーザの前記視線が前記システムに関連付けられるディスプレイ装置に表示される第1のオブジェクトに向けられていると判定された場合に、第1の触覚効果を表す第1の信号を生成し、前記ユーザの前記視線が前記第1のオブジェクトとは異なる前記ディスプレイ装置に表示される第2のオブジェクトに向けられていると判定された場合に、前記第1の触覚効果と異なる第2の触覚効果を表す第2の信号を生成するように構成され、前記第1のオブジェクトは実オブジェクトであり、前記第2のオブジェクトは仮想オブジェクトである」ことと、「前記プロセッサは、前記ユーザの前記視線が前記システムに関連付けられるディスプレイ装置に表示される第1のオブジェクトに向けられていると判定された場合に、第1の触覚効果を表す第1の信号を生成し、前記ユーザの前記視線が前記第1のオブジェクトとは異なる前記ディスプレイ装置に表示される第2のオブジェクトに向けられていると判定された場合に、第2の触覚効果を表す第2の信号を生成するように構成される」点で共通するといえる。

よって、本願発明1と引用発明との一致点、相違点は次のとおりである。

[一致点]
「システムであって、
当該システムのユーザの視線の方向を判定するように構成された検出器と、
前記視線の前記方向に基づいて触覚効果を表す信号を生成するように構成されたプロセッサと、
前記プロセッサから前記信号を受信し、前記ユーザに対して前記触覚効果を出力するように構成された触覚出力装置と、
を備え、
前記プロセッサは、前記ユーザの前記視線が前記システムに関連付けられるディスプレイ装置に表示される第1のオブジェクトに向けられていると判定された場合に、第1の触覚効果を表す第1の信号を生成し、前記ユーザの前記視線が前記第1のオブジェクトとは異なる前記ディスプレイ装置に表示される第2のオブジェクトに向けられていると判定された場合に、第2の触覚効果を表す第2の信号を生成するように構成される、システム。」

[相違点1]
本願発明1では「前記プロセッサは、前記ユーザの前記視線が前記システムに関連付けられるディスプレイ装置に表示される第1のオブジェクトに向けられていると判定された場合に、第1の触覚効果を表す第1の信号を生成し、前記ユーザの前記視線が前記第1のオブジェクトとは異なる前記ディスプレイ装置に表示される第2のオブジェクトに向けられていると判定された場合に、前記第1の触覚効果と異なる第2の触覚効果を表す第2の信号を生成するように構成され、前記第1のオブジェクトは実オブジェクトであり、前記第2のオブジェクトは仮想オブジェクトである」のに対して、引用発明では、「実オブジェクト」と「仮想オブジェクト」の触覚効果を異ならせることは特定されていない点。

[相違点2]
本願発明1では、「前記ユーザの前記視線が前記ディスプレイ装置に向けられていると判断される場合に前記システムとの接触に関連付けられる前記触覚効果の強さが低減され、前記ユーザの前記視線が前記ディスプレイ装置に向けられていないと判断される場合には前記強さが増強される」、近接センサに基づく処理を開始するのに対して、引用発明では、「視線が前記ディスプレイ装置に向けられていないと判断される場合には前記強さが増強される」ことは特定されていない点。

3.当審の判断
事案に鑑みて、上記[相違点2]について先に検討する。

本願発明1の上記[相違点2]に係る「前記ユーザの前記視線が前記ディスプレイ装置に向けられていると判断される場合に前記システムとの接触に関連付けられる前記触覚効果の強さが低減され、前記ユーザの前記視線が前記ディスプレイ装置に向けられていないと判断される場合には前記強さが増強される」ことは、下記のように、上記引用文献1-5には記載されておらず、本願出願前において周知技術であるともいえない。

引用発明は、そもそも、「注視点に存在することが特定された物体の触覚特性を特定し、この際に触覚特性特定手段141は、特定された物体の画像情報から、明るさ、色、きめなどの定量化可能ないくつかの視覚情報を抽出し、前記データベースからこれに対応した最も特性の近い触覚特性を選択するなどの方法を用い」ることによって、「画像を提示されている被提示者に、被提示者が画像中で注視している対象物の触覚を併せて体験させることが可能となり、より臨場感を増した感覚情報を提示することが可能となる」ものであって、視点に何らかの「物体」の画像が表示されることが、物体に対応した感覚情報を選択して提示するための前提とされているから、「スクリーン,モニタ等の画像提示部42」以外に視線がある場合の動作は想定し難い。

表示装置以外に視点がある場合の動作に関連する引用文献として、「引用文献C」、「引用文献X」、「引用文献Z」、「引用文献α」がある。

しかし、仮に、引用発明に、これらの引用文献に記載された事項を組み合わせても、上記[相違点2]に係る構成には至らない。

「引用文献C」(上記「第5」の「4」を参照。)は、「操作者の視線方向が表示画面12aに「向けられているか否かを判定し、この判定結果に応じてフィードバックの実行有無を判定」して、「視線方向が表示画面12aに向けられていると判定した場合にはフィードバックの実行を停止する」ことにより、「これにより、操作者の視線方向が表示画面12aに向けられている場合には、いわば表示によるフィードバックが行なわれることになり、他のフィードバックが不要となり、過剰なフィードバックの実行を防止することができ、操作者に違和感や煩わしさを与えてしまうことを防止することができる」もの、すなわち、視線が表示画面に向けられている場合、振動を「停止する」ことにより、操作者の「違和感」等を防止するというものであるから、引用発明に組み合わせても、上記「相違点2」に係る構成のように、視線が表示画面に向けられている場合、触覚効果の「強さが低減され」る構成は得られない。

「引用文献X」(上記「第5」の「5」を参照。)は、(電子書籍の)ページから視線が外れた場合には、(振動を含む)フィードバックが「一時的にフリーズするか、時間に応じてフェードされる」ものであるから、本願発明とは強弱の増減が逆であって、引用発明に組み合わせても、上記「相違点2」に係る構成のような、視線が表示画面に向けられていない場合、触覚効果の「強さが増強される」構成は得られない。

「引用文献Z」(上記「第5」の「6」を参照。)は、車両の運転中に、「側方から急速に接近する他の車両」、「車両前方から急速に接近する障害物」などの「潜在的な危険」が検出されたとき、運転手が「潜在的な危険」の方向を見ていない場合には、「高いレベルのアラーム」として、「格別に強制的な、可聴、可視、及び/または触覚的な表示を提示」し、「潜在的な危険」の方向を見ており、かつ、車両の「ブレーキ」、「ハンドル操作」など「予防措置」をとっている場合には、警戒警報は提供しない一方、「潜在的な危険」の方向を見ているが「予防措置」をとっていない場合には、「相対的に低いレベルの警告」として、「例えば、相対的に低いレベルの可聴警報を与えることができる、または、相対的に強制力の低い表示インジケータを運転者用のヘッドアップ、ヘッドダウン、またはその他のディスプレイ上で提供することができる」というものであるから、引用文献Zで、視線の方向を判定する対象物は、急速に接近する他の車両などの「潜在的な危険」についてであって、引用発明の「提示画面上の注視点」の判定とは異なるから、両者を組合わせることは想定し難い。
また、仮に両者を組合わせても、引用文献Zは、「潜在的な危険」を見ていない場合、「触覚的な表示」などの「高いレベルのアラーム」を与える一方で、「潜在的な危険」を見ている場合には、さらに、ブレーキやハンドル操作などの「予防措置」をとったか否かの判定結果に応じて、「相対的に低いレベルの可聴警報」などの「相対的に低いレベルの警告」を与えるか、警報を与えないかのいずれかを選択するものであるから、上記「相違点2」に係る構成のような、視線が「表示画面」に向けられている場合、触覚効果の「強さが低減される」構成は直ちに得られない。

「引用文献α」(上記「第5」の「7」を参照。)は、ディスプレイを全く見ていない場合、(振動による)「フィードバックが提供される必要がない」というものであるから、本願発明とは強弱の増減が逆であって、引用発明に組み合わせても、上記「相違点2」に係る構成のように、視線が表示画面に向けられていない場合、触覚効果の「強さが増強される」構成は得られない。

そして、上記[相違点2]に係る構成によって、本願明細書の段落【0049】に、「例えば、一実施形態において、プロセッサ520がユーザの視線は図6のEGAで示すように画面540から逸らされていると判定する場合、装置500上のウィジェット(widget)またはボタン560との接触に関連付けられた触覚効果の強さは、触覚出力装置530によって高められてもよい。これは、電子装置500のユーザが装置500を見ずにウィジェットまたはボタン560を操作しようとする場合の補助となる。」と記載されるように、画面を見ずに操作する場合の補助となるという効果を備えるものと理解できる。

したがって、上記「相違点2」に係る「前記ユーザの前記視線が前記ディスプレイ装置に向けられていると判断される場合に前記システムとの接触に関連付けられる前記触覚効果の強さが低減され、前記ユーザの前記視線が前記ディスプレイ装置に向けられていないと判断される場合には前記強さが増強される」ことは、当業者であっても引用発明、引用文献2-5に記載された技術的事項に基づいて容易に発明できたものであるとはいえない。

したがって、他の相違点について判断するまでもなく、本願発明1は、当業者であっても引用発明、引用文献2-5に記載された技術的事項に基づいて容易に発明できたものであるとはいえない。

(2) 請求項2-15について
概略、本願発明2-8は、本願発明1を減縮した発明であり、本願発明9は、システムの発明である本願発明1に対応する方法の発明であり、本願発明10-11は、本願発明9を減縮した発明であり、本願発明12は、システムの発明である本願発明1に対応する電子装置の発明であり、本願発明13-15は、本願発明12を減縮した発明であって、いずれも、本願発明1の上記[相違点2]に係る、「前記ユーザの前記視線が前記ディスプレイ装置に向けられていると判断される場合に前記システムとの接触に関連付けられる前記触覚効果の強さが低減され、前記ユーザの前記視線が前記ディスプレイ装置に向けられていないと判断される場合には前記強さが増強される」ことと、実質的に同一の構成を備えるものであるから、本願発明1と同様の理由により、当業者であっても、引用発明、引用文献2-5に記載された技術的事項に基づいて容易に発明をすることができたものとはいえない。

第6 当審拒絶理由(1)について
1.理由A(特許法第36条第6項第2号)について
当審では、請求項1-22の「視線が前記オブジェクトに向けられていないと判定された場合」という記載の意味が不明確であるとの拒絶の理由を通知しているが、令和2年6月22日付けの補正において、「前記ユーザの前記視線が前記第1のオブジェクトとは異なる前記ディスプレイ装置に表示される第2のオブジェクトに向けられていると判定された場合」と補正された結果、この拒絶の理由は解消した。

2.理由B(特許法第29条第1項第3号)及び、理由C(特許法第29条第2項)について
令和2年6月22日付けの補正により、補正後の請求項1-15は、本願発明1の上記[相違点2]に係る、「前記ユーザの前記視線が前記ディスプレイ装置に向けられていると判断される場合に前記システムとの接触に関連付けられる前記触覚効果の強さが低減され、前記ユーザの前記視線が前記ディスプレイ装置に向けられていないと判断される場合には前記強さが増強される」という技術的事項を有するものとなった。当該技術的事項は、当審拒絶理由(1)における引用文献A、X-Z、Bには記載されておらず、本願出願前における周知技術でもないので、本願発明1-15は、引用文献Aに記載された発明ではなく、また、当業者であっても、当審拒絶理由(1)における引用文献A、X-Z、Bに基づいて容易に発明をすることができたものではない。
したがって、この拒絶の理由は解消した。

第7 原査定についての判断
令和2年6月22日付けの補正により、補正後の請求項1-15は、本願発明1の上記[相違点2]に係る、「前記ユーザの前記視線が前記ディスプレイ装置に向けられていると判断される場合に前記システムとの接触に関連付けられる前記触覚効果の強さが低減され、前記ユーザの前記視線が前記ディスプレイ装置に向けられていないと判断される場合には前記強さが増強される」という技術事項を有するものとなった。当該技術的事項は、原査定における引用文献A(引用文献1)、引用文献B(引用文献5)、引用文献Cには記載されておらず、本願出願前における周知技術でもないので、本願発明1-15は、原査定における引用文献Aに記載された発明ではなく、また、当業者であっても、原査定における引用文献Aに基づいて容易に発明をすることができたものではない。したがって、原査定を維持することはできない。

第8 むすび
以上のとおり、原査定の理由によって、本願を拒絶することはできない。
他に本願を拒絶すべき理由を発見しない。
よって、結論のとおり審決する。

 
審決日 2020-07-28 
出願番号 特願2014-30614(P2014-30614)
審決分類 P 1 8・ 121- WY (G06F)
P 1 8・ 113- WY (G06F)
P 1 8・ 537- WY (G06F)
最終処分 成立  
前審関与審査官 永野 志保  
特許庁審判長 ▲吉▼田 耕一
特許庁審判官 稲葉 和生
岩田 玲彦
発明の名称 視線に応じた触覚感覚  
代理人 大森 拓  
代理人 大渕 一志  
代理人 三好 秀和  
代理人 伊藤 正和  
代理人 原 裕子  
  • この表をプリントする

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ