ポートフォリオを新規に作成して保存 |
|
|
既存のポートフォリオに追加保存 |
|
PDFをダウンロード![]() |
審決分類 |
審判 査定不服 2項進歩性 取り消して特許、登録 G06F |
---|---|
管理番号 | 1349616 |
審判番号 | 不服2018-6749 |
総通号数 | 232 |
発行国 | 日本国特許庁(JP) |
公報種別 | 特許審決公報 |
発行日 | 2019-04-26 |
種別 | 拒絶査定不服の審決 |
審判請求日 | 2018-05-17 |
確定日 | 2019-03-29 |
事件の表示 | 特願2015-546539「アイウェアでのマルチタッチ対話」拒絶査定不服審判事件〔平成26年 6月12日国際公開、WO2014/088971、平成28年 3月10日国内公表、特表2016-507802、請求項の数(10)〕について、次のとおり審決する。 |
結論 | 原査定を取り消す。 本願の発明は、特許すべきものとする。 |
理由 |
第1 手続の経緯 本願は、平成25年12月2日(パリ条約による優先権主張外国庁受理2012年12月6日、米国)を国際出願日とする出願であって、平成29年7月11日付けで拒絶理由通知がされ、同年10月13日付けで手続補正がされ、平成30年1月18日付けで拒絶査定(原査定)がされ、これに対し、同年5月17日に拒絶査定不服審判の請求がされると同時に、手続補正がされたものである。 第2 原査定の概要 原査定(平成30年1月18日付け拒絶査定)の概要は次のとおりである。 (進歩性)この出願の請求項1-10に係る発明は、その出願前に日本国内又は外国において、頒布された下記1-2の刊行物に記載された発明又は電気通信回線を通じて公衆に利用可能となった発明に基いて、その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。 記 1.米国特許第8203502号明細書 2.特開2008-65169号公報 第3 審判請求時の補正について 審判請求時の補正は、特許法第17条の2第3項から第6項までの要件に違反しているものとはいえない。 審判請求時の補正によって請求項1を「前記プログラムは、異なるデバイスと対話するためにそれぞれが使用される複数のプログラムを含み、前記入力データが提供されるプログラムは、少なくとも前記別の入力デバイスからの入力に基づいて、前記複数のプログラム間で切り替えられる」とする補正は、補正前の請求項1に記載のあった発明を特定するために必要な事項である「プログラム」を「異なるデバイスと対話するためにそれぞれが使用される複数のプログラムを含」むとともに「別の入力デバイスからの入力に基づいて、前記複数のプログラム間で切り替えられる」ものに限定するものであり、かつ、補正の前後において、請求項1の産業上の利用分野及び解決しようとする課題は同一であり、また、前記追加された事項は当初明細書の段落【0033】及び【0038】より明らかであるといえるから、特許請求の範囲の減縮を目的とするものであり、また、新規事項を追加するものではないといえる。 また、審判請求時の補正によって請求項8を「前記対話型プログラムは、異なるデバイスと対話するためにそれぞれが使用される複数のプログラムを含み、前記信号が出力される対話型プログラムは、別の入力デバイスからの入力に少なくとも基づいて、前記複数のプログラム間で切り替えられる、工程」とする補正は、補正前の請求項1に記載のあった発明を特定するために必要な事項である「前記対話型プログラムは、別の入力デバイスからの入力に少なくとも基づいて、切り替え可能である、工程」を「異なるデバイスと対話するためにそれぞれが使用される複数のプログラムを含」むとともに「別の入力デバイスからの入力に少なくとも基づいて、前記複数のプログラム間で切り替えられる」ものに限定するものであり、かつ、補正の前後において、請求項8の産業上の利用分野及び解決しようとする課題は同一であり、また、前記追加された事項は当初明細書の段落【0033】及び【0038】より明らかであるといえるから、特許請求の範囲の減縮を目的とするものであり、また、新規事項を追加するものではないといえ、審判請求時の補正によって請求項10を「別の入力デバイスからの入力に少なくとも基づいて、前記少なくとも1つの入力イベントに対応するデータを、プログラムにそれぞれが関連付けられた異なるバッファにバッファリングする工程であって、各プログラムは、異なるデバイスと対話するために使用される、工程」とする補正は、補正前の請求項1に記載のあった発明を特定するために必要な事項である「別の入力デバイスからの入力に少なくとも基づいて、前記少なくとも1つの入力イベントに対応するデータを、プログラムにそれぞれが関連付けられた異なるバッファにバッファリングする工程」における「プログラム」を「各プログラムは、異なるデバイスと対話するために使用される」ものに限定するものであり、かつ、補正の前後において、請求項10の産業上の利用分野及び解決しようとする課題は同一であり、また、前記追加された事項は当初明細書の段落【0033】及び【0038】より明らかであるといえるから、特許請求の範囲の減縮を目的とするものであり、また、新規事項を追加するものではないといえる。 そして、「第4 本願発明」から「第6 対比・判断」までに示すように、補正後の請求項1-10に係る発明は、独立特許要件を満たすものである。 第4 本願発明 本願請求項1-10に係る発明(以下、それぞれ「本願発明1」-「本願発明10」という。)は、平成30年5月17日付けの手続補正書で補正された特許請求の範囲の請求項1-10に記載された事項により特定される、以下のとおりの発明である。 「【請求項1】 入力デバイスとして構成されたアイウェア、及び別の入力デバイスを備えるシステムであって、 前記アイウェアは、前記アイウェアとのユーザ対話を感知し、前記ユーザ対話を表す信号を出力するように構成された1つまたは複数のマルチタッチセンサを備えるマルチタッチセンサセットを含み、 前記マルチタッチセンサセットは、少なくとも1つの内側に向いているセンサを含み、前記アイウェアのユーザのプロファイルを認識し、 前記マルチタッチセンサセットは、前記信号に対応する入力データをプログラムに提供するためのセンサ処理ロジックに結合され、前記プログラムとの対話のために、前記認識されたプロファイルに対応するプリファレンスを適用し、前記プログラムは、異なるデバイスと対話するためにそれぞれが使用される複数のプログラムを含み、前記入力データが提供されるプログラムは、少なくとも前記別の入力デバイスからの入力に基づいて、前記複数のプログラム間で切り替えられる、システム。 【請求項2】 前記マルチタッチセンサセットは、スワイプジェスチャを検出するように構成された少なくとも1つのセンサ、または複数の異なる圧力を検出するように構成された少なくとも1つのセンサ、またはスワイプジェスチャを検出するように構成された少なくとも1つのセンサと複数の異なる圧力を検出するように構成された少なくとも1つのセンサとを共に備える、請求項1に記載のシステム。 【請求項3】 前記アイウェアは、拡張現実メガネ、ニアアイディスプレイ、矯正レンズを有する眼鏡、立体メガネ、保護メガネ、サングラス、老眼鏡、アクティブシャッタを有するメガネ、またはゴーグルを含む、請求項1に記載のシステム。 【請求項4】 前記マルチタッチセンサセットは、容量センサ、抵抗センサ、圧電ベースのセンサ、光学センサ、光ベースのセンサ、または反射型センサのうちの少なくとも1つを含む、請求項1に記載のシステム。 【請求項5】 前記マルチタッチセンサセットの少なくとも一部分は、前記アイウェアのレンズ、前記アイウェアのレンズの上方のフレーム、前記アイウェアのレンズの下方のフレーム上、前記アイウェアのステム、または、前記アイウェアのレンズ、前記アイウェアのレンズの上方のフレーム、前記アイウェアのレンズの下方のフレーム上、前記アイウェアのステムの任意の組み合わせに配置される、請求項1に記載のシステム。 【請求項6】 前記アイウェアがユーザによって現在装着されているかどうかを決定するために使用される信号を提供するように構成された、または前記アイウェアが現在、ユーザによって移動されているか、それとも前記ユーザによって入力デバイスとして使用されているかを区別するために使用される信号を提供するように構成された、少なくとも1つのセンサをさらに備える、請求項1に記載のシステム。 【請求項7】 前記プログラムが、前記マルチタッチセンサセットで開始される入力、および前記別の入力デバイスで開始される入力に基づいて動作する、請求項1に記載のシステム。 【請求項8】 1つまたは複数のセンサを備えるマルチタッチアイウェアセンサセットとのユーザ対話を感知する工程と、 対話型プログラムとのユーザ対話を実現するために、前記対話を表す信号を出力する工程であって、前記対話型プログラムは、異なるデバイスと対話するためにそれぞれが使用される複数のプログラムを含み、前記信号が出力される対話型プログラムは、別の入力デバイスからの入力に少なくとも基づいて、前記複数のプログラム間で切り替えられる、工程と、 前記マルチタッチアイウェアセンサセットの少なくとも1つの内側に向いているセンサを用いて、ユーザのプロファイルを認識する工程と、 前記対話型プログラムとのユーザ対話のために、前記認識されたプロファイルに対応するプリファレンスを適用する工程とを含む方法。 【請求項9】 前記ユーザ対話を感知する工程は、タップ、押圧、ピンチ、プレスアンドホールド、またはスワイプジェスチャのうちの少なくとも1つを感知する工程を含む、請求項8に記載の方法。 【請求項10】 コンピュータ実行可能命令を有する1つまたは複数のコンピュータ可読記録媒体であって、前記コンピュータ実行可能命令は、実行されたときに、 アイウェアセンサセットを介して感知されたユーザ入力アクティビティに対応する情報を受け取る工程と、 前記アイウェアセンサセットの少なくとも1つの内側に向いているセンサを用いて、ユーザのプロファイルを認識する工程と、 前記ユーザの前記認識されたプロファイルに基づいて前記情報を処理して少なくとも1つの入力イベントにする工程と、 別の入力デバイスからの入力に少なくとも基づいて、前記少なくとも1つの入力イベントに対応するデータを、プログラムにそれぞれが関連付けられた異なるバッファにバッファリングする工程であって、各プログラムは、異なるデバイスと対話するために使用される、工程とを含む工程を実施する、1つまたは複数のコンピュータ可読記録媒体。」 第5 引用文献、引用発明等 1.引用文献1について 引用文献1には、図面とともに次の事項が記載されている。 a)「FIG. 1 shows an example embodiment of a wearable heads-up display device. While FIG. 1 illustrates glasses 102 as an example of a wearable heads-up display device, other types of wearable heads-up displays could additionally or alternatively be used. As illustrated in FIG. 1 , glasses 102 comprise frame elements including lens-frames 104 , 106 , respective lens elements 108 and 110 , center frame support 112 , two extending side-arms 114 and 116 , and finger-operable touch pads 122 , 124 .」(第4欄第11-19行)(下線は当審で付与した。以下、同様。) (当審訳:図1は、着用可能なヘッドアップディスプレイ装置の実施例を示す。図1は、着用可能なヘッドアップディスプレイ装置の一例としてのメガネ102を示しているが、他のタイプの着用可能なヘッドアップディスプレイは、追加的または代替的に使用することができる。図1に示すように、メガネ102は、レンズフレーム104、106、それぞれのレンズ要素108と110、中央フレーム支持体112、2つの延びるサイドアーム114と116、および指で操作可能なタッチパッド122、124を含むフレーム要素を含んでいる。) b)「FIG. 2 shows an example embodiment of a wearable heads-up display system. As shown in FIG. 2 , a wearable heads-up display system 200 may include glasses 102 coupled to a computing device 202 via a connection 206 .」(第4欄第37-40行) ( 図2は、着用可能なヘッドアップディスプレイシステムの実施例を示している。図2に示すように、着用可能なヘッドアップディスプレイシステム200は、接続206を介してコンピューティングデバイス202に結合されたメガネ102を含むことができる。) c)「FIG. 4 shows an example embodiment of various input interfaces for glasses 102 that allows a user to interact with the glasses 102 and computing device 202 . The input interfaces may comprise one or more of finger-operable touch pad 122 , a movement sensor 402 , and a microphone 404 , among other possible input elements. While FIG. 4 illustrates a side-view of side-arm 116 , additional and similar input interfaces may be provided on side-arm 114 . For example, and as illustrated in FIG. 3 , an additional finger-operable touch pad 124 may be provided on side-arm 114 . Returning to FIG. 4 , the finger-operable touch pad 122 may sense at least one of a position and movement of a finger along a planar direction relative to a surface of the touch pad 122 (e.g., parallel to the surface of FIG. 4 ) via capacitive sensing, resistance sensing, and/or via a surface acoustic wave (SAW) process, among other possibilities. In addition, the finger-operable touch pad 122 may be capable of sensing movement of a finger in a direction normal to the surface of the touch pad 122 (e.g., into the surface of FIG. 4 ), including perhaps sensing a level of pressure applied to the touch pad 122 .」(第5欄第45-64行) (図4は、ユーザーがメガネ102及び計算装置202と対話することを可能とするメガネ102のための様々な入力インタフェースの一実施例を示している。入力インターフェースは、1以上の、指で操作可能なタッチパッド122、動きセンサ402、およびマイク404、その他の可能な入力要素を含む。図4は、サイドアーム116の側面図を示しているが、追加の、そして同様の入力インタフェースは、サイドアーム114に設けてもよい。例えば、そして図3に示すように、さらなる指で操作可能なタッチパッド124は、サイドアーム114に設けてもよい。 図4に戻って、指で操作可能なタッチパッド122は、静電容量感知、抵抗感知、及び/または表面弾性波(SAW)プロセス、その他の可能なものを介して、タッチパッド122の表面に対して平面方向(例えば、図4の面に平行)に沿って指の位置および動きの少なくとも1つを感知することができる。加えて、指で操作可能なタッチパッド122は、タッチパッド122の面に垂直な方向(例えば、図4の面に向かう)の指の動きを検知することができ、おそらくは、タッチパッド122に加えられる圧力のレベルを検知することを含む。) d)「Because the capacitance change can be measured simultaneously at each intersecting point of the driving lines, mutual capacitance can be used to determine touch locations at a plurality of locations (e.g., multi-touch).」(第6欄第19-22行) (静電容量の変化は、駆動線の各交点毎に同時に測定することができるので、相互静電容量は、複数の位置でのタッチ位置(例えば、マルチタッチ)を決定するために使用することができる。) e)「FIGS. 5 and 6 illustrate example input interactions in which one or more of the touch pads 122 , 124 may be used to interact with the glasses 102 .」(第8欄第14-16行) (図5及び図6は、1つ以上のタッチパッド122、124をメガネ102と対話するために使用できる例示的な入力相互作用を図示する。) f)「FIG. 5 illustrates one embodiment in which interactions with displayed text (such as e-mails in an e-mail inbox) may be accomplished via one or more of the touch pads 122 , 124 .」(第8欄第24-26行) (図5は、(電子メールインボックス内の電子メールのような)表示されるテキストとの相互作用を、1つ以上のタッチパッド122、124を介して達成することができる一実施例を図示する。) 上記下線部及び関連箇所の記載によれば、引用文献1には、着用可能なヘッドアップディスプレイシステムとして、以下の発明(以下、「引用発明」という。)が記載されている。 「着用可能なヘッドアップディスプレイ装置としてのメガネ102は、レンズフレーム104、106、それぞれのレンズ要素108と110、中央フレーム支持体112、2つの延びるサイドアーム114と116、および指で操作可能なタッチパッド122、124を含むフレーム要素を含んでおり、 着用可能なヘッドアップディスプレイシステム200は、接続206を介してコンピューティングデバイス202に結合されたメガネ102を含み、 ユーザーがメガネ102及び計算装置202と対話することを可能とするメガネ102のための様々な入力インタフェースは、1以上の、指で操作可能なタッチパッド122、動きセンサ402、およびマイク404、その他の可能な入力要素を含み、 指で操作可能なタッチパッド122は、静電容量感知を介して、タッチパッド122の表面に対して平面方向に沿って指の位置および動きの少なくとも1つを感知することができ、加えて、指で操作可能なタッチパッド122は、タッチパッド122の面に垂直な方向の指の動きを検知することができ、 静電容量の変化は、駆動線の各交点毎に同時に測定することができるので、相互静電容量は、複数の位置でのタッチ位置(例えば、マルチタッチ)を決定するために使用することができ、 1つ以上のタッチパッド122、124をメガネ102と対話するために使用でき、 表示されるテキストとの相互作用を、1つ以上のタッチパッド122、124を介して達成することができる 着用可能なヘッドアップディスプレイシステム200。」 2.引用文献2について 引用文献2には、図面とともに次の事項が記載されている。 g)「【0012】 [1.表示装置の外観例及び外部機器との関連] 実施の形態として、図1に眼鏡型ディスプレイとした表示装置1の外観例を示す。表示装置1は、例えば両側頭部から後頭部にかけて半周回するようなフレームの構造の装着ユニットを持ち、図のように両耳殻にかけられることでユーザに装着される。 そしてこの表示装置1は、図1のような装着状態において、ユーザの両眼の直前、即ち通常の眼鏡におけるレンズが位置する場所に、左眼用途右眼用の一対の表示部2、2が配置される構成とされている。この表示部2には、例えば液晶パネルが用いられ、透過率を制御することで、図のようなスルー状態、即ち透明又は半透明の状態とできる。表示部2がスルー状態とされることで、眼鏡のようにユーザが常時装着していても、通常の生活には支障がない。」 h)「【0035】 この表示装置1は、使用者情報を取得するための構成として、視覚センサ19、加速度センサ20、ジャイロ21、生体センサ22を有する。 視覚センサ19は、ユーザの視覚に関する情報を検出する。視覚センサ19は、例えばユーザの視線方向、焦点距離、瞳孔の開き具合、眼底パターン、まぶたの開閉など、視覚に関する情報を検知することができるセンサである。 加速度センサ20、及びジャイロ21は、ユーザの動きに応じた信号を出力する。例えば頭部の動き、首の動き、全身の動き、腕部の動き、脚部の動きなどを検出するためのセンサである。 生体センサ22は、ユーザの生体情報を検出する。例えば生体センサ22は、ユーザの心拍情報、脈拍情報、発汗情報、脳波情報、又は皮膚電気反応(GSR)、体温、血圧、呼吸活動情報等を検出するセンサである。これらの生体センサ22の検出信号は、例えばユーザの緊張状態や興奮状態、穏やかな状態、うとうとしている状態、快適、不快な状態などを判定できる情報となる。 【0036】 これら視覚センサ19、加速度センサ20、ジャイロ21、生体センサ22により、表示装置1を装着したユーザの動作又は身体の状況に関する情報(使用者情報)が取得され、システムコントローラ10に供給される。 システムコントローラ10はユーザ状況判定機能10aの処理により、取得した使用者情報からユーザの意志又は状況を判定する。そしてシステムコントローラ10は判定したユーザの意志又は状況に応じて動作制御機能10bの処理により、表示動作に関する制御を行う。即ちシステムコントローラ10は表示制御部14に指示して表示画像処理部12や表示駆動部13の動作を制御したり、表示するデータのソースを選択したり、ストレージ部25の再生動作や通信部26の通信動作の制御を行う。」 i)「【0053】 加速度センサ20、及びジャイロ21は、ユーザの動きに応じた信号を出力する。例えば加速度センサ20は直線方向の動きを検出し、ジャイロ21により回転系の動きや振動を検出する場合に適している。 加速度センサ20やジャイロ21の配置位置にもよるが、加速度センサ20やジャイロ21によって、ユーザの身体全体もしくは身体の各部の動きを検知できる。 例えば図1のような眼鏡型の表示装置1の内部に取り付けられた場合、つまり加速度センサ20及びジャイロ21がユーザの頭部の動きを検出するものとされた場合は、加速度センサ20の情報は、ユーザの頭部或いは全身の動きとしての加速度情報となり、またジャイロ21はユーザの頭部或いは全身の動きとしての角速度や振動の情報となる。 これによって、ユーザが首から頭部を動かす挙動を検知できる。例えば上方を向いている状態や下方を向いている状態を判定できる。下方を向いているときとは、ユーザが読書など近傍を見ていると判断することも可能である。逆に上方を向いているときは、遠方を見ていると判断することもできる。 またシステムコントローラ10はユーザの首から頭部を動かす挙動を検出したら、それをユーザの意識的な操作と認識することもできる。例えば左に2回首を振ったら、それが所定の操作入力とするなどである。 また加速度センサ20及びジャイロ21によっては、ユーザが静止状態(非歩行状態)であるか、歩行状態であるか、走行状態であるかなどの判断も可能である。また立っている状態から座った場合、或いは立ち上がった場合などの検出も可能である。 また、加速度センサ20やジャイロ21が、頭部に装着する装着ユニットとは別体に設けられ、腕や足に取り付けられるようにすれば、腕のみの挙動、足のみの挙動も検知できる。 【0054】 生体センサ22は、ユーザの生体情報として例えば心拍情報(心拍数)、脈拍情報(脈拍数)、発汗情報、脳波情報(例えばα波、β波、θ波、δ波の情報)、又は皮膚電気反応、体温、血圧、呼吸活動(例えば呼吸の速さ、深さ、換気量など)等を検出するが、これらの情報からシステムコントローラ10は、ユーザが緊張状態や興奮状態にあること、或いは感情的に穏やかな状態にあること、或いは快適な状態か不快な状態にあることなどを判定できる。 また表示装置1をユーザが装着したことの検知も、生体情報により可能である。例えばシステムコントローラ10は、ユーザが表示装置1を装着していない時には生体情報検知のみをおこなうスタンバイ状態に制御し、生体情報によりユーザが表示装置1を装着したことを検知したら、電源オン状態とすることや、逆にユーザが表示装置1の装着を外したらスタンバイ状態に戻すなどの制御も可能である。 さらに生体センサ22による検出情報は、ユーザの個人認証(装着者個人の識別)にも利用できる。 なお生体センサ22は、例えば眼鏡型の表示装置1の装着フレーム内側に配置することで、例えばユーザの側頭部や後頭部において、上記情報を検知できるようにしてもよいし、表示装置1の装着フレーム部分とは別体として、身体の所定箇所に装着されるようにしてもよい。」 j)「【0065】 まず図13で、スルー状態から表示状態に切り換える、表示開始トリガの判断についての例を述べる。 図13(a)(b)は、ユーザの挙動をモニタ表示開始の操作として検知する例である。 図13(a)のステップF200では、システムコントローラ10が加速度センサ20、又はジャイロ21からの検出情報(加速度信号、角速度信号)を監視する処理を示している。 例えば首を縦に2回振る、左右に1往復振る、首を1周回す・・など、特定の動作を、ユーザが表示開始を求める操作であると設定されているとする。システムコントローラ10は、加速度センサ20又はジャイロ21(又はその両方)からの検出情報により、そのような表示開始の意志を示す特定の動作に相当する動作があったと判別した場合は、処理をステップF201からF202に進め、表示開始トリガ発生と判別する。 このようにステップF202で表示開始トリガ発生と判別することにより、上記図12の処理はステップF102からF103に進むことになり、システムコントローラ10は表示部2において画像表示を開始する制御を実行することになる。 なお加速度センサ20又はジャイロ21からの情報で検出する、モニタ表示を求める操作となるユーザの特定の挙動としては、例えばジャンプする、手を振る、腕をゆらす、足をゆらすなど、他にも各種考えられる。 【0066】 図13(b)は、視覚センサ19の情報に基づいて表示開始トリガを判別する例である。 システムコントローラ10はステップF210で、視覚センサ19からの情報を解析する。例えば視覚センサ19としてユーザの眼部を撮像する撮像部が設けられている場合、その撮像画像を解析する。 例えばまばたきを3回連続して行うという特定の動作を、ユーザが表示開始を求める操作であると設定されているとすると、システムコントローラ10は、画像解析によりこの挙動を監視することになる。 そしてシステムコントローラ10は、ユーザがまばたきを3回連続して行ったことを検知したら、処理をステップF211からF212に進め、表示開始トリガ発生と判別する。 ステップF212で表示開始トリガ発生と判別することにより、上記図12の処理はステップF102からF103に進むことになり、システムコントローラ10は表示部2において画像表示を開始する制御を実行することになる。 なお視覚センサ19からの情報で検出する、モニタ表示を求める操作となるユーザの特定の挙動としては、例えば眼球を回す、眼球を左右又は上下に2往復させるなど、他にも各種考えられる。 【0067】 図13(c)は、ユーザが表示装置1を装着すること自体を、表示開始トリガとする例である。 システムコントローラ10はステップF230で、生体センサ22からの脳波、心拍数、皮膚電気反応などの情報をチェックする。 そしてステップF231でシステムコントローラ10は、生体センサ22からの情報に基づいて、ユーザが表示装置1を装着したか否かを判断する。生体センサ22により人体からの情報が得られる状態になったか否かによりユーザの装着を検知できる。 システムコントローラ10はユーザが表示装置1を装着したと判別した場合は、処理をステップF231からF232に進め、表示開始トリガ発生と判別する。 このようにステップF232で表示開始トリガ発生と判別することにより、上記図12のステップF103で、システムコントローラ10は表示開始制御を行うことになる。 このように例えば生体センサ22の反応により、ユーザによる装着を検出できるため、生体センサ22による生体反応として、例えば脈拍、脳波、皮膚反応等の検出が開始されたことを撮像開始トリガ発生とする。これにより、ユーザが装着したら表示を開始するという動作制御を実行できる。 【0068】 なお、不特定のユーザの装着ではなく、特定のユーザが装着したら、表示を開始するという制御ことも考えられる。上述のように視覚センサ19で検出する眼底パターンや生体センサ22による検出信号によっては、ユーザの個人を識別できる。例えば予め使用するユーザについて眼底パターンや生体情報を登録しておくことで、システムコントローラ10は、特定のユーザが装着しているか否かを判別することが可能である。 従って、システムコントローラ10は、表示装置1が或るユーザに装着された際に個人認証を行い、特定のユーザを認識した場合に、それを表示開始トリガと判別し、表示開始制御を行うこともできる。」 第6 対比・判断 1.本願発明1について (1)対比 本願発明1と引用発明とを対比する。 ア.引用発明の「着用可能なヘッドアップディスプレイ装置としてのメガネ102」は、「指で操作可能なタッチパッド122、124を含む」ものであり、当該タッチパッドは「ユーザーがメガネ102及び計算装置202と対話することを可能とするメガネ102のための様々な入力インタフェース」であるから、引用発明の「着用可能なヘッドアップディスプレイ装置としてのメガネ102」は、本願発明1の「入力デバイスとして構成されたアイウェア」に相当し、引用発明の「メガネ102」を含む「着用可能なヘッドアップディスプレイシステム200」は、本願発明1の「入力デバイスとして構成されたアイウェア、及び別の入力デバイスを備えるシステム」と「入力デバイスとして構成されたアイウェアを備えるシステム」である点は共通するといえる。 イ.引用発明の「着用可能なヘッドアップディスプレイ装置としてのメガネ102」には、「ユーザーがメガネ102及び計算装置202と対話することを可能とするメガネ102のための様々な入力インタフェース」として「1以上の、指で操作可能なタッチパッド122」などが含まれ、「指で操作可能なタッチパッド122は、静電容量感知を介して、タッチパッド122の表面に対して平面方向に沿って指の位置および動きの少なくとも1つを感知する」ものであり、「静電容量の変化は、駆動線の各交点毎に同時に測定することができるので、相互静電容量は、複数の位置でのタッチ位置(例えば、マルチタッチ)を決定するために使用することができる」ものであるから、引用発明の「着用可能なヘッドアップディスプレイ装置としてのメガネ102」は、「ユーザーがメガネ102と対話することを可能とする」、「複数の位置でのタッチ位置(例えば、マルチタッチ)を決定するために使用することができる」「1以上の、指で操作可能なタッチパッド122」を備えているといえ、このことは、本願発明1の「前記アイウェアは、前記アイウェアとのユーザ対話を感知し、前記ユーザ対話を表す信号を出力するように構成された1つまたは複数のマルチタッチセンサを備えるマルチタッチセンサセットを含」むことに相当する。 ウ.引用発明は、「1つ以上のタッチパッド122、124をメガネ102と対話するために使用でき、表示されるテキストとの相互作用を、1つ以上のタッチパッド122、124を介して達成することができる」ものであるから、引用発明は「テキスト」を処理するプログラムを有し、「1つ以上のタッチパッド122、124」の出力信号に対応した入力データを前記プログラムに提供する構成を有することは明らかであり、当該構成を有することは、本願発明1の「前記マルチタッチセンサセットは、前記信号に対応する入力データをプログラムに提供するためのセンサ処理ロジックに結合され」ることに相当する。 したがって、本願発明1と引用発明との間には、次の一致点と相違点とがあるといえる。 〈一致点〉 「入力デバイスとして構成されたアイウェアを備えるシステムであって、 前記アイウェアは、前記アイウェアとのユーザ対話を感知し、前記ユーザ対話を表す信号を出力するように構成された1つまたは複数のマルチタッチセンサを備えるマルチタッチセンサセットを含み、 前記マルチタッチセンサセットは、前記信号に対応する入力データをプログラムに提供するためのセンサ処理ロジックに結合される、システム。」 である点。 〈相違点1〉 本願発明1は、「別の入力デバイスを備える」ものであり、「前記プログラムは、異なるデバイスと対話するためにそれぞれが使用される複数のプログラムを含み、前記入力データが提供されるプログラムは、少なくとも前記別の入力デバイスからの入力に基づいて、前記複数のプログラム間で切り替えられる」ものであるのに対し、引用発明は、「着用可能なヘッドアップディスプレイ装置」のほかに入力デバイスを有するとは特定されていない点。 〈相違点2〉 本願発明1は、「前記マルチタッチセンサセットは、少なくとも1つの内側に向いているセンサを含み、前記アイウェアのユーザのプロファイルを認識し」、「前記プログラムとの対話のために、前記認識されたプロファイルに対応するプリファレンスを適用」するものであるのに対し、引用発明は、そのような構成を有するものとは特定されていない点。 (2)相違点についての判断 事案に鑑みて、上記相違点2について先に検討する。 上記摘記事項g)?j)に記載されるように、引用文献2には、「眼鏡型ディスプレイとした表示装置1は、使用者情報を取得するための構成として、視覚センサ19、加速度センサ20、ジャイロ21、生体センサ22を有し、生体センサ22は、ユーザの生体情報として例えば心拍情報(心拍数)、脈拍情報(脈拍数)、発汗情報、脳波情報(例えばα波、β波、θ波、δ波の情報)、又は皮膚電気反応、体温、血圧、呼吸活動(例えば呼吸の速さ、深さ、換気量など)等を検出し、眼鏡型の表示装置1の装着フレーム内側に配置することで、例えばユーザの側頭部や後頭部において、上記情報を検知できるようにし、視覚センサ19で検出する眼底パターンや生体センサ22による検出信号によっては、ユーザの個人を識別でき、特定のユーザが装着しているか否かを判別し、特定のユーザを認識した場合に、それを表示開始トリガと判別し、表示開始制御を行う技術」(以下、「引用文献2記載の技術」という。)が記載されており、引用発明に引用文献2記載の技術を適用し、着用可能なヘッドアップディスプレイ装置としてのメガネ102に内側に向いているセンサを設け、メガネ102のユーザの個人を識別することは、当業者が容易になし得たことと認められる。 しかしながら、引用文献2記載の技術は、「生体センサ22による検出信号によっては、ユーザの個人を識別でき、特定のユーザが装着しているか否かを判別し、特定のユーザを認識した場合に、それを表示開始トリガと判別し、表示開始制御を行う」ものであり、「表示開始制御」のために特定のユーザが装着しているか否かを判別するのみであり、「生体センサ22」による検出信号により、ユーザのプロファイルを認識し、プログラムとの対話のために、前記認識されたプロファイルに対応するプリファレンスを適用するものとはいえない。 また、「少なくとも1つの内側に向いているセンサを含み、前記アイウェアのユーザのプロファイルを認識し、前記プログラムとの対話のために、前記認識されたプロファイルに対応するプリファレンスを適用」する構成は、本願の優先日前周知のこととも認められない。 したがって、本願発明1は、相違点1を検討するまでもなく、当業者であっても、引用発明、引用文献2記載の技術に基づいて容易に発明できたものであるとはいえない。 2.本願発明2-7について 本願発明2-7は、本願発明1を引用するものであり、上記「1.請求項1について」にて述べたのと同じ理由により、当業者であっても、引用発明、引用文献2記載の技術に基づいて容易に発明できたものであるとはいえない。 3.本願発明8-9について 本願発明8は、本願発明1に対応する方法の発明であり、本願発明1の上記相違点2に対応する構成である、「前記マルチタッチアイウェアセンサセットの少なくとも1つの内側に向いているセンサを用いて、ユーザのプロファイルを認識する工程と、前記対話型プログラムとのユーザ対話のために、前記認識されたプロファイルに対応するプリファレンスを適用する工程」という構成を備えるものであるから、上記「1.請求項1について」にて述べたのと実質的に同様の理由により、当業者であっても、引用発明、引用文献2記載の技術に基づいて容易に発明できたものであるとはいえない。 本願発明9は、本願発明8を引用するものであり、上記「1.請求項1について」にて述べたのと実質的に同様の理由により、当業者であっても、引用発明、引用文献2記載の技術に基づいて容易に発明できたものであるとはいえない。 4.本願発明10について 引用文献1第15欄第38?41行の記載によれば、引用文献1には、引用発明に対応する構成を備えるコンピュータ可読記録媒体の発明(以下、「引用媒体発明」という。)も記載されており、本願発明10と引用媒体発明とを対比すると、本願発明10と引用媒体発明との間には、次の一致点と相違点とがあるといえる。 〈一致点〉 「コンピュータ実行可能命令を有する1つまたは複数のコンピュータ可読記録媒体であって、前記コンピュータ実行可能命令は、実行されたときに、 アイウェアセンサセットを介して感知されたユーザ入力アクティビティに対応する情報を受け取る工程を含む工程を実施する、1つまたは複数のコンピュータ可読記録媒体。」 である点。 〈相違点1’〉 本願発明10は、「前記アイウェアセンサセットの少なくとも1つの内側に向いているセンサを用いて、ユーザのプロファイルを認識する工程と、前記ユーザの前記認識されたプロファイルに基づいて前記情報を処理して少なくとも1つの入力イベントにする工程」を有するものであるのに対し、引用媒体発明は、そのような構成を有するものとは特定されていない点。 〈相違点2’〉 本願発明10は、「別の入力デバイスからの入力に少なくとも基づいて、前記少なくとも1つの入力イベントに対応するデータを、プログラムにそれぞれが関連付けられた異なるバッファにバッファリングする工程であって、各プログラムは、異なるデバイスと対話するために使用される、工程」を有するものであるのに対し、引用媒体発明は、「着用可能なヘッドアップディスプレイ装置」のほかに入力デバイスを有するとは特定されていない点。 上記相違点1’について先に検討すると、引用媒体発明に引用文献2記載の技術を適用し、着用可能なヘッドアップディスプレイ装置としてのメガネ102に内側に向いているセンサを設け、メガネ102のユーザの個人を識別する工程を設けることは、当業者が容易になし得たことと認められる。 しかしながら、引用文献2記載の技術は、「生体センサ22による検出信号によっては、ユーザの個人を識別でき、特定のユーザが装着しているか否かを判別し、特定のユーザを認識した場合に、それを表示開始トリガと判別し、表示開始制御を行う」ものであり、「表示開始制御」のために特定のユーザが装着しているか否かを判別するのみであり、「生体センサ22」による検出信号により、ユーザのプロファイルを認識し、認識されたプロファイルに基づいて(ユーザ入力アクティビティに対応する)情報を処理して少なくとも1つの入力イベントにするものとはいえない。 また、「アイウェアセンサセットの少なくとも1つの内側に向いているセンサを用いて、ユーザのプロファイルを認識する工程と、前記ユーザの前記認識されたプロファイルに基づいて前記情報を処理して少なくとも1つの入力イベントにする工程」する構成は、本願の優先日前周知のこととも認められない。 したがって、本願発明10は、当業者であっても、引用媒体発明、引用文献2記載の技術に基づいて容易に発明できたものであるとはいえない。 第7 原査定について 本願発明1-7は、「少なくとも1つの内側に向いているセンサを含み、前記アイウェアのユーザのプロファイルを認識し、前記プログラムとの対話のために、前記認識されたプロファイルに対応するプリファレンスを適用」する構成を有するものであり、本願発明8-9は、「前記マルチタッチアイウェアセンサセットの少なくとも1つの内側に向いているセンサを用いて、ユーザのプロファイルを認識する工程と、前記対話型プログラムとのユーザ対話のために、前記認識されたプロファイルに対応するプリファレンスを適用する工程」を有するものであり、本願発明10は、「前記アイウェアセンサセットの少なくとも1つの内側に向いているセンサを用いて、ユーザのプロファイルを認識する工程と、前記ユーザの前記認識されたプロファイルに基づいて前記情報を処理して少なくとも1つの入力イベントにする工程」を有するものであるから、当業者であっても、拒絶査定において引用された引用文献1-2に基づいて、容易に発明できたものとはいえない。 したがって、原査定を維持することはできない。 第8 むすび 以上のとおり、原査定の理由によっては、本願を拒絶することはできない。 また、他に本願を拒絶すべき理由を発見しない。 よって、結論のとおり審決する。 |
審決日 | 2019-03-19 |
出願番号 | 特願2015-546539(P2015-546539) |
審決分類 |
P
1
8・
121-
WY
(G06F)
|
最終処分 | 成立 |
前審関与審査官 | ▲高▼橋 徳浩、佐伯 憲太郎、池田 聡史、円子 英紀 |
特許庁審判長 |
千葉 輝久 |
特許庁審判官 |
稲葉 和生 山田 正文 |
発明の名称 | アイウェアでのマルチタッチ対話 |
代理人 | 江口 昭彦 |
代理人 | 稲葉 良幸 |
代理人 | 阿部 豊隆 |
代理人 | 内藤 和彦 |
代理人 | 大貫 敏史 |