• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 特29条の2 特許、登録しない(前置又は当審拒絶理由) G06F
管理番号 1317890
審判番号 不服2015-17410  
総通号数 201 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2016-09-30 
種別 拒絶査定不服の審決 
審判請求日 2015-09-25 
確定日 2016-08-12 
事件の表示 特願2011-118573「情報処理装置、情報処理方法およびコンピュータプログラム」拒絶査定不服審判事件〔平成24年12月13日出願公開、特開2012-247960〕について、次のとおり審決する。 
結論 本件審判の請求は、成り立たない。 
理由 第1 手続の経緯・本願発明
本願は、平成23年5月27日の出願であって、平成27年2月26日付けで拒絶理由が通知され、同年4月23日付けで手続補正がなされたが、同年7月16日付けで拒絶の査定がなされ、これに対して、平成27年9月25日に拒絶査定不服審判の請求がなされるとともに、同時に手続補正がなされた。
その後、当審において、平成28年3月16日付けで拒絶理由を通知し、応答期間内である同年5月13日に意見書及び手続補正書が提出された。

そして、本願の請求項1?8に係る発明は、平成28年5月13日付けの手続補正で補正された特許請求の範囲の請求項1?8に記載された事項により特定されるものと認められるところ、本願の請求項1に係る発明(以下、「本願発明」という。)は以下のとおりである。
「第1の状態における操作体の状態に基づいて推定される操作入力に対応する処理をバックグラウンドで実行し、
前記第1の状態における操作体が第2の状態となったとき、バックグラウンドで実行した処理を用いて前記操作入力に対するフィードバック処理を実行するイベント処理部を備え、
前記操作入力の内容に応じて異なる処理が対応付けられており、
前記第1の状態における操作体の数または操作体の位置のうち少なくともいずれか一方に基づいて、前記操作入力の内容が推定され、
前記イベント処理部は、前記第1の状態における操作体の状況に基づいて、バックグラウンドで実行する処理の対象範囲を決定する、情報処理装置。」

第2 先願及び先願発明
1.先願
当審が平成28年3月16日付けで通知した拒絶理由(以下、「当審拒絶理由」という。)において、特許法第29条の2の他の出願に該当するとして挙げたPCT/US2011/067419(以下、「先願」という。)は、2010年(平成22年)12月29日に米国に出願された米国特許出願12/981184号(以下、「優先基礎出願」という。)を優先権主張の基礎とし、2011年(平成23年)12月27日に国際出願され、2012年(平成24年)7月5日に国際公開第2012/092291号として国際公開されたものであり、指定国として日本国を含み、特許法第184条の4第1項に規定する翻訳文が提出されたものである。
先願の明細書及び図面は、優先基礎出願の明細書及び図面と一致し、先願の請求の範囲の請求項1?10に記載された事項は、優先基礎出願の請求の範囲の請求項1?18に記載された事項であるので、先願の明細書、請求の範囲又は図面(以下、「先願明細書等」という。)に記載された事項は、本件出願日の平成23年5月27日より前の2010年(平成22年)12月29日を優先日とするものである。
なお、優先基礎出願は、米国特許出願公開第2012/0169646号として公開されている。

2.先願明細書等に記載された発明
先願明細書等には、図面とともに、次の(a)?(e)のとおりの記載がある。翻訳は、先願明細書等の日本語翻訳文である特表2014-505937号公報(以下、「公表公報」という。)を参照した。

(a) 1. A computing device, comprising:
a multi-touch sensitive display including a sensor configured to sense a position and/or movement of a user hand;
a graphical user interface displayed on the display, the graphical user interface having a state including a plurality of possible touch inputs;
a touch event prediction module configured to compute one or more anticipated touch inputs based on the sensed user hand position and/or movement, and the state of the user interface with the plurality of possible user inputs; and
a preprocessing module configured to generate preprocessed data for each anticipated touch input, and upon the detection of an actual touch input received from the user that matches one of the anticipated touch inputs, cause the preprocessed data for the actual touch input to be displayed on the graphical user interface. 」
(当審訳:1.コンピュータデバイスであって、
ユーザの手の位置及び/または動きを検出するように構成されているセンサを含むマルチタッチセンサ式ディスプレイと、
前記ディスプレイ上に表示されるグラフィカルユーザインタフェースであって、複数の実行可能タッチ入力を含んでいる状態を有するグラフィカルユーザインタフェースと、
前記検出されたユーザの手の位置及び/または動き、並びに前記複数の実行可能ユーザ入力に基づいて1または複数の予測タッチ入力を演算するように構成されたタッチイベント予測モジュールと、
前記予測タッチ入力の各々に関する事前処理データを生成し、前記ユーザから受信した前記予測タッチ入力の1つと合致する実際のタッチ入力の検出において、前記実際のタッチ入力に対する前記事前処理データを前記グラフィカルユーザインタフェース上に表示させるように構成された事前処理モジュールと、
を含むことを特徴とするコンピュータデバイス。(公表公報の請求項1))(下線は注目箇所に当審が付した。以下、同様。)

(b)「 [0012] FIG. 1 illustrates one embodiment of a computing device 10 configured for anticipation of one or more touch events. As the user prepares to make a touch input, the user's hand 5 approaches a touch sensitive display 12 of the computing device 10. The touch sensitive display 12 is configured to sense the user hand 5 using various sensing technologies described below, even when the hand 5 is spaced apart from a top surface of the display by a gap 14. From the point of view of the display 12, the hand may appear to cast a sensed shadow 16 on the display 12. The computing device is configured to interpret the position and movement of the hand and make predictions of one or more anticipated touch inputs that are likely to occur, and then perform preprocessing to reduce latency when the user actually performs one of the anticipated touch inputs. As a result, the response time of the computing device to the anticipated touch inputs may be improved, enhancing the user experience with the computing device and enabling the user to finish computer tasks more quickly and resume interacting with others, for example.
[0013] As shown in FIG. 2, computing device 10 typically includes a multi-touch sensitive display 12 including a sensor 18 configured to sense a hand position 20 and/or hand movement 22 of a user hand 5. In some embodiments, the sensor 18 may be configured to detect spaced apart input 46 indicating the position and/or movement of the hand when the hand is spaced apart a distance from a top surface of the display, as well as actual touch input 48 when the hand 5 is contacting the display 12. In some embodiments, sensor 18 may be configured to detect and distinguish between the position and movement of one or more digits of the hand, as well as the hand as a whole. Further, the sensor may be configured to detect the position or movements of a stylus held by the hand, and distinguish the stylus from the hand. 」
(当審訳:【0007】 図1は、1または複数のタッチイベントの予測のために構成されたコンピュータデバイス10の1つの実施形態を示している。ユーザがタッチ入力を行う用意をしている際に、ユーザの手5は、コンピュータデバイス10のタッチセンサ式ディスプレイ12に接近する。タッチセンサ式ディスプレイ12は、以下に説明する様々な検出技術を用いて、ユーザの手5がディスプレイの表面からギャップ14だけ離間していてもユーザの手5を検出するように構成される。ディスプレイ12から見て、手はディスプレイ12上において検出される影16を投げかけるように見え得る。コンピュータデバイスは、手の位置及び動きを解釈して、発生するであろう1または複数の予測されるタッチ入力(予測タッチ入力)の予測を生成し、その後、予測されたタッチ入力のうちの1つをユーザが実際に実行した際に遅延を減少するように事前処理を行うよう構成されている。結果として、予測タッチ入力に対するコンピュータデバイスの応答時間を向上することができ、コンピュータデバイスのユーザ経験が向上し、例えば、ユーザがさらに迅速にコンピュータタスクを終了させて他者との交流を再開することが可能になる。
【0008】 図2に示すように、コンピュータデバイス10は、ユーザの手5の手の位置20及び/または手の動き22を検出するように構成されたセンサ18を含むマルチタッチセンサ式ディスプレイ12を通常含んでいる。いくつかの実施形態において、センサ18は、手5がディスプレイ12に接触している場合の実際タッチ入力48、及び同様に手がディスプレイの表面からある距離をもって離間している場合の手の位置及び/または動きを示す離間入力46を検出するように構成されていてもよい。いくつかの実施形態において、センサ18は、手全体と同様に、手の1または複数の指の位置及び動作を検出してそれらを区別するように構成されていてもよい。さらに、センサを、手に保持されているスタイラスペンの位置または動きを検出し、かつ手からスタイラスペンを区別するように構成できる。(段落番号は、公表公報の段落を示す。以下、同様。))

(c)「[0017] The computing device 10 further includes a touch event prediction module 40 stored on mass storage unit 24. Upon execution, the touch event prediction module 40 is configured to compute one or more anticipated touch inputs 42 based on the sensed user hand position 20 and/or hand movement 22, and the state 38 of the GUI 36 with the plurality of possible user inputs. Typically, the touch event prediction module 40 computes the anticipated touch inputs 42 based on sensed hand position 20 and hand movement 22 from spaced apart input 46 of a hand that is spaced apart from the display 12 by a gap 14.
[0018] The computing device 10 further includes a preprocessing module 44 stored on mass storage unit 24. The preprocessing module 44 is configured to generated preprocessed data 54 for each anticipated touch input 42. For example, the preprocessing module 44may be configured to preload data into a preload cache 50 to be displayed upon the realization of an anticipated touch event, and/or perform advance computations52 for an anticipated touch event.
[0019] Upon the detection of an actual touch input 48 by the user from contact of the user hand with the display 12 that matches one of the anticipated touch inputs 48, the preprocessing module 44 is configured to cause the preprocessed data 54 to be displayed on the graphical user interface for the actual touch input 48. It will be appreciated that the actual touch event may be detected by the touch event prediction module in one embodiment, or by a separate gesture recognition module in other embodiments. The preprocessing module may cause the preprocessed data 54 to be displayed by, for example, communicating to the program 32 that the preprocessed data 54 is available, and enabling the program to retrieve and display the preprocessed data from a predetermined location after it is informed of the actual touch event by the touch event prediction module, or alternatively by the above-mentioned gesture recognition module. 」
(当審訳:【0012】 コンピュータデバイス10は、大容量記憶装置24に保存されているタッチイベント予測モジュール40をさらに含む。実行の際に、タッチイベント予測モジュール40は、検出されたユーザの手の位置20及び/または手の動き22、並びに複数の実行可能なユーザ入力を伴うGUI36の状態38に基づいて1または複数の予測タッチ入力42を演算するように構成されている。通常、タッチイベント予測モジュール40は、ディスプレイ12からギャップ14だけ離間している手の離間入力46から、検出された手の位置20及び手の動き22に基づいて予測タッチ入力42を演算する。
【0013】コンピューティングデバイス10は、大容量記憶装置24に保存されている事前処理モジュール44をさらに含んでいる。事前処理モジュール44は、予測タッチ入力42の各々に対して事前処理データ54を生成するように構成されている。例えば、事前処理モジュール44は、予測されたタッチイベントの実現時に表示されるようにかつ/または予測タッチイベントに対する事前演算52を実行するために、データをプリロードキャッシュ50にプリロードするように構成されていてもよい。
【0014】ディスプレイ12へのユーザの手の接触による、予測タッチ入力48のうちの1つと合致するユーザによる実際のタッチ入力48の検出の際に、事前処理モジュール44は、実際のタッチ入力48に対して事前処理データがグラフィカルユーザインタフェースに表示されるように構成されている。実際のタッチイベントを、1つの実施形態においてタッチイベント予測モジュールによって検出することができ、また、他の実施形態において別個のジェスチャ認識モジュールによって検出することができることが理解されるだろう。事前処理モジュールは、例えば、事前処理データ54が利用可能なプログラム32と通信し、タッチイベント予測モジュールによって、あるいは上記したジェスチャ認識モジュールによって実際のタッチイベントが知らされた後に、プログラムが予定の場所から事前処理データを取得して表示することを可能とすることによって、事前処理データ54を表示させることができる。)

(d)「[0024] FIG. 4 illustrates computing device 10 with a second hand motion being presented spaced apart from and over the display 12 of the computing device 10. A finger of hand 5 is shown outstretched and moving left to right from a first position of the finger of the hand, shown at 5, to a second position of the finger of the hand, shown at 5A. Upon detecting this left to right movement of the outstretched finger, the touch event prediction module 40 may be configured to determine that the rightmost two icons are anticipated touch inputs 42, as indicated, since the index finger, being outstretched, is likely to do the selecting and has moved past the remaining possible inputs on the GUI 36.
[0025] FIG. 5 illustrates computing device 10 with a third hand motion being presented spaced apart from and over the display 12 of the computing device 10. The hand 5 is shown with fingers curled downward toward the display and moving right to left from a first position of the hand, shown at 5, to a second position of the hand, shown at 5A. Upon detecting the hand stopped and hovering in this position, having previously moved right to left, the touch event prediction module 40 may be configured to determine that the hand is a left hand, that the index fingers and middle finger are the most likely fingers to engage in selecting icons, and that the index and middle fingers are positioned over the three icons indicated as anticipated touch inputs 42. The remaining possible inputs are out of reach for the index and middle finger. Accordingly, these remaining possible inputs are not determined to be anticipated touch inputs 42.
[0026] FIG. 6 illustrates computing device 10 with a fourth hand motion being presented spaced apart from and over the display 12 of the computing device 10. In this view, an outstretched finger is approaching the display 12 orthogonally, into the page. The sensed shadow cast by the finger of the hand is shown as larger and more diffuse in a first position of the finger of the hand, shown at 5, and more sharp and smaller in a second position of the finger of the hand, shown at 5A. Upon detecting this orthogonal movement of the hand toward the display, the touch event prediction module 40 may be configured to determine that only the icon directly under the second position of the hand is an anticipated touch input 42, as indicated, since it is unlikely that any of the other possible inputs will be selected. 」
(当審訳:【0019】 図4には、コンピュータデバイス10のディスプレイ12から離間してディスプレイ12上に表されている第2の手の動きとともにコンピュータデバイス10が示されている。手5の指は、伸びておりかつ左から右へ、5で示されている手の指の第1の位置から5Aで示されている手の指の第2の位置へ移動しているように示されている。伸びた指のこの左から右への動きの検出において、伸びている人差し指が一番右の2つのアイコンを選択する可能性が高くかつGUI36上の残りの実行可能な入力を通り過ぎて動いたために、図示されているように、タッチイベント予測モジュール40を、一番右の2つのアイコンが予測タッチ入力42であると判定するように構成することができる。
【0020】 図5には、コンピュータデバイス10のディスプレイ12から離間してディスプレイ12上に表されている第3の手の動きとともにコンピュータデバイス10が示されている。手5は、ディスプレイに向かって下方に曲げられ、右から左へ、5に示されている第1の位置から5Aに示されている第2の位置まで移動しているように示されている。右から左に移動してきてこの位置に停止してホバリングしている手の検出において、タッチイベント予測モジュール40を、手が左手であること、人差し指及び中指が選択アイコンに関与する可能性が高く、人差し指と中指が予測タッチ入力42として示される3つのアイコン上に配されていることを判定するように構成できる。残りの実行可能な入力は、人差し指及び中指の到達範囲外にある。従って、残りの3つの実行可能な入力は、予測タッチ入力42と判定されない。
【0021】 図6には、コンピュータデバイス10のディスプレイ12から離間してディスプレイ12上に表されている第4の手の動きとともにコンピュータデバイス10が示されている。この図において、伸びた指はディスプレイ12に、紙面に対して垂直に接近している。手の指によって投じられた影は、5に示されるように手の指の第1の位置において大きく広がって示され、5Aに示されるように手の指の第2の位置においてシャープにかつ小さく示されている。ディスプレイに対する手のこの垂直な移動の検出において、他の実行可能なユーザ入力が選択される可能性が低いために、図示されているように、タッチイベント予測モジュール40を、手の第2の位置の直下のアイコンのみが予測タッチ入力42であると判定するように構成することができる。)

(e)「[0030] As indicated at 106, sensing a position and/or movement of a user hand may further include detecting the position and/or movement of the hand when the hand is spaced apart a distance from a top surface of the display. Further, as indicated at 108, sensing a position and/or movement of a user hand may further include detecting a position and movement of one or more digits of the hand. This may enable the method to distinguish the difference between right and left hands, and between the individual digits a hand, which may be useful in determining the position and expected movement of the index and middle finger, which may be deemed most likely to perform touch input. Further, in some embodiments, as indicated at 110, sensing a position and/or movement of a user hand may further include detecting a position or movement of a stylus held by the hand, which may be used to more precisely predict the anticipated inputs.」
(当審訳:【0025】 符号106において示されているように、ユーザの手の位置及び/または動きの検出は、手がディスプレイの表面からある距離離間している場合における、手の位置及び/または動きの検出をさらに含むことができる。さらに、符号108において示されているように、ユーザの手の位置及び/または動きの検出は、1または複数の手の指の位置及び動きの検出をさらに含むことができる。これは、本方法において、右手と左手の間の差異、手の個々の指の間の差異を区別することを可能にすることができ、この方法は、人差し指と中指の位置及び予測される動きを判定する場合に有用であり、タッチ入力を実行する可能性が最も高いと見なすことができる。さらに、いくつかの実施形態において、符号110において示されているように、ユーザの手の位置及び/または動きの検出は、手によって保持されているスタイラスペンの位置または動きの検出をさらに含むことができ、この検出を、予測入力のさらに正確な予測に使用することができる。 )

ここで、先願明細書等の請求項1(公表公報の請求項1)の記載によれば、先願明細書等には、
「コンピュータデバイスであって、
ユーザの手の位置及び/または動きを検出するように構成されているセンサを含むマルチタッチセンサ式ディスプレイと、
前記ディスプレイ上に表示されるグラフィカルユーザインタフェースであって、複数の実行可能タッチ入力を含んでいる状態を有するグラフィカルユーザインタフェースと、
前記検出されたユーザの手の位置及び/または動き、並びに前記複数の実行可能ユーザ入力に基づいて1または複数の予測タッチ入力を演算するように構成されたタッチイベント予測モジュールと、
前記予測タッチ入力の各々に関する事前処理データを生成し、前記ユーザから受信した前記予測タッチ入力の1つと合致する実際のタッチ入力の検出において、前記実際のタッチ入力に対する前記事前処理データを前記グラフィカルユーザインタフェース上に表示させるように構成された事前処理モジュールとを備えた、
コンピュータデバイス。」が記載されている。
また、先願明細書等の段落[0012],[0013](公表公報の段落【0007】,【0008】)の記載によれば、上記先願明細書等の請求項1でいう「ユーザの手」は、「ユーザの手の1または複数の指」であってもよいものであり、その場合について見れば、上記請求項1でいう「センサ」は、ユーザの手の指がディスプレイに接触している場合のタッチ入力と、ディスプレイ表面からある距離をもって離間している場合の手の指の位置、動きを示す離間入力を検出することができるものである。
また、それを踏まえ、先願明細書等の段落[0012](公表公報の段落【0007】)の記載を参酌すると、上記請求項1でいう予測タッチ入力とは、手の指の位置及び動きを解釈して生成される、発生するであろう1または複数の予測されるタッチ入力の予測であり得るものである。
また、同様に、先願明細書等の段落[0017](公表公報の段落【0012】)の記載を参酌すれば、上記請求項1でいうタッチイベント予測モジュールは、ディスプレイから離間している手の指の離間入力により検出された手の指の位置及び手の指の動きと、複数の実行可能なユーザ入力を伴うGUIの状態に基づいて1または複数の予測タッチ入力を演算するものであり得るものである。
また、先願明細書等の段落[0024],[0025],[0030](公表公報の段落【0019】,【0020】,【0025】)の記載によれば、上記タッチイベント予測モジュールは、ディスプレイから離間した状態で、指の状態と動きとに基づいて、ユーザの手の指のうち、人差し指か、人差し指と中指とがグラフィカルインターフェイス上のアイコンの選択に関与する可能性が高いかを判断し、人差し指の位置と動き、又は、人差し指と中指の位置と動きに基づいて、グラフィカルユーザインターフェイス上の選択可能性の高い1、又は複数のアイコンを予測タッチ入力であると判定するものであり得るものである。
以上によれば、先願明細書等には、
「コンピュータデバイスであって、
ユーザの手の複数の指の位置及び動作を検出でき、ユーザの手の指がディスプレイに接触している場合のタッチ入力と、ディスプレイ表面からある距離をもって離間している場合の手の指の位置、動きを示す離間入力を検出するセンサを含む含むマルチタッチセンサ式ディスプレイと、
前記ディスプレイ上に表示されるグラフィカルユーザインタフェースであって、複数の実行可能タッチ入力を含んでいる状態を有するグラフィカルユーザインタフェースと、
ディスプレイから離間している手の指の離間入力により検出された手の指の位置及び手の指の動きと、複数の実行可能なユーザ入力を伴うGUIの状態に基づいて、発生するであろう1または複数の予測される予測タッチ入力を演算するように構成されたタッチイベント予測モジュールと、
前記予測タッチ入力の各々に関する事前処理データを生成し、前記ユーザから受信した前記予測タッチ入力の1つと合致する実際のタッチ入力の検出において、前記実際のタッチ入力に対する前記事前処理データを前記グラフィカルユーザインタフェース上に表示させるように構成された事前処理モジュールと、を備え、
前記予測タッチイベント予測モジュールは、ディスプレイから離間した状態で、指の状態と動きとに基づいて、ユーザの手の指のうち、人差し指か、人差し指と中指とがグラフィカルインターフェイス上のアイコンの選択に関与する可能性が高いかを判断し、人差し指の位置と動き、又は、人差し指と中指の位置と動きに基づいて、グラフィカルユーザインターフェイス上の選択可能性の高い1、又は複数のアイコンを予測タッチ入力であると判定する、
コンピュータデバイス。」の発明(以下、「先願発明」という。)

第3 対比・判断
本願発明と先願発明とを対比する。
(1)先願発明の「コンピュータデバイス」は、「情報処理装置」ともいい得るものであることは明らかである。
(2)先願発明の「ユーザの手の指」、「ユーザの手の指」が「ディスプレイ表面からある距離をもって離間している場合」、「ユーザの手の指」が「ディスプレイに接触している場合」が、それぞれ、本願発明の「操作体」、「第1の状態」、「第2の状態」に相当するものである。
(3)先願発明の「ディスプレイから離間している手の指の離間入力により検出された手の指の位置及び手の指の動きと、複数の実行可能なユーザ入力を伴うGUIの状態に基づいて、発生するであろう1または複数の予測される予測タッチ入力」は、本願発明の「第1の状態における操作体の状態に基づいて推定される操作入力」に相当する。
(4)先願発明の「事前処理モジュール」は、「予測タッチ入力の各々に関する事前処理データを作成する」ものであり、実際のタッチ入力が行われるまでは、グラフィカルインターフェイス上には表示されないから、事前処理データの作成はバックグラウンドで処理されているといえる。
よって、先願発明の「タッチイベント予測モジュール」と「事前処理モジュール」は、本願発明の「第1の状態における操作体の状態に基づいて推定される操作入力に対応する処理をバックグラウンドで実行」に相当する構成を有している。
(5)先願発明の「事前処理モジュール」は、「前記予測タッチ入力の各々に関する事前処理データを生成し、前記ユーザから受信した前記予測タッチ入力の1つと合致する実際のタッチ入力の検出において、前記実際のタッチ入力に対する前記事前処理データを前記グラフィカルユーザインタフェース上に表示させる」から、本願発明の「第1の状態における操作体が第2の状態となったとき、バックグラウンドで実行した処理を用いて前記操作入力に対するフィードバック処理を実行する」に相当する構成を有している。
(6)先願発明の予測タッチ入力は、複数の実行可能タッチ入力を含んでいる状態を有するグラフィカルユーザインタフェースのうちの選択可能性の高い1又は複数のアイコンに対する操作入力であり、推定された1又は複数のアイコンには、各々のアイコンに応じて異なる処理が対応付けられていることは自明の事項であるから、先願発明も「操作入力の内容に応じて異なる処理が対応付けられる」ものである。
(7)先願発明の「タッチイベント予測モジュール」は、「ディスプレイから離間した状態で、指の状態と動きとに基づいて、ユーザの手の指のうち、人差し指か、人差し指と中指とがグラフィカルインターフェイス上のアイコンの選択に関与する可能性が高いかを判断し、人差し指の位置と動き、又は、人差し指と中指との位置と動きに基づいて、グラフィカルユーザインターフェイス上の選択可能性の高い1、又は複数のアイコンを予測タッチ入力であると判定する」から、ディスプレイから離間している状態の指の数と位置に基づいて、どのアイコンが選択される可能性が高いかという「操作入力の内容」を推定している。よって、先願発明の「タッチイベント予測モジュール」は、本願発明の「前記第1の状態における操作体の数または操作体の位置のうち少なくともいずれか一方に基づいて、前記操作入力の内容が推定され」に相当する構成を有している。
(8)先願発明の「タッチイベント予測モジュール」は、「ディスプレイから離間した状態で、指の状態と動きとに基づいて、グラフィカルユーザインターフェイス上の選択可能性の高い1、又は複数のアイコンを予測タッチ入力と判定」し、「事前処理モジュール」は、「予測タッチ入力」とされた入力の各々に関する事前処理データを生成するから、先願発明の「選択可能性の高い1、又は複数のアイコンに関する事前処理データを生成すること」が、本願発明の「前記第1の状態における操作体の状況に基づいて、バックグラウンドで実行する処理の対象範囲を決定する」ことに相当する。
(9)上記(3)?(8)によれば、先願発明の「タッチイベント予測モジュール」と「事前処理モジュール」とが協働したものが、本願発明の「イベント処理部」に相当するものであるといえる。

以上、(1)?(9)によれば、本願発明と先願発明との間に相違はなく、本願発明は先願発明と同一であるから、特許法第29条の2の規定により、特許を受けることができない。

(10)意見書における請求人の主張
請求人は、平成28年5月13日付けの意見書において、当審拒絶理由に対して、次のア.の主張をしているが、下記イ.のとおり、採用できないものである。
ア.補正後の請求項1に係る発明では、操作入力の内容に応じて異なる処理が対応付けられており、第1の状態における操作体の数または操作体の位置のうち少なくともいずれか一方に基づいて操作入力が推定されます。
補正後の請求項1に記載の発明において推定しようとしている操作入力は、検出面に対して操作体が近接することで入力があることを判定するようなものではなく、例えば、検出面に対する空間領域での手や指の位置や形状、動きといったものです。これにより、例えば、第1の状態での指の数が1本の場合にはタップ操作であり、2本の場合には指の距離に基づきピンチイン操作またはピンチアウト操作である、というように、より細かな操作入力の内容まで推定することができます。
先願明細書等の段落[0024]、[0025](公表公報の段落0019、0020)には、ディスプレイから離間した状態で、指が1本の場合と2本の場合とで、その位置、動きに基づいて、選択可能性の高い1又は複数のアイコンを予測タッチ入力として予測することが記載されていますが、手の状態(指の曲げ伸ばし、移動方向等)が異なっても行われる処理は予測タッチ入力の1つだけであり、補正後の請求項1に記載の発明のように、タップ操作やピンチアウト操作、ピンチイン操作等の操作入力の内容を推定して、それに応じた処理をバックグラウンドで実行するというものではありません。

イ.本願の請求項1には「操作入力の内容に応じて異なる処理が対応付けられており」、「第1の状態における操作体の数または操作体の位置のうち少なくともいずれか一方に基づいて、前記操作入力の内容が推定され」と記載されているが、「操作入力の内容」が、「タップ操作」、「ピンチイン操作」、「ピンチアウト操作」であることは特定されておらず、そのように限定的に解釈することはできない。
本願発明の「操作入力の内容」は、その文言と本願請求項1の文脈上、「「操作入力の内容」といい得るものであって、その内容に応じて「異なる処理が対応付けられ」、「第1の状態における操作体の数はまたは操作体の位置のうち少なくとも一方」に基づいてその内容が推定されるもの」全般を含むものといわざるを得ないが、上記(6),(7)で検討したところによれば、先願発明の「予測タッチ入力」の内容も、上記「「操作入力の内容」といい得るものであって、その内容に応じて「異なる処理が対応付けられ」、「第1の状態における操作体の数または操作体の位置のうち少なくとも一方」に基づいてその内容が推定されるもの」に該当する。
よって、請求人の主張は、特許請求の範囲の記載に基づかない主張であり、採用できない。

第4 むすび
以上のとおりであるから、この出願の請求項1に係る発明は、本願出願日(平成23年5月27日)より前を優先日(2010年(平成22年)12月29日、米国)とする外国語でされた国際特許出願(PCT/US2011/067419)であって、本願出願日後の2012年(平成24年)7月5日に国際公開(国際公開第2012/0992291号)され、その後、特許法第184条の4第1項に規定する翻訳文が提出された国際特許出願の国際出願日における明細書、請求の範囲又は図面に記載された発明と同一であり、しかも、この出願の発明者が上記国際特許出願に係る上記の発明をした者と同一ではなく、またこの出願の時において、その出願人が上記国際特許出願の出願人と同一でもないので、特許法第184条の13で読み替えて適用する特許法第29条の2の規定により特許を受けることができない。
したがって、本願は、他の請求項について検討するまでもなく、拒絶されるべきものである。
よって、結論のとおり審決する。
 
審理終結日 2016-06-14 
結審通知日 2016-06-21 
審決日 2016-06-28 
出願番号 特願2011-118573(P2011-118573)
審決分類 P 1 8・ 16- WZ (G06F)
最終処分 不成立  
前審関与審査官 萩島 豪  
特許庁審判長 小曳 満昭
特許庁審判官 山澤 宏
高瀬 勤
発明の名称 情報処理装置、情報処理方法およびコンピュータプログラム  
代理人 亀谷 美明  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ