• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 取り消して特許、登録 G06F
管理番号 1336086
審判番号 不服2017-2275  
総通号数 218 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2018-02-23 
種別 拒絶査定不服の審決 
審判請求日 2017-02-16 
確定日 2018-01-23 
事件の表示 特願2016-147890「電子機器及び制御方法」拒絶査定不服審判事件〔請求項の数(4)〕について、次のとおり審決する。 
結論 原査定を取り消す。 本願の発明は、特許すべきものとする。 
理由 第1 手続の経緯
本願は、平成28年7月27日の出願であって、平成28年10月13日付けで拒絶理由通知がされ、同年11月8日付けで手続補正がされ、同年11月22日付けで拒絶査定(原査定)がされ、これに対し、平成29年2月16日に拒絶査定不服審判の請求がされ、同年10月2日付けで拒絶理由通知(以下、「当審拒絶理由通知」という。)がされ、同年12月1日付けで手続補正がされたものである。

第2 原査定の概要
原査定(平成28年11月22日付け拒絶査定)の概要は次のとおりである。

この出願の請求項1-4に係る発明は、その出願前に日本国内又は外国において、頒布された以下の引用文献A-Cに記載された発明又は電気通信回線を通じて公衆に利用可能となった発明に基いて、その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。

<引用文献等一覧>
A.特開2015-127976号公報
B.特開2015-087824号公報
C.特表2013-534009号公報

第3 当審拒絶理由の概要
当審拒絶理由の概要は次のとおりである。
本件出願の下記の請求項に係る発明は、その出願前日本国内または外国において頒布された下記の刊行物に記載された発明又は電気通信回線を通じて公衆に利用可能となった発明に基いて、その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。

記(引用例は、末尾の「引用文献等一覧」参照)

請求項1,3について引用例1,2
請求項2,4について引用例2,3

引 用 文 献 等 一 覧

引用例1:特表2016-512632号公報
引用例2:特表2013-534009号公報
引用例3:特開2011-192081号公報

第4 本願発明
本願請求項1-4に係る発明(以下、それぞれ「本願発明1」-「本願発明4」という。)は、平成29年12月1日付けの手続補正で補正された特許請求の範囲の請求項1-4に記載された事項により特定される発明であり、本願発明1-2は以下のとおりの発明である。

「【請求項1】
近接センサと、
第1の画面及び第2の画面を表示するディスプレイと、
前記近接センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断するコントローラと、
を備え、
前記コントローラは、
前記第1の画面の前記第1のジェスチャの方向への操作を前記第1のジェスチャの操作に割り当て、
前記第2の画面の前記第1のジェスチャの方向への操作を前記第2のジェスチャの操作に割り当てる、
電子機器。
【請求項2】
近接センサと、
第1の画面及び第2の画面を表示するディスプレイと、
前記近接センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断するコントローラと、
を備え、
前記コントローラは、
前記第1の画面および前記第2の画面が、前記第2のジェスチャの方向へのみ操作可能な場合に、
前記第1のジェスチャの操作を、前記第1の画面又は前記第2の画面の選択操作に割り当て、
前記第2のジェスチャの操作を、選択された前記第1の画面又は前記第2の画面の前記第2のジェスチャの方向への操作に割り当てる、
電子機器。」

そして、本願発明3は、実質的に本願発明1を「制御方法」として記載したもの、本願発明4は、実質的に本願発明2を「制御方法」として記載したものである。

第5 引用例、引用発明等
1.引用例1について
平成29年10月2日付けの拒絶の理由に引用された引用例1には、図面とともに次の事項が記載されている。

a)「【0010】
図1に目を転じると、本開示と整合するシステム10のある実施形態が概括的に示されている。システムは、コンピューティング装置12、音声および空中ジェスチャー捕捉システム14、一つまたは複数のセンサー16および電子ディスプレイ18を含む。本稿でより詳細に述べるように、音声および空中ジェスチャー捕捉システム14は、コンピューティング環境をモニタリングし、コンピューティング環境内の電子ディスプレイ18上に呈示されるグラフィカル・ユーザー・インターフェース(GUI)でのユーザー入力および対話を識別するよう構成されている。より具体的には、音声および空中ジェスチャー捕捉システム14は、ユーザーが、電子ディスプレイ18上に呈示されたGUIの複数の開いたウィンドーを効率的かつ効果的に管理することを許容する。ここで、各ウィンドーは、コンピューティング装置12の開いている実行中のアプリケーションに対応する。
【0011】
音声および空中ジェスチャー捕捉システム14は、ユーザーが複数のウィンドーのそれぞれについてユーザー入力コマンド領域を割り当てることを許容するよう構成される。ここで、各ユーザー入力コマンド領域は、コンピューティング環境内で、少なくとも電子ディスプレイ18との関係で三次元空間を定義する(図4、図5に示す)。音声および空中ジェスチャー捕捉システム14は、コンピューティング環境内の一つまたは複数のセンサー16によって捕捉されたデータを受領するよう構成される。一つまたは複数のセンサー16は、コンピューティング環境の一つまたは複数の割り当てられたユーザー入力コマンド領域内のユーザー発話および空中ジェスチャー・コマンドの少なくとも一つを捕捉するよう構成されていてもよい。これについては、本稿でより詳細に述べる。
【0012】
前記一つまたは複数のセンサー16によって捕捉されたデータを受信し、処理すると、音声および空中ジェスチャー捕捉システム14は、捕捉されたデータに基づいてユーザー入力を識別するよう構成されている。識別されたユーザー入力は、ユーザーによって実行された特定の音声および/または空中ジェスチャー・コマンドならびに該音声および/または空中ジェスチャー・コマンドが行なわれた対応するユーザー入力コマンド領域を含んでいてもよい。音声および空中ジェスチャー捕捉システム14はさらに、少なくとも部分的には、識別されたユーザー入力コマンド領域に基づいて前記ユーザー入力に対応するウィンドーを識別し、ユーザーが前記ユーザー入力に基づいて、識別されたウィンドーおよび関連付けられたアプリケーションと対話し、これを制御することを許容するよう構成されている。」(下線は当審で付与。以下、同様。)

b)「【0036】
ここで図4および図5に目を転じると、コンピューティング環境100のある実施形態が概括的に示されている。図4は、複数のウィンドー104(1)?104(n)が表示されている例示的なグラフィカル・ユーザー・インターフェース(GUI)102を有する電子ディスプレイ18のある実施形態の正面図を描いている。先述したように、各ウィンドー104は一般にコンピューティング装置102上で実行されているアプリケーションに対応する。たとえば、ウィンドー104(1)はメディア・プレーヤー・アプリケーションに対応してもよく、ウィンドー104(2)はビデオ・ゲーム・アプリケーションに対応してもよく、ウィンドー104(3)はウェブ・ブラウザーに対応してもよく、ウィンドー104(n)はワードプロセシング・アプリケーションに対応してもよい。コンピューティング装置12上で実行されるよう構成されたいくつかのアプリケーションは、ディスプレイ18上に呈示される関連付けられたウィンドーを含まないことがあることを注意しておくべきである。よって、いくつかのユーザー入力コマンド領域はそのようなアプリケーションに割り当てられていてもよい。
【0037】
図のように、ユーザー入力コマンド領域A?Dはコンピューティング環境100内に含まれる。先述したように、ユーザー入力コマンド領域A?Dは一般に、電子ディスプレイ18および一つまたは複数のセンサー16との関係で三次元の(図5に示される)空間を定義し、ユーザーはその中で、一つまたは複数のアプリケーションおよび対応するウィンドー104(1)?104(n)を制御するために特定の音声および空中ジェスチャー・コマンドを実行しうる。
【0038】
図5は、図4のコンピューティング環境100の斜視図が概括的に示されている。図のように、コンピューティング環境100は、複数のウィンドー104(1)?104(n)が呈示されているGUI 102を有する電子ディスプレイ18を含む。一つまたは複数のセンサー16(カメラ20およびマイクロフォン22の形の)は、コンピューティング環境100内のユーザー動きおよび/または発話を捕捉するよう、コンピューティング環境100内に位置されている。コンピューティング環境100はさらに、割り当てられた音声および空中ジェスチャー・コマンド領域A?Eと、コマンド領域A?Eを介してマルチウィンドーGUI 102と対話するユーザー106とを含んでいる。図のように、各ユーザー入力コマンド領域A?Eは、コンピューティング環境100内で、少なくとも電子ディスプレイ18との関連で三次元空間を定義する。先述したように、ユーザーが電子ディスプレイ上の特定のウィンドー104と対話することを望むとき、ユーザーは、その特定のウィンドー104に関連付けられた割り当てられたユーザー入力コマンド領域A?E内で一つまたは複数の音声および/または空中ジェスチャー・コマンドを実行するだけでよい。
【0039】
たとえば、ユーザー106は、ウィンドー104(1)のメディア・プレーヤー・アプリケーションと対話し、ウィンドー104(3)のウェブ・ブラウザーと対話することを欲していることがある。ユーザーは、すでに音声および空中ジェスチャー捕捉システム14を利用して、先述したように、ユーザー入力コマンド領域Cをウィンドー104(1)に対応するものとして、ユーザー入力コマンド領域Eをウィンドー104(3)に対応するものとして割り当てていることがありうる。ユーザーは、コンピューティング環境100内で、話してもよいし、および/または腕および手のような身体の一つまたは複数の部分を用いて一つまたは複数の動作を実行してもよい。特に、ユーザー106は、ユーザー入力コマンド領域Cに向かう方向にあらかじめ定義された音声コマンドを話し、ユーザー入力コマンド領域E内であらかじめ定義された空中ジェスチャー(たとえば腕を上に振り上げる)を実行してもよい。
【0040】
先述したように、カメラ20およびマイクロフォン22が、ユーザーの音声および/または空中ジェスチャー・コマンドに関係したデータを捕捉するよう構成されている。音声および空中ジェスチャー捕捉システム14は、捕捉されたデータを受領して処理し、ユーザー106によって実行されたあらかじめ定義された音声および空中ジェスチャー・コマンドおよびユーザーの音声および空中ジェスチャー・コマンドが実行された特定のユーザー入力コマンド領域(それぞれ領域CおよびE)を含むユーザー入力を識別するよう構成されている。一方、音声および空中ジェスチャー捕捉システム14は、識別されたユーザー入力コマンド領域(それぞれ領域CおよびE)に対応するウィンドー104(1)および104(3)を識別し、さらに前記ユーザー入力に基づいて、ユーザー106が、ウィンドー104(1)および104(3)に関連付けられたアプリケーション(たとえばそれぞれメディア・プレーヤーおよびウェブ・ブラウザー)の一つまたは複数のパラメータを制御できるようにするよう構成されている。」

上記下線部及び関連箇所の記載によれば、引用文献1には、システムとして、以下の発明(以下、「引用発明1」という。)が記載されている。

「コンピューティング装置12、空中ジェスチャー捕捉システム14、一つまたは複数のセンサー16および電子ディスプレイ18を含むシステムであり、
空中ジェスチャー捕捉システム14は、コンピューティング環境をモニタリングし、コンピューティング環境内の電子ディスプレイ18上に呈示されるグラフィカル・ユーザー・インターフェース(GUI)でのユーザー入力および対話を識別するよう構成され、
空中ジェスチャー捕捉システム14は、ユーザーが、電子ディスプレイ18上に呈示されたGUIの複数の開いたウィンドーを効率的かつ効果的に管理することを許容し、
各ウィンドーは、コンピューティング装置12の開いている実行中のアプリケーションに対応し、
空中ジェスチャー捕捉システム14は、ユーザーが複数のウィンドーのそれぞれについてユーザー入力コマンド領域を割り当てることを許容するよう構成され、
各ユーザー入力コマンド領域は、コンピューティング環境内で、少なくとも電子ディスプレイ18との関係で三次元空間を定義し、
空中ジェスチャー捕捉システム14は、コンピューティング環境内の一つまたは複数のセンサー16によって捕捉されたデータを受領するよう構成され、
一つまたは複数のセンサー16は、コンピューティング環境の一つまたは複数の割り当てられたユーザー入力コマンド領域内の空中ジェスチャー・コマンドの少なくとも一つを捕捉するよう構成され、
前記一つまたは複数のセンサー16によって捕捉されたデータを受信し、処理すると、空中ジェスチャー捕捉システム14は、捕捉されたデータに基づいてユーザー入力を識別するよう構成され、
識別されたユーザー入力は、ユーザーによって実行された特定の空中ジェスチャー・コマンドならびに該空中ジェスチャー・コマンドが行なわれた対応するユーザー入力コマンド領域を含んでおり、
空中ジェスチャー捕捉システム14はさらに、識別されたユーザー入力コマンド領域に基づいて前記ユーザー入力に対応するウィンドーを識別し、ユーザーが前記ユーザー入力に基づいて、識別されたウィンドーおよび関連付けられたアプリケーションと対話し、これを制御するよう構成され、
ある実施形態では、
複数のウィンドー104(1)?104(n)が表示され、
各ウィンドー104はコンピューティング装置102上で実行されているアプリケーションに対応し、
ユーザー入力コマンド領域A?Dは一般に、電子ディスプレイ18および一つまたは複数のセンサー16との関係で三次元の空間を定義し、
ユーザーはその中で、一つまたは複数のアプリケーションおよび対応するウィンドー104(1)?104(n)を制御するために特定の空中ジェスチャー・コマンドを実行し、
ユーザーが電子ディスプレイ上の特定のウィンドー104と対話することを望むとき、ユーザーは、その特定のウィンドー104に関連付けられた割り当てられたユーザー入力コマンド領域A?E内で一つまたは複数の空中ジェスチャー・コマンドを実行するだけでよく、
たとえば、ユーザーは、空中ジェスチャー捕捉システム14を利用して、ユーザー入力コマンド領域Cをウィンドー104(1)に対応するものとして、ユーザー入力コマンド領域Eをウィンドー104(3)に対応するものとして割り当てていることがあり、
空中ジェスチャー捕捉システム14は、捕捉されたデータを受領して処理し、ユーザー106によって実行されたあらかじめ定義された空中ジェスチャー・コマンドおよびユーザーの空中ジェスチャー・コマンドが実行された特定のユーザー入力コマンド領域(それぞれ領域CおよびE)を含むユーザー入力を識別するよう構成され、
一方、空中ジェスチャー捕捉システム14は、識別されたユーザー入力コマンド領域(それぞれ領域CおよびE)に対応するウィンドー104(1)および104(3)を識別し、さらに前記ユーザー入力に基づいて、ユーザー106が、ウィンドー104(1)および104(3)に関連付けられたアプリケーションの一つまたは複数のパラメータを制御できるようにするよう構成されている
システム。」

2.引用例2について
平成29年10月2日付けの拒絶の理由に引用された引用例2には、図面とともに次の事項が記載されている。

c)「【0017】
非接触ジェスチャー認識を介して、ワイヤレス通信デバイスへの入力を管理する技術をここに説明する。非接触ジェスチャー認識システムは、ハンドジェスチャーの検出および認識のために、赤外線(IR)発光体およびIR近接センサを利用する。システムは、3次元ジェスチャーを実質的にリアルタイムマナーで認識、抽出および分類し、これにより、ユーザと移動デバイスとの間で直感的な対話を可能にする。システムをジェスチャーインターフェースとして使用して、ユーザは、eブックページをめくる、ウェブページをスクロールする、ズームインおよびアウト、ゲームをする等の、このようなアクションを、何らかの追加のデバイスに接触する、身につける、または、ホールドすることなく、直感的なハンドジェスチャーを使用する移動デバイス上で実行できる。さらに、ここに記述する技術は、ユーザの移動デバイスとの接触の頻度を低減させ、デバイス面上の摩耗を軽減させる。加えて、周辺光条件、実行しているアプリケーション、予期されるユーザ入力の有無、または、非接触ジェスチャー認識を用いる移動デバイスに関連する他のパラメータに基づいて、IRエミッターおよび/または近接センサの動作を制御することにより、ジェスチャー認識に関係する電力消費を低減する技術を説明する。これらの技術は、単に例示的なものであって、本開示または特許請求の範囲を制限するものではない。」

3.引用例3について
平成29年10月2日付けの拒絶の理由に引用された引用例3には、図面とともに次の事項が記載されている。

d)「【0001】
本発明は、操作者の身体的な動きを検出してアプリケーションを操作する情報処理装置及びその制御方法に関するものである。
【背景技術】
【0002】
操作者の身振りや手振り(以下、ジェスチャーという)を検知することで、装置の動作を制御するジェスチャーユーザインターフェース(以下、ジェスチャーUIという)が普及しつつある。このジェスチャーUIでは、従来、機器の操作に使われていたリモートコントローラが不要になるだけでなく、より直感的な操作が可能となるため、将来の機器操作方法として着目されている。しかし操作者が記憶可能であって、かつ再現時に区別可能なジェスチャーの種別(以下、ジェスチャーパターンという)の数は有限である。そのため、テレビジョン受像機のように複数のアプリケーションを同時に実行する機器への適用が困難となる。すなわち各アプリケーションの操作に対して、それぞれに全く異なるジェスチャーパターンを割り当てると、操作者が記憶すべきジェスチャーパターンの数が膨大となり、使いこなすことが難しくなる。
【0003】
そこで、ジェスチャーパターンの数を減らすために、多くのアプリケーションで用いる操作、例えば上下左右のカーソル移動等の操作を、共通のジェスチャーにすることが考えられる。しかし、この方法ではアプリケーションを指定するためのジェスチャーが別途必要となるため、操作者が記憶すべきジェスチャーパターンの数はその分増加してしまう。従来、ジェスチャーパターンの数を増やすことなく複数のアプリケーションを操作する方法が知られている。特許文献1では、タッチパネル等の平面入力装置において、特定の領域でのジェスチャー操作に、アプリケーションの起動や操作を割り当てている。」

上記下線部及び関連箇所の記載によれば、引用文献3には、システムとして、以下の発明(以下、「引用発明3」という。)が記載されている。

「操作者の身体的な動きを検出してアプリケーションを操作する情報処理装置であり、
操作者の身振りや手振り(以下、ジェスチャーという)を検知することで、装置の動作を制御するジェスチャーユーザインターフェース(以下、ジェスチャーUIという)において、
テレビジョン受像機のように複数のアプリケーションを同時に実行する機器への適用する場合、
ジェスチャーパターンの数を減らすために、多くのアプリケーションで用いる操作、例えば上下左右のカーソル移動等の操作を、共通のジェスチャーにし、
アプリケーションを指定するためのジェスチャーが別途必要となる
情報処理装置。」

第6 対比・判断
1.本願発明1について
(1)対比
本願発明1と引用発明1とを対比する。

ア.引用発明1の「一つまたは複数のセンサー16」は、本願発明1の「近接センサ」と「センサ」である点では共通するといえる。

イ.引用発明1の「電子ディスプレイ18」は、「複数のウィンドー104(1)?104(n)が表示され」るものであるから、本願発明1の「第1の画面及び第2の画面を表示するディスプレイ」に相当する。

ウ.引用発明1の「空中ジェスチャー捕捉システム14は、コンピューティング環境内の一つまたは複数のセンサー16によって捕捉されたデータを受領するよう構成され」、「複数のセンサー16によって捕捉されたデータを受信し、処理すると、空中ジェスチャー捕捉システム14は、捕捉されたデータに基づいてユーザー入力を識別するよう構成され、」「識別されたユーザー入力は、ユーザーによって実行された特定の空中ジェスチャー・コマンドならびに該空中ジェスチャー・コマンドが行なわれた対応するユーザー入力コマンド領域を含んで」いるものであるから、引用発明1の「空中ジェスチャー捕捉システム14」は、「センサー16」の出力に基づいて、「ユーザーによって実行された特定の空中ジェスチャー・コマンドならびに該空中ジェスチャー・コマンドが行なわれた対応するユーザー入力コマンド領域」を含む「ユーザー入力」を識別するものである。
また、引用発明1は「ユーザーが電子ディスプレイ上の特定のウィンドー104と対話することを望むとき、ユーザーは、その特定のウィンドー104に関連付けられた割り当てられたユーザー入力コマンド領域A?E内で一つまたは複数の空中ジェスチャー・コマンドを実行する」ものであり、「たとえば、ユーザーは、空中ジェスチャー捕捉システム14を利用して、ユーザー入力コマンド領域Cをウィンドー104(1)に対応するものとして、ユーザー入力コマンド領域Eをウィンドー104(3)に対応するものとして割り当てていることがあり、」「空中ジェスチャー捕捉システム14は、識別されたユーザー入力コマンド領域(それぞれ領域CおよびE)に対応するウィンドー104(1)および104(3)を識別し、さらに前記ユーザー入力に基づいて、ユーザー106が、ウィンドー104(1)および104(3)に関連付けられたアプリケーションの一つまたは複数のパラメータを制御できるようにするよう構成されている」から、引用発明1の「空中ジェスチャー捕捉システム14」は、「空中ジェスチャー・コマンド」を「識別されたユーザー入力コマンド領域」毎に異なるものと判断しているといえる。
したがって、引用発明1の「空中ジェスチャー捕捉システム14」は、本願発明1の「前記近接センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断するコントローラ」と「前記センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断するコントローラ」である点で共通するといえる。

オ.引用発明1の「空中ジェスチャー捕捉システム14」が、「識別されたユーザー入力コマンド領域(それぞれ領域CおよびE)に対応するウィンドー104(1)および104(3)を識別し、さらに前記ユーザー入力に基づいて、ユーザー106が、ウィンドー104(1)および104(3)に関連付けられたアプリケーションの一つまたは複数のパラメータを制御できるようにする」ことは、本願発明1の「前記コントローラは、
前記第1の画面の前記第1のジェスチャの方向への操作を前記第1のジェスチャの操作に割り当て、
前記第2の画面の前記第1のジェスチャの方向への操作を前記第2のジェスチャの操作に割り当てる」ことと「前記コントローラは、
前記第1の画面の操作を前記第1のジェスチャの操作に割り当て、
前記第2の画面の操作を前記第2のジェスチャの操作に割り当てる」点では共通するといえる。

カ.引用発明1の「コンピューティング装置12、空中ジェスチャー捕捉システム14、一つまたは複数のセンサー16および電子ディスプレイ18を含むシステム」は、「電子機器」ともいい得るものである。

したがって、本願発明1と引用発明1との間には、次の一致点、相違点があるといえる。

〈一致点〉
「センサと、
第1の画面及び第2の画面を表示するディスプレイと、
前記センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断するコントローラと、
を備え、
前記コントローラは、
前記第1の画面の操作を前記第1のジェスチャの操作に割り当て、
前記第2の画面の操作を前記第2のジェスチャの操作に割り当てる、
電子機器。」

〈相違点1〉
本願発明1では、センサが「近接センサ」であり、ジェスチャを検出するために「近接センサ」の出力を用いるのに対して、引用発明1は、「センサー16」が近接センサではない点。

〈相違点2〉
本願発明1は、「前記第1の画面の前記第1のジェスチャの方向への操作を前記第1のジェスチャの操作に割り当て、前記第2の画面の前記第1のジェスチャの方向への操作を前記第2のジェスチャの操作に割り当てる」ものであるのに対し、引用発明1は、「識別されたユーザー入力コマンド領域に基づいて前記ユーザー入力に対応するウィンドーを識別」するものである点。

(2)相違点2についての判断
事案に鑑みて、上記相違点2について先に検討すると、相違点2に係る本願発明1の「前記第1の画面の前記第1のジェスチャの方向への操作を前記第1のジェスチャの操作に割り当て、前記第2の画面の前記第1のジェスチャの方向への操作を前記第2のジェスチャの操作に割り当てる」という構成は、上記引用例1,2には記載されておらず、また、本願の原出願の出願日前において周知技術であるともいえない。
したがって、他の相違点について判断するまでもなく、本願発明1は、当業者であっても引用発明1,引用例2に記載された技術的事項に基づいて容易に発明できたものであるとはいえない。

2.請求項2について
(1)対比
本願発明2と引用発明3とを対比する。

ア.引用発明3は「操作者の身振りや手振り(以下、ジェスチャーという)を検知する」ものであるから、ジェスチャーを検知するためのセンサを有していることは明らかであり、引用発明3は本願発明2の「近接センサ」と「センサ」である点では共通する構成を有するといえる。

イ.引用発明3は「テレビジョン受像機のように複数のアプリケーションを同時に実行する機器へ」適用されるものであるから、複数の画面を表示するディスプレイを有することは明らかであり、引用発明3は本願発明2の「第1の画面及び第2の画面を表示するディスプレイ」に相当する構成を有するといえる。

ウ.引用発明3は「多くのアプリケーションで用いる操作、例えば上下左右のカーソル移動等の操作を、共通のジェスチャーにし」、また、「アプリケーションを指定するためのジェスチャーが別途必要となる」ものであるから、ジェスチャーを検知するためのセンサの出力に基づいて複数のジェスチャーを判断する構成を有することは明らかである。
また、当該判断を行う構成は、一般にコントローラといい得るものである。
したがって、引用発明3は本願発明2の「前記近接センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断するコントローラ」と「前記センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断するコントローラ」である点で共通する構成を有するといえる。

エ.引用発明3の「アプリケーションを指定するためのジェスチャー」は本願発明2の「前記第1の画面又は前記第2の画面の選択操作に割り当て」られたジェスチャに相当し、また、引用発明3の「多くのアプリケーションで用いる操作、例えば上下左右のカーソル移動等の操作」のための「共通のジェスチャー」は本願発明2の「選択された前記第1の画面又は前記第2の画面の前記第2のジェスチャの方向への操作に割り当て」られたジェスチャと「選択された前記第1の画面又は前記第2の画面の操作に割り当て」られたジェスチャである点で共通するジェスチャといえるから、引用例発明3の有する上記コントローラともいい得る構成は、本願発明2の「前記コントローラは、
前記第1の画面および前記第2の画面が、前記第2のジェスチャの方向へのみ操作可能な場合に、
前記第1のジェスチャの操作を、前記第1の画面又は前記第2の画面の選択操作に割り当て、
前記第2のジェスチャの操作を、選択された前記第1の画面又は前記第2の画面の前記第2のジェスチャの方向への操作に割り当てる」ものであることと、
「前記コントローラは、
前記第1のジェスチャの操作を、前記第1の画面又は前記第2の画面の選択操作に割り当て、
前記第2のジェスチャの操作を、選択された前記第1の画面又は前記第2の画面の操作に割り当てる」ものである点で共通する構成であるといえる。

オ.引用発明3の「情報処理装置」は、電子機器といい得るものである。

したがって、本願発明2と引用発明3との間には、次の一致点、相違点があるといえる。

〈一致点〉
「センサと、
第1の画面及び第2の画面を表示するディスプレイと、
前記近接センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断するコントローラと、
を備え、
前記コントローラは、
前記第1のジェスチャの操作を、前記第1の画面又は前記第2の画面の選択操作に割り当て、
前記第2のジェスチャの操作を、選択された前記第1の画面又は前記第2の画面の操作に割り当てる、
電子機器。」

〈相違点1〉
本願発明2では、センサが「近接センサ」であり、ジェスチャを検出するために「近接センサ」の出力を用いるのに対して、引用発明3では、センサが特定されていない点。

〈相違点2〉
本願発明2では、「前記第1の画面および前記第2の画面が、前記第2のジェスチャの方向へのみ操作可能な場合に」、操作可能ではない方向のジェスチャである「第1のジェスチャの操作」を「画面の選択操作」に割り当て、「第2のジェスチャの操作」を「選択された前記第1の画面又は前記第2の画面の前記第2のジェスチャの方向への操作」に割り当てるのに対して、引用発明3では、そのような構成を有さない点。

(2)相違点2についての判断
事案に鑑みて、上記相違点2について先に検討すると、相違点2に係る本願発明2の「前記第1の画面および前記第2の画面が、前記第2のジェスチャの方向へのみ操作可能な場合に、
前記第1のジェスチャの操作を、前記第1の画面又は前記第2の画面の選択操作に割り当て、
前記第2のジェスチャの操作を、選択された前記第1の画面又は前記第2の画面の前記第2のジェスチャの方向への操作に割り当てる」という構成は、上記引用例2,3には記載されておらず、また、本願の原出願の出願日前において周知技術であるともいえない。
したがって、他の相違点について判断するまでもなく、本願発明2は、当業者であっても引用発明3,引用例2に記載された技術的事項に基づいて容易に発明できたものであるとはいえない。

3.本願発明3について
本願発明3は、実質的に本願発明1を「制御方法」として記載したものであるから、本願発明1と同じ理由により、当業者であっても引用発明1,引用例2に記載された技術事項に基づいて容易に発明できたものであるとはいえない。

4.本願発明4について
本願発明4は、実質的に本願発明2を「制御方法」として記載したものであるから、本願発明2と同じ理由により、当業者であっても引用発明3,引用例2に記載された技術事項に基づいて容易に発明できたものであるとはいえない。

第7 原査定についての判断
平成29年12月1日付けの補正により、補正後の請求項1,3は、「前記第1の画面の前記第1のジェスチャの方向への操作を前記第1のジェスチャの操作に割り当て、
前記第2の画面の前記第1のジェスチャの方向への操作を前記第2のジェスチャの操作に割り当てる」という技術的事項を有し、また、請求項2,4は、「前記第1の画面および前記第2の画面が、前記第2のジェスチャの方向へのみ操作可能な場合に、
前記第1のジェスチャの操作を、前記第1の画面又は前記第2の画面の選択操作に割り当て、
前記第2のジェスチャの操作を、選択された前記第1の画面又は前記第2の画面の前記第2のジェスチャの方向への操作に割り当てる」という技術的事項を有するものとなった。当該各技術的事項はいずれも、原査定における引用文献A-Cには記載されておらず、本願の原出願の出願日前における周知技術でもないので、本願発明1-4は、当業者であっても、原査定における引用文献A-Cに基づいて容易に発明できたものではない。したがって、原査定を維持することはできない。

第9 むすび
以上のとおり、原査定の理由によって、本願を拒絶することはできない。
また、他に本願を拒絶すべき理由を発見しない。
よって、結論のとおり審決する。
 
審決日 2018-01-09 
出願番号 特願2016-147890(P2016-147890)
審決分類 P 1 8・ 121- WY (G06F)
最終処分 成立  
前審関与審査官 ▲高▼瀬 健太郎  
特許庁審判長 新川 圭二
特許庁審判官 山田 正文
稲葉 和生
発明の名称 電子機器及び制御方法  
代理人 杉村 憲司  
代理人 太田 昌宏  
代理人 鈴木 俊樹  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ