ポートフォリオを新規に作成して保存 |
|
|
既存のポートフォリオに追加保存 |
|
PDFをダウンロード |
審決分類 |
審判 査定不服 2項進歩性 取り消して特許、登録 G06T |
---|---|
管理番号 | 1333999 |
審判番号 | 不服2016-14736 |
総通号数 | 216 |
発行国 | 日本国特許庁(JP) |
公報種別 | 特許審決公報 |
発行日 | 2017-12-28 |
種別 | 拒絶査定不服の審決 |
審判請求日 | 2016-10-03 |
確定日 | 2017-11-21 |
事件の表示 | 特願2013-552299「絶対的な基準系を作成するのに固有受容性を使用するジェスチャ制御可能システム」拒絶査定不服審判事件〔平成24年8月9日国際公開、WO2012/104772、平成26年3月6日国内公表、特表2014-505949、請求項の数(10)〕について、次のとおり審決する。 |
結論 | 原査定を取り消す。 本願の発明は、特許すべきものとする。 |
理由 |
第1 手続の経緯 本願は、2012年(平成24年)1月30日(パリ条約による優先権主張外国庁受理2011年2月4日、欧州特許庁)を国際出願日とする出願であって、平成27年10月23日付けで拒絶理由通知がされ、平成28年1月25日付けで手続補正がされ、平成28年6月1日付けで拒絶査定(以下「原査定」という。)がされ、これに対し、平成28年10月3日に拒絶査定不服審判の請求がされると同時に手続補正がされ、平成28年11月14日に前置報告がされたものである。 第2 原査定の概要 原査定(平成28年6月1日付け拒絶査定)の概要は、以下のとおりである。 本願請求項1-10に係る発明は、以下の引用文献1-2に基づいて、その発明の属する技術の分野における通常の知識を有する者(以下「当業者」という。)が容易に発明できたものであるから、特許法第29条第2項の規定により特許を受けることができない。 引用文献1.特開2004-78316号公報 引用文献2.特開2009-3576号公報 第3 本願発明 本願の請求項1-10に係る発明(以下、それぞれ「本願発明1」-「本願発明10」という。)は、平成28年10月3日付けの手続補正によって補正された特許請求の範囲の請求項1-10に記載した事項により特定される発明であり、下記のとおりである。 なお、本願発明1の各構成の符号は、説明のために当審において付与したものであり、以下、構成A、構成Bなどと称する。 (本願発明1) 【請求項1】 (A)ユーザが前記ユーザの体部位の所定のジェスチャにより動作使用中のシステムを制御することを可能にする当該システムにおいて使用する非接触ユーザインタフェースにおいて、 (B)前記ユーザインタフェースが、カメラシステム及びデータ処理システムを有し、 (C)前記カメラシステムが、前記体部位及び前記体部位の環境を表すビデオデータをキャプチャし、 (D1)前記データ処理システムが、前記カメラシステムに結合され、 (D2)前記体部位と前記ユーザの外かつ前記環境内の物理的オブジェクトとの間の現在の空間的関係を前記ビデオデータから抽出し、 (D3)前記現在の空間的関係が前記体部位と前記物理的オブジェクトとの間の所定の空間的関係にマッチするかどうかを決定し、前記所定の空間的関係が前記所定のジェスチャの特徴であり、 (D4)前記所定の空間的関係にマッチする前記現在の空間的関係に依存して、前記システムを所定の状態にセットする制御コマンドを生成する、 (D5)ように前記ビデオデータを処理する、 (A)非接触ユーザインタフェース。 (本願発明2) 【請求項2】 前記所定の空間的関係が、 前記物理的オブジェクトに対する前記体部位の相対的位置、 前記物理的オブジェクトに対する前記体部位の相対的向き、及び 前記物理的オブジェクトに対する前記体部位の相対的移動、 の少なくとも1つを表す、請求項1に記載の非接触ユーザインタフェース。 (本願発明3) 【請求項3】 前記所定の空間的関係及び前記所定の状態の少なくとも1つが、プログラム可能又は再プログラム可能である、請求項1に記載の非接触ユーザインタフェース。 (本願発明4) 【請求項4】 請求項1-3のうちいずれか一項に記載の非接触ユーザインタフェースを有する、ユーザが前記ユーザの体部位の所定のジェスチャにより動作使用中のシステムを制御することを可能にするシステム。 (本願発明5) 【請求項5】 ユーザの体部位の所定のジェスチャに応答してシステムを制御する方法において、前記方法が、 カメラシステムによりキャプチャされ、前記体部位及び前記体部位の環境を表すビデオデータを受信するステップと、 前記ビデオデータを処理するステップと、 を有し、 前記ビデオデータの処理が、 前記体部位と前記ユーザの外かつ前記環境内の物理的オブジェクトとの間の現在の空間的関係を前記ビデオデータから抽出するステップと、 前記現在の空間的関係が前記体部位と前記物理的オブジェクトとの間の所定の空間的関係にマッチするかどうかを決定するステップであって、前記所定の空間的関係が前記所定のジェスチャの特徴である、当該決定するステップと、 前記所定の空間的関係にマッチする前記現在の空間的関係に依存して、前記システムを所定の状態にセットする制御コマンドを生成するステップと、 を有する、方法。 (本願発明6) 【請求項6】 前記所定の空間的関係が、 前記物理的オブジェクトに対する前記体部位の相対的位置、 前記物理的オブジェクトに対する前記体部位の相対的向き、及び 前記物理的オブジェクトに対する前記体部位の相対的移動、 の少なくとも1つを表す、請求項5に記載の方法。 (本願発明7) 【請求項7】 前記所定の空間的関係及び前記所定の状態の少なくとも1つが、プログラム可能又は再プログラム可能である、請求項5に記載の方法。 (本願発明8) 【請求項8】 コンピュータ可読媒体に記憶され、ユーザの体部位の所定のジェスチャに応答して制御可能であるようにシステムを構成するように動作する制御ソフトウェアにおいて、 前記制御ソフトウェアが、カメラシステムによりキャプチャされ、前記体部位及び前記体部位の環境を表すビデオデータを処理する第1の命令を有し、 前記第1の命令が、 前記体部位と前記ユーザの外かつ前記環境内の物理的オブジェクトとの間の現在の空間的関係を前記ビデオデータから抽出する第2の命令と、 前記現在の空間的関係が前記体部位と前記物理的オブジェクトとの間の所定の空間的関係にマッチするかどうかを決定する第3の命令であって、前記所定の空間的関係が前記所定のジェスチャの特徴である、当該第3の命令と、 前記所定の空間的関係にマッチする前記現在の空間的関係に依存して、前記システムを所定の状態にセットする制御コマンドを生成する第4の命令と、 を有する、制御ソフトウェア。 (本願発明9) 【請求項9】 前記所定の空間的関係が、 前記物理的オブジェクトに対する前記体部位の相対的位置、 前記物理的オブジェクトに対する前記体部位の相対的向き、及び 前記物理的オブジェクトに対する前記体部位の相対的移動、 の少なくとも1つを表す、請求項8に記載の制御ソフトウェア。 (本願発明10) 【請求項10】 前記所定の空間的関係及び前記所定の状態の少なくとも1つをプログラム又は再プログラムする第5の命令を有する、請求項8に記載の制御ソフトウェア。 第4 引用文献、引用発明等 1.引用文献1の記載 原査定の拒絶の理由に引用された上記引用文献1には、「姿勢認識装置及び自律ロボット」(発明の名称)として、図面とともに以下の記載がなされている(下線は強調のため当審で付与した。)。 (1)「【0001】 【発明の属する技術分野】 本発明は、画像を使用して人間の姿勢を認識することにより人間が出す指示を認識する姿勢認識装置及び自律ロボットに関する。 【0002】?【0004】(略) 【0005】 本発明は、このような事情に鑑みてなされたもので、自由に移動できる移動体に搭載した場合でも高速で信頼性の高い姿勢認識を行うことができる姿勢認識装置及び姿勢認識結果に基づいて行動を起こす自律ロボットを提供することを目的とする。」 (2)「【0021】 【発明の実施の形態】 以下、本発明の一実施形態による姿勢認識装置及び自律ロボットを図面を参照して説明する。図1は同実施形態の構成を示すブロック図である。この図において、符号Rは、二足歩行型の自律ロボットである。符号1L、1Rは、2台のカラーCCDを用いたステレオカメラ(以下、単にカメラと称する)であり、符号L、Rはそれぞれ左(L)側のカメラと右(R)側のカメラを表している。符号2L、2Rは、カメラ1L、1Rでそれぞれ得られたアナログ画像に対して標本化と量子化を行うA/D変換器である。符号3L、3Rは、A/D変換器2L、2Rの出力をフレーム毎にそれぞれ記憶するフレームバッファである。このフレームバッファ3L、3Rは、リングバッファ形式のフレームバッファであり、それぞれ常に最新の60フレーム分の画像を記憶することが可能である。符号21は、人物が発する音声を集音するマイクである。符号22は、マイク21で集音した音声の内容を認識して、文字列に変換する音声認識部である。符号31は、人物に対して音声合成した音声を発するスピーカである。符号32は、音声を合成してスピーカ31から発声させる音声合成部である。符号5は、主に画像処理を用い姿勢認識処理を行う処理部である。符号71は、人物の姿勢と対応する指示が予め定義された設定ファイルである。符号72は、人物の顔の識別情報が予め定義された顔データベースである。符号8は、姿勢認識に必要なデータを記憶するメモリである。符号9は、自律ロボットRの駆動部分(頭部、腕、脚等)を制御する行動制御部である。符号4は、音声認識部22、音声合成部32、フレームバッファ3L、3R、処理部5、設定ファイル71、顔データベース72、メモリ8及び駆動制御部9の間でデータを送受信するデータバスである。 (4)「【0027】 <第1の姿勢認識動作> 次に、図1に示す装置の動作を説明する。初めに、図2?4を参照して、第1の姿勢認識動作を説明する。 まず、カメラ1L、1Rで撮像されたアナログ画像に対してそれぞれA/D変換器2L、2Rによって標本化と量子化の処理が施され、フレームバッファ3L、3Rに格納される。この動作は、処理部5の動作の状況にかかわらず常に繰り返し動作し、2つのフレームバッファ3L、3Rには最新の60フレーム分の画像が格納される。一方、画像補正処理部51は、フレームバッファ3L、3Rから最新画像(時刻t)と直前の画像(時刻t-1)を読み出してこの画像に対して補正を加え、その結果をカラー画像81、輝度画像82、83としてメモリ8へ記憶する。 次に、3D画像生成部52は、上記カラー画像81、輝度画像82から3D画像84を生成し、メモリ8へ記憶する。続いて、前処理部53は、前処理を施し前処理画像86を生成し、メモリ8へ記憶する。 【0028】 次に、輪郭抽出部54は、例えばスネーク手法を用いて動的な輪郭抽出を行い、人物である可能性が高い部分の輪郭を抽出して(ステップS1)出力する。スネーク手法は、スネーク(snakes)と呼ばれる動的な閉曲線による輪郭線モデルを用いることが特徴で、画像中で物体の形状が時間的に変化していても対象物体の形状の抽出が可能であるという特徴を有している。このスネークは、対象物体の形状とスネークの形状が一致したときにエネルギーが最小になるように、その位置と形状によりエネルギー関数を設定する。具体的には曲線の滑らかさによる内部的なエネルギー、曲線と対象物体の輪郭との誤差のエネルギー、外的な拘束力によるエネルギーなどの和によって定義される。画像中の対象物体の輪郭に対して、エネルギーが局所最小解に到達するまで、位置と形状を動的に調整していくことによって、輪郭形状の抽出問題がエネルギー最小化という最適化問題として扱うことが可能となる。これによって、画像中における人物である可能性が高い領域を得ることができる。この処理によって移動オブジェクトID91、オブジェクトまでの距離92、オブジェクトとの相対的な角度93、輪郭節点座標94が得られる。 【0029】(略) 【0030】 次に、頭頂点抽出部55は、輪郭節点座標94に基づいて、輪郭の頂点となる頭頂点を抽出する(ステップS2)。ここで、頭頂点を抽出する動作を図3、図10(a)を参照して説明する。図10(a)において、符号Aは、輪郭節点座標94から得られる輪郭である。まず、この輪郭で囲まれる領域の重心位置(1)を求め(ステップS6)、続いて、輪郭内の平均距離を距離画像を参照して求める(ステップS7)。次に、頭頂点探索領域を設定する(ステップS8)これは、輪郭重心のx座標に予め決められた人間の平均肩幅Wの1/2を加算と減算して得られたx座標値を求め、この2つのx座標値を通る垂直線を求める(2)。そして、2つの垂直線に挟まれた領域を探索領域とする。次に、この探索領域内の最上端を頭頂点(3)とする(ステップS9)。ここで得られた頭頂点座標95はメモリ8へ記憶される。 【0031】 次に、姿勢判定部61は、頭頂点座標95に基づいて、空間領域と領域区分の設定を行う(ステップS3)。ここで、図11を参照して、空間領域と領域区分について説明する。図11は、空間領域と領域区分を示す説明図である。図11に示すように、頭頂点を基準として、人間の両手の届く範囲内を複数の領域に、画像上において論理的に分割したのが空間領域であり、この空間領域に識別名を付与したのが領域区分である。この例は、10分割(A?K)に分割した例であり、空間領域の外枠のx方向の大きさは、腕と半身の長さから決まり、距離方向は、腕の長さから決定される。ここで設定される空間領域と領域区分は姿勢判定部61内部に保持される。 【0032】 次に、手位置抽出部57は、輪郭抽出で抽出された輪郭内における手の位置を抽出する(ステップS4)。ここで、図4を参照して、手位置抽出動作を説明する。手位置抽出部56は、頭頂点座標と左右の手の届く範囲に基づいて手の探索領域を設定する(ステップS10)。続いて、手位置抽出部57は、先に設定した手の探索領域内に存在する輪郭抽出で抽出された輪郭内の平均距離を求める(ステップS11)。そして、手位置抽出部57は、ここで求めた平均距離が輪郭全体の平均距離±α内に収まっていれば、この輪郭を手と見なす判定をする(ステップS12)。ここで、αは腕の長さである。ここで、抽出された手位置の座標は手位置座標97としてメモリ8に記憶される。 【0033】 次に、姿勢判定部61は、得られた手位置座標97が、先に設定した空間領域A?Kのどこに存在するかを判定する。そして、姿勢判定部26は、この判定の結果得られた領域区分と設定ファイル71に記憶されている姿勢を参照して、人物の姿勢を判定する(ステップS5)。図12に設定ファイル71に記憶されるテーブルの一例を示す。図12に示すように、設定ファイル71には、領域区分と対応する姿勢が定義されており、各姿勢に対して一意となる姿勢IDが付与されている。例えば、領域区分A、Bであれば「握手」をしようとしている姿勢であり、領域区分C、Dであれば、「注目」せよという指示を出している姿勢であり、領域区分E、Fであれば、「停止」せよという指示を出している姿勢である。また、領域区分G、Hであれば、「右、または左に寄れ」という指示を出している姿勢であり、領域区分J、Kであれば、「さようなら」をしている姿勢である。(略)」 (5)「【0048】 <応答処理動作> 次に、図14?22を参照して、姿勢判定部61によって判定された姿勢に基づいて、自律ロボットRが応答行動を行う動作を説明する。図14は、応答の基本動作を示すフローチャートである。ここでは、各姿勢に対応する指示が以下のように予め決められているものとして説明する。 (1)「来い」という指示を受けた場合、所定の条件を満たすように指示を出した人物に追従する。所定の条件とは、「自律ロボットRが人間との距離を一定に保ちながら移動する場合に、安全を確保するための距離が第一の所定距離(例えば150cm)になるように移動する」、「人間との距離が第二の所定距離(例えば90cm)未満になった場合は停止する」、「人間との距離が第二の所定距離(例えば、90cm)以上?第一の所定距離(例えば、150cm)未満になった場合は後退または歩調を合わせる」等である。 (2)「停止」という指示を受けた場合は、直ぐに停止する。 (3)「握手」という指示を受けた場合は、指示を出した人物と握手をする。 (4)「さようなら」という指示を受けた場合は、指示を出した人物に対して手を振る。 (5)指示を出した人物を見失った場合は、自己の移動を止めて新たな指示を受けるまで待機する。 なお、姿勢に対応する指示は、上記の(1)?(5)の組み合わせであってもよい。 【0049】 次に、応答処理部63は、メモリ8より姿勢判定部61の判定結果である姿勢ID98を得る(ステップS52)。続いて、応答処理部63は、音声認識部22から音声認識結果である指示を得る(ステップS53)。ここで得た指示は内部に保持される。(略) 【0050】(略) 【0051】 次に、時々刻々変化する人情報マップ110を参照して、応答処理部63は、認識結果(指示)を整合させる(ステップS55)。そして、条件を満たしているか否かを判定する(ステップS56)。この結果条件を満たしていれば、行動を起こすための制御コマンドを移動指示部64または視線指示部65に対して送信する(ステップS57)。これによって、移動指示または視線指示が行動制御部9に対して送信され、駆動部が動作する。」 (6)「【0060】 このように、指示を出す人物から姿勢による指示が出された場合に、この指示に対応する行動動作の処理を実行するようにしたため、外部コントローラ等を使用しなくとも自律ロボットRの動作を制御することが可能となる。」 2.引用発明 上記引用文献1に記載された発明について検討する。 (1)【0001】、【0005】には、人間の姿勢による指示を認識する姿勢認識装置及び姿勢認識結果に基づいて行動する自律ロボットについて記載されている。ここで、自律ロボットの行動が、人間の姿勢による指示により「制御」されるものであることは、【0060】の記載からも明らかである。 なお、引用文献1には、上記「人間の姿勢」と同じ意味で「人物の姿勢」との表記もある。そこで、引用発明の認定に際しては、「人物の姿勢」との表記を用いることとする。 (2)【0021】及び図1には、姿勢認識装置及び自律ロボットが、カメラと、画像処理を用いて姿勢認識処理を行う処理部とを備えることが記載されている。ここで、図1によれば、カメラはA/D変換器、フレームバッファを介して、データバスに接続され、当該データバスには処理部が接続されているから、処理部とカメラとは「結合」されているといえる。 (3)【0027】?【0028】には、カメラで撮像した画像から輪郭を抽出し、輪郭節点座標を得ることが記載され、【0030】には、輪郭節点座標に基づいて、人物の頭頂点の座標を求めることが、【0032】には、人物の手の位置座標を求めることが、それぞれ記載されている。ここで、カメラが人物の手及び顔を含む画像を撮像していることは自明である。 (4)【0031】には、頭頂点座標に基づいて空間領域と領域区分の設定を行うことが記載され、【0033】には、手の位置座標が、設定した空間領域のどの領域区分に存在するかを判定し、判定の結果得られた領域区分に対応する人物の姿勢を判定することが記載されている。 (5)【0048】には、判定された姿勢に基づいて自律ロボットが応答行動を行うことが記載され、【0051】には、行動を起こすための制御コマンドを送信することが記載されている。 してみれば、引用文献1には、次の発明(以下、「引用発明」という。)が記載されていると認められる。 なお、各構成の符号は、説明のために当審において付与したものであり、以下、構成a、構成bなどと称する。 (a)人物の姿勢による指示により自律ロボットの行動を制御するための姿勢認識装置において、 (b)前記姿勢認識装置は、カメラと処理部を有し、 (c)前記カメラが、人物の手及び顔を含む画像を撮像し、 (d1)前記処理部は、前記カメラと結合され、 (d2)人物の手の位置座標と頭頂点座標とを前記画像から求め、 (d3)前記手の位置座標が、前記頭頂点座標に基づいて設定した空間領域の領域区分のどこに存在するかを判定し、判定の結果得られた領域区分に対応する人物の姿勢を判定し、 (d4)前記人物の姿勢に基づいて自律ロボットが行動を起こすための制御コマンドを送信する、 (a)姿勢認識装置。 3.引用文献2について 原査定の拒絶の理由に引用された上記引用文献2(段落【0037】、図3等)には、以下の技術事項が開示されている。 「対象物体の形状画像と指の画像との相対的位置関係から、対象物体に対する指示動作に係る指示位置を算出する技術。」 4.その他の文献について 前置報告書において周知技術を示す文献として引用された引用文献3(特開2010-15553号公報:段落【0002】、【0034】-【0037】、図7等)には、以下の技術事項が開示されている。 「操作者をカメラで撮影し、床面等に示したマーカにより形成される仮想操作面よりカメラ側に出た操作者の手指などのジェスチャを判定することにより、コンピュータの操作入力を行う技術。」 第5 対比・判断 1.本願発明1について 本願発明1と引用発明とを対比する。 (1)本願発明1の構成A、Bと、引用発明の構成a、bとの対比 引用発明における「人物」は、本願発明1における「ユーザ」に相当し、引用発明における「人物の姿勢」は、人物の身振りや体部位の変位により表されるものといえるから、引用発明の「人物の姿勢」は、本願発明1における「ユーザの体部位の所定のジェスチャ」に相当する。 引用発明における「自律ロボット」は、「システム」の一つであるといえ、姿勢認識装置により認識した人物の姿勢によりその行動が制御される状態は、自律ロボットが「動作使用中」の状態にあることは自明である。 引用発明の「カメラ」、「処理部」は、本願発明1の「カメラシステム」、「データ処理システム」にそれぞれ相当し、引用発明の「姿勢認識装置」は、人物による指示を認識して自律ロボットに伝える機能を有するから、人物と自律ロボットとの「ユーザインタフェース」を構成しているということができ、また、姿勢認識装置が人物による指示として認識する「人物の姿勢」は、自律ロボットに対する接触を伴わないから、引用発明の「姿勢認識装置」は、「非接触ユーザインタフェース」を構成しているといえる。 よって、引用発明の構成a、bは、本願発明1の構成A、Bに相当するといえる。 (2)本願発明1の構成Cと、引用発明の構成cとの対比 引用発明の「画像」、「撮像」は、本願発明1の「ビデオデータ」、「キャプチャ」にそれぞれ相当する。 また、引用発明の「人物の手」は、ユーザの「体部位」であるといえ、「顔」は、手の周辺に存在するから、「体部位の環境」であるといえる。 してみれば、引用発明の構成cは、本願発明1の構成Cに相当する。 (3)本願発明1の構成D1と、引用発明の構成d1との対比 引用発明においても、処理部はカメラと結合されているから、引用発明の構成d1は、本願発明1の構成D1に相当する。 (4)本願発明1の構成D2と、引用発明の構成d2との対比 引用発明の構成d2の「人物の手の位置座標と頭頂点座標とを前記画像から求め」ることは、カメラによって撮影した画像から、人物の手と頭頂点との現在の空間的関係を抽出しているといえる。 ここで、上記(2)で検討したとおり、引用発明の「人物の手」は、本願発明1の「体部位」に対応し、引用発明1の「頭頂点」と、本願発明1の「ユーザの外かつ前記環境内の物理的オブジェクト」とは、「前記体部位とは異なる部位」である点では共通するといえる。 してみれば、引用発明の構成d2と、本願発明1の構成D2とは、「体部位と前記体部位とは異なる部位との間の現在の空間的関係を前記ビデオデータから抽出」する点で共通し、「前記体部位とは異なる部位」が、本願発明1では、「ユーザの外かつ前記環境内の物理的オブジェクト」であるのに対し、引用発明では、「頭頂点」である点で相違する。 (5)本願発明1の構成D3と、引用発明の構成d3との対比 引用発明の構成d3の「前記手の位置座標が、前記頭頂点座標に基づいて設定した空間領域のどの領域区分に存在するかを判定」することは、構成d2にて抽出した手の位置座標と頭頂点座標とが、所定の位置関係を有するかどうか、すなわち、手の位置と頭頂点との現在の空間的関係が、所定の空間的関係にマッチするかどうか、を決定することに相当するといえる。 また、手の位置座標が存在し得る、個々の「領域区分」は、人物の姿勢の「特徴」を表しているといえる。 してみれば、引用発明の構成d3と、本願発明1の構成D3とは、「前記現在の空間的関係が前記体部位と前記体部位とは異なる部位との間の所定の空間的関係にマッチするかどうかを決定し、前記所定の空間的関係が前記所定のジェスチャの特徴であり」である点で共通し、「前記体部位とは異なる部位」が、本願発明1では、「前記物理的オブジェクト」であるのに対し、引用発明では、「頭頂点」である点で相違する。 (6)本願発明1の構成D4と、引用発明の構成d4との対比 引用発明の構成d4について、上記(1)で検討したように、「自律ロボット」は、「システム」の一つであるといえるから、引用発明の構成d4の「自律ロボットが行動を起こすための制御コマンド」は、本願発明1の構成D4の「システムを所定の状態にセットする制御コマンド」に相当する。 また、引用発明の構成d4の「人物の姿勢」は、構成d3において「前記手の位置座標が、前記頭頂点座標に基づいて設定した空間領域のどの領域区分に存在するかを判定」した結果であるから、上記(5)で検討した、引用発明の構成d3と本願発明1の構成D3との対比結果を踏まえると、引用発明の構成d4の「人物の姿勢」は、本願発明1の構成D4でいう「所定の空間的関係にマッチする前記現在の空間的関係」に対応するものであるといえる。 してみれば、引用発明の構成d4は、本願発明1の構成D4に相当するといえる。 (7)本願発明1の構成D5と、引用発明との対比 引用発明の「処理部」により実行される、構成d2およびd3に係る処理は、カメラによって撮像された画像に対する処理であることは明らかであるから、本願発明の構成D5は、引用発明との実質的な相違点であるとはいえない。 (8)一致点、相違点 以上のとおりであるから、本願発明1と引用発明との間には、次の一致点、相違点があるといえる。 (一致点) ユーザが前記ユーザの体部位の所定のジェスチャにより動作使用中のシステムを制御することを可能にする当該システムにおいて使用する非接触ユーザインタフェースにおいて、 前記ユーザインタフェースが、カメラシステム及びデータ処理システムを有し、 前記カメラシステムが、前記体部位及び前記体部位の環境を表すビデオデータをキャプチャし、 前記データ処理システムが、前記カメラシステムに結合され、 前記体部位と前記体部位とは異なる部位との間の現在の空間的関係を前記ビデオデータから抽出し、 前記現在の空間的関係が前記体部位と前記体部位とは異なる部位との間の所定の空間的関係にマッチするかどうかを決定し、前記所定の空間的関係が前記所定のジェスチャの特徴であり、 前記所定の空間的関係にマッチする前記現在の空間的関係に依存して、前記システムを所定の状態にセットする制御コマンドを生成する、 ように前記ビデオデータを処理する、非接触ユーザインタフェース。 (相違点) 「前記体部位とは異なる部位」が、本願発明1は、「ユーザの外かつ前記環境内の物理的オブジェクト」であるのに対し、引用発明では、人物の「頭頂点」である点。 2.相違点についての判断 上記相違点について検討する。 引用文献2には、上記第4の3.のとおり、対象物体の形状画像と指の画像との相対的位置関係から、対象物体に対する指示動作に係る指示位置を算出することが記載されているが、引用文献2に記載の「対象物体」は、対象物体と指との位置を規定するためのものであって、人物の姿勢を判定するものではないから、人物の手の位置に基づいて人物の姿勢を判定するために、人物の手の位置との空間的関係を規定する「ユーザの外かつ前記環境内の物理的オブジェクト」であるとはいえない。よって、引用文献2は、上記相違点に係る構成を開示しておらず、その示唆も見当たらない。 また、上記相違点に係る構成が、当業者にとって自明であるともいえない。 したがって、本願発明1は、引用発明及び引用文献2に記載の技術事項に基づき、当業者が容易に発明し得たものとすることができない。 なお、前置報告書で引用された引用文献3には、上記第4の4.のとおり、操作者をカメラで撮影し、床面等に示したマーカにより形成される仮想操作面よりカメラ側に出た操作者の手指などのジェスチャを判定することにより、コンピュータの操作入力を行うことが記載されているが、引用文献3に記載の「マーカ」は、ジェスチャとして判定する対象かどうかを区別するための仮想操作面を特定するために用いられるものであり、人物の手の位置との空間的関係を規定する物理的オブジェクトとして、人物の姿勢を判定するために用いられるものではない。 また、引用文献1に記載された姿勢認識装置は、自律ロボット及びこれに指示をする人物がともに移動することが前提であること(【0048】等)等を考慮すれば、引用発明において、人物の手の位置に基づいて人物の姿勢を判定するために、引用文献3に記載のような、床面等に固定的に配するマーカを採用することには、技術的阻害要因があるといえる。 したがって、上記相違点に係る構成を採用することは、当業者であっても、引用発明及び引用文献3に記載された周知技術に基づき、容易に想到し得るとはいえない。 よって、本願発明1は、当業者であっても、引用発明、引用文献2に記載された技術的事項及び引用文献3に記載のような周知技術に基づいて容易に発明できたものであるとはいえない。 3.本願発明2-10について 本願発明5、8は、それぞれ本願発明1の「非接触ユーザインタフェース」に対応する、「システムを制御する方法」、「制御ソフトウェア」の発明であり、上記相違点に係る構成を備えているから、本願発明1と同様に、当業者であっても、引用発明、引用文献2に記載された技術事項及び周知技術に基づいて容易に発明できたものとはいえない。 本願発明2-4は、直接又は間接的に請求項1を、本願発明6、7は、請求項5を、本願発明9、10は、請求項8を、それぞれ引用しており、上記相違点に係る構成を備えているから、本願発明1と同様に、当業者であっても、引用発明、引用文献2に記載された技術事項及び周知技術に基づいて容易に発明できたものとはいえない。 第6 原査定について 審判請求時の補正により、本願発明1-10は、上記相違点に係る構成を有するものとなっており、当業者であっても、引用発明、引用文献2に記載された技術事項に基づいて容易に発明できたものとはいえない。 したがって、原査定の理由を維持することはできない。 第7 むすび 以上のとおり、原査定の理由によっては、本願を拒絶することはできない。 また、他に本願を拒絶すべき理由を発見しない。 よって、結論のとおり審決する。 |
審決日 | 2017-11-07 |
出願番号 | 特願2013-552299(P2013-552299) |
審決分類 |
P
1
8・
121-
WY
(G06T)
|
最終処分 | 成立 |
前審関与審査官 | 佐藤 実 |
特許庁審判長 |
清水 正一 |
特許庁審判官 |
篠原 功一 小池 正彦 |
発明の名称 | 絶対的な基準系を作成するのに固有受容性を使用するジェスチャ制御可能システム |
代理人 | 笛田 秀仙 |
代理人 | 小松 広和 |