• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 取り消して特許、登録 G06F
管理番号 1331044
審判番号 不服2016-17117  
総通号数 213 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2017-09-29 
種別 拒絶査定不服の審決 
審判請求日 2016-11-16 
確定日 2017-08-31 
事件の表示 特願2014-509861「スクリーン上のオブジェクトの回転」拒絶査定不服審判事件〔平成24年11月15日国際公開、WO2012/153233、平成26年 5月29日国内公表、特表2014-513371、請求項の数(14)〕について、次のとおり審決する。 
結論 原査定を取り消す。 本願の発明は、特許すべきものとする。 
理由 第1 手続の経緯
本願は、2012年(平成24年)5月2日(パリ条約による優先権主張外国庁受理2011年(平成23年)5月9日、欧州特許庁)を国際出願日とする出願であって、平成28年3月30日付けで拒絶理由通知がされ、同年7月4日付けで手続補正がされ、同年8月30日付けで拒絶査定(原査定)がされ、これに対し、同年11月16日に拒絶査定不服審判の請求がされ、平成29年4月26日付けで拒絶理由通知(以下、「当審拒絶理由通知」という。)がされ、同年7月6日付けで手続補正がされたものである。


第2 原査定の概要
原査定(平成28年8月30日付け拒絶査定)の概要は次のとおりである。

本願請求項1-15に係る発明は、以下の引用文献A-Dに基いて、その発明の属する技術の分野における通常の知識を有する者(以下、「当業者」という。)が容易に発明できたものであり、特許法第29条第2項の規定により特許を受けることができない。

引用文献等一覧
A.特開平7-239750号公報
B.舟橋健司、安田孝美、横井茂樹、鳥脇純一郎,仮想空間における両手による物体操作に関する研究,電子情報通信学会技術研究報告. MVE, マルチメディア・仮想環境基礎,日本,社団法人 電子情報通信学会,1997年 3月19日,96(605),21-28
C.米国特許出願公開第2009/0262074号明細書
D.Lawrence D. Cutler et al.,Two-Handed Direct Manipulation on the Responsive Workbench,Proceedings of the 1997 symposium on interactive 3D graphics,ACM Press,1997年


第3 当審拒絶理由通知の概要
当審拒絶理由通知の概要は次のとおりである。

1.本願請求項1-3、8-15に係る発明は、以下の引用文献1に記載された発明であるから、特許法第29条第1項第3号に該当し、特許を受けることができない。

2.本願請求項1-3、8-15に係る発明は、以下の引用文献1に基いて、当業者が容易に発明できたものであり、特許法第29条第2項の規定により特許を受けることができない。

3.本願請求項4-7に係る発明は、以下の引用文献1-3に基いて、当業者が容易に発明できたものであり、特許法第29条第2項の規定により特許を受けることができない。

引用文献等一覧
1.Richard A. Bolt, Edward Herranz,“Two-handed gesture in multi-modal natural dialog”, UIST '92 Proceedings of the 5th annual ACM symposium on User interface software and technology, (米), 1992年11月, p.7-14(当審において新たに引用した文献)
2.米国特許出願公開第2010/0280988号明細書(当審において新たに引用した文献)
3.米国特許出願公開第2009/0228841号明細書(当審において新たに引用した文献)


第4 本願発明
本願請求項1-14に係る発明(以下、それぞれ「本願発明1」-「本願発明14」という。)は、平成29年7月6日付けの手続補正で補正された特許請求の範囲の請求項1-14に記載された事項により特定される発明であり、本願発明1-14は以下のとおりの発明である。

「【請求項1】
スクリーン上のオブジェクトを回転させるための装置であって、
ユーザの第1の手と関連がある第1の3D位置情報に応じて、及び、ユーザの第2の手と関連がある第2の3D位置情報に応じて、手の軸を定めるための定義ユニット、
3D空間の軸に対する前記手の軸の変化を検出するための検出ユニット、及び
前記検出ユニットからの検出結果に応じて、スクリーン上のオブジェクトの回転を計算する計算ユニット、
を有し、
前記手の軸の長さに対応して前記オブジェクトがズームアウト又はズームインされ、
前記手の軸の変化は、前記手の軸と3D空間の第1の軸との間の第1の角度の変化と、前記手の軸と3D空間の第2の軸との間の第2の角度の変化と、前記手の軸と3D空間の第3の軸との間の第3の角度の変化とを含み、
前記検出ユニットが、前記第1、第2及び第3の角度の変化それぞれを第1、第2及び第3の閾値それぞれと比較するための比較器、第1、第2及び第3の比較結果それぞれに応じて、前記第1、第2及び第3の角度の変化の1つ以上を低減するための低減器を有する、
装置。
【請求項2】
前記第1、第2及び第3の角度の変化のそれぞれ1つがゼロに等しくない、請求項1に記載の装置。
【請求項3】
前記検出ユニットが、前記第1、第2及び第3の角度を検出するための角度検出器を有する、請求項1に記載の装置。
【請求項4】
前記第1、第2及び第3の比較結果のうちの1つが、対応する角度の変化が対応する閾値以下であることを示すと、前記低減器が対応する角度の変化をゼロに向けて低減する、請求項1に記載の装置。
【請求項5】
前記第1、第2及び第3の比較結果のうちの1つが対応する角度の変化が対応する閾値以下であることを示すと、前記低減器が対応する角度の変化に重み付けする、請求項1に記載の装置。
【請求項6】
前記第1、第2及び第3の比較結果のうちの2つが対応する角度の変化が対応する閾値以下であることを示すと、前記低減器が対応する角度の変化に重み付けする、請求項1に記載の装置。
【請求項7】
前記第1、第2及び第3の角度の変化のうちの1つ又は2つがゼロではない、請求項1に記載の装置。
【請求項8】
前記第1、第2及び第3の角度の変化のうちのそれぞれ1つがタイムインターバルごとの変化である、請求項1に記載の装置。
【請求項9】
3D空間の前記第1の軸がX軸であり、3D空間の前記第2の軸がY軸であり、3D空間の前記第3の軸がZ軸である、請求項1に記載の装置。
【請求項10】
ユーザの第1の手と関連がある第1の3D位置情報は第1の絶対又は相対3D座標を有し、ユーザの第2の手と関連がある第2の3D位置情報は第2の絶対又は相対3D座標を有し、前記手の軸は両方の3D座標を通過する、請求項1に記載の装置。
【請求項11】
請求項1に記載の装置を有し、さらに、前記第1及び第2の位置情報を提供するための位置測定システム及び/又はスクリーンを有するデバイス。
【請求項12】
スクリーン上のオブジェクトを回転させるための方法であって、
ユーザの第1の手と関連がある第1の3D位置情報に応じて、及びユーザの第2の手と関連がある第2の3D位置情報に応じて、手の軸を定めるステップ、
3D空間の軸に対する前記手の軸の変化を検出するステップ、及び
検出結果に応じてスクリーン上のオブジェクトの回転を計算するステップ、
を有し、
前記手の軸の長さに対応して前記オブジェクトがズームアウト又はズームインされ、
前記手の軸の変化は、前記手の軸と3D空間の第1の軸との間の第1の角度の変化と、前記手の軸と3D空間の第2の軸との間の第2の角度の変化と、前記手の軸と3D空間の第3の軸との間の第3の角度の変化とを含み、
前記第1、第2及び第3の角度の変化それぞれを第1、第2及び第3の閾値それぞれと比較するステップ、第1、第2及び第3の比較結果それぞれに応じて、前記第1、第2及び第3の角度の変化の1つ以上を低減するステップをさらに有する、
方法。
【請求項13】
コンピュータ上で実行されて当該コンピュータに請求項12に記載の方法を実行させるコンピュータ・プログラム。
【請求項14】
請求項13に記載のコンピュータ・プログラムが記憶された計算機可読媒体。」


第5 引用文献、引用発明等
1.引用文献1について
当審拒絶理由通知に引用した引用文献1には、図面とともに次の事項が記載されている。

(1)「THE CURRENT STUDY
In the studies to be described, we prototype a set of what Nespoulous and Lecours [17] term “coverbal gestures,” in particular, gestures which serve to illustrate ongoing verbal behavior. Within Nespoulous and Lecours’s classification of illustrative, coverbal gestures, we have selected examples that are kinemimic (outlining the action referred to by one of the lexical items) or spatiographic (outlining the spatial configuration of the referent of one of the lexical items).
This set will be described below, in order:

- indicating graphical manipulations (kinemimic)
- specifying static layouts (spatiographic)
- describing dynamic situations (kinemimic)

following a brief description of our system configuration.

The prototypes were programmed by the second author [12] on the system configuration shown in Figure 1. To track the hands, we use a pair of DataGlovesm by VPL Research, Inc. [25, 8]. The gloves use fiber-optic loops attached to the fabric covering each finger and the thumb to measure digit flexion. The fiber loops are specially treated to “leak” light upon being bent. Light sent into one end of the fiber is measured at the other end, the light loss being proportional to the degree to which the digit is bent. In the standard configuration, each DataGlovem has ten optic fibers, two for each finger (thumb). A magnetic space-sensor (by Polhemus Navigation Sciences) mounted on the back of the glove gives the position and attitude of the hand.

The data rate for hand position and finger-flexion for a single glove is 60Hz. When two gloves are used simultaneously they must be synchronized to work together; in particular, the magnetic fields generated by the space-sensing cubes are mutually interfering and must be time multi-plexed, reducing the effective sampling rate for data from either hand to 30Hz. Or, as when used with our eyetracking system (below) which has its own magnetic space-sensing cube, there need be 3-way time-multiplexing, with a sampling rate of 20Hz for each cube.」(第8頁右欄第27行-第9頁左欄第10行)

(当審訳:
現在の研究
以下に説明する研究において、我々は、NespoulousとLecours[17]が「コバーバル・ジェスチャ」と名付けたもの、特に、進行中の口頭の挙動を説明するのに役立つジェスチャの組を試作した。
NespoulousとLecoursの説明に役立つ又はコバーバル・ジェスチャの分類内で、我々は、kinemirnic(語彙項目の1つが参照したアクションを概説する)又はspatiographic(語彙項目のうちの1つの指示対象の空間的構成を概説する)である例を選択した。
このセットについて、順に説明する:

-グラフィカル操作を示す(kinemimic)
-静的レイアウトを特定する(spatiographic)
-動的状況を説明する(kinemimic)

我々のシステム構成の簡単な説明は、以下のとおりである。

プロトタイプは、図1に示すシステム構成に第2著者[12]によってプログラムされた。手を追跡するために、我々は、VPL Research, Inc.[25 8]によるDataGloves^(TM)の対を使用する。指の屈曲を測定するため、グローブは、各指と親指を覆う織物に取り付けられた光ファイバループを使用する。ファイバループは、曲げられた際に光を「漏らす」ために特に処理される。ファイバの一端に送り込まれた光は他方の端部で測定され、光損失は、指が曲げられた程度に比例する。標準構成において、各DataGloves^(TM)は10(各指(親指)に2つ)の光ファイバを有している。グローブの背面に取り付けられた磁気空間センサ(Polhemus Navigation Sciencesによる)は、手の位置及び姿勢を与える。

単一のグローブに対する手の位置及び指の屈曲のためのデータレートは60Hzである。2つのグローブを同時に使用する場合、それらはともに動作するように同期されなければならない;特に、空間感知キューブによって生じる磁場は互いに干渉し、時間多重化されなければならないため、どちらかの手からのデータの有効なサンプリングレートは30Hzに低減される。又は、それ自身の磁気空間感知キューブを有する我々の眼球追跡システム(下記)とともに使用した場合、各キューブに対して20Hzのサンプリングレートとなる、3方向の時間多重化が必要となる。)(下線は当審で付した。以下同様。)

(2)「Our graphics display is the 19-inch diagonal color monitor of a Hewlett Packard 9000/835 RISC workstation, (HP835) equipped with a Turbo/SRX graphic accelerator board. Input from peripheral devices which capture speech, hand gesture, and eyemovements communicate with the HP835 by way of RS232 lines connected to a Real-Time Interface (RTI) board resident in the HP835. All data from the DataGloves^(TM), eyetracker, and speech recognize are time-stamped at time of arrival so that these data streams maybe synchronized.

Gestures play the central role in the interactions about to be described. The gestures are interpreted, rather than treated in a “direct manipulation sense: “indirect manipulation,” if you will. One can think of there being a machine “agent” which somehow decodes the gestural input, and interprets it in the light of what is said, and where the user may be looking. The gestures are not fitted to templates, but rather analyzed according to their “features.” The process of interpretation starts with a parsing of speech input, with an examination of what has been input gesturally to complete the meaning of what has been said. Again, all object manipulations are initiated by speech in the spirit of “coverbal” gesturing; while hands gestures are continuous tracked by the pair of DataGloves^(TM), actions occur only when speech accompanies them.

Example 1: graphical manipulations
We have implemented three variants of object rotations in our prototype. In Figure 2, the user performs what we term a dual-hand rotation. The objects to be manipulated are blocks and prisms of various sizes, shapes and colors. The user tells the system “Turn the block...”, while concurrently showing via the hands the axis of rotation, direction of turn, and how far the block should be turned. With two blocks on display as is the situation in Figure 2, the block to be manipulated may be selected by: specifying it in words, e.g., “...the blue cube...”; by deixis, that is, by pointing the hand at it with index finger extended; or, simply by looking at it, as in the illustration. This last manner of “addressing” the intended item can be the most ready and natural, given that eyetracking is an integral part of this multi-modal system, just as we might ask “Isn’t this your birthday?” while establishing eye contact with some particular person out of several around us.

In the dual-hand rotation both hands change position, indicating a rotation around an axis perpendicular to the plane in which the hands move. The object is rotated about an axis which goes through the center of two opposite faces of the object. The procedure is to: Look for both hands ending up in a different location from where they started. Calculate a line which is perpendicular to the line between both glove “cubes” and which goes through the midpoint of the line between both “cubes.” Find which “object axis” is closest to this line by using the previously mentioned crossproduct test, and rotate the object about that axis.」(第9頁左欄第34行-第10頁左欄第11行)

(当審訳:
我々のグラフィックディスプレイは、Turbo/SRXグラフィックアクセラレータボードを備えたヒューレット・パッカード9000/835RISCワークステーション(HP835)の19インチ対角線カラーモニタである。音声、手のジェスチャ、及び目の動きを捕捉する周辺装置からの入力は、HP835内の実時間インターフェース(RTI)ボード上に接続されたRS232ラインを介してHP835と通信する。DataGloves^(TM)、アイトラッカー及び音声認識器からの全てのデータは、これらのデータ・ストリームが同期されるよう、到着した時点でタイムスタンプされる。

ジェスチャは、説明しようとしている相互作用において中心的な役割を果たしている。もしあなたが望めば、ジェスチャーは「直接操作」ではなく「間接的操作」のとして解釈される。ジェスチャー入力をデコードし、何が言われたか、ユーザがどこを見ているかを解釈する何らかの機械「エージェント」が存在すると考えることができる。ジェスチャは、テンプレートに適合されるのではなく、むしろそれらの「特徴」にしたがって分析される。解釈の手順は、言ったことの意味を完成させるためのジェスチャ入力の検査を伴う、音声入力の解析から開始する。
再び、全ての対象操作は、「コバーバル」ジェスチャリングの趣旨(手のジェスチャは、継続的にDataGloves^(TM)によって追跡され、アクションは、手のジェスチャに音声が付随するときのみ発生する。)に基づき音声によって開始される。

例1:グラフィック操作

我々は、プロトタイプの中で3種類のオブジェクトの回転を実装した。図2では、ユーザは、我々が両手回転と呼ぶものを行う。操作されるべきオブジェクトは、種々のサイズ、形状及び色のブロックとプリズムである。ユーザが、システムに対して「ブロックを回転…」と告げると、同時に回転軸、回転方向及びどの程度ブロックを回転させるかを手を介して示す。図2の場合のようにディスプレイ上に2個のブロックが存在する場合、操作されるべきブロックは、図示されるように、例えば、「青色キューブ」のような言葉を述べることで;直示表現、すなわち、人差し指を伸ばした手でそれを指し示すことで;又は、単にそれを見ることで、選択されてもよい。我々の周りの何人かの特定の人物とのアイコンタクトを確立しながら、我々が「あなたの誕生日ではないのか?」と尋ねるかもしれないように、眼球追跡は、このマルチモーダルシステムの不可欠な部分であって、この最後の意図するアイテムを「指定する」方法は、最も迅速かつ自然である。

両手回転では、手が移動する平面に垂直な軸の周りの回転を示すよう、両手は位置を変化する。オブジェクトは、オブジェクトの2つの対向する面の中心を通る軸を中心に回転する。その手順は以下に示されている:両手がそれらが開始した場所とは異なる行き着く場所を探す。両方のグローブ「キューブ」の間の線に直交し、かつ、両方の「キューブ」の中間点を通る線を算出する。前述の外積試験を用いることにより、この線に最も近接している「オブジェクト軸」を見つけ、オブジェクトをその軸の周りに回転させる。)

(3)「In addition to rotations, two other types of manipulations implemented are transpositions where the item is moved to a new spatial location, and rescalings where the size of the object is altered. Transpositions and rescalings are always “scaled.” That is, the distance between the user’s hands as they “address” the object by eye is taken by the system to represent the relative “base size” of the object. Then, when the hands move to indicate the new size or location for the object, the new size or destination location of the object is scaled relative to the “base size.” Rescaling of any object occurs only along the major symmetry axes of that object.」(第10頁左欄第54行-同頁右欄第9行)

(当審訳:
回転に加えて実施される操作の他の2種類は、アイテムが新たな空間的位置に移動される転位、及びオブジェクトのサイズを変更するリスケーリングである。転位とリスケーリングは、常に「スケールされる」。すなわち、目によってオブジェクトを「指定」するとき、ユーザの両手の間の距離はオブジェクトの相対的な「基本サイズ」を表現するためにシステムによって取られる。そして、手がオブジェクトのための新しいサイズ又は位置を示すために移動する場合、オブジェクトの新しいサイズまたは目的位置は、「基本サイズ」に対して相対的にスケーリングされる。任意のオブジェクトのリスケーリングは、オブジェクトの主要な対称軸に沿ってのみ発生する。)

また、上記引用文献1の記載、引用文献1の図1、2及びこの分野の技術常識を考慮すると次のことがいえる。

ア.上記(1)の記載によれば、引用文献1に記載の「プロトタイプ」は、「図1に示すシステム構成」、すなわち、図1を参照すると、グローブとディスプレイとを含むシステムであるといえる。

イ.上記(2)の記載によれば、「操作されるべきオブジェクトは、種々のサイズ、形状及び色のブロックとプリズムであ」って、このオブジェクトの一例として記載されている「2個のブロック」は、「ディスプレイ上に」「存在」している、すなわち、引用文献1に記載のオブジェクトはディスプレイ上に表示されるといえる。

以上を総合すると、引用文献1には次の発明(以下、「引用発明」という。)が記載されていると認められる。

「手を追跡するために、グローブの対を使用し、
グローブの背面に取り付けられた磁気空間センサは、手の位置及び姿勢を与え、
ユーザは、我々が両手回転と呼ぶものを行い、操作されるべきオブジェクトは、ディスプレイ上に表示され、
ユーザが、回転軸、回転方向及びどの程度オブジェクトを回転させるかを手を介して示し、
両手回転では、手が移動する平面に垂直な軸の周りの回転を示すよう、両手は位置を変化し、両方のグローブ『キューブ』の間の線に直交し、かつ、両方の『キューブ』の中間点を通る線を算出し、外積試験を用いることにより、この線に最も近接している『オブジェクト軸』を見つけ、オブジェクトをその軸の周りに回転し、
目によってオブジェクトを『指定』するとき、ユーザの両手の間の距離はオブジェクトの相対的な『基本サイズ』を表現するためにシステムによって取られ、手がオブジェクトのための新しいサイズ又は位置を示すために移動する場合、オブジェクトの新しいサイズまたは目的位置は、『基本サイズ』に対して相対的にスケーリングされる、
システム。」

2.引用文献2について
当審拒絶理由通知に引用した引用文献2には、図面とともに次の事項が記載されている。

「[0333] The examples described above employed a linear mapping of physical input (gesture) space to representational space: translating the control hand by A units in real space always results in a translation by B units [prime] in the representational space, irrespective of the real-space position at which the A-translation is undertaken. However, other mappings are possible. In particular, the degree of fine motor control enjoyed by most human operators allows the use of nonlinear mappings, in which for example differential gestural translations far from the active threshold can translate into larger displacements along the parameterized dimension than do gestural translations near the threshold.」(段落[0333])

(当審訳:
[0333]以上で説明した例は、物理的入力(ジェスチャ)空間の表現空間への線形マッピングを採用した。実空間においてA単位だけ制御手(control hand)を平行移動させると、A平行移動が行われた実空間の位置には係わらず、常に、表現空間におけるB単位[プライム](prime)だけの平行移動が得られる。しかしながら、他のマッピングも可能である。即ち、殆どの人間の操作者によって享受される精細モータ制御(fine motor control)によって、非線形マッピングの使用が可能となり、その場合、例えば、アクティブ閾値から遠く離れた差動ジェスチャ変換は、閾値付近におけるジェスチャ変換よりも、パラメータ化された次元に沿って大きな変位に変換することができる。)

したがって、上記引用文献2には次の発明が記載されていると認められる。

「アクティブ閾値から遠く離れた差動ジェスチャ変換は、閾値付近におけるジェスチャ変換よりも、パラメータ化された次元に沿って大きな変位に変換する方法。」

3.引用文献3について
当審拒絶理由通知に引用した引用文献3には、図面とともに次の事項が記載されている。

「[0077] Where multiple commands are performed, a command may be classified as a major command based upon the criteria described above (either whichever distance is larger, or whichever passes a threshold distance first), and other commands classified as minor commands. The “dead zone” (i.e. the minimum distance the user's hand must move from a reference position before causing a non-zero displacement or velocity of the on-screen object) of minor commands may be enlarged in the presence of multiple commands, so that unintentionally movement of the hand in some directions are ignored while performing a gesture in other directions.
[0078] FIGS. 10A-10B illustrate an exemplary image rotation gesture, in which a user gesticulates his hand by rotating an open hand from a first vertical position 1002 to a second, angled position 1004, thereby causing a selected image object 1006 to rotate in the display 1008 (as illustrated by the rotated image object 1010) by the same angle as the detected rotation angle of the hand. A dead zone may be defined so that minor movement of the hand does not unintentionally rotate a selected image object.」(段落[0077]-[0078])

(当審訳:
[0077]多数のコマンドが実行される場合には、コマンドは、前述の基準(いずれか距離のより大きい方か、それともいずれか最初に距離閾値をパスした方)、および小基準コマンドとして分類される他のコマンドに基づき、主要なコマンドとして分類されることができる。小基準コマンドの「デッドゾーン」(すなわちユーザの手がスクリーン上のオブジェクトのゼロ以外の変位または速度を引き起こす前に基準位置から移動しなければならない最小限の距離)は、多数のコマンドの存在下で、広げることができる。他方向のジェスチャを実行している間、意図しない多少の方向の手の動きは無視される。
[0078]図10A-10Bは、典型的な画像回転ジェスチャを示す。図において、ユーザは、開いた手を第1の垂直位置1002から第2の、曲げられた位置1004まで回転させることによってジェスチャで表現する。これにより、ディスプレイ1008において(回転される画像オブジェクト1010で示すように)、検出された手の回転角度と同じ角度で、選択された画像オブジェクト1006を回転させる。手の軽微な動きが選択された画像オブジェクトを意図せずに回転させないために、デッドゾーンは定義され得る。)

したがって、上記引用文献3には次の発明が記載されていると認められる。

「ユーザの手がスクリーン上のオブジェクトのゼロ以外の変位または速度を引き起こす前に基準位置から移動しなければならない最小限の距離である『デッドゾーン』を設定することで、意図しない多少の方向の手の動きを無視する方法。」


第6 当審の判断
1.本願発明1について
(1)対比
本願発明1と引用発明とを対比すると、次のことがいえる。

ア.引用発明の「ディスプレイ」は、本願発明1の「スクリーン」に相当する。
また、引用発明は、「ディスプレイ上に表示され」た「操作されるべきオブジェクト」を回転させる「システム」であって、引用発明の「システム」は、後述する相違点を除き、本願発明1の「装置」に相当する。
したがって、本願発明1と引用発明とは、「スクリーン上のオブジェクトを回転させるための装置」である点で一致する。

イ.引用発明は、「手を追跡するために、グローブの対を使用」するものであって、当該グローブは「手の位置及び姿勢を与え」、「両手回転」では、「ユーザが、回転軸、回転方向及びどの程度オブジェクトを回転させるかを手を介して示」すことで、オブジェクトを回転させるもの、すなわち、ユーザの両手の位置(本願発明1の「ユーザの第1の手と関連がある第1の3D位置情報」及び「ユーザの第2の手と関連がある第2の3D位置情報」に相当する。)に応じてオブジェクトを回転させるものである。
そして、引用発明は、オブジェクトの回転軸である「オブジェクト軸」を決定するに当たって、「両方のグローブ『キューブ』の間の線」(本願発明1の「手の軸」に相当する。)を用いており、それを定めるための物理的構成を有していることは明らかである。
したがって、本願発明1と引用発明とは、「ユーザの第1の手と関連がある第1の3D位置情報に応じて、及び、ユーザの第2の手と関連がある第2の3D位置情報に応じて、手の軸を定めるための定義ユニット」を有する点で一致する。

ウ.引用発明は、オブジェクトの回転軸である「オブジェクト軸」を決定するに当たり、「両方のグローブ『キューブ』の間の線に直交し、かつ、両方の『キューブ』の中間点を通る線を算出」するという手順を含んでいるが、このような線は、両方のグローブ「キューブ」の間の線に直交する面内に無数に存在するため、引用発明のさらなる構成要素である「手が移動する平面に垂直な軸の周りの回転」を実現するためには、両方のグローブ「キューブ」の間の線の時間的な「変化」を用いる必要があることは明らかである(引用発明は、「外積」を用いることを特定している。)。
したがって、本願発明1と引用発明とは、「3D空間の軸に対する前記手の軸の変化を検出するための検出ユニット」及び「前記検出ユニットからの検出結果に応じて、スクリーン上のオブジェクトの回転を計算する計算ユニット」を有する点で一致する。

エ.引用発明は、「ユーザの両手の間の距離はオブジェクトの相対的な『基本サイズ』を表現するためにシステムによって取られ、手がオブジェクトのための新しいサイズ又は位置を示すために移動する場合、オブジェクトの新しいサイズまたは目的位置は、『基本サイズ』に対して相対的にスケーリングされる」、すなわち、「ユーザの両手の間の距離」(本願発明1の「手の軸の長さ」に相当する。)に対応して、「オブジェクトの新しいサイズ」を決定するものである。
したがって、本願発明1と引用発明とは、「前記手の軸の長さに対応して前記オブジェクトがズームアウト又はズームインされ」る構成を有する点で一致する。

オ.上記ウ.で述べたように、引用発明は、オブジェクトの回転軸である「オブジェクト軸」を決定するに当たり、両方のグローブ「キューブ」の間の線の時間的な変化を用いている。
そして、この変化は3次元空間における変化であるから、当然に3次元空間における3つの座標軸(例えばx軸、y軸、z軸)に対する変化の合成として記述できるものである。
したがって、本願発明1と引用発明とは、「前記手の軸の変化は、前記手の軸と3D空間の第1の軸との間の第1の角度の変化と、前記手の軸と3D空間の第2の軸との間の第2の角度の変化と、前記手の軸と3D空間の第3の軸との間の第3の角度の変化とを含」む構成を有する点で一致する。

したがって、本願発明1と引用発明とは、次の一致点、相違点を有する。

(一致点)
「スクリーン上のオブジェクトを回転させるための装置であって、
ユーザの第1の手と関連がある第1の3D位置情報に応じて、及び、ユーザの第2の手と関連がある第2の3D位置情報に応じて、手の軸を定めるための定義ユニット、
3D空間の軸に対する前記手の軸の変化を検出するための検出ユニット、及び
前記検出ユニットからの検出結果に応じて、スクリーン上のオブジェクトの回転を計算する計算ユニット、
を有し、
前記手の軸の長さに対応して前記オブジェクトがズームアウト又はズームインされ、
前記手の軸の変化は、前記手の軸と3D空間の第1の軸との間の第1の角度の変化と、前記手の軸と3D空間の第2の軸との間の第2の角度の変化と、前記手の軸と3D空間の第3の軸との間の第3の角度の変化とを含む、
装置。」

(相違点)
本願発明1は、「前記検出ユニットが、前記第1、第2及び第3の角度の変化それぞれを第1、第2及び第3の閾値それぞれと比較するための比較器、第1、第2及び第3の比較結果それぞれに応じて、前記第1、第2及び第3の角度の変化の1つ以上を低減するための低減器」を有するのに対して、引用発明においては、このような構成が特定されていない点。

(2)相違点についての判断
上記相違点について検討する。
上記第5の2.及び3.で述べたとおり、引用文献2及び3には、それぞれ「アクティブ閾値から遠く離れた差動ジェスチャ変換は、閾値付近におけるジェスチャ変換よりも、パラメータ化された次元に沿って大きな変位に変換する方法。」及び「ユーザの手がスクリーン上のオブジェクトのゼロ以外の変位または速度を引き起こす前に基準位置から移動しなければならない最小限の距離である『デッドゾーン』を設定することで、意図しない多少の方向の手の動きを無視する方法。」が記載されている。
上記引用文献2及び3の記載からは、意図しない方向への操作の影響を小さくするとの技術的思想は読み取れるものの、相違点に係る本願発明1の具体的構成である「前記検出ユニットが、前記第1、第2及び第3の角度の変化それぞれを第1、第2及び第3の閾値それぞれと比較するための比較器、第1、第2及び第3の比較結果それぞれに応じて、前記第1、第2及び第3の角度の変化の1つ以上を低減するための低減器」の構成については、何ら記載されていない。

また、相違点に係る本願発明1の構成が、本願優先日前に周知技術であったとも認められない。

したがって、本願発明1は、当業者であっても引用発明及び引用文献2、3に記載された発明に基づいて容易に発明できたものであるとはいえない。

2.請求項2-14について
本願発明12、13及び14は、本願発明1のカテゴリーを装置の発明からそれぞれ、方法、コンピュータ・プログラム及びコンピュータ・プログラムが記憶された計算機可読媒体の発明に変更したものであって、本願発明2-11は、本願発明1をさらに限定したものであるから、いずれも本願発明1と同様に、当業者であっても引用発明及び引用文献2、3に記載された発明に基づいて容易に発明できたものであるとはいえない。


第7 原査定についての判断
平成29年7月6日付けの補正により、補正後の請求項1は、「前記検出ユニットが、前記第1、第2及び第3の角度の変化それぞれを第1、第2及び第3の閾値それぞれと比較するための比較器、第1、第2及び第3の比較結果それぞれに応じて、前記第1、第2及び第3の角度の変化の1つ以上を低減するための低減器」という技術的事項を有するものとなった。当該技術的事項は、原査定における引用文献A-Dには記載されておらず、本願優先日前における周知技術でもないので、本願発明1-14は、当業者であっても、原査定における引用文献A-Dに基づいて容易に発明できたものではない。したがって、原査定を維持することはできない。


第8 むすび
以上のとおり、原査定の理由によって、本願を拒絶することはできない。
他に本願を拒絶すべき理由を発見しない。
よって、結論のとおり審決する。
 
審決日 2017-08-21 
出願番号 特願2014-509861(P2014-509861)
審決分類 P 1 8・ 121- WY (G06F)
最終処分 成立  
前審関与審査官 西田 聡子  
特許庁審判長 高瀬 勤
特許庁審判官 山田 正文
土谷 慎吾
発明の名称 スクリーン上のオブジェクトの回転  
代理人 笛田 秀仙  
代理人 矢ヶ部 喜行  
  • この表をプリントする

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ