• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 特許、登録しない(前置又は当審拒絶理由) G06F
管理番号 1340032
審判番号 不服2017-1152  
総通号数 222 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2018-06-29 
種別 拒絶査定不服の審決 
審判請求日 2017-01-26 
確定日 2018-05-07 
事件の表示 特願2015-117002「モーション基盤のユーザインターフェース制御装置及び方法」拒絶査定不服審判事件〔平成27年12月 3日出願公開、特開2015-215907〕について、次のとおり審決する。 
結論 本件審判の請求は、成り立たない。 
理由 1.手続の経緯
本願は、2011年10月13日(パリ条約による優先権主張日外国庁受理2010年10月14日、大韓民国)を国際出願日とする特許出願(特願2013-533771号)の一部を平成27年6月9日に新たな特許出願(特願2015-117002号)としたものであって、平成28年9月21日付けで拒絶査定がなされ(発送日:同月26日)、これに対して平成29年1月26日に審判の請求がなされるとともに手続補正がされ、その後、平成29年7月31日付けで当審より拒絶理由が通知され、平成29年11月7日に手続補正がされるとともに意見書が提出されたものである。

2.本願発明
本願の請求項1に係る発明(以下、「本願発明」という。)は、平成29年11月7日付け手続補正書の特許請求の範囲に記載された次のとおりのものである。
「 【請求項1】
電子装置であって、
タッチスクリーンと、
前記電子装置の動きを感知するセンサ部と、
イメージが表示される前記タッチスクリーン上にタッチされた点の個数を獲得し、前記センサ部から前記電子装置の動きに関する情報を獲得し、前記獲得したタッチされた点の個数が2以上であり、前記電子装置の動きに関する情報が前記電子装置がユーザから遠くなったことを意味すると、前記イメージを縮小して表示し、前記獲得したタッチされた点の個数が2以上であり、前記電子装置の動作に関する情報が前記電子装置が前記ユーザに向かって動いたことを意味すると、前記イメージを拡大して表示させる制御部と、を含み、
前記イメージが拡大又は縮小される倍率は、前記電子装置の動作に関する情報に含まれた、前記電子装置が移動した距離に比例する
ことを特徴とする電子装置。」

3.引用文献、引用発明について
平成29年7月31日付けの拒絶理由通知に引用された、本願優先日前に公開された、米国特許出願公開第2009/0303204号明細書(以下、「引用文献」という。パテントファミリ文献:特表2012-507802号公報。)には、図面とともに以下の記載がある(下線は当審において付与。以下同様。)。

(1) 請求項25
「25. A handheld electronic device, the device comprising:
a subsystem providing display capability;
a motion function trigger;
a set of motion sensors sensing rotational rate around at least three axes and linear acceleration along at least three axes; and
a subsystem which, based on motion data derived from at least one of the motion sensors, is capable of facilitating interaction with the device. 」
(パテントファミリ文献、請求項25を参照した、当審訳:
【請求項25】
装置が:
表示能力を提供するサブシステム;
動き機能トリガー;
少なくとも3軸の周りの回転速度並びに少なくとも3軸に沿った直線加速度を検知する運動センサのセット;及び
少なくとも1つの運動センサから得した動きデータに基づき、装置との相互作用を促進することができるサブシステム;
を備えることを特徴とする携帯電子装置。)

(2) 請求項34
「34. The electronic device of claim 25, wherein the subsystem providing display capability includes a display attached to the device, and wherein the interaction with the device consists of one or more of the following in response to a signal received from the motion function trigger:
panning an image on the display in response to movement of the device;
zooming an image on the display in response to movement of the device;
zooming a camera application running at least partially on the device in response to movement of the device;
changing a page on the display in response to movement of the device;
adjusting the location of at least one element on the display in response to movement of the device, wherein the at least one element is part of an array;
navigating to a menu screen in response to movement of the device;
selecting a key on a keypad displayed on the display in response to movement of the device;
selecting a key on a telephone dial pad displayed on the display in response to movement of the device;
selecting a character corresponding to the identify of a contact in response to movement of the device;
initiating a telephone call in response to movement of the device;
terminating a telephone call in response to movement of the device;
recognizing a character in response to movement of the device;
recognizing a plurality of characters in response to movement of the device;
displaying an element on the display as part of an auto-complete operation in response to movement of the device;
rotating a map on the display in response to movement of the device;
zooming a map on the display in response to movement of the device;
panning a map on the display in response to movement of the device;
tilting a map on the display in response to movement of the device;
scrolling through a set of elements, wherein at least one element included in the set of elements is displayed on the display, in response to movement of the device;
interpreting a movement of the device depending on a context of the device;
switching orientation of an image on the display between portrait and landscape modes in response to movement of the device;
activating an application in response to movement of the device, where the movement corresponds to switching between two different orientations;
providing visual, audio or vibration feedback in connection with interpretation of a movement of the device;
authenticating a user based on movement of the device;
transposing movement of the device into a tangible authentication mark;
controlling an external system based on movement of the device;
authorizing a commercial transaction based on movement of the device;
measuring caloric expenditure of a user based on movement of the device;
assessing a sports-related motion based on movement of the device;
counting a sports-related motion based on movement of the device;
assessing a game-related motion based on movement of the device;
controlling a power-saving feature of the device based on at least one of the following: orientation of the device, movement of the device, or absence of movement of the device; or
recognizing an instruction to be transmitted to an external system based on movement of the device.」
(パテントファミリ文献、請求項34を参照した、当審訳:
【請求項34】
表示能力を提供するサブシステムが、装置に装着されたディスプレイを含み、装置との相互作用が、動き機能トリガーから受け取った信号に応じて、以下の1つまたはそれ以上で構成される:
装置の動きに応じて、スクリーン上の画像をパンすること;
装置の動きに応じて、スクリーン上の画像をズームすること;
装置の動きに応じて、端末上で少なくともその一部が実行されるカメラアプリケーションをズームすること;
装置の動きに応じて、ディスプレイ上のページを変更すること;
少なくとも1つの要素が配列の一部分であるときに、装置の動きに応じて、スクリーン上の少なくとも1つの要素の位置を調整すること;
装置の動きに応じて、メニュー画面に移動すること;
装置の動きに応じて、ディスプレイ上に表示されたキーパッド上の一つのキーを選択すること;
装置の動きに応じて、ディスプレイ上に表示された電話用ダイアルパッド上の一つのキーを選択すること;
装置の動きに応じて、コンタクト先の識別子に対応する文字を選択すること;
装置の動きに応じて、電話呼を始めること;
装置の動きに応じて、電話呼を終えること;
装置の動きに応じて、一つの文字を認識すること;
装置の動きに応じて、複数の文字を認識すること;
装置の動きに応じて、オートコンプリート操作の一部としてディスプレイ上の要素を表示すること;
装置の動きに応じて、ディスプレイ上の地図を回転すること;
装置の動きに応じて、ディスプレイ上の地図をズームすること;
装置の動きに応じて、ディスプレイ上の地図をパンすること;
装置の動きに応じて、ディスプレイ上の地図を傾けること;
要素のセットに含まれる少なくとも1つの要素がディスプレイ上に表示されているときに、装置の動きに応じて、要素のセットをスクロールすること;
装置のコンテキストに依存して、装置の動きを解釈すること;
装置の動きに応じて、縦向きモードと横向きモードとの間でディスプレイ上の画像の向きを切り換えること;
動きが2つの異なる向きの間の切り換えに対応するときに、装置の動きに応じて、アプリケーションを起動すること;
装置の動きの解釈に関連して、視覚、音声または振動によるフィードバックを与えること;
装置の動きに基づいて、ユーザを認証すること;
装置の動きを、有形の認証用マークに変換すること;
装置の動きに基づいて、外部のシステムをコントロールすること:
装置の動きに基づいて、商取引を認証すること:
装置の動きに基づいて、ユーザのカロリー消費量を測定すること;
装置の動きに基づいて、スポーツに関連する動きを評価すること;
装置の動きに基づいて、スポーツに関連する動きをカウントすること;
装置の動きに基づいて、ゲームに関連する動きを評価すること;
装置の向き、装置の動き、または、装置の動きがないことの少なくとも1つに基づいて、装置の省電力機能を制御すること;あるいは
装置の動きに基づいて、外部のシステムに送るべき指示を認識すること;
を特徴とする、請求項25に記載の電子装置。)

(3) 段落[0050]-[0058]
「[0050] FIG. 2 is a block diagram of one example of device 10 or a motion sensing system suitable for use with aspects of the present invention. Device 10 can be implemented as a device or apparatus, such as a handheld device that can be moved in space by a user and its motion and/or orientation in space therefore sensed. For example, such a handheld device can be a mobile phone (e.g., cellular phone, a phone running on a local network, or any other telephone handset), wired telephone (e.g., a phone attached by a wire), personal digital assistant (PDA), video game player, video game controller, navigation device, mobile internet device (MID), personal navigation device (PND), digital still camera, digital video camera, binoculars, telephoto lens, portable music, video, or media player, remote control, or other handheld device, or a combination of one or more of these devices. In some embodiments, the device 10 is a self-contained device that includes its own display and other output devices in addition to input devices. In other embodiments, the handheld device 10 only functions in conjunction with a non-portable device such as a desktop computer, electronic tabletop device, server computer, etc. which can communicate with the moveable or handheld device 10, e.g., via network connections. The device may be capable of communicating via a wired connection using any type of wire-based communication protocol (e.g., serial transmissions, parallel transmissions, packet-based data communications), wireless connection (e.g., electromagnetic radiation, infrared radiation or other wireless technology), or a combination of one or more wired connections and one or more wireless connections.

[0051] Device 10 includes an application processor 12, memory 14, interface devices 16, a motion processing unit 20, analog sensors 22, and digital sensors 24. Application processor 12 can be one or more microprocessors, central processing units (CPUs), or other processors which run software programs for the device 10 or for other applications related to the functionality of device 10. For example, different software application programs such as menu navigation software, games, camera function control, navigation software, and phone or a wide variety of other software and functional interfaces can be provided. In some embodiments, multiple different applications can be provided on a single device 10, and in some of those embodiments, multiple applications can run simultaneously on the device 10. In some embodiments, the application processor implements multiple different operating modes on the device 10, each mode allowing a different set of applications to be used on the device and a different set of gestures to be detected. As used herein, unless otherwise specifically stated, a "set" of items means one item, or any combination of two or more of the items.

[0052] Multiple layers of software can be provided on a computer readable medium such as electronic memory or other storage medium such as hard disk, optical disk, flash drive, etc., for use with the application processor 12. For example, an operating system layer can be provided for the device 10 to control and manage system resources in real time, enable functions of application software and other layers, and interface application programs with other software and functions of the device 10. A motion algorithm layer can provide motion algorithms that provide lower-level processing for raw sensor data provided from the motion sensors and other sensors. A sensor device driver layer can provides a software interface to the hardware sensors of the device 10.

[0053] Some or all of these layers can be provided in software 13 of the processor 12. For example, in some embodiments, the processor 12 can implement the gesture processing and recognition described herein based on sensor inputs from a motion processing unit (MPU^(TM))20 (described below). Other embodiments can allow a division of processing between the MPU 20 and the processor 12 as is appropriate for the applications and/or hardware used, where some of the layers (such as lower level software layers) are provided in the MPU. For example, in embodiments allowing processing by the MPU 20, an API layer can be implemented in layer 13(当審注:「layer 13」とあるのは「software 13」の誤記と認める。) of processor 12 which allows communication of the states of application programs running on the processor 12 to the MPU 20 as well as API commands (e.g., over bus 21), allowing the MPU 20 to implement some or all of the gesture processing and recognition described herein. Some embodiments of API implementations in a motion detecting device are described in co-pending patent application Ser. No. 12/106,921, incorporated herein by reference in its entirety.

[0054] Device 10 also includes components for assisting the application processor 12, such as memory 14 (RAM, ROM, Flash, etc.) and interface devices 16. Interface devices 16 can be any of a variety of different devices providing input and/or output to a user, such as a display screen, audio speakers, buttons, switch, touch screen, joystick, slider, knob, printer, scanner, camera, computer network I/O device, other connected peripheral, etc. For example, one interface device 16 included in many embodiments is a display screen 16a for outputting images viewable by the user. Memory 14 and interface devices 16 can be coupled to the application processor 12 by a bus 18.

[0055] Device 10 also can include a motion processing unit (MPU^(TM)) 20. The MPU is a device including motion sensors that can measure motion of the device 10 (or portion thereof) in space. For example, the MPU can measure one or more axes of rotation and one or more axes of acceleration of the device. In preferred embodiments, at least some of the motion sensors are inertial sensors, such as gyroscopes and/or accelerometers. In some embodiments, the components to perform these functions are integrated in a single package. The MPU 20 can communicate motion sensor data to an interface bus 2 , e.g., I2C or Serial Peripheral Interface (SPI) bus, to which the application processor 12 is also connected. In one embodiment, processor 12 is a controller or master of the bus 21. Some embodiments can provide bus 18 as the same bus as interface bus 21.

[0056] MPU 20 includes motion sensors, including one or more rotational motion sensors (gyroscopes) 26 and one or more linear motion sensors (accelerometers) 28. For example, in some embodiments, inertial sensors are used, where the rotational motion sensors are gyroscopes and the linear motion sensors are accelerometers. Gyroscopes 26 can measure the angular velocity of the device 10 (or portion thereof) housing the gyroscopes 26. From one to three gyroscopes can typically be provided, depending on the motion that is desired to be sensed in a particular embodiment. Some implementations may employ more than three gyroscopes, for example to enhance accuracy, increase performance, or improve reliability. Some gyroscopes may be dynamically activated or deactivated, for example to control power usage or adapt to motion processing needs. Accelerometers 28 can measure the linear acceleration of the device 10 (or portion thereof) housing the accelerometers 28. From one to three accelerometers can typically be provided, depending on the motion that is desired to be sensed in a particular embodiment. Some implementations may employ more than three accelerometers, for example to enhance accuracy, increase performance, or improve reliability. Some accelerometers may be dynamically activated or deactivated, for example to control power usage or adapt to motion processing needs. For example, if three gyroscopes 26 and three accelerometers 28 are used, then a 6-axis sensing device is provided providing sensing in all six degrees of freedom. In embodiments with more than three gyroscopes and/or more than three accelerometers, additional degrees of freedom (or sensing axes) can be provided, and/or additional sensor input can be provided for each of the six axis of motion. In some embodiments, a single chip six-axis inertial measurement unit is used in the MPU 20. In some embodiments, additional or alternate types of rotational rate sensors and/or linear acceleration sensors can be used.

[0057] In some embodiments the gyroscopes 26 and/or the accelerometers 28 can be implemented as MicroElectroMechanical Systems (MEMS). For example, three gyroscopes and three accelerometers can be integrated into a MEMS sensor wafer. Other embodiments may integrate more or less inertial sensors. Supporting hardware such as storage registers for the data from gyroscopes 26 and accelerometers 28 can also be provided.

[0058] In some embodiments, the MPU 20 can also include a hardware processor or processing block 30. Hardware processing block 30 can include logic, microprocessors, or controllers to provide processing of motion sensor data in hardware. For example, motion algorithms, or parts of algorithms, may be implemented by block 30 in some embodiments, and/or part of or all the gesture recognition described herein. In such embodiments, an API can be provided for the application processor 12 to communicate desired sensor processing tasks to the MPU 20, as described above. Some embodiments can provide a sensor fusion algorithm that is implemented by the hardware processing block 30 to process all the axes of motion of provided sensors to determine the movement of the handheld electronic device in space. Some embodiments can include a hardware buffer in the block 30 to store sensor data received from the gyroscopes 26 and accelerometers 28. One or more motion function triggers 36, such as buttons 6, 8, 9 or other control, can be included in some embodiments to control the input of gestures to the electronic device 10, as described in greater detail below.」
(パテントファミリ文献、段落【0042】-【0050】を参照した、当審訳:
[0050] 図2は本発明の態様の使用に適する端末10または動き検知システムの一実施例のブロック図である。端末10は、ユーザによって空間中を動かせることができ、その空間中での動きおよび/または方向が検知できるような、携帯端末などの端末あるいは装置として実施される。例えば、そのような携帯端末は、携帯電話機(例えば、セルラ方式携帯電話機、ローカルネットワーク上で動作する電話機、その他の電話ハンドセット)、有線式電話機(例えば、電話線に繋がった電話機)、パーソナル・データ・アシスタント(PDA)、テレビゲーム機、テレビゲーム機のコントローラ、ナビゲーション装置、モバイルインターネット装置(MID)、パーソナルナビゲーション装置(PND)、デジタルスチルカメラ、デジタルビデオカメラ、双眼鏡、望遠レンズ、ポータブル式の音楽/動画/メディア再生装置、リモコン、その他の携帯端末、あるいは、これらの装置の1つ以上の組み合わせである。ある実施例では、端末10は、入力装置に加えて、それ自身のディスプレイその他の出力装置を含むような、自己完結型の装置である。他の実施例では、携帯端末10は、例えば、ネットワーク接続経由で、移動可能または手持ち式の端末10と通信する、デスクトップ型コンピュータ、電卓、サーバ・コンピュータなどの非ポータブル式装置と接続されることで初めて機能する。装置は、有線方式の通信プロトコル(例えば、シリアル伝送、パラレル伝送、パケットに基づく通信)、無線接続(例えば、電磁放射、赤外線放射その他の無線技術)、または、1つ以上の有線接続と1つ以上の無線接続との組み合わせなどのいずれかのタイプを使用して、通信してもよい。

[0051] 端末10は、アプリケーションプロセッサ12、メモリ14、インターフェース装置16、動き処理装置20、アナログセンサ22およびデジタルセンサ24を含む。アプリケーションプロセッサ12は、1つ以上のマイクロプロセッサ、中央処理装置(CPU)、または、端末10用若しくは端末10の機能に関連する他のアプリケーション用の、ソフトウェアプログラムを実行できるその他のプロセッサである。例えば、メニューナビゲーション用ソフトウェア、ゲーム、カメラ機能制御、ナビゲーションソフトウェアおよび電話などの異なるソフトウェアアプリケーション、または、多種多様な他のソフトウェアおよび機能性インターフェースが提供され得る。ある実施例において、互いに異なる複数のアプリケーションが単一の端末10に対して提供され、それらの実施例のいくつかでは、複数のアプリケーションが端末10上で同時に実行され得る。ある実施例において、アプリケーションプロセッサは、端末10の複数の互いに異なる動作モードを実装し、各モードにおいて、端末における異なるセットのアプリケーションの使用を可能にし、ジェスチャーの異なるセットの検知を可能にする。ここで用いられるように、特に言及しない限り、アイテムの「セット」とは、1つのアイテム、または、2つ以上のアイテムの組み合わせを意味するものとする。

[0052] 複数の階層化されたソフトウェアが、アプリケーションプロセッサ12と使用するために、電子的メモリ、その他、例えば、ハードディスク、光ディスク、フラッシュドライブなどの記憶媒体などのコンピュータ可読媒体で提供される。例えば、リアルタイムにシステム・リソースを管理、制御するため、アプリケーションソフトウェアまたは他の層の機能を実現するため、および、アプリケーションプログラムを端末10の他のソフトウェアや機能とインターフェースさせるために、オペレーティングシステム層が、端末10に対して提供される。動きアルゴリズム層は、運動センサや他のセンサから提供される生のセンサデータの下位レベルでの処理を行う動きアルゴリズムを提供する。センサ・デバイスドライバ層は、端末10のハードウェア・センサに対するソフトウェアインターフェースを提供する。

[0053] これらの階層の一部または全てを、プロセッサ12のソフトウェア13内で提供できる。例えば、ある実施例では、プロセッサ12は、動き処理装置(MPU^(TM))20(後述)からのセンサ入力に基づき、ここに記載されたジェスチャーの処理と認識を実行する。他の実施例では、階層のうちのいくつか(下位レベルのソフトウェア層など)をMPU内で提供することによって、使用するアプリケーションおよび/またはハードウェアにあわせた、MPU20とプロセッサ12との処理分担を可能にする。例えば、MPU20に処理を行わせる実施例では、API層が、プロセッサ12のソフトウエア13に実装されて、APIコマンドと同じように、プロセッサ12上で動作中のアプリケーションプログラムのステータス情報を、(例えば、バス21を介して)MPU20に通信できるようにすることで、ここに記載されるジェスチャーの処理と認識の一部または全てを、MPUで実行できるようにする。動き検知装置におけるAPIの実装の一実施例は、同時係属中の特許出願12/106,921に記載されており、参照によりここに組み込まれる。

[0054] 端末10は、また、メモリ14(RAM、ROM、フラッシュなど)及びインターフェース装置16などの、アプリケーションプロセッサ12を補助する要素を含んでいる。インターフェース装置16は、ディスプレイ・スクリーン、音声スピーカ、ボタン、スイッチ、タッチスクリーン、ジョイスティック、スライダ、ノブ、プリンタ、スキャナ、カメラ、コンピュータネットワークI/O装置その他の接続された周辺機器などの、ユーザに入力及び/または出力を提供する種々の多様な装置である。例えば、多くの実施例に含まれる、一つのインターフェース装置16は、ユーザが視認できるイメージを出力するディスプレイ・スクリーン16aである。メモリ14およびインターフェース装置16は、バス18によって、アプリケーションプロセッサ12と接続される。

[0055] 端末10は、動き処理装置(MPU^(TM))20も含むことができる。MPUは、空間中での端末10の動き(またはその一部)を測定可能な運動センサを含む装置である。例えば、MPUは、端末の1軸以上の回転と1軸以上の加速度とを測定できる。好適な実施例において、少なくともいくつかの運動センサは、ジャイロスコープおよび/または加速度計などの慣性センサである。ある実施例では、これらの機能を実行する要素は、単一のパッケージ内に統合される。MPU20は、運動センサのデータを、アプリケーションプロセッサ12が接続されているインターフェースバス21、例えばI^(2)Cや、シリアル・ペリフェラル・インターフェース(SPI)バスへ伝送する。一実施例において、プロセッサ12は、バス21のコントローラまたはマスタとなる。ある実施例では、バス18は、インターフェースバス21と同じバスとして提供される。

[0056] MPU20は運動センサを含んでおり、これには、1つ以上の回転運動センサ(ジャイロスコープ)26と、1つ以上の直線運動センサ(加速度計)28を含む。例えば、ある実施例では、慣性センサが使用され、ここで、回転運動センサはジャイロスコープであり、直線運動センサは加速度計である。ジャイロスコープ26は、ジャイロスコープ26を収容する端末10(またはその一部)の角速度を測定できる。特定の実施例で検知をしたい動きに応じて、通常、1つ?3つのジャイロスコープが設けられる。ある実装では、例えば、精度の向上や、性能の強化、信頼性向上のために、3つよりも多くのジャイロスコープが使用されるときもある。あるジャイロスコープは、例えば、電力消費を制御したり、必要とされる動き処理に合わせるために、動的に起動、停止される。加速度計28は、加速度計28を収容する端末10(またはその一部)の線加速度を測定できる。特定の実施例において検知をしたい動きに応じて、通常は、1?3個の加速度計が設けられる。ある実装では、例えば、精度を向上したり、性能を強化したり、信頼性を向上するために、3つよりも多くの加速度計を使用することもある。ある加速度計では、例えば、電力消費を制御し、必要とされる動き処理に合わせるために、動的に起動、停止が行われてもよい。例えば、3つのジャイロスコープ26と、3つの加速度計28とを使用すれば6自由度の全ての検知が可能な、6軸検知装置を提供できる。3つよりも多くのジャイロスコープおよび/または3つよりも多くの加速度計を備える実施例では、付加的な自由度(または検知軸)が提供でき、および/または、動きの6軸のそれぞれについての付加的なセンサ入力を提供できる。ある実施例では、単一チップの6軸慣性測定ユニットがMPU20で使用される。ある実施例では、回転速度センサおよび/または直線加速度センサとして、付加的または異なるタイプのものが使用できる。

[0057] ある実施例では、ジャイロスコープ26および/または加速度計28が、微小電気機械システム(MEMS)として実装される。例えば、3つのジャイロスコープと3つの加速度計が、MEMSセンサ・ウェハに統合される。他の実施例では、それよりも多くのまたはそれよりも少ない数の慣性センサを統合することもある。ジャイロスコープ26と加速度計28からのデータの記憶用のレジスタなどの支援用ハードウェアを設けてもよい。

[0058] ある実施例では、MPU20は、ハードウェアプロセッサまたは処理ブロック30を含むことができる。ハードウェア処理ブロック30は、ハードウェアによる運動センサデータ処理を提供するための、ロジック、マイクロプロセッサまたはコントローラを含む。例えば、ある実施例では、動きアルゴリズムまたはアルゴリズムの一部、および/または、ここに記載されるジェスチャー認識の一部または全てを、ブロック30によって実装できる。上述したように、そのような実施例では、MPU20に希望するセンサ処理タスクを伝えるために、APIがアプリケーションプロセッサ12に提供される。ある実施例は、設置されたセンサーの全ての軸での動きを処理して、空間中での携帯型電子端末の動きを決定するために、ハードウェア処理ブロック30によって実現された、センサ融合アルゴリズムが提供される。ある実施例では、ジャイロスコープ26と加速度計28から受け取ったセンサデータを記憶するために、ブロック30中にハードウェアのバッファを含み得る。以下に詳細に記載するように、ある実施例では、ボタン6、8、9または他のコントロール手段のような1つまたはそれ以上の動き機能トリガー36を、ジェスチャー入力をコントロールするために、電子端末10に含ませることができる。)

(4) 段落[0065]-[0066]
「[0065] In various embodiments, the interactions with a device that are described herein in connection with the activation of a motion function trigger can also be implemented in the absence of a motion function trigger, or can take place in the presence of a motion function trigger but without the activation of the motion function trigger.

[0066] In some embodiments, the interactions with a device that are described herein without direct reference to a motion function trigger can also be implemented based on the activation of a motion function trigger.」
(パテントファミリ文献、段落【0057】-【0058】を参照した、当審訳:
[0065] 種々の実施例において、動き機能トリガーの起動と関連して、ここに記載される端末との相互作用が、動き機能トリガーが存在しないときに実行されてもよく、あるいは、動き機能トリガーの起動なしで、動き機能トリガーが存在するときに実行されてもよい。

[0066] ある実施例では、動き機能トリガーを直接参照することなく、ここに記載されている端末との相互作用は、動き機能トリガーの起動に基づいて実行されてもよい。)

(5) 段落[0080]-[0090]
「Panning and Zooming

[0080] Panning and zooming can be performed on images displayed by the display screen of the device 10. Moving an image (or the displayed view of an image) to the left, right, up and down is called panning, while bringing a view of the image (or part of the image) closer or further away is called zooming. Herein, the term "zooming" may include both zooming in (closer view) and zooming out (further view). For example, FIG. 4A shows an image displayed on the display screen of the device. In FIG. 4B, the image has been zoomed in more closely. In FIG. 4C, the zoomed image of FIG. 4B has been panned to the left and down.

[0081] In some embodiments, rotation of the device may be used to manipulate an image continuously to perform panning of the image. Device rotation may also be used to zoom the image to a larger or smaller size on the screen. The image may be a graphical image, or a document such as text document, a PDF, a web page, or other similar types of documents.

[0082] In some embodiments, applying roll and pitch rotation to the device while holding a button down can provide image panning. For example, roll movement can cause the image (or view of the image) to move left or right, and pitch movement can cause the image or view to move up and down. In some embodiments, the image or view can be so manipulated only when the button is depressed and held by the user.

[0083] Some embodiments can control zooming in a displayed view by moving the device approximately along a linear axis, such as in-and-out movement along the z axis shown in FIG. 1 (e.g., in to zoom in, out to zoom out, or some other control scheme), or alternatively linear movement along the x-axis or y-axis. For example, the in-out z-axis movement may be tracked by observing the linear acceleration vector from accelerometer data, after the component of gravity has been removed from the accelerometer data using the gyroscope data (e.g. using model equations such as those described in copending U.S. patent application Ser. No. 12/252,322, incorporated herein by reference). Furthermore, motion of a device along the z-axis often can include some rotational motion, such as rotational motion about the rotational axis of the user's elbow as the device is moved by the user's arm. The gyroscopes of the device can be used to detect such rotational motion to help to more precisely measure the amount of device motion approximately along the z-axis.

[0084] In some embodiments, the linear acceleration vector of accelerometer data may also be combined with information from a camera system on the device 10, using well known methods such as optical flow in which optical images are analyzed to determine direction and amount of movement of the device 10. This can provide a more robust in-out control signal in some embodiments.

[0085] Some embodiments can provide a zooming function when the device is manipulated with a pitch rotation. Since in some embodiments this may be the same type of device movement that causes the image to pan up and down (or perform some other panning function), a second motion function trigger (such as a button) can be used for zooming, such as holding the second button while zooming. Alternatively, a single trigger may be used for zooming and panning, where, for example, the trigger is activated (and released) a first time by the user for a panning mode and is activated a second time in order to switch to a zooming mode.

[0086] In another embodiment, a yaw rotation of the device may be used to control zooming. In some embodiments, a single button may be used to enter a mode in which the image can be manipulated using motion, where roll movement pans the image left and right, pitch movement pans the image up and down, and yaw movement zooms the image (or view of the image) to be larger and smaller. Since the user may provide cross-axis movement of the device, whether intended or not (e.g., movement in two rotation axes, such as roll and pitch), this may be confusing, as the displayed image might zoom and pan at the same time. To prevent this, a threshold may determine whether panning is being selected or zooming is being selected. If a type of movement is primarily roll or pitch, as determined by an amount of movement in the particular axis over the associated threshold, then panning is used on the image. Similarly, if the movement is primarily yaw, zooming is used. An icon or other displayed message or element may also be displayed which indicates whether panning or zooming is being used. For example, as shown in FIG. 4B, a magnifying glass can be displayed when in zooming mode and/or zooming is occurring. As shown in FIG. 4C, a hand symbol can be displayed when in panning mode and/or panning is occurring. Alternatively, or in addition, non-visual output can indicate the current operation or function, such as audio, tactile, or other feedback.

[0087] In some embodiments, zooming may always occur at the center of the view of the image as currently displayed on the screen. In this case, the user can first pan to the desired location, and then zoom. Some area outside the view of the image can be stored in a buffer in this case; for example, if the user wishes to zoom in on one corner of the image, it should be possible to position that corner at the center of the screen, and then zoom in. Alternatively, the user can be required to first zoom in to the desired zoom level, and then pan to the desired location. In other embodiments, the zooming may occur at a location of the image indicated by an indicator such as a cursor. This cursor may ordinarily be in the center of the screen, but may be moved around the screen by the user when the image itself can't be panned any further. In this embodiment, no buffer is required. The cursor that indicates where the zooming will occur may also be the icon which indicates whether panning or zooming is occurring.

[0088] A cursor may also or alternatively be used to select part of the image. For example, in the case of a web page, the cursor may be positioned above a link, and then used to select that link using a control (such as a button) or gesture (such as a tapping gesture).

[0089] If yaw device rotation is used to zoom, in some embodiments the effect may be visually confusing because the screen itself rotates with respect to the user as the device is rotated. To reduce user confusion, the image on the screen may be rotated to compensate for the user's yaw rotation. In one embodiment, while the button is depressed and yaw rotation is applied to the device, the image displayed in the screen is rotated in the opposite direction by a corresponding amount so that it maintains the correct orientation relative to the user. When the button is released, the screen orientation can return to its ordinary orientation. Other controls can be used in other embodiments.

[0090] In one example, an application running on the device may be a camera application (whether photo or video). The control signal used for zooming, e.g., pitch or yaw rotation, or forward-backward linear movement, may control the optical or digital zoom of the camera in preparation for taking a picture or during video recording. In various embodiments, control of a camera may take place with or without a motion function trigger. In one implementation, the zoom function of a camera is activated in response to a user pressing a button and is deactivated when the user releases the button (or after a predefined period of time after the user releases the button).」
(パテントファミリ文献、段落【0072】-【0082】を参照した、当審訳:
「パン及びズーム」

[0080] パン及びズームは、端末10のディスプレイ・スクリーンに表示されたイメージ上で実行される。イメージ(またはイメージのディスプレイされた表示)を上下左右に移動させる動作は、パンと呼ばれる、一方、イメージ(またはイメージの一部)の表示を近づけるか遠ざける動作は、ズームと呼ばれる。ここで用語「ズーム」は、ズームイン(より近い表示)とズームアウト(より遠い表示)の両方を含む。例えば、図4Aは、端末のディスプレイ・スクリーン上に表示されたイメージを示す。図4Bにおいて、イメージはより近くにズームインされる。図4Cにおいて、図4Bのズームされたイメージが、左下方向にパンされる。

[0081] ある実施例では、イメージを連続的に操作することによって、イメージのパンを実行するために、端末の回転が用いられる。端末の回転は、また、スクリーン上でイメージをより大きいまたは小さいサイズにズームするためにも使用され得る。イメージとは、グラフィック・イメージ、テキスト文書、PDF、ウェブページ、その他類似の文書などの文書である。

[0082] ある実施例では、ボタンを押下したままで、端末に対してロール及びピッチ回転を与えることが、イメージのパンを提供する。例えば、ロール動作が、イメージ(またはイメージの表示)を左右方向に移動させ、ピッチ動作が、イメージまたは表示を上下方向に移動させる。ある実施例では、イメージまたは表示は、ユーザがボタンを押して維持しているときのみ、そのように操作できる。

[0083] ある実施例では、図1に示されるz軸に沿った、内向きと外向き(in-and-out)の動き(例えば、内向き(in)でズームイン、外向き(out)でズームアウト、若しくは、他の制御スキームで)や、x軸若しくはy軸に沿った直線的な動きなどのように、ほぼ直線軸に沿って装置を動かすことによって、ディスプレイされた表示のズームを制御することができる。例えば、(参照によりここに組み込まれる、同時係属中の米国特許出願12/252,322に記載されたモデル方程式を、例えば、使用することにより)ジャイロスコープのデータを利用して、重力の成分が加速度計のデータから除去された後の加速度計のデータに基づいて、直線加速度ベクトルを観察することによって、内向きと外向きのz軸方向の動きを観測できる。さらに、z軸沿いの端末の動きには、端末がユーザの腕によって動かされていることにより、ユーザの肘を軸とする回転運動のような、回転運動がしばしば含まれる。端末のジャイロスコープは、このような回転運動を検知するために使用できて、ほぼz軸に沿った端末の動きの量を、より精密に測定するために役立てられる。

[0084] ある実施例では、加速度計のデータの直線加速度ベクトルは、また、端末10の動きの方向と量を決定するために光学イメージが解析されるオプチカルフロー法などの周知の方法を用いて、端末10のカメラ系からの情報と組み合わせてもよい。ある実施例では、これによって、より確実な内向きと外向きのコントロール信号を提供できる。

[0085] ある実施例では、端末がピッチ回転で操作されるときに、ズーム機能を提供できる。ある実施例では、この動きはイメージを上下方向にパンさせる端末の動き(あるいは他のパン機能の実行)と同じタイプの端末の動きであるため、(例えば、ボタンである)第2の動き機能トリガーを、例えば、ズームする間第2のボタンを保持し続けるようにすることで、ズームのために利用できる。あるいは、単一のトリガーをズームとパンのために使用しもよく、例えば、パン・モードのためにユーザによって最初にトリガーが有効化されて(そして離されて)、ズーム・モードに切替えるために、二回目の有効化が行われる。

[0086] 他の実施例では、端末のヨー回転が、ズームを制御するために使用される。ある実施例では、単一のボタンが、動きを利用してイメージを操作するモードに入るために使用され、ここで、ロールの動きがイメージを左右方向にパンさせ、ピッチの動きがイメージを上下方向にパンさせ、ヨーの動きがイメージ(またはイメージの表示)を拡大または縮小するようにズームさせる。ユーザが意図するか否かに関わらず、端末の交差軸方向の動き(例えば、ロールとピッチのような2回転軸における動き)を与えるため、表示されたイメージがズームと同時にパンされるかもしれないので、これは混乱を生じさせる。これを防ぐために、パンが選択されつつあるのか、あるいは、ズーミングが選択されつつあるのかを、しきい値によって選択してもよい。ある種の動きが、特定の軸についての動きの量が関連するしきい値を超えたと判断されることで、主にロールかピッチならば、イメージ上でパンが適用される。同様に、動きが主にヨーならば、ズームが適用される。パンが適用されているかズームが適用されているかを示す、アイコンその他の表示されたメッセージまたは要素を表示してもよい。例えば、図4Bに示すように、虫眼鏡が、ズーム・モード中および/またはズーム実行中に、表示されてもよい。図4Cに示すように、手のシンボルが、パン・モード中および/またはパン実行中に、表示されてもよい。あるいはまたはそれに加えて、音声、触覚その他のフィードバックなどの視覚以外の出力によって、現在行われている操作または機能を示すことができる。

[0087] ある実施例では、ズームは、常に、スクリーンに現在表示中のイメージ表示の中央部で行われる。この場合、ユーザは、まず希望の場所にパンして、それから、ズームすることができる。このとき、イメージ表示よりも外側のある領域は、バッファ内に記憶され;例えば、ユーザがイメージの一つの角部をズームすることを望むならば、その角部をスクリーンの中央部に位置させて、それから、ズームインできるべきである。または、ユーザが、最初に希望するズーム段階までズームインして、それから、希望する位置までパンすることを求められ得る。他の実施例では、ズームは、カーソルなどのインジケータの示すイメージの位置で行われてもよい。当該カーソルは、通常、スクリーン中央部に存在するが、イメージがそれ以上パンできないときには、ユーザによってスクリーンのあちこちに動かせる。当該実施例では、バッファは必要とされない。ズームが行われる予定位置を示すカーソルは、また、パンが起こるのかまたはズームが起こるのかを示すアイコンであってもよい。

[0088] カーソルは、また/あるいは、イメージの一部を選択するために利用されてもよい。例えば、ウェブページの場合、カーソルが、リンクの上に置かれて、それから、(ボタンなどの)コントロール手段または(タップジェスチャーなどの)ジェスチャーを用いて、そのリンクの選択のために利用される。

[0089] 端末のヨー回転がズームに利用される場合、ある実施例では、端末が回転するに連れて、スクリーンそれ自体がユーザに対して回転するため、その効果は、視覚的な混乱を生じさせ得る。ユーザの混乱を防ぐために、スクリーン上のイメージを、ユーザのヨー回転を補償するように回転させてもよい。ある実施例では、ボタンが押されてヨー回転が端末に適用されている間、スクリーン上に表示されたイメージは対応する量だけ反対方向に回転して、結果として、ユーザに対して正しい方向を維持できる。ボタンが離されると、スクリーンの方向を通常の方向に戻すことができる。他の実施例では、他のコントロール手段を利用できる。

[0090] 一実施例では、端末上で起動するアプリケーションは、(写真か動画の)カメラ・アプリケーションである。ズームに利用される制御信号、例えば、ピッチまたはヨー回転または前後方向の直線移動によって、写真撮影の準備段階で、または、動画の記録中において、カメラの光学式またはデジタル式ズームを制御できる。種々の実施例において、カメラの制御は、動き機能トリガーとともにあるいは動き機能トリガーなしで、行われてもよい。ある実装では、カメラのズーム機能は、ユーザがボタンを押す操作に応じて起動され、ユーザがボタンを離したとき(あるいはユーザがボタンを離した後、所定の時間が経過したとき)停止される。)

(6) 段落[0129]
「[0129] In another embodiment, a button 36 may be used to initiate a particular operating context of the device and determine when the gesture should be recognized. For example, the user may press and release the button without holding the button, and then execute a gesture. Alternatively, the user may press and hold the button and then execute the gesture while the button is held. This method would add robustness, as it would prevent the system from recognizing unconscious movements as gestures.」
(パテントファミリ文献、段落【0121】を参照した、当審訳:
[0129]
他の実施例では、ボタン36は、端末の特定の操作コンテキストを開始して、ジェスチャーをいつ認識すべきかを定めるために利用される。例えば、ユーザが、ボタンを保持することなく、ボタンを押したり離したりして、それから、ジェスチャーを実行する。あるいは、ユーザが、ボタンを押し、かつ、保持して、それから、ボタンを保持している間にジェスチャーを実行する。当該方式は、無意識での動きをシステムがジェスチャーとして認識しないようにするから、確実性を付与するであろう。)

(7) 段落[0162]-[0166](特に段落[0163])
「Applications using a Motion Function Trigger

[0162] As described herein, device motion can be used in combination with input detected from an input control device of the motion sensing device 10. The input control provides an indication for the device to detect gestures during device motion intended by the user for gesture input. For example, one or more buttons, switches (mechanical, optical, magnetic, etc.), knobs, wheels, dials, or other input control devices, all referred to herein as a "motion function trigger" (also denoted "MFT") 36 (as shown in FIG. 2), can be provided on the housing of the motion sensing device 10, which the user can push or otherwise activate. For example, one or more buttons, such as buttons 8 and 9 shown in FIG. 1 on the side of the device for convenient access by the user, can be used as motion function triggers. A hardware control can be used (implemented via a mechanical device, tactile sensor, pressure sensor, capacitance sensor, infrared sensor, proximity sensor, magnetic sensor or any other type of sensor that can detect an external interaction), or a software/displayed control (e.g. a displayed button or control on a touchscreen) can be used as the motion function trigger.

[0163] In some embodiments, a combination of motion function triggers could be used to achieve the effects described herein for a single motion function trigger. In some embodiments, the effect of a motion function trigger can be inferred from the way in which a user holds a device, including the pressure placed on the device at various points (which could be determined, for example, via mechanical sensors, capacitance sensors, or other sensors capable of directly or indirectly detecting pressure placed on the surface of a device or screen), the number of fingers placed on the device, the distribution of the grip used to hold the device, and from any other aspects of the physical interaction between a user and a device. In one embodiment, the proximity of a user's hand or body presence to the device can be used to enter into a motion function trigger mode, even in the absence of direct physical contact. In one embodiment, the effect of a motion function trigger can be mapped to a set of movements of the device, including taps, shakes or other gestures. The number of and nature of such movements that trigger the effect of a motion function trigger could be predefined, or could be dynamically inferred based on the then-active application, device context, nature of motion of the device, or any other factors.

[0164] The motion function trigger on the device can be used to determine whether the device is in a "motion mode" or not. When the device is in a motion mode, the processor or other controller in the device 10 can allow motion of the device to be detected to modify the state of the device, e.g., detected as a gesture. For example, when the motion function trigger is in its inactive state, e.g., when not activated and held by the user, the user moves the device naturally without modifying the state of the device. However, while the motion function trigger is activated by the user, the device is moved to modify one or more states of the device. The modification of states of the device can be the selection of a function and/or the execution or activation of a function or program. For example, a function can be performed on the device in response to detecting a gesture from motion data receiving while in the motion mode. The device exits the motion mode based on a detected exit event. For example, in this embodiment, the exit event occurs when the motion function trigger is released by the user and the activation signal from the motion function trigger is no longer detected. In some embodiments, the modification of states of the device based on the motion data only occurs after the motion mode has been exited, e.g., after the button is released in this embodiment. When not in the motion mode, the device (e.g. processor or other applicable controller in the device) ignores input sensed motion data for the purposes of motion gesture recognition. In some embodiments, the sensed motion data can still be input and used for other functions or purposes, such as computing a model of the orientation of the device as described previously; or only particular predetermined types of gestures or other motions can still be input and/or recognized, such as a tap gesture which in some embodiments may not function well when used with some embodiments of a motion function trigger. In other embodiments, all sensed motion data is ignored for any purposes when not in motion mode, e.g., the sensors are turned off. For example, the release of the button may cause a detected spike in device motion, but this spike occurs after release of the button and so is ignored.

[0165] The operation of a motion mode of the device can be dependent on the operating mode of the device. For example, the activation of a motion function trigger to enter motion mode may be required for the user to input motion gestures while the device is in some operating modes, while in other operating modes of the device, no motion function trigger activation is required. For example, when in an image display operating mode which allows scrolling a set of images or other objects across a display screen 16a of the device based on movement of the device, the activation of a motion mode may be required (e.g., by the user holding down the motion function trigger). However, when in a telephone mode in which the user can make or answer cell phone calls, no motion mode activation or motion function trigger activation need be required for the user to input motion gestures to answer the phone call or perform other telephone functions on the device 10. In addition, different operating modes of the device 10 can use the motion function trigger and motion mode in different ways. For example, one operating mode may allow motion mode to be exited only by the user deactivating the motion function trigger, while a different operating mode may allow motion mode to be exited by the user inputting a particular motion gesture.

[0166] In some embodiments, the motion function trigger need not be held by the user to activate the motion mode of the device, and/or the exit event is not the release of the motion function trigger. For example, the motion function trigger can be "clicked," i.e., activated (e.g., pressed) and then released immediately, to activate the motion mode that allows device motion to modify one or more states of the device. The device remains in motion mode after the motion function trigger is clicked. A desired predefined exit event can be used to exit the motion mode when detected, so that device motion no longer modifies device states. For example, a particular shake gesture can be detected from the motion data, from motion provided by the user (such as a shake gesture having a predetermined number of shakes) and, when detected, exits motion mode. Other types of gestures can be used in other embodiments to exit the motion mode. In still other embodiments, the exit event is not based on user motion. For example, motion mode can be exited automatically based on other criteria, such as the completion of a detected gesture (when the gesture is detected correctly by the device).」
(パテントファミリ文献、段落【0154】-【0158】(特に段落【0155】)を参照した、当審訳:
「動き機能トリガーを用いたアプリケーション」

[0162] ここに記載されるように、端末の動きを、動きを検知する端末10の入力コントロール装置で検知された入力と組み合わせて利用できる。入力コントロール手段は、ユーザがジェスチャー入力を意図する端末の動きの間、端末がジェスチャーを検知する指示を与える。例えば、1つまたはそれ以上のボタン、(機械式、光学式、磁気式などの)スイッチ、ノブ、ホイール、ダイアル、その他の入力コントロール装置は、すべて、ここでは(図2に示されるように)「動き機能トリガー」(「MFT」ともいう)36として参照され、動きを検知する端末10のハウジングに設けることができ、それらをユーザが押したりして起動させることができる。例えば、ユーザのアクセスが便利になるように端末の側面に設けられた、図1に示されたボタン8および9のような、1つまたはそれ以上のボタンが、動き機能トリガーとして使用され得る。動き機能トリガーとしては、(機械式のデバイス、接触センサ、圧力センサ、容量センサ、赤外線センサ、近接センサ、磁気センサ、または、外部との相互作用を検知可能なその他の任意種別のセンサにより実装される)ハードウェアの制御手段を使用することができ、または、(例えば、タッチスクリーン上に表示されたボタンやコントロール手段である)ソフトウェアの/表示上の制御手段を使用することができる。

[0163] ある実施例では、動き機能トリガーを組み合わせたものを、単一の動き機能トリガーについてここに記載した結果を得るために、使用することができる。ある実施例では、(例えば、機械式センサ、容量センサ、または、直接的にあるいは間接的に端末あるいはスクリーンの表面上の圧力を検知できる他のセンサにより検知される)端末上の種々のポイントに加えられた圧力、端末上に置かれた指の本数、端末の把持に用いられたグリップの分布状態、及び、ユーザと端末間の物理的な相互作用のその他の任意の観点を含む、ユーザが端末を保持する方法から、ある動き機能トリガーの結果を推定できる。ある実施例では、端末に対するユーザの手や体の接近が、直接的な物理的接触がなくても、動き機能トリガー・モードの開始に使用され得る。ある実施例では、動き機能トリガーの効果は、タップすること、シェークすること、その他のジェスチャーを含む、端末の動きのセットにマッピングされ得る。動き機能トリガーの効果を起動させるそのような動きの数や性質は、予め設定することができ、あるいは、そのとき起動中のアプリケーションや、端末のコンテキスト、端末の動きの性質、その他の要素に基づいて、動的に推定できる。

[0164] 端末上の動き機能トリガーを、端末が「動きモード」にあるかないかを判断するために利用できる。端末が動きモードにある場合、端末10のプロセッサその他の制御手段は、例えばジェスチャーとして検知されるように、端末の動きを検出して、端末の状態を変更することを可能にする。例えば、動き機能トリガーが活性化されていない状態のとき、例えば、起動されずにユーザが保持しているときに、ユーザは端末の状態を変更することなく自然に端末を動かす。しかし、動き機能トリガーをユーザが起動しているときは、端末の動きによって端末の1つ以上の状態が変更される。端末の状態の変更とは、機能の選択、および/または、ある機能若しくはプログラムの実行若しくは起動である。例えば、動きモード中に受け取る動きデータからジェスチャーを検知することに応じて、ある機能が端末上で実行され得る。終了イベントの検出に基いて、端末は、動きモードを終了する。例えば、この実施例では、動き機能トリガーがユーザによって解放されて、動き機能トリガーから活性化信号がもはや検知されなくなったときに、終了イベントが発生する。ある実施例では、動きモードの終了後のみ、例えば、この実施例では、ボタンが離された後にのみ、動きデータに基づく端末の状態の変更が行われる。動きモードでないとき、端末(例えば、端末のプロセッサその他の適用可能な制御手段)は、動きのジェスチャー認識の目的で検知された動きデータ入力を無視する。ある実施例では、検知された動きデータは、依然として入力とされ、上述された端末の方向のモデルを計算するなどの別の機能若しくは目的のため使用されるか;または、ある実施例では、動き機能トリガーのある実施例と一緒に用いると上手く機能しないであろうタップジェスチャーのような、特定の既定の種類のジェスチャーその他の動きのみが、依然として入力および/または認識される。他の実施例では、例えば、センサ停止時など、動きモードでないときには、全ての検知された動きデータが、いかなる目的についても無視される。例えば、ボタンを離すことは、端末の動きとして検知されるスパイクを発生させるが、このスパイクは、ボタンを離した後に発生し、そして、無視される。

[0165] 端末の動きモードにおける操作は、端末の操作モードに依存する。例えば、端末がある操作モードにあるときには、動きジェスチャーを入力するために、ユーザは、動きモードを開始する動き機能トリガーを活性化することが必要とされる一方、端末が別の操作モードにあるときには、どのような動き機能トリガーの活性化も必要とされない。例えば、端末の動きに基づいて端末の表示スクリーン16a上でイメージのセットその他のオブジェクトをスクロールできる、イメージ表示の操作モードにあるときには、(例えば、ユーザが動き機能トリガーを押し続けることによって)動きモードの起動が要求される。しかし、ユーザが携帯電話を発信したり応答できる電話モードにあるときには、ユーザが端末10上で、電話の呼出への応答その他の電話機能を実行するために、動きモードの起動や動き機能トリガーの起動は要求されない。さらに、端末10の異なる操作モードにおいて、その動き機能トリガーや動きモードを異なる方法で利用できる。例えば、ある操作モードにおいては、ユーザが動き機能トリガーを不活性化することによってのみ、動きモードから出られる一方、別の操作モードにおいては、ユーザが特定の動きのジェスチャーを入力することによって、動きモードから出られる。

[0166] ある実施例では、端末の動きモードを起動するために、ユーザが動き機能トリガーを保持している必要はなく、および/または、停止イベントも動き機能トリガーを離す必要はない。例えば、端末の動きにより端末の1つまたはそれ以上の状態を変更可能にする動きモードを起動するために、動き機能トリガーが「クリック」すなわち起動されて(例えば、押し込まれて)、その後、直ちに離される。端末は、動き機能トリガーがクリックされた以降、動きモードにとどまる。所望の既定の停止イベントが検知されたとき、動きモードを停止するために使用され、それ以降、端末の動きは端末の状態をそれ以上変更しない。例えば、特定のシェークするジェスチャーが、(所定の回数振る動作を有するシェークするジェスチャーなどの)ユーザが与える動きデータから検知され、そして、検知されると動きモードが停止する。他の実施例では、別の種類のジェスチャーが、動きモードを停止するために使用され得る。さらに他の実施例では、停止イベントは、ユーザの動きには基づかない。例えば、検知されたジェスチャーの完了(ジェスチャーが正しく端末によって検知されたとき)のような、他の基準に基づいて、動きモードは、自動的に停止され得る。)

(8) 図1
図1を参照すると、ディスプレイ・スクリーン16aを備える端末10において、用語「x軸」、「y軸」は、それぞれ、ディスプレイ・スクリーン16aの平面内の左右方向の軸と、上下方向の軸であり、「z軸」は、ディスプレイ・スクリーン16aの平面と垂直な方向であり、「ピッチ回転」、「ロール回転」、「ヨー回転」は、それぞれ、x軸周り、y軸周り、z軸周りの回転であることが記載されていると認められる。

(9) 図2
図2を参照すると、メモリ14およびインターフェース装置16、ディスプレイ・スクリーン16aは、バス18によって、アプリケーションプロセッサ12と接続されることが記載されていると認められる。

よって、上記各記載事項を関連図面(特に,図1、図2、図4A-C)に照らし、下線部に着目すれば、引用文献には次の発明(以下、「引用発明」という。)が記載されているといえる。

「端末10は、アプリケーションプロセッサ12を含み、
プロセッサ12は、動き処理装置(MPU)20からのセンサ入力に基づき、ジェスチャーの処理と認識を実行し、
端末10は、また、インターフェース装置16などの、アプリケーションプロセッサ12を補助する要素を含んでおり、
インターフェース装置16は、音声スピーカ、ボタン、スイッチ、タッチスクリーン、ジョイスティック、スライダ、ノブ、プリンタ、スキャナ、カメラ、コンピュータネットワークI/O装置その他の接続された周辺機器などの、ユーザに入力及び/または出力を提供する種々の多様な装置であり、
一つのインターフェース装置16は、ユーザが視認できるイメージを出力するディスプレイ・スクリーン16aであり、
メモリ14およびインターフェース装置16、ディスプレイ・スクリーン16aは、バス18によって、アプリケーションプロセッサ12と接続され、
端末10は、動き処理装置(MPU)20も含み、
動き処理装置(MPU)20は、空間中での端末10の動き(またはその一部)を測定可能な運動センサを含み、
3つのジャイロスコープ26と、3つの加速度計28とを使用すれば6自由度の全ての検知が可能な、6軸検知装置を提供できる、端末10であり、

ある実施例では、動き機能トリガーを直接参照することなく、ここに記載されている端末との相互作用は、動き機能トリガーの起動に基づいて実行されてもよく、

パン及びズームは、端末10のディスプレイ・スクリーンに表示されたイメージ上で実行され、
イメージを上下左右に移動させる動作は、パンと呼ばれ、
イメージの表示を近づけるか遠ざける動作は、ズームと呼ばれ、ここで用語「ズーム」は、ズームイン(より近い表示)とズームアウト(より遠い表示)の両方を含み、
ある実施例では、ボタンを押下したままで、端末に対してロール及びピッチ回転を与えることが、イメージのパンを提供し、y軸周りのロール動作が、イメージを左右方向に移動させ、x軸周りのピッチ動作が、イメージを上下方向に移動させ、ある実施例では、イメージは、ユーザがボタンを押して維持しているときのみ、そのように操作でき、
ある実施例では、ディスプレイ・スクリーン16aの平面と垂直な方向であるz軸に沿った、内向きと外向き(in-and-out)の動き(例えば、内向き(in)でズームイン、外向き(out)でズームアウト、若しくは、他の制御スキームで)や、x軸若しくはy軸に沿った直線的な動きなどのように、ほぼ直線軸に沿って装置を動かすことによって、ディスプレイされた表示のズームを制御することができ、
ある実施例では、端末がx軸周りのピッチ回転で操作されるときに、ズーム機能を提供でき、ある実施例では、この動きはイメージを上下方向にパンさせる端末の動き(あるいは他のパン機能の実行)と同じタイプの端末の動きであるため、(例えば、ボタンである)第2の動き機能トリガーを、例えば、ズームする間第2のボタンを保持し続けるようにすることで、ズームのために利用でき、
他の実施例では、端末のz軸周りのヨー回転が、ズームを制御するために使用され、ある実施例では、単一のボタンが、動きを利用してイメージを操作するモードに入るために使用され、ここで、y軸周りのロールの動きがイメージを左右方向にパンさせ、x軸周りのピッチの動きがイメージを上下方向にパンさせ、z軸周りのヨーの動きがイメージを拡大または縮小するようにズームさせ、

ユーザが、ボタンを押し、かつ、保持して、それから、ボタンを保持している間にジェスチャーを実行する方式は、無意識での動きをシステムがジェスチャーとして認識しないようにするから、確実性を付与するものであり、

端末の動きを、動きを検知する端末10の「動き機能トリガー」36で検知された入力と組み合わせて利用でき、
「動き機能トリガー」36は、ユーザがジェスチャー入力を意図する端末の動きの間、端末がジェスチャーを検知する指示を与え、
「動き機能トリガー」36は、動きを検知する端末10のハウジングに設けることができ、それらをユーザが押したりして起動させることができ、例えば、ユーザのアクセスが便利になるように端末の側面に設けられた、ボタン8および9のような、1つまたはそれ以上のボタンが、動き機能トリガーとして使用され、動き機能トリガーとしては、(機械式のデバイス、接触センサ、圧力センサ、容量センサ、赤外線センサ、近接センサ、磁気センサ、または、外部との相互作用を検知可能なその他の任意種別のセンサにより実装される)ハードウェアのコントロール手段を使用することができ、または、(例えば、タッチスクリーン上に表示されたボタンやコントロール手段である)ソフトウェアの/表示上の制御手段を使用することができ、
ある実施例では、動き機能トリガーを組み合わせたものを、単一の動き機能トリガーについてここに記載した結果を得るために、使用することができ、ある実施例では、(例えば、機械式センサ、容量センサ、または、直接的にあるいは間接的に端末あるいはスクリーンの表面上の圧力を検知できる他のセンサにより検知される)端末上の種々のポイントに加えられた圧力、端末上に置かれた指の本数、端末の把持に用いられたグリップの分布状態、及び、ユーザと端末間の物理的な相互作用のその他の任意の観点を含む、ユーザが端末を保持する方法から、ある動き機能トリガーの結果を推定し、
端末上の動き機能トリガーを、端末が「動きモード」にあるかないかを判断するために利用でき、端末が動きモードにある場合、端末10のプロセッサその他のコントロール手段は、例えばジェスチャーとして検知されるように、端末の動きを検出して、端末の状態を変更する、
携帯電子装置。」

4.対比
本願発明と引用発明とを対比すると次のことがいえる。

(1) 引用発明の「端末10」は、本願発明の「電子装置」に相当する。

(2) 引用発明の「ディスプレイ・スクリーン16a」は、本願発明の「タッチスクリーン」と、「スクリーン」である点で共通するといえる。

(3) 引用発明の「3つのジャイロスコープ26と、3つの加速度計28とを使用すれば6自由度の全ての検知が可能な、6軸検知装置」である「空間中での端末10の動き(またはその一部)を測定可能な運動センサ」は、本願発明の「前記電子装置の動きを感知するセンサ部」に相当する。

(4) 引用発明の「動き処理装置(MPU)20からのセンサ入力に基づき、ジェスチャーの処理と認識を実行」する「アプリケーションプロセッサ12」であって、「パン及びズームは、端末10のディスプレイ・スクリーンに表示されたイメージ上で実行され、……(中略)……イメージの表示を近づけるか遠ざける動作は、ズームと呼ばれ、ここで用語「ズーム」は、ズームイン(より近い表示)とズームアウト(より遠い表示)の両方を含み、……(中略)……ある実施例では、ディスプレイ・スクリーン16aの平面と垂直な方向であるz軸に沿った、内向きと外向き(in-and-out)の動き(例えば、内向き(in)でズームイン、外向き(out)でズームアウト、若しくは、他の制御スキームで)や、x軸若しくはy軸に沿った直線的な動きなどのように、ほぼ直線軸に沿って装置を動かすことによって、ディスプレイされた表示のズームを制御することができ、ある実施例では、端末がx軸周りのピッチ回転で操作されるときに、ズーム機能を提供でき、……(中略)……(例えば、ボタンである)第2の動き機能トリガーを、例えば、ズームする間第2のボタンを保持し続けるようにすることで、ズームのために利用でき、他の実施例では、端末のz軸周りのヨー回転が、ズームを制御するために使用され、ある実施例では、単一のボタンが、動きを利用してイメージを操作するモードに入るために使用され、ここで、y軸周りのロールの動きがイメージを左右方向にパンさせ、x軸周りのピッチの動きがイメージを上下方向にパンさせ、z軸周りのヨーの動きがイメージを拡大または縮小するようにズームさせ」るものは、本願発明の「イメージが表示される前記タッチスクリーン上にタッチされた点の個数を獲得し、前記センサ部から前記電子装置の動きに関する情報を獲得し、前記獲得したタッチされた点の個数が2以上であり、前記電子装置の動きに関する情報が前記電子装置がユーザから遠くなったことを意味すると、前記イメージを縮小して表示し、前記獲得したタッチされた点の個数が2以上であり、前記電子装置の動作に関する情報が前記電子装置が前記ユーザに向かって動いたことを意味すると、前記イメージを拡大して表示させる制御部」と、「前記センサ部から前記電子装置の動きに関する情報を獲得し、前記電子装置の動きに関する情報が、何らかの条件を満たすと、前記イメージを縮小して表示し、前記電子装置の動作に関する情報が、何らかの条件を満たすと、前記イメージを拡大して表示させる制御部」である点で共通するといえる。

(5) 引用発明の(端末10の)「ディスプレイ・スクリーン16aの平面と垂直な方向であるz軸に沿った、内向きと外向き(in-and-out)の動き」は、これによって「ディスプレイされた表示のズームを制御する」ことから、「動き」の「量」を意味していると解され、本願発明の「前記電子装置の動作に関する情報に含まれた、前記電子装置が移動した距離」と、「前記電子装置の動作に関する情報に含まれた、前記電子装置が移動した量」である点で共通するといえる。

したがって、本願発明と引用発明との間には、次の一致点・相違点があるといえる。

[一致点]
「電子装置であって、
スクリーンと、
前記電子装置の動きを感知するセンサ部と、
前記センサ部から前記電子装置の動きに関する情報を獲得し、前記電子装置の動きに関する情報が、何らかの条件を満たすと、前記イメージを縮小して表示し、前記電子装置の動作に関する情報が、何らかの条件を満たすと、前記イメージを拡大して表示させる制御部と、を含む、
ことを特徴とする電子装置。」

[相違点1]
本願発明の電子装置は「タッチスクリーン」を備えるのに対して、引用発明の「端末10」は「タッチスクリーン」を備えることは、特定されていない点。

[相違点2]
「制御部」が、本願発明では、「イメージが表示される前記タッチスクリーン上にタッチされた点の個数を獲得し、前記センサ部から前記電子装置の動きに関する情報を獲得し、前記獲得したタッチされた点の個数が2以上であり、前記電子装置の動きに関する情報が前記電子装置がユーザから遠くなったことを意味すると、前記イメージを縮小して表示し、前記獲得したタッチされた点の個数が2以上であり、前記電子装置の動作に関する情報が前記電子装置が前記ユーザに向かって動いたことを意味すると、前記イメージを拡大して表示させる制御部」であるのに対して、引用発明では、「イメージが表示される前記タッチスクリーン上にタッチされた点の個数を獲得し」、「前記獲得したタッチされた点の個数が2以上であり」、「前記電子装置がユーザから遠くなったことを意味すると」、前記イメージを縮小して表示し、「前記獲得したタッチされた点の個数が2以上であり」、「前記電子装置が前記ユーザに向かって動いたことを意味すると」、前記イメージを拡大して表示させることは、特定されていない点。

[相違点3]
本願発明では、「前記イメージが拡大又は縮小される倍率は、前記電子装置の動作に関する情報に含まれた、前記電子装置が移動した距離に比例する」のに対して、引用発明では、ズーム倍率と電子装置が移動した量との対応関係が特定されていない点。

5.当審の判断
[相違点1]、[相違点2]について
「ズーム」操作に、3軸の回転方向または直線方向のいずれを採用するかや、「動き機能トリガー」として、具体的にどのような手段を採用するかは、ユーザの使い勝手や、端末の機能や用途等を考慮して、当業者が適宜選択すべき設計的事項であると認められる。
引用発明は、
「端末10」の実施例において、
「音声スピーカ、ボタン、スイッチ、タッチスクリーン、ジョイスティック、スライダ、ノブ、プリンタ、スキャナ、カメラ、コンピュータネットワークI/O装置その他の接続された周辺機器などの、ユーザに入力及び/または出力を提供する種々の多様な装置」を備えることが例示され、
『パン及びズーム』の実施例において、
「ディスプレイ・スクリーン16aの平面と垂直な方向であるz軸に沿った、内向きと外向き(in-and-out)の動き(例えば、内向き(in)でズームイン、外向き(out)でズームアウト」することが例示され、
『動き機能トリガーを用いたアプリケーション』の実施例において、
動き機能トリガーとして、
「例えば、タッチスクリーン上に表示されたボタンやコントロール手段である)ソフトウェアの/表示上の制御手段」が例示されるとともに、
(複数の)「動き機能トリガーを組み合わせたもの」として、
「(例えば、機械式センサ、容量センサ、または、直接的にあるいは間接的に端末あるいはスクリーンの表面上の圧力を検知できる他のセンサにより検知される)端末上の種々のポイントに加えられた圧力、端末上に置かれた指の本数、……を含む、ユーザが端末を保持する方法」が例示されるものである。
さらに、「マルチタッチ」方式のタッチスクリーンにおいて、各種の入力操作を検出するために、タッチスクリーン上の指の本数を検出することが、文献を挙げるまでもなく周知技術であることを考慮すると、引用発明において、
「端末10」として、文献を挙げるまでもなく周知であって、かつ、例示された「タッチスクリーン」を備えるものを採用し、この場合に、
「ズーム」操作として、例示された「ディスプレイ・スクリーン16aの平面と垂直な方向であるz軸に沿った、内向きと外向き(in-and-out)の動き(例えば、内向き(in)でズームイン、外向き(out)でズームアウト」を採用し(なお、ここで、端末を操作するユーザは、通常、端末のスクリーンの正面、すなわち、端末のz軸方向に位置するから、引用発明の上記「z軸に沿った、内向きと外向きの動き」とは、電子装置がユーザから近くなったことと、遠くなったことを意味することが明らかであるといえる。)、
「動き機能トリガー」として、例示された「スクリーンの表面上の圧力を検知できる」「センサにより検知される」「端末上の種々のポイントに加えられた圧力」や、「端末上に置かれた指の本数」とするとともに、このとき、「タッチスクリーン」によって「2本」の指を検知する構成を採用することによって、
「タッチスクリーン」を備え、「イメージが表示される前記タッチスクリーン上にタッチされた点の個数を獲得し、前記センサ部から前記電子装置の動きに関する情報を獲得し、前記獲得したタッチされた点の個数が2以上であり、前記電子装置の動きに関する情報が前記電子装置がユーザから遠くなったことを意味すると、前記イメージを縮小して表示し、前記獲得したタッチされた点の個数が2以上であり、前記電子装置の動作に関する情報が前記電子装置が前記ユーザに向かって動いたことを意味すると、前記イメージを拡大して表示させる制御部」を備える、上記[相違点1]、[相違点2]に係る本願発明の構成とすることは、当業者が容易に推考し得ることである。

[相違点3]について
ズーム操作において、ズーム倍率と装置が移動した量との対応関係をどのように設めるかは、ユーザの使い勝手等を考慮して、当業者が適宜選択すべき設計的事項であると認められる。
一般に、カメラ等のズーム操作において、いわゆる「連続ズーム」のように操作量とズーム倍率を比例関係とすることも、いわゆる「ステップズーム」のように、操作量とズーム倍率とを不連続などの比例以外の関係とすることも、文献を挙げるまでもなく周知技術である。
よって、引用発明において、z軸方向への端末の動きに応じてズーム操作を行う場合、「前記イメージが拡大又は縮小される倍率は、前記電子装置の動作に関する情報に含まれた、前記電子装置が移動した距離に比例する」関係を採用することによって、上記[相違点3]に係る本願発明の構成とすることは、ユーザの使い勝手等を考慮して、当業者が適宜選択すべき設計的事項である。

さらに、本願発明の効果も、引用発明において「無意識での動きをシステムがジェスチャーとして認識しないようにするから、確実性を付与する」という、ボタン(動き機能トリガー)の効果が開示されていることを考慮すると、引用発明及び周知技術に基づいて、当業者が予測し得る範囲内のものである。

6.むすび
したがって、本願発明は、引用発明、及び、周知技術に基づいて、当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。
したがって、本願は、その余の請求項について論及するまでもなく拒絶すべきものである。
よって、結論のとおり審決する。
 
審理終結日 2017-11-29 
結審通知日 2017-12-04 
審決日 2017-12-15 
出願番号 特願2015-117002(P2015-117002)
審決分類 P 1 8・ 121- WZ (G06F)
最終処分 不成立  
前審関与審査官 菅原 浩二  
特許庁審判長 新川 圭二
特許庁審判官 山澤 宏
稲葉 和生
発明の名称 モーション基盤のユーザインターフェース制御装置及び方法  
代理人 崔 允辰  
代理人 実広 信哉  
代理人 木内 敬二  
代理人 阿部 達彦  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ