ポートフォリオを新規に作成して保存 |
|
|
既存のポートフォリオに追加保存 |
|
PDFをダウンロード |
審決分類 |
審判 査定不服 2項進歩性 取り消して特許、登録 G06F 審判 査定不服 5項独立特許用件 取り消して特許、登録 G06F |
---|---|
管理番号 | 1317335 |
審判番号 | 不服2016-779 |
総通号数 | 201 |
発行国 | 日本国特許庁(JP) |
公報種別 | 特許審決公報 |
発行日 | 2016-09-30 |
種別 | 拒絶査定不服の審決 |
審判請求日 | 2016-01-18 |
確定日 | 2016-08-09 |
事件の表示 | 特願2011-126525「位置算出システム、位置算出装置、位置算出プログラム、および位置算出方法」拒絶査定不服審判事件〔平成24年 3月29日出願公開、特開2012- 64199、請求項の数(28)〕について、次のとおり審決する。 |
結論 | 原査定を取り消す。 本願の発明は、特許すべきものとする。 |
理由 |
第1 手続の経緯 本願は、平成23年6月6日の出願(優先権主張2010年8月20日)であって、平成27年10月19日付けで拒絶査定がされ、これに対し、平成28年1月18日に拒絶査定不服審判が請求され、同時に手続補正がされたものである。 第2 平成28年1月18日付けの手続補正(以下、「本件補正」という。)の適否 1.補正の内容 (1) 請求項1-13について 本件補正は、特許請求の範囲の請求項1を 「操作装置に対する操作に基づいて3次元の仮想空間内の位置を算出する位置算出システムであって、 前記操作装置の姿勢と、前記操作装置に設けられた所定の入力面に対する入力位置とに基づいて前記仮想空間内の位置を算出し、 前記仮想空間内の位置として、前記仮想空間内において前記操作装置の姿勢に応じて決められる面における位置を前記入力位置に基づいて算出し、 前記操作装置の姿勢に対応して姿勢が制御される第1オブジェクトを前記仮想空間に配置するオブジェクト配置部と、 前記操作装置とは異なる所定の表示装置に表示するための画像として、前記第1オブジェクトを含む前記仮想空間を表す画像を生成する画像生成部とを備える、位置算出システム。」と補正することによって、「位置算出システム」が、「前記操作装置の姿勢に対応して姿勢が制御される第1オブジェクトを前記仮想空間に配置するオブジェクト配置部と、前記操作装置とは異なる所定の表示装置に表示するための画像として、前記第1オブジェクトを含む前記仮想空間を表す画像を生成する画像生成部とを備える」と限定し、それに伴い従属請求項11-12について、同一内容の事項が重複することなどを避けるために表現を整理すること(以下、「補正事項1」という。)を含んでいる。 (2) 請求項14-24について 特許請求の範囲の請求項14(本件補正前の請求項15)の「位置算出方法」が、「前記操作装置の姿勢に対応して姿勢が制御される第1オブジェクトを前記仮想空間に配置するオブジェクト配置ステップと、前記操作装置とは異なる所定の表示装置に表示するための画像として、前記第1オブジェクトを含む前記仮想空間を表す画像を生成する画像生成ステップとを備える」と限定し、それに伴い従属請求項22-23について、同一内容の事項が重複することなどを避けるために表現を整理すること(以下、「補正事項2」という。)を含んでいる。 (3) 請求項25-26について 特許請求の範囲の請求項25(本件補正前の請求項27)の「位置算出装置」が、「前記操作装置の姿勢に対応して姿勢が制御される第1オブジェクトを前記仮想空間に配置するオブジェクト配置部と、前記操作装置とは異なる所定の表示装置に表示するための画像として、前記第1オブジェクトを含む前記仮想空間を表す画像を生成する画像生成部とを備える」と限定すること(以下、「補正事項3」という。)を含んでいる。 (4) 請求項27-28について 特許請求の範囲の請求項27(本件補正前の請求項29)の「位置算出プログラム」が、「前記操作装置の姿勢に対応して姿勢が制御される第1オブジェクトを前記仮想空間に配置するオブジェクト配置手段と、前記操作装置とは異なる所定の表示装置に表示するための画像として、前記第1オブジェクトを含む前記仮想空間を表す画像を生成する画像生成手段として前記コンピュータを機能させる」と限定し、それに伴い従属請求項28について、表現を整理すること(以下、「補正事項4」という。)を含んでいる。 (5) 本件補正前の請求項13、25について 本件補正前の請求項13、25を削除し、それに伴い請求項の項番を繰り上げる補正(以下、「補正事項5」という。)を含んでいる。 2.補正の適否 (1)補正事項1について 本件補正の補正事項1は、実質的に、オブジェクト配置部と画像生成部とを備えるという補正前の従属請求項13(従属請求項13の請求項1を引用する部分)の内容について、さらに、「所定の表示装置」が操作装置とは異なるとの限定を付加するものであって、補正前の請求項に記載された発明と補正後の請求項に記載された発明の産業上の利用分野及び解決しようとする課題が同一であるから、特許法第17条の2第5項第2号の特許請求の範囲の減縮を目的とするものに該当する。 また、特許法第17条の2第3項、第4項に違反するところはない。 そこで、本件補正後の前記請求項1に記載された発明(以下、「補正発明1」という。)が特許法第17条の2第6項において準用する同法第126条第7項の規定に適合するか(特許出願の際独立して特許を受けることができるものであるか)について以下に検討する。 ア 引用文献1の記載事項、引用発明 原査定の拒絶の理由に引用された国際公開第2010/088477号(以下、「引用文献1」という。)には、次の記載がある(下線は、特に着目した箇所を示す。訳は、パテントファミリである特表2012-516518号公報(段落【0011】-【0024】、【0031】)を参照して当審訳。以下同様。)。 (ア) 3ページ29行目-8ページ27行目 「Referring now to Figure 1, Figure 1 shows a device 100 for providing a graphical user interface according to one embodiment of the present invention. The device 100 comprises a housing 110, a display 120, a processor 130, a sensor 140, and an actuator 150. In the embodiment shown, the housing 110 is a cell phone housing, however, in other embodiments, the housing 110 may be other types of housings, such as a housing for a personal digital assistant (PDA), remote control (e.g. for a TV), a cellular telephone, mobile computer, a display, or other suitable device. In some embodiments, housing 110 may comprise a handheld device housing, in other embodiments, housing 110 may comprise a larger housing, for example a computer monitor housing or a housing for a fixed display. The display 120 is disposed within the housing such that the display 120 is configured to display image to a user of the device 100. In the embodiment shown in Figure 1, the display 120 is a touch-sensitive display and is configured to sense a contact with the display 120, such as from a user's finger or a stylus. The display 120 is also configured to display a graphical user interface to the user, such as to provide status information to a user or to provide an interface to allow the user to access functions provided by the device 100. The device 100 also comprises a processor 130 disposed within the housing 110. In the embodiment shown in Figure 1, the processor 130 is disposed within the device 100 such that is entirely disposed within the device 100, which is indicated by a dashed line. In some embodiments, however, the processor may not be disposed in the device 100. For example, in one embodiment, the device may comprises a desktop computer in communication with a monitor or LCD screen. Similarly, in some embodiments, the sensor 140 and the actuator 150 are entirely disposed within the device 100, though in some embodiments, part or all of the sensor 140 or actuator 150 may be visible to a user. In the embodiment shown, the processor 130 is in communication with the sensor 140, the actuator 150, and the display 120. The processor 130 is configured to receive sensor signals from the sensor 140, to output display signals to the display 120, and to output actuator signals to the actuator 150. The processor 130 is further configured to determine a command associated with a user interface based on one or more sensor signals received from the sensor 140. For example, in the gear shift embodiment described above, the sensor 140 may send a sensor signal to the processor 130 indicating that the user has moved the cell phone 100 to the left. The processor 130 determines that a command should be generated to cause the gear shift knob displayed in the graphical user interface to move to the left. In the embodiment shown in Figure 1, the user may also cause a similar command to be issued by the processor by touching the display 120 at a location corresponding to the gear shift knob and dragging her finger to the left. Thus, the processor 130 may interpret sensor signals to generate commands associated with the graphical user interface. For example, the processor 130 may receive multiple sensor signals associated with movements of the cell phone 100 and then receive a sensor signal indicating a selection of a function. The processor 130 is also configured to generate display signals based on the graphical user interface. Typically, a graphical user interface executes on a processor 130 as a part of or in concert with another application (or the operating system) and is displayed on a display device. Thus, the graphical user interface may cause the processor to generate display signals to cause the display 120 to display the graphical user interface. After the processor 130 issues a command associated with the graphical user interface, such as based on a sensed movement of the cell phone 110, the graphical user interface may update a state of the graphical user interface and then cause the processor 130 to generate a display signal to update the display of the graphical user interface. In the embodiment shown in Figure 1, sensor 140 is disposed within the cell phone 100 and is configured to detect movements and changes in orientation of the cell phone 100. However, in some embodiments, part or all of the sensor 140, or a plurality of sensors, may be located externally on the device any may be contacted by a user. The sensor 140 shown comprises a gyroscopic sensor capable of detecting motion along three translational axes 160 and in rotation about the three translational axes 160. However, in other embodiments, other suitable sensors may be employed, such as one or more accelerometers for detecting translational or rotational movement along or about one or more axes. Another suitable sensor may comprise a receiver for receiving input from an external source, such as a light or radio source for determining a position of the device 100. For example, a plurality of radio transmitters may be arranged within a room and the sensor 140 may receive radio signals from the transmitters and determine a position and orientation based on the received radio signals. In other embodiments, the sensor 140 may comprise a GPS sensor, a touch-sensitive input device (e.g. touch screen, touch-pad), a texture stylus, an imaging sensor, or some other type of sensor. The one or more sensors 140 may be configured to detect changes in acceleration, inclination, inertia, or location. For example, the device 100 may comprise an accelerometer configured to measure acceleration of the device 100. Or the cell phone 100 may comprise a location sensor, rotary velocity sensor, light sensor, pressure sensor, texture sensor, camera, microphone, or other type of sensor. And while some disclosed embodiments of the present invention are discussed with respect to sensed movement of the device, other sensed inputs may be used in addition to or instead of such sensed movement, including without limitation pressures, contacts, button presses, or audible signals. Such sensors may facilitate a user's interaction with a device 100 using only one hand. The sensor 140 is also configured to transmit sensor signals 140 to the processor 130. The sensor signals may comprise one or more parameters associated with a position, a movement, an acceleration, or a "jerk" (i.e. the derivative of acceleration) of the device 100. For example, in one embodiment, the sensor 140 generates and transmits a sensor signal comprising a plurality of parameters, each parameter associated with a movement along or about one measured translational or rotational axis. In some embodiments of the present inventions, a sensor 140 may provide multi-touch sensing capabilities. For example, in one embodiment, a pressure sensor may be able to detect pressures at multiple locations on the pressure sensor and provide one or more sensor signals associated with the pressures at each of the multiple locations. Further, sensors may be located on the front, sides, or rear of a device in different embodiments, and each of which may provide one or more sensor signals associated with contacts or pressures. In some embodiments, the sensor outputs voltages or currents that the processor is programmed to interpret to indicate movement along one or more axes 160. The processor 130 is also in communication with one or more actuators 150. Actuator 150 is configured to receive an actuator signal from processor 130 and output a haptic effect. After the processor 130 determines a haptic effect, it sends an actuator signal to actuator 150. The actuator signal is configured to cause actuator 150 to output the determined haptic effect. Actuator 150 may be, for example, a piezoelectric actuator, an electric motor, an electro-magnetic actuator, a voice coil, a linear resonant actuator, a shape memory alloy, an electro-active polymer, a solenoid, an eccentric rotating mass motor (ERM) or a linear resonant actuator (LRA). Referring now to Figure 2a, Figure 2a shows a graphical user interface according to one embodiment of the present invention. According to some embodiments of the present invention, the user interface shown in Figure 2a may be manipulated by a user using only a single hand to move the device 100. In the embodiment shown in Figure 2a, the device 100 of Figure 1 executes a user interface 210 useable to select and activate a function of the device 100. In the embodiment shown, the user interface comprises a virtual workspace 230, or virtual physical space, with dimensions exceeding the visible area of the display 120. In various embodiments, a virtual workspace 230 may comprise a one dimensional or multidimensional workspace. In some embodiments, the virtual workspace may be bounded, though in other embodiments it may be unbounded. To navigate within the virtual workspace, the user moves the device 100 in one or more directions to select a desired function. For example, user may shake (or jog) the device in a direction approximately perpendicular to the plane of the device's display 120 (i.e. along a Z-axis or a surface normal), touch a touch sensitive display, or press a button on the device. By doing so, the device 100 may determine that it should activate the virtual workspace 230 and interpret sensed movement of the device 100 in an X or Y direction as corresponding to a virtual movement "within" the virtual workspace 230. The user may then move the device 100 within the virtual workspace 230 to select a desired function. To select the function, the user may again shake the device along the Z-axis in a tapping motion, touch the touch sensitive display 120, or press a button once the desired function is selected, such as by centering it within the display 120, or make another gesture associated with a selection function. In some embodiments, haptic effects may aid the user in determining when a function has been selected as will be described in more detail below. Alternatively, the user may opt to not execute a function and may indicate to the device 100 that the device 100 should no longer interpret movement of the device as movement within the virtual workspace 230. In a related embodiment shown in Figure 2b, a user interface 240 may comprise a three-dimensional virtual workspace 232, such as in a virtual physical space 232, such that the user may move the device in any of an X, Y, or Z axis to select a function to execute. In such embodiments, the user may enable or disable the virtual workspace 232 using one or more gestures, such as shaking the device 100 from side to side, tapping the touch-sensitive display 120, squeezing pressure sensors on the sides or rear of the device 100, speaking a command into a microphone on the device, or pressing a button on the device 100. Additionally, embodiments of the present invention for interfacing with such a three- dimensional virtual physical space may comprise three-dimensional objects rather than two- dimensional icons that a user may select and activate. For example, in one embodiment of the present invention, a plurality of functions may each be represented by virtual physical objects 270-274, such as balls or blocks, in a three- dimensional virtual physical space 232. In one embodiment, when beginning to navigate within the virtual physical space 232, the user stands at the origin of the X, Y, and Z axes such that objects 270-274 arranged within the virtual physical space 232 are positioned relative to the user. As such, when navigating within the virtual physical space 232, the user may move away from the origin, such as by taking a step forward or backward, or by moving the device 100 in various directions, which may be detected by a sensor within the device 100. Such movement may result in the user moving away from the origin point. However, the user may be able to reset the graphical user interface 240 to re-center it on the user. In addition, upon re-activating the virtual physical space 232 at a later time, the user's location may be reset to the origin. In embodiments of the present invention providing a graphical user interface 240 comprising a virtual physical space 232, the user may move the device to various locations and orientations to view different virtual physical objects 270-274, such as balls or blocks, representing applications and data "floating" in the virtual physical space. A user can arrange the location of the various virtual physical objects 270-274 such as by selecting an object and dragging it to new location within the virtual physical space 232. For example, the user may arrange the objects 270-274 such that objects representing frequently-accessed functions are positioned "near" the user, i.e. the objects are positioned at coordinates close to the origin of the X, Y, and Z axes, and objects representing less frequently-accessed functions are positioned farther from the user's location. Thus, accessing frequently-used functions may be easier because less movement of the device 100 may be necessary. In some embodiments, users may interact with the virtual physical space 232 or virtual physical objects 270-274 through other types of movements or gestures, which are detected by the one or more sensors 140. As the device 100 is tilted, shaken, or otherwise moved, the one or more sensors may detect these movements, and generate a sensor signal based at least in part on the movement of the communication device. In one embodiment, an accelerometer sensor is configured to detect the inclination and acceleration of the device 100. As the device 100 is tilted, the accelerometer can be configured to send signals to the processor based at least in part on the tilt or acceleration of the device 100. In another embodiment, the display 120 comprises a touch-sensitive display configured to detect gestures or position inputs on the touch-sensitive display. As a finger is positioned or dragged on the touch-sensitive display, the touch-sensitive display may generate signals based at least in part on the finger movement, such as the speed or pressure of the finger movement. In still a further embodiment, the device 100 comprises a pressure sensor on one or more faces of the device, such as on the sides or rear of the device 100 or on the display. A user may touch such a pressure sensor at one or more locations to select or interact with the virtual physical space 230 or virtual physical objects 270-274.」 (訳: ここで図1を参照すると、図1は本発明の一実施形態に従ったグラフィカルユーザインターフェースを提供するためのデバイス100を示す。デバイス100は、ハウジング110、ディスプレイ120、プロセッサ130、センサー140、およびアクチュエータ150からなる。示された実施形態では、ハウジング110は携帯電話ハウジングであるが、その他の実施形態では、ハウジング110は、パーソナルデジタルアシスタント(PDA)、リモートコントロール(例えば、TV用の)、携帯電話、移動コンピューター、ディスプレイ、またはその他の好適なデバイスのためのハウジングのような、その他のタイプのハウジングであっても良い。いくつかの実施形態では、ハウジング110は、手持ち式デバイスハウジングからなっていても良く、その他の実施形態では、ハウジング110は、より大きなハウジング、例えばコンピューターモニターハウジングまたは固定されたディスプレイのためのハウジング、からなっていても良い。ディスプレイ120は、ディスプレイ120が画像をデバイス100のユーザに表示するように構成されるように、ハウジング内に配置されている。図1に示された実施形態では、ディスプレイ120はタッチ感応ディスプレイであり、ユーザの指またはスタイラスからのような、ディスプレイ120との接触を感知するように構成されている。ディスプレイ120はまた、ステータス情報をユーザに提供するためまたはユーザがデバイス100によって提供された機能にアクセスすることを許容するためのインターフェースを提供するためのように、グラフィカルユーザインターフェースをユーザに表示するように構成されている。 デバイス100はまた、ハウジング110内に配置されたプロセッサ130からなる。図1に示された実施形態では、プロセッサ130は、点線によって示されるように、それが全体的にデバイス100内に配置されるように、デバイス100内に配置される。いくつかの実施形態では、しかしながら、プロセッサはデバイス100中に配置されていなくても良い。例えば、一実施形態では、デバイスは、モニターまたはLCDスクリーンと通信しているデスクトップコンピューターからなっていても良い。同様に、いくつかの実施形態では、センサー140とアクチュエータ150が全体的にデバイス100内に配置されるが、いくつかの実施形態では、センサー140またはアクチュエータ150の一部または全部が、ユーザに視認可能であっても良い。示された実施形態では、プロセッサ130は、センサー140、アクチュエータ150およびディスプレイ120と通信している。プロセッサ130は、センサー140からのセンサー信号を受け取り、ディスプレイ信号をディスプレイ120に出力し、アクチュエータ信号をアクチュエータ150に出力するように構成されている。 プロセッサ130は更に、センサー140から受け取った1つ以上のセンサー信号に基づいて、ユーザインターフェースと関連付けられたコマンドを決定するように構成されている。例えば、上述したギアシフトの実施形態では、センサー140は、ユーザが携帯電話100を左に動かしたことを示すセンサー信号をプロセッサ130に送っても良い。プロセッサ130は、グラフィカルユーザインターフェース中に表示されたギアシフトノブが左に動くことを引き起こすためにコマンドが生成されるべきであることを決定する。図1に示された実施形態では、ユーザはまた、ギアシフトノブに対応する位置においてディスプレイ120にタッチし指を左にドラッグすることによって、同様のコマンドがプロセッサによって発行されることを引き起こしても良い。よって、プロセッサ130は、グラフィカルユーザインターフェースと関連付けられたコマンドを生成するためにセンサー信号を解釈しても良い。例えば、プロセッサ130は、携帯電話100の動きと関連付けられた複数のセンサー信号を受け取り、それから機能の選択を示す一つのセンサー信号を受け取っても良い。 プロセッサ130はまた、グラフィカルユーザインターフェースに基づいて、ディスプレイ信号を生成するように構成されている。典型的には、グラフィカルユーザインターフェースは、別のアプリケーション(またはオペレーティングシステム)の一部としてまたはそれと協調してプロセッサ130上で実行され、ディスプレイデバイス上に表示される。よって、グラフィカルユーザインターフェースは、ディスプレイ120がグラフィカルユーザインターフェースを表示することを引き起こすために、プロセッサがディスプレイ信号を生成することを引き起こしても良い。プロセッサ130が、携帯電話100の感知された動きに基づいたもののような、グラフィカルユーザインターフェースと関連付けられたコマンドを発行した後、グラフィカルユーザインターフェースは、グラフィカルユーザインターフェースの状態を更新し、それからグラフィカルユーザインターフェースの表示を更新するためにプロセッサ130がディスプレイ信号を生成することを引き起こしても良い。 図1に示された実施形態では、センサー140は、携帯電話100内に配置され、携帯電話100の動きと向きの変化を検出するように構成されている。しかしながら、いくつかの実施形態では、センサー140の一部または全部、または複数のセンサーは、デバイス上の外部に位置していても良く、ユーザによって接触されても良い。示されたセンサー140は、3つの平行移動軸160に沿った動きと3つの平行移動軸160の周りの回転を検出することが可能なジャイロスコープ状のセンサーからなる。しかしながら、その他の実施形態では、1つ以上の軸に沿ったかまたはその周りの平行移動または回転の動きを検出するための1つ以上の加速度計のような、その他の好適なセンサーが採用されても良い。別の好適なセンサーは、デバイス100の位置を決定するための光または無線ソースのような、外部ソースからの入力を受信するための受信器からなっていても良い。例えば、複数の無線送信機が室内に配列されていても良く、センサー140は、送信機からの無線信号を受信し、受信した無線信号に基づいて位置および向きを決定しても良い。 その他の実施形態では、センサー140は、GPSセンサー、タッチ感応入力デバイス(例えば、タッチスクリーン、タッチパッド)、質感スタイラス、撮像センサー、または何らかのその他のタイプのセンサーからなっていても良い。1つ以上のセンサー140が、加速度、傾斜、慣性または位置の変化を検出するように構成されていても良い。例えば、デバイス100は、デバイス100の加速度を測定するように構成された加速度計からなっていても良い。あるいは携帯電話100は、位置センサー、回転速度センサー、光センサー、圧力センサー、質感センサー、カメラ、マイクロホン、またはその他のタイプのセンサーからなっていても良い。本発明のいくつかの開示された実施形態がデバイスの感知された動きについて説明されたが、そのような感知された動きに加えてまたはその代りに、限定することなく圧力、接触、ボタン押し、または可聴信号を含んだ、その他の感知された入力が使用されても良い。そのようなセンサーは、片手のみを使ったデバイス100とのユーザの相互作用を容易なものとしても良い。 センサー140はまた、センサー信号140をプロセッサ130に送信するように構成されている。センサー信号は、デバイス100の位置、動き、加速度または「急な動き」(即ち、加速度の微分)と関連付けられた1つ以上のパラメータからなっていても良い。例えば、一実施形態では、センサー140は、各パラメータが一つの測定された平行移動または回転軸に沿ったかまたはその周りの動きと関連付けられた、複数のパラメータからなるセンサー信号を生成して送信する。本発明のいくつかの実施形態では、センサー140は、マルチタッチ感知能力を提供しても良い。例えば、一実施形態では、圧力センサーが、圧力センサー上の複数の位置における圧力を検出し、複数の位置の各々における圧力と関連付けられた1つ以上のセンサー信号を提供することが可能であっても良い。更に、センサーが異なる実施形態でのデバイスの前、サイドまたは後ろに位置していても良く、その各々が接触または圧力と関連付けられた1つ以上のセンサー信号を提供しても良い。いくつかの実施形態では、センサーは、1つ以上の軸160に沿った動きを示すと解釈するようにプロセッサがプログラムされている電圧または電流を出力する。 プロセッサ130はまた、1つ以上のアクチュエータ150と通信している。アクチュエータ150は、プロセッサ130からのアクチュエータ信号を受け取り、触覚エフェクトを出力するように構成されている。プロセッサ130が触覚エフェクトを決定した後、それはアクチュエータ信号をアクチュエータ150に送る。アクチュエータ信号は、アクチュエータ150が決定された触覚エフェクトを出力することを引き起こすように構成されている。アクチュエータ150は、例えば、圧電アクチュエータ、電気モーター、電磁アクチュエータ、ボイスコイル、線形共鳴アクチュエータ、形状記憶合金、電気活性ポリマー、ソレノイド、偏心回転質量モーター(ERM)または線形共鳴アクチュエータ(LRA)であっても良い。 ここで図2aを参照すると、図2aは本発明の一実施形態に従ったグラフィカルユーザインターフェースを示す。本発明のいくつかの実施形態によると、図2aに示されたユーザインターフェースは、デバイス100を動かすために片手のみを使ってユーザによって操作されても良い。図2aに示された実施形態では、図1のデバイス100が、デバイス100の機能を選択して稼動するために使用可能なユーザインターフェース210を実行する。示された実施形態では、ユーザインターフェースは、ディスプレイ120の視認可能エリアを超える次元をもった、仮想ワークスペース230または仮想物理的空間からなる。様々な実施形態では、仮想ワークスペース230は、1次元または多次元ワークスペースからなっていても良い。いくつかの実施形態では、仮想ワークスペースは、境界があっても良いが、その他の実施形態ではそれは境界が無くても良い。仮想ワークスペース内をナビゲートするには、ユーザは、望ましい機能を選択するためにデバイス100を1つ以上の方向に動かす。 例えば、ユーザは、デバイスのディスプレイ120の平面と近似的に直角な方向に(Z軸または表面法線に沿って)デバイスを振り(または揺り動かし)、タッチ感応ディスプレイにタッチし、またはデバイス上のボタンを押しても良い。そうすることによって、デバイス100は、それが仮想ワークスペース230を稼動して、XまたはY軸方向でのデバイス100の感知された動きを仮想ワークスペース230「内」の仮想の動きに対応するものとして解釈すべきであることを決定しても良い。ユーザはそれから、望ましい機能を選択するために仮想ワークスペース230内でデバイス100を動かしても良い。機能を選択するには、それをディスプレイ120内で中央にしたり、または選択機能と関連付けられた別のジェスチャーをすることによってのようにして、一旦望ましい機能が選択されると、ユーザは再度軽く叩く動きでZ軸に沿ってデバイスを振り、タッチ感応ディスプレイ120にタッチし、またはボタンを押しても良い。いくつかの実施形態では、以下でより詳細に記載されるであろうようにいつ機能が選択されたかを決定する際に触覚エフェクトがユーザを補助しても良い。代替的に、ユーザは機能を実行しないことの方を選んでも良く、デバイス100はもはやデバイスの動きを仮想ワークスペース230内の動きとして解釈すべきではないことをデバイス100に示しても良い。 図2bに示された関連する実施形態では、ユーザインターフェース240は、ユーザが実行する機能を選択するためにX、YまたはZ軸のいずれにおいてもデバイスを動かし得るように、仮想物理的空間232においてのような、3次元仮想ワークスペース232からなっていても良い。そのような実施形態では、ユーザは、デバイス100を横に振ること、タッチ感応ディスプレイ120を軽く叩くこと、デバイス100のサイドまたは後ろの圧力センサーを握り締めること、デバイス上のマイクロホンにコマンドを話すこと、またはデバイス100上のボタンを押すことのような、1つ以上のジェスチャーを使って仮想ワークスペース232を可能または不能としても良い。加えて、そのような3次元仮想物理的空間とのインターフェースを行うための本発明の実施形態は、ユーザが選択して稼動し得る2次元アイコンではなく、3次元オブジェクトからなっていても良い。 例えば、本発明の一実施形態では、複数の機能は各々、3次元仮想物理的空間232中のボールまたはブロックのような仮想物理的オブジェクト270-274によって表されていても良い。一実施形態では、仮想物理的空間232内をナビゲートし始める時、ユーザは、仮想物理的空間232内に配列されたオブジェクト270-274がユーザに対して位置しているように、X、YおよびZ軸の原点に立っている。そのようなので、仮想物理的空間232内をナビゲートしている時、ユーザは、前方または後方に一歩踏み出すことによったり、またはデバイス100内のセンサーによって検出され得るデバイス100を様々な方向に動かすことによるように、原点から離れるように動いても良い。そのような動きは、ユーザが原点ポイントから離れるように動くことに結果としてなり得る。しかしながら、ユーザは、ユーザ上にそれを再度中心化するためにグラフィカルユーザインターフェース240をリセットすることが可能であっても良い。加えて、後に仮想物理的空間232を再稼動すると、ユーザの位置が原点にリセットされても良い。 仮想物理的空間232からなるグラフィカルユーザインターフェース240を提供している本発明の実施形態では、ユーザは、仮想物理的空間中を「漂っている」アプリケーションとデータを表しているボールまたはブロックのような異なる仮想物理的オブジェクト270-274を閲覧するために、様々な位置と向きにデバイスを動かしても良い。ユーザは、オブジェクトを選択してそれを仮想物理的空間232内の新たな位置までドラッグすることによってのように、様々な仮想物理的オブジェクト270-274の位置を配列することができる。例えば、ユーザは、頻繁にアクセスされる機能を表しているオブジェクトがユーザの「近く」に位置し、即ちオブジェクトがX、YおよびZ軸の原点に近い座標に位置し、より少なく頻繁にアクセスされる機能を表しているオブジェクトがユーザの位置から遠く離れているように、オブジェクト270-274を配列しても良い。よって 、頻繁に使われる機能にアクセスすることは、デバイス100のより少ない動きが必要であり得るので、より容易であり得る。 いくつかの実施形態では、ユーザは、1つ以上のセンサー140によって検出される、その他のタイプの動きまたはジェスチャーを通して仮想物理的空間232または仮想物理的オブジェクト270-274と相互作用しても良い。デバイス100が傾けられ、振られ、またはそうでなければ動かされるにつれて、1つ以上のセンサーがそれらの動きを検出し、通信デバイスの動きに少なくとも部分的に基づいたセンサー信号を生成しても良い。一実施形態では、加速度計センサーが、デバイス100の傾斜と加速度を検出するように構成されている。デバイス100が傾けられるにつれて、加速度計は、デバイス100の傾きまたは加速度に少なくとも部分的に基づいてプロセッサに信号を送るように構成されることができる。別の実施形態では、ディスプレイ120が、タッチ感応ディスプレイ上のジェスチャーまたは位置入力を検出するように構成されたタッチ感応ディスプレイからなる。指がタッチ感応ディスプレイ上に置かれるかまたはドラッグされるにつれて、タッチ感応ディスプレイは、指の動きの速度または圧力のような指の動きに少なくとも部分的に基づいた信号を生成しても良い。もっと更なる実施形態では、デバイス100が、デバイス100のサイドまたは後ろ上あるいはディスプレイ上のような、デバイスの1つ以上の面上の圧力センサーからなる。ユーザは、仮想物理的空間232または仮想物理的オブジェクト270-274を選択するかまたはそれらと相互作用するために、1つ以上の位置においてそのような圧力センサーにタッチしても良い。) (イ) 11ページ18行目-32行目 「In some embodiments, while a user is interacting with the virtual physical space, haptic or sound effects generated by the processor may simulate an interaction with the virtual physical space. For example, when the user navigates from one virtual physical object to another, the processor may, in addition to updating the display of the graphical user interface, generate one or more actuator signals configured to cause the actuator to output a haptic effect to the user. For example, the user may experience a small "pop" or vibration upon arriving at a new function. In one embodiment, when one user sends a virtual physical object, such as a picture, to another user in the virtual physical space, vibrations and sounds may indicate that the picture has been sent by a first user and received by a second user. The transmission of such virtual physical objects may also cause haptic effects to be generated based on properties of the objects, such as velocity, mass (e.g. "heavier" objects may have larger file sizes), or urgency. A first device, such as device 100, may receive a virtual physical object from a second device and output a haptic effect or audible sound to indicate that an object has been received. Still further embodiments of graphical user interfaces using virtual physical spaces would be apparent to one of skill in the art.」 (訳: いくつかの実施形態では、ユーザが仮想物理的空間と相互作用している間、プロセッサによって生成された触覚またはサウンドエフェクトが、仮想物理的空間との相互作用をシミュレーションしてもよい。例えば、ユーザが一つの仮想物理的オブジェクトから別のものにナビゲートする時、プロセッサは、グラフィカルユーザインターフェースの表示を更新することに加えて、アクチュエータがユーザに触覚エフェクトを出力することを引き起こすように構成された1つ以上のアクチュエータ信号を生成しても良い。例えば、ユーザは、新たな機能に到着すると、小さな「ポップ」または振動を経験しても良い。一実施形態では、1人のユーザが絵のような仮想物理的オブジェクトを仮想物理的空間中の別のユーザに送る時、振動とサウンドが、絵が第一のユーザによって送られて第二のユーザによって受け取られたことを示しても良い。そのような仮想物理的オブジェクトの送信はまた、速度、質量(例えば、「より重い」オブジェクトはより大きなファイルサイズを有していても良い)、または緊急度のようなオブジェクトの性質に基づいて触覚エフェクトが生成されることを引き起こしても良い。デバイス100のような第一のデバイスは、第二のデバイスから仮想物理的オブジェクトを受け取って、オブジェクトが受け取られたことを示すように触覚エフェクトまたは可聴サウンドを出力しても良い。仮想物理的空間を使ったグラフィカルユーザインターフェースのもっと更なる実施形態は、当業者には明らかであろう。) そうすると、引用文献1には、以下の発明(以下、「引用発明」という。)が記載されている。 「グラフィカルユーザインターフェースを提供するためのデバイス100であって、 デバイス100は、ハウジング110、ディスプレイ120、プロセッサ130、センサー140、およびアクチュエータ150からなり、 ハウジング110は携帯電話ハウジングであり、 ディスプレイ120は、ディスプレイ120が画像をデバイス100のユーザに表示するように構成されるように、ハウジング内に配置され、ディスプレイ120はタッチ感応ディスプレイであり、 プロセッサ130は、センサー140からのセンサー信号を受け取り、ディスプレイ信号をディスプレイ120に出力し、アクチュエータ信号をアクチュエータ150に出力するように構成され、 センサー140は、携帯電話100内に配置され、携帯電話100の動きと向きの変化を検出するように構成され、 ユーザは、タッチ感応ディスプレイにタッチし、そうすることによって、デバイス100は、それが仮想ワークスペース230を稼動して、XまたはY軸方向でのデバイス100の感知された動きを仮想ワークスペース230「内」の仮想の動きに対応するものとして解釈すべきであることを決定し、 ユーザはそれから、望ましい機能を選択するために仮想ワークスペース230内でデバイス100を動かし、 機能を選択するには、それをディスプレイ120内で中央にして、 一旦望ましい機能が選択されると、ユーザは再度、タッチ感応ディスプレイ120にタッチし、 いつ機能が選択されたかを決定する際に触覚エフェクトがユーザを補助し、 ユーザが仮想物理的空間と相互作用している間、プロセッサによって生成されたサウンドエフェクトが、仮想物理的空間との相互作用をシミュレーションしてもよく、 ユーザインターフェース240は、ユーザが実行する機能を選択するためにX、YまたはZ軸のいずれにおいてもデバイスを動かし得るように、3次元仮想ワークスペース232からなっており、 複数の機能は各々、3次元仮想物理的空間232中のボールまたはブロックのような仮想物理的オブジェクト270-274によって表されており、 ユーザは、仮想物理的空間中を「漂っている」アプリケーションとデータを表しているボールまたはブロックのような異なる仮想物理的オブジェクト270-274を閲覧するために、様々な位置と向きにデバイスを動かし、 ユーザは、オブジェクトを選択してそれを仮想物理的空間232内の新たな位置までドラッグすることによって、様々な仮想物理的オブジェクト270-274の位置を配列することができる、グラフィカルユーザインターフェースを提供するためのデバイス100。」 イ 対比 補正発明1と引用発明とを対比する。 (ア) 引用発明の「携帯電話(デバイス)100」は、補正発明1の「操作装置」に相当する。 引用発明の「3次元仮想物理的空間232(仮想ワークスペース230)」は、補正発明1の「3次元の仮想空間」に相当する。 引用発明の「携帯電話(デバイス)100」について、「望ましい機能を選択するために仮想ワークスペース230内でデバイス100を動かし」たり、「ボールまたはブロックのような異なる仮想物理的オブジェクト270-274を閲覧するために、様々な位置と向きにデバイスを動かし」たり、「ユーザは、オブジェクトを選択してそれを仮想物理的空間232内の新たな位置までドラッグすることによって、様々な仮想物理的オブジェクト270-274の位置を配列することができる、グラフィカルユーザインターフェースを提供するためのデバイス100」は、補正発明1の「操作装置に対する操作に基づいて3次元の仮想空間内の位置を算出する位置算出システムであって」、「前記操作装置の姿勢と、前記操作装置に設けられた所定の入力面に対する入力位置とに基づいて前記仮想空間内の位置を算出し、前記仮想空間内の位置として、前記仮想空間内において前記操作装置の姿勢に応じて決められる面における位置を前記入力位置に基づいて算出し、前記仮想空間内の位置として、前記仮想空間内において前記操作装置の姿勢に応じて決められる面における位置を前記入力位置に基づいて算出」することと、「操作装置に対する操作に基づいて3次元の仮想空間内の対象を処理する対象処理システムであって」、「前記操作装置の姿勢に基づいて前記仮想空間内の対象を処理」する点で共通するといえる。 (イ) 引用発明の携帯電話のハウジング内に配置される「ディスプレイ120」と、補正発明1の「前記操作装置とは異なる所定の表示装置」とは、「所定の表示装置」である点で共通するといえる。 引用発明の携帯電話が備える「プロセッサ130」は、補正発明1の「画像生成部」に対応する。 引用発明の携帯電話の「プロセッサ130は、センサー140からのセンサー信号を受け取り、ディスプレイ信号をディスプレイ120に出力し」、「ユーザは、仮想物理的空間中を『漂っている』アプリケーションとデータを表しているボールまたはブロックのような異なる仮想物理的オブジェクト270-274を閲覧」できることは、補正発明1の位置算出システムが、「前記操作装置の姿勢に対応して姿勢が制御される第1オブジェクトを前記仮想空間に配置するオブジェクト配置部と、前記操作装置とは異なる所定の表示装置に表示するための画像として、前記第1オブジェクトを含む前記仮想空間を表す画像を生成する画像生成部とを備える」ことと、「所定の表示装置に表示するための画像として、前記仮想空間を表す画像を生成する画像生成部」を備える点で共通するといえる。 よって、補正発明1と引用発明との一致点・相違点は次のとおりである。 <一致点> 「操作装置に対する操作に基づいて3次元の仮想空間内の対象を処理する対象処理システムであって、 前記操作装置の姿勢に基づいて前記仮想空間内の対象を処理し、 所定の表示装置に表示するための画像として、前記仮想空間を表す画像を生成する画像生成部を備える、対象処理システム。」 である点。 <相違点1> 3次元の仮想空間内の対象の処理に関して、補正発明1は、「操作装置に対する操作に基づいて3次元の仮想空間内の位置を算出する位置算出システム」に係るのに対して、引用発明は、「携帯電話(デバイス)100」を動かすことによって、仮想物理的空間中を「漂っている」アプリケーションとデータを表しているボールまたはブロックのような仮想物理的オブジェクト270-274を、選択したり、閲覧したり、配列することができる「携帯電話(デバイス)100」に係るものであって、「3次元の仮想空間内の位置を算出する位置算出システム」であることは、特定がなされていない点。 <相違点2> 3次元の仮想空間内の位置の算出に関して、補正発明1では、「前記操作装置の姿勢と、前記操作装置に設けられた所定の入力面に対する入力位置とに基づいて前記仮想空間内の位置を算出し、前記仮想空間内の位置として、前記仮想空間内において前記操作装置の姿勢に応じて決められる面における位置を前記入力位置に基づいて算出」しているのに対して、引用発明では、「3次元の仮想空間内の位置を算出する」ことは、特定がなされておらず、さらに、算出手法が、「前記操作装置の姿勢と、前記操作装置に設けられた所定の入力面に対する入力位置とに基づいて前記仮想空間内の位置を算出し、前記仮想空間内の位置として、前記仮想空間内において前記操作装置の姿勢に応じて決められる面における位置を前記入力位置に基づいて算出」するものであることは、特定がなされていない点。 <相違点3> 画像の表示に関して、補正発明1では、「前記操作装置の姿勢に対応して姿勢が制御される第1オブジェクトを前記仮想空間に配置するオブジェクト配置部と、前記操作装置とは異なる所定の表示装置に表示するための画像として、前記第1オブジェクトを含む前記仮想空間を表す画像を生成する画像生成部とを備える」のに対して、引用発明は、携帯電話のハウジング内に配置される「ディスプレイ120」以外に、「前記操作装置とは異なる」所定の表示装置を設けることは、特定がなされておらず、さらに、表示の生成手段として、「前記操作装置の姿勢に対応して姿勢が制御される第1オブジェクトを前記仮想空間に配置するオブジェクト配置部と、前記操作装置とは異なる所定の表示装置に表示するための画像として、前記第1オブジェクトを含む前記仮想空間を表す画像を生成する画像生成部とを備える」ことは、特定がなされていない点。 ウ 判断 <相違点1>、<相違点2>について 上記<相違点1>、<相違点2>について検討する。 上記<相違点1>に関して、引用発明では、「携帯電話(デバイス)100」を動かすことによって、「ボールまたはブロックのような異なる仮想物理的オブジェクト270-274」を対象として、選択、閲覧、配列処理をすることは、特定がなされているが、これら選択、閲覧、配列処理における、具体的かつ詳細な情報処理の内容は、特定がなされておらず、「3次元の仮想空間内の位置を算出する」ことは、特定がなされていない。 上記<相違点2>に関して、上記のとおり、引用発明では、「3次元の仮想空間の位置を算出する」ことは、特定がなされていない。 よって、「3次元の仮想空間内の位置を算出する」ことが、さらに、「前記操作装置の姿勢と、前記操作装置に設けられた所定の入力面に対する入力位置とに基づいて前記仮想空間内の位置を算出し、前記仮想空間内の位置として、前記仮想空間内において前記操作装置の姿勢に応じて決められる面における位置を前記入力位置に基づいて算出」することであることは、特定がなされていない。 また、引用文献1を参照しても、携帯電話の操作方法として、携帯電話を動かす操作と、携帯電話に設けられたタッチ感応ディスプレイのタッチ操作とが個別に記載されているものの、さらにこれら2種類の操作を組合わせることによって、「前記操作装置の姿勢と、前記操作装置に設けられた所定の入力面に対する入力位置とに基づいて前記仮想空間内の位置を算出し、前記仮想空間内の位置として、前記仮想空間内において前記操作装置の姿勢に応じて決められる面における位置を前記入力位置に基づいて算出」すべきことを示唆する記載はない。 また、原査定の理由2で引用された引用文献6(特開2006-301654号公報。要約を参照。)には、可動式ディスプレイ装置の動きに基づいて、3次元仮想世界の投影面を動かすことが記載されており、前置報告書で引用された引用文献7(特開平9-6526号公報。段落【0011】、【0014】-【0016】、図1を参照。)、引用文献8(特開2003-85590号公報。要約、段落【0023】、【0027】-【0043】を参照。)、引用文献9(特開2008-67853号公報。段落【0090】-【0091】、図7を参照。)には、それぞれ、オペレータにより操作されるコントローラの位置や傾きに応じて、表示手段によって提示された仮想3次元空間内にコントローラに対応するオブジェクトを表示する周知技術は記載があるが、いずれの文献にも、引用発明において、「前記操作装置の姿勢と、前記操作装置に設けられた所定の入力面に対する入力位置とに基づいて前記仮想空間内の位置を算出し、前記仮想空間内の位置として、前記仮想空間内において前記操作装置の姿勢に応じて決められる面における位置を前記入力位置に基づいて算出」することが容易であったことを根拠付ける記載は見当たらない。 ほかに、引用発明において、「前記操作装置の姿勢と、前記操作装置に設けられた所定の入力面に対する入力位置とに基づいて前記仮想空間内の位置を算出し、前記仮想空間内の位置として、前記仮想空間内において前記操作装置の姿勢に応じて決められる面における位置を前記入力位置に基づいて算出」することを容易であったというべき理由を発見しない。 したがって、<相違点3>について検討するまでもなく、補正発明1は、引用発明に基づいて、当業者が容易に発明をすることができたとはいえない。 (ウ) まとめ したがって、補正発明1は、引用発明に基づいて、当業者が容易に発明をすることができたとはいえない。 補正後の請求項2-13に係る発明は、補正発明1の全ての発明特定事項を引用するものであるから、補正発明1と同様に、引用発明に基づいて、当業者が容易に発明をすることができたとはいえない。 よって、本件補正の補正事項1は、特許法第17条の2第6項において準用する同法第126条第7項の規定に適合する。 (2)補正事項2-5について 本件補正における補正事項2-4は、補正発明1のカテゴリーを変えた発明について、補正事項1と同様の「オブジェクト配置」と「画像生成」に関するの限定を付加するものであり、補正事項5は、請求項の削除であるから、補正事項2-5は、特許法第17条の2第3項ないし第6項に違反するところはない。 3.むすび 本件補正は、特許法第17条の2第3項ないし第6項の規定に適合する。 第3 本願発明 本件補正は上記のとおり、特許法第17条の2第3項ないし第6項の規定に適合するから、本願の請求項1-28に係る発明は、本件補正により補正された特許請求の範囲の請求項1?28に記載された事項により特定されるとおりのものである。 そして、補正後の請求項1-28に係る発明は、上記第2の2.のとおり、当業者が引用発明に基づいて容易に発明をすることができたものではない。 したがって、本願については、原査定の拒絶理由を検討してもその理由によって拒絶すべきものとすることはできない。 また、他に本願を拒絶すべき理由を発見しない。 よって、結論のとおり審決する。 |
審決日 | 2016-07-28 |
出願番号 | 特願2011-126525(P2011-126525) |
審決分類 |
P
1
8・
121-
WY
(G06F)
P 1 8・ 575- WY (G06F) |
最終処分 | 成立 |
前審関与審査官 | 海江田 章裕、上嶋 裕樹 |
特許庁審判長 |
高瀬 勤 |
特許庁審判官 |
千葉 輝久 稲葉 和生 |
発明の名称 | 位置算出システム、位置算出装置、位置算出プログラム、および位置算出方法 |
代理人 | 小沢 昌弘 |
代理人 | 寺本 亮 |
代理人 | 石原 盛規 |