• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 1項3号刊行物記載 取り消して特許、登録 G06F
審判 査定不服 特36条6項1、2号及び3号 請求の範囲の記載不備 取り消して特許、登録 G06F
審判 査定不服 2項進歩性 取り消して特許、登録 G06F
管理番号 1383839
総通号数
発行国 JP 
公報種別 特許審決公報 
発行日 2022-05-27 
種別 拒絶査定不服の審決 
審判請求日 2021-05-13 
確定日 2022-04-26 
事件の表示 特願2019−126624「位置情報提示システム、位置情報提示装置、位置情報提示プログラムおよび位置情報提示方法」拒絶査定不服審判事件〔令和 3年 2月 4日出願公開、特開2021− 12554、請求項の数(19)〕について、次のとおり審決する。 
結論 原査定を取り消す。 本願の発明は、特許すべきものとする。 
理由 第1 手続の経緯
本願は、令和元年7月8日の出願であって、その手続の経緯は次のとおりである。

令和元年 8月 2日 :新規性の喪失の例外証明書提出書
令和2年 9月 8日付け:拒絶理由通知書
令和2年11月 4日 :意見書、手続補正書の提出
令和3年 1月29日付け:拒絶査定(原査定)
令和3年 5月13日 :審判請求書、手続補正書の提出
令和3年12月21日付け:拒絶理由(当審拒絶理由)通知書
令和4年 3月 8日 :意見書、手続補正書の提出

第2 原査定の概要
原査定(令和3年1月29日付け拒絶査定)の概要は次のとおりである。

本願請求項1、3、5ないし10、12ないし16、18、20、21、23、25、26、28及び30に係る発明は、以下の引用文献AないしGに記載された発明に基いて、その発明の属する技術の分野における通常の知識を有する者(以下、「当業者」という。)が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。

[引用文献等一覧]
A 特表2013−524315号公報
B 国際公開第2019/124068号
C 国際公開第2016/159261号
D 特開2012−127940号公報
E 特開2019−74878号公報
F 特開2015−141647号公報
G 特開2014−197388号公報

なお、原査定においては、令和2年11月4日に提出された手続補正書に係る手続補正によって新たに追加された請求項2、4、17、19、22、24、27及び29に係る発明は、上掲の引用文献AないしD、F及びGに記載された発明に基いて当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない旨の付記がある。

第3 当審拒絶理由の概要
当審拒絶理由の概要は次のとおりである。

[理由1]明確性要件
本願の、請求項7を引用する請求項8ないし11に係る発明は、「周波数」と「位相差」の両方の制御をどのように実現するのか明確ではないから、特許法第36条第6項第2号に規定する要件を満たしていない。

[理由2]新規性
本願の請求項1ないし3、12ないし20に係る発明は、以下の引用文献1に記載された発明であるから、特許法第29条第1項第3号に該当し、特許を受けることができない。

[理由3]進歩性
本願請求項1ないし3、5ないし8及び10ないし20に係る発明は、以下の引用文献1に記載された発明に基いて、当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。

引用文献1 米国特許出願公開第2018/0232051号明細書

第4 本願発明
本願請求項1ないし19に係る発明(以下、それぞれ「本願発明1」ないし「本願発明19」という。)は、令和4年3月8日に提出された手続補正書に係る手続補正(以下、「本件補正」という。)により補正された特許請求の範囲の請求項1ないし19に記載された事項により特定される発明であり、このうち本願発明1は以下のとおりの発明である。なお、下線部は、本件補正により補正された箇所を示す。

「 第1アクチュエータと、
第2アクチュエータと、
前記第1アクチュエータおよび前記第2アクチュエータによって駆動され、ユーザの体に触覚的に作用する作用部と、
基準位置から見た対象の方向、および/または、前記基準位置と前記対象との距離を取得する位置取得部と、
前記ユーザが前記方向および/または距離を把握できるよう、前記方向および/または距離に応じて、かつ、前記対象の種類を考慮して、前記第1アクチュエータおよび前記第2アクチュエータの少なくとも一方の駆動波形を制御する制御部と、を備え、
前記対象の種類は、ゲームにおいて、前記対象に設定されたパラメータまたはレアリティであり、
前記方向が前記基準位置から見て後ろ側である場合、前記制御部は、前記作用部が前記ユーザの体に作用しないよう、前記第1アクチュエータおよび前記第2アクチュエータの少なくとも一方の振幅を制御する、位置情報提示システム。」

なお、本願発明2ないし10は、本願発明1を減縮する発明であり、本願発明11は、本願発明1から「第1アクチュエータ」及び「第2アクチュエータ」を除いた「位置情報提示装置」の発明であり、本願発明12及び13は、本願発明11を減縮する発明であり、本願発明14は、本願発明11を「位置情報提示プログラム」として特定する発明であり、本願発明15及び16は、本願発明14を減縮する発明であり、本願発明17は、本願発明11を「位置情報提示方法」として特定する発明であり、本願発明18及び19は、本願発明17を減縮する発明である。

第5 引用文献、引用発明等
1 引用文献1について
(1)引用文献1記載事項
当審拒絶理由に引用された引用文献1には、図面とともに次の事項が記載されている。(下線は、強調のため当審が付与した。以降も同様。)

「[0029] FIG. 2 is a block diagram of a haptic effect generation system 200, according to an embodiment. Haptic effect generation system 200 includes an event detector 210, an event data collector 220, a user data collector 230, an actuator determinator 240, a dynamic haptics generator 250, an actuator system 260 and actuators 265. Portions, or all of FIG. 2, can be implemented by system 100 of FIG. 1.
[0030] Event detector 210 receives video data. The video data can be a media file, a data stream including video content, or any other type of media content file. However, at a minimum, the video data includes some video content. Once the video data is received, event detector 210 then detects a video event contained within the received video data. Such detection is accomplished by the use of a video processing algorithm to process the video data, including both video and audio. Such algorithms can be based on color and motion analysis, or based on visual odometry, or on sport sensors or any other external sensor that identifies a start time and an end time of video events, also referenced to as target events, within the received video data. Further, event sensing can also be accomplished manually, for example, by human intervention by an operator or curator prior to receipt of the data stream. Automatic detection can also be accomplished using just video data and/or audio data.
[0031] Event data collector 220 includes a video processing algorithm that captures and collects data concerning the detected event. Such data includes the three-dimensional position of the event. Alternatively, rather than an absolute position, algorithms within event data collector 220 can determine a relative position, such as distance and angular orientation, between the viewer and the event. Event data can also include any event attribute or other characteristic such as time-stamps, temporal propagation, spatial propagation, time-span, nature of the event, etc. In an embodiment, the viewer is actually the user's avatar in a virtual reality environment.」
[当審訳]
「[0029] 図2は、一実施形態による、触覚効果生成システム200のブロック図である。触覚効果生成システム200は、イベント検出器210、イベントデータ収集器220、ユーザデータ収集器230、アクチュエータ決定器240、動的触覚生成器250、アクチュエータシステム260、およびアクチュエータ265を含む。図2の一部、または全部は、図1のシステム100によって実装することができる。
[0030] イベント検出器210は、ビデオデータを受信する。ビデオデータは、メディアファイル、ビデオコンテンツを含むデータストリーム、または任意の他のタイプのメディアコンテンツファイルであり得る。しかし、最低でも、ビデオデータは、いくつかのビデオコンテンツを含む。ビデオデータを受信すると、イベント検出器210は次に、受信したビデオデータ内に含まれるビデオイベントを検出する。このような検出は、ビデオとオーディオの両方を含むビデオデータを処理するために、ビデオ処理アルゴリズムを使用することによって達成される。そのようなアルゴリズムは、色と動きの分析に基づいて、または視覚的オドメトリに基づいて、またはスポーツセンサまたは受信したビデオデータ内のビデオイベント(ターゲットイベントとも呼ばれる)の開始時間と終了時間を識別する他の外部センサに基づいて行うことができる。さらに、イベント検出は、データストリームを受信する前に、オペレーターやキュレーターが人力で介入するなど、手動で行うこともできる。自動検出は、ビデオデータおよび/またはオーディオデータのみを使用して行うこともできる。
[0031] イベントデータ収集器220は、検出されたイベントに関するデータを捕捉して収集するビデオ処理アルゴリズムを含む。このようなデータは、イベントの三次元位置を含む。あるいは、絶対的な位置ではなく、イベントデータ収集器220内のアルゴリズムは、視聴者とイベントとの間の距離や角度方向などの相対的な位置を決定することができる。イベントデータはまた、タイムスタンプ、時間的伝播、空間的伝播、タイムスパン、イベントの性質など、任意のイベント属性または他の特性を含むことができる。一実施形態では、視聴者は、実際には、仮想現実環境におけるユーザのアバターである。

「[0033] After event data is collected, user data collector 230 is used to collect information regarding the user, viewer or player. User data collector 230 collects data including the viewer/player's position, or the position of the viewer/player's avatar in a video. This can include the facing direction, head pose, and the pose of any other part of the player/viewer's body or avatar. In some embodiments the location and orientation of the actual viewer is independent of the location and/or orientation of the avatar. In other embodiments the location and orientation of the avatar is dependent upon that of the viewer in the real world, user data collector 230, in a three-dimensional video, can analyze the viewer's actions using Visual Odometry technology, or external sensors. And, as with event data collector 220, user data collector 230 can gather user data from source code.
[0034] Actuator determinator 240 is configured to determine the number, location and types of haptic output devices or actuators. The placement, type and number of devices or actuators determine the quality of localized haptics. The greater the number of devices, the better the sensation of localized haptics by the user. Haptic output devices can be located on the user, such as through the user of wearable technologies, embedded within a handheld controller, or integrated into objects such as a chair or other furniture. In addition, small numbers of actuators are capable of producing reasonable localized haptics by the use of haptic illusion technology.
[0035] Dynamic haptics generator 250 dynamically generates haptic effects commands for the haptic output devices based on the outputs of event detector 210, event data collector 220, user data collector 230 and actuator determinator 240. Dynamic haptics generator 250 generates effects based on the target events and/or the actions of the viewer and/or the avatar of the viewer/player. Dynamic haptics generator 250 analyzes the number and position of the available haptic output devices (e.g., actuators) to determine the proper type of dynamic localized haptic effect to be provided to each haptic output device. Further, dynamic haptics generator 250 can dynamically produce the localized haptic effects for each haptic output device in real time. For example, if the user/player and/or avatar of the user/player makes a movement during a detected video event, the localized haptic effect will be modified based on the changing movement. For example, if there is an explosion in front of the avatar, the user would feel a response in the front of their body, and then if the avatar turned to the left the haptic effects would shift to the right side of the user's body.
[0036] In another example, Lisa is watching a three-dimensional action movie. She knows the direction and distance of an explosion through the experience of localized haptics, which make her feel as if she is in a real scene. When she changes her point of view in the movie, the localized haptics will change accordingly. In another example, Mike is playing a three-dimensional game. He can approximate how far the monster in the game is behind him or it is on his left/right side through the localized haptics without the need to turn his head. The localized haptics will change automatically when he runs far from or gets closer to the monster, or changes his direction in the game.
[0037] Actuator system 260 receives haptic commands, or instructions, from dynamic haptics generator 250 and operates actuators 265 that produce the desired haptic effect. Actuator system 260 also includes one or more drivers.」
[当審訳]
「[0033] イベントデータが収集された後、ユーザデータ収集器230は、ユーザ、視聴者またはプレーヤに関する情報を収集するために使用される。ユーザデータ収集器230は、視聴者/プレーヤの位置、またはビデオ内の視聴者/プレーヤのアバターの位置を含むデータを収集する。これには、向き合う方向、頭のポーズ、およびプレーヤ/視聴者の身体またはアバターの他の部分のポーズを含むことができる。いくつかの実施形態では、実際の視聴者の位置と向きは、アバターの位置および/または向きとは独立している。他の実施形態では、アバターの位置および向きは、現実世界の視聴者の位置および向きに依存する。ユーザデータ収集器230は、三次元ビデオでは、視覚的オドメトリ技術、または外部センサを使用して視聴者の行動を分析することができる。また、イベントデータ収集器220と同様に、ユーザデータ収集器230は、ソースコードからユーザデータを収集することができる。
[0034] アクチュエータ決定器240は、触覚出力デバイスまたはアクチュエータの数、位置、および種類を決定するように構成されている。デバイスまたはアクチュエータの配置、種類、および数は、局所的触覚の品質を決定する。デバイスの数が多いほど、ユーザによる局所的触覚の感覚が良くなる。触覚出力デバイスは、ウェアラブル技術の使用を通じて、ハンドヘルドコントローラ内に埋め込んで、また、椅子や他の家具などのオブジェクトに統合するなどして、ユーザに配置することができる。さらに、少数のアクチュエータは、触覚の錯覚技術を使用することにより、合理的な局所的触覚を生成することができる。
[0035] 動的触覚生成器250は、イベント検出器210、イベントデータ収集器220、ユーザデータ収集器230、およびアクチュエータ決定器240の出力に基づいて、触覚出力デバイスに対する触覚効果コマンドを動的に生成する。動的触覚生成器250は、ターゲットイベントおよび/または視聴者および/または視聴者/プレーヤのアバターのアクションに基づいて効果を生成する。動的触覚生成器250は、利用可能な触覚出力デバイス(例えば、アクチュエータ)の数および位置を分析して、各触覚出力デバイスに提供されるべき動的な局所的触覚効果の適切なタイプを決定する。さらに、動的触覚生成器250は、各触覚出力デバイスに対する局所的触覚効果をリアルタイムで動的に生成することができる。例えば、検出されたビデオイベントの間に、ユーザ/プレーヤおよび/またはユーザ/プレーヤのアバターが動きをする場合、局所的触覚効果は、変化する動きに基づいて変更される。例えば、アバターの前で爆発があった場合、ユーザは体の前面に反応を感じ、その後、アバターが左を向いた場合、触覚効果はユーザの体の右側にシフトする。
[0036] 別の例では、リサが三次元のアクション映画を見ている。彼女は爆発の方向と距離を、あたかも自分が現実の場面にいるかのように感じさせる局所的触覚の体験を通して知覚する。彼女が映画の中で視点を変えると、それに合わせて局所的触覚も変化する。別の例では、マイクが三次元のゲームをしている。彼は、頭を回転させなくても、局所的触覚を通して、ゲーム内のモンスターが自分の背後あるいは自分の左右に、どの程度の距離にいるのかをおおよそ把握することができる。モンスターから遠くに逃げたり、近づいたり、ゲーム内での向きを変えたりすると、局所的触覚が自動的に変化する。
[0037] アクチュエータシステム260は、動的触覚生成器250から触覚コマンド又は命令を受信し、所望の触覚効果を生成するアクチュエータ265を動作させる。アクチュエータシステム260はまた、1つまたは複数のドライバを含む。」

「[0038] FIG. 3 is an illustration of a possible placement of haptic output devices on a user in localized haptic system 300, according to an embodiment. Localized haptic system 300 includes haptic output devices and/or sensors on user 310. The placement of haptic output devices, or sensors, is referred to an actuation points. In an embodiment, user 310 illustrates the location of actuation points 312 including 312-1 through 321-7 on user 310's head, chest, left and right hands, and on the left and right feet. Placement is not restricted to any particular locations on user 310 but is only shown for illustrative purposes. In the same manner, actuations points can be on any part of user 310's body.
[0039] Each actuation point 312 can include a haptic actuator, as well as functionality to communicate (e.g., wirelessly or through a wire) with actuator determinator 240. Each actuation point 312 also includes electronics and software in order to drive its haptic actuator. The haptic actuator may provide haptic functionality according to any embodiments described herein. For example, the haptic actuator may provide haptic feedback including vibration, deformation, heat, ESF, or any other type of haptic actuation known in the art. Further, one or more other haptic output devices may be implemented to provide additional haptic feedback to user 310. For example, a vibration actuator may be embedded into floor tiles so that it can transmit vibrations to the feet of user 310. As another example, an ultrasound emitter can be embedded in a wall so that it can project haptic effects to user 310. As another example, a peltier cell can be embedded in a physical object (e.g., a door handle) in an augmented reality environment so that it can change its temperature when touched by user 310. Alternatively or additionally, a gamepad controller 340, a smartphone 330, a touchpad device 320, or any other device that includes haptic actuators can be used to provide additional haptic effects to user 310.」
[当審訳]
「[0038] 図3は、実施形態による、局所的触覚システム300におけるユーザ上の触覚出力デバイスの可能な配置を示す説明図である。局所的触覚システム300は、ユーザ310上の触覚出力デバイス及び/又はセンサを含む。触覚出力デバイスまたはセンサの位置は、作動点と呼ばれる。実施形態において、ユーザ310の頭部、胸部、左手及び右手、並びに左足及び右足上の312-1〜321-7を含む作動点312の位置が例示される。配置は、ユーザ310上の特定の場所に限定されるものではなく、例示のために示されているに過ぎない。同様に、アクチュエーションポイントは、ユーザ310の身体のどの部分にあってもよい。
[0039] 各作動点312は、触覚アクチュエータと、アクチュエータ決定器240と通信(例えば、無線又は有線)する機能部を含み得る。各作動点312は、その触覚アクチュエータを駆動するために、電子機器及びソフトウェアも含む。触覚アクチュエータは、本明細書に記載される任意の実施形態に従って触覚機能を提供し得る。例えば、触覚アクチュエータは、振動、変形、熱、ESF、または当技術分野で知られている他の任意のタイプの触覚アクチュエーションを含む触覚フィードバックを提供してもよい。さらに、ユーザ310に追加の触覚フィードバックを提供するために、1つ以上の他の触覚出力デバイスが実装されてもよい。例えば、振動アクチュエータは、ユーザ310の足に振動を伝達できるように、床タイルに埋め込まれてもよい。別の例として、超音波エミッタは、ユーザ310に触覚効果を投影できるように、壁に埋め込むことができる。別の例として、ペルチェ素子は、ユーザ310によって触れられたときにその温度を変更できるように、拡張現実環境内の物理的オブジェクト(例えば、ドアハンドル)に埋め込むことができる。代替的または追加的に、ゲームパッドコントローラ340、スマートフォン330、タッチパッド装置320、または触覚アクチュエータを含む任意の他の装置を使用して、ユーザ310に追加の触覚効果を提供することができる。」

「[0043] FIG. 4 is a localized haptics generation system 400, according to an embodiment. Localized haptics generation system 400 illustrates a three-dimensional game space 410 that includes a video event, shown as a virtual explosion point 415, an avatar 420 in the three-dimensional game space and a corresponding user 422 in the real world. Avatar 420 is shown with sample actuation points 430-lA through 430-8A. The avatar's actuation points correspond to real world actuation points on user 422 shown as 430-1B through 430-8B. Further, vectors 440 indicate the direction and distance from virtual explosion point 415 to each of the avatar actuation points 430-1A-430-8A.
[0044] Localized haptics generation system 400 first detects and identifies the event, shown in FIG. 4 as a virtual explosion occurring at virtual explosion point 415. The system would identify the event and specify the type of event, such as being a collision or an explosion. The system would also identify the magnitude or scope of the event, such as was it a small explosion or a large one. The system would also specify the absolute coordinates of virtual explosion point 415 in the three-dimensional game space 410, or it would calculate the vectors 440-1-440-7 to determine a relative distance from virtual explosion point 415 to each actuation point 430-1 A-430-8A on avatar 420. Vectors 440-1-440-7 can also represent intensity from virtual explosion point 415 to each of the actuation points on avatar 420. System 400 can also include a spatial propagation span that defines the intensity of virtual explosion point 415 based on the distance from the event, such as the explosion can be felt by any user in the radius of 100 meters where the intensity of the explosion diminishes exponentially from the center of the explosion. System 400 would also detect a start and stop time for virtual explosion point 415. System 400 can also determine a temporal propagation span, for example where the event is to be felt for a duration of 30 seconds, but the first 5 seconds would be the strongest.」
[当審訳]
「[0043] 図4は、一実施形態による局所触覚生成システム400である。局所触覚生成システム400は、仮想爆発点415として示されるビデオイベント、三次元ゲーム空間内のアバター420、および現実世界の対応するユーザ422を含む三次元ゲーム空間410を例示する。アバター420は、サンプルの作動点430-lA〜430-8Aを伴うものである。アバターの作動点は、430-1B〜430-8Bとして示されるユーザ422の現実世界の作動点に対応している。さらに、ベクトル440は、仮想爆発点415からアバターの作動点430-1A〜430-8Aのそれぞれへの方向と距離を示している。
[0044] 局所的触覚生成システム400は、まず、図4に仮想爆発点415で発生した仮想爆発として示されるイベントを検出し、識別する。システムは、イベントを識別し、衝突、爆発等のイベントのタイプを特定する。また、小さな爆発なのか、大きな爆発なのかなど、イベントの大きさや範囲も特定する。また、システムは、三次元ゲーム空間410における仮想爆発点415の絶対座標を指定するか、または、ベクトル440-1〜440-7を計算して、仮想爆発点415からアバター420上の各作動点430-1A〜430-8Aまでの相対距離を決定する。ベクトル440-1〜440-7は、仮想爆発点415からアバター420上の各作動点への強度を表すこともできる。システム400はまた、爆発の強度が爆発の中心から指数関数的に減少し、その内側のすべてのユーザによって爆発が感じられる100メートルの半径のように、イベントからの距離に基づいて仮想爆発点415の強度を定義する空間伝搬範囲を含むことができる。システム400はまた、仮想爆発点415の開始時間および停止時間を検出する。システム400はまた、時間的な伝播範囲を決定することができ、例えば、イベントが30秒の持続時間にわたって感じられるが、最初の5秒間が最も大きいという場合である。」

「[0049] System 400, using a dynamic haptics generator, such as dynamic haptics generator 250, analyzes the detected event's characteristics, the user's status, the available haptic playback devices and generates the appropriate haptic effects accordingly. The haptic effect comprises a combination of one or more haptic cues delivered to the user such as vibrotactile, ESF, Kinesthetic, thermal, ultrasonic, air puffs, deformation, etc. In fact, system 400 can generate an effect with specific characteristics, such as a type of haptic cue, frequency, duration and intensity.
[0050] Such effects and characteristics can be based on the following characteristics:
[0051] relative proximity of user 422 or avatar 420 and the event estimated using the event's and the user's three-dimensional locations;
[0052] e.g., stronger effect when closer vs. weaker effect when further apart;
[0053] field of view of user 422 or avatar 420;
[0054] e.g., facing the event or not estimated using the user's head three-dimensional orientation, for example where user 422 or avatar 420 is looking at the event translated by a stronger effect;
[0055] nature of event;
[0056] e.g., explosion versus collision implies different frequencies of vibration, fire event translated through thermal feedback;
[0057] magnitude of event;
[0058] e.g., small explosion leads to weaker effect vs. strong explosion;
[0059] nature of available haptic playback devices;
[0060] e.g., decides to display thermal feedback if possible or replace it with vibrotactile effect if no thermal pads available;
[0061] user's body parts position;
[0062] e.g., if the user's hand is close enough to the three-dimensional fire event the user would feel an effect versus if hand close to body the user would not feel anything;
[0063] distribution of the haptic playback devices;
[0064] e.g., event closer to the user's feet so it would be felt only on a device attached to the feet or stronger on this device and weaker on other body part related devices.」
[当審訳]
「[0049] システム400は、動的触覚生成器250などの動的触覚生成器を使用して、検出されたイベントの特性、ユーザの状態、利用可能な触覚再生デバイスを分析し、それに応じて適切な触覚効果を生成する。触覚効果は、振動触覚、ESF、運動感覚、熱、超音波、エアパフ、変形など、ユーザに提示される1つ以上の触覚キューの組み合わせからなる。実際、システム400は、触覚キューの種類、周波数、持続時間、強度などの特定の特性を有する効果を生成することができる。
[0050] このような効果や特性は、次のような特徴に基づくことができる。
[0051] イベントとユーザの三次元位置を用いて推定されるユーザ422またはアバター420とイベントの相対的な近接度;
[0052] 例:近いほど効果が強く、遠いほど弱い;
[0053] ユーザ422またはアバター420の視界;
[0054] 例:ユーザの頭の三次元の向きを使用して推定される、イベントの方向を向いているか否か、例えば、ユーザ422又はアバター420が強い効果に変換されたイベントを見ているか否か;
[0055] イベントの性質;
[0056] 例:爆発と衝突は異なる振動の周波数を意味し、火災は熱のフィードバックに変換される;
[0057] イベントの強度;
[0058] 例:爆発が小さい(弱い効果を生じさせる)場合と、爆発が大きい場合;
[0059] 利用可能な触覚再生デバイスの性質
[0060] 例:可能な限り熱フィードバックを提示するか、又は、熱パッドがない場合は振動による触覚効果に置き換えるかを決定;
[0061] ユーザの姿勢
[0062] 例:三次元の炎に手を近づけると効果を感じるのに対し、体に近づけると何も感じない;
[0063] 触覚再生デバイスの分布;
[0064] 例:ユーザの足元に近いイベントについては、足元に取り付けた機器でしか感じられない又はこの機器では強く感じるのに対し、他の身体部位に関連する機器では弱く感じられる。」

「[0071] System 600 is virtually identical to the system 400 described in FIG. 4. However, while user 422 is shown in the same position and orientation as in FIG. 4, avatar 620 has rotated clockwise 45 degrees. In moving, the distances indicated by vectors 640 have changed. For example, actuation points on the right side of avatar 620, e.g., 630-3A, 630-5A and 630-7 A potentially are further away from event point 615 than the corresponding points in FIG. 4. In the same manner, actuation points on the left side of avatar 620, e.g., 630-4A, 630-6A and 630-8A are closer to event point 615 than the corresponding points in FIG. 4. Thus, actuation points that move close would receive a higher intensity haptic than those actuation points that are further. In addition, from a timing standpoint, the actuation points that are closer to event point 615 would feel the haptic effect sooner than the actuation points further from event point 615.」
[当審訳]
「[0071] システム600は、図4で説明したシステム400と実質的に同じである。しかしながら、ユーザ422は図4と同じ位置および向きで示されているが、アバター620は時計回りに45度回転している。移動において、ベクトル640によって示される距離は変化している。例えば、アバター620の右側の作動点、例えば、630-3A、630-5Aおよび630-7Aは、潜在的に、図4における対応する点よりもイベント点615から遠く離れている。同様に、アバター620の左側の作動点、例えば、630-4A、630-6A、および630-8Aは、図4の対応する点よりもイベント点615に近い。したがって、近くに移動する作動点は、遠くにある作動点よりも高い強度のハプティクスを受け取ることになる。さらに、タイミングの観点においては、イベント点615に近い作動点は、事象点615から遠い作動点よりも早く触覚効果を感じることになる。」

「Fig.2


[当審訳](省略)

「Fig.3



「Fig.4


[当審訳](省略)

(2)引用発明
前記(1)で摘記した事項において、「局所触覚生成システム300」及び「局所触覚生成システム400」は、「触覚効果生成システム200」の具体例と認められる。
よって、前記(1)より、引用文献1には、次の発明(以下、「引用発明」という。)が記載されていると認められる。

「 触覚効果生成システム200は、イベント検出器210、イベントデータ収集器220、ユーザデータ収集器230、アクチュエータ決定器240、動的触覚生成器250、アクチュエータシステム260、およびアクチュエータ265を含み、
イベント検出器210は、ビデオデータを受信し、受信したビデオデータ内に含まれるビデオイベントを検出し、
イベントデータ収集器220は、検出されたイベントに関するデータを捕捉して収集するビデオ処理アルゴリズムを含み、視聴者とイベントとの間の距離や角度方向などの相対的な位置を決定することができ、イベントデータは、タイムスタンプ、時間的伝播、空間的伝播、タイムスパン、イベントの性質など、任意のイベント属性または他の特性を含み、視聴者は、実際には、仮想現実環境におけるユーザのアバターであり、
ユーザデータ収集器230は、視聴者/プレーヤの位置、またはビデオ内の視聴者/プレーヤのアバターの位置を含むデータを収集し、
アクチュエータ決定器240は、触覚出力デバイスまたはアクチュエータの数、位置、および種類を決定するように構成され、
触覚出力デバイスは、ウェアラブル技術の使用を通じて、ハンドヘルドコントローラ内に埋め込んで、また、椅子や他の家具などのオブジェクトに統合するなどして、ユーザに配置することができ、
動的触覚生成器250は、イベント検出器210、イベントデータ収集器220、ユーザデータ収集器230、およびアクチュエータ決定器240の出力に基づいて、触覚出力デバイスに対する触覚効果コマンドを動的に生成し、
検出されたビデオイベントの間に、ユーザ/プレーヤおよび/またはユーザ/プレーヤのアバターが動きをする場合、局所的触覚効果は、変化する動きに基づいて変更され、例えば、マイクが三次元のゲームをしているとき、彼は、頭を回転させなくても、局所的触覚を通して、ゲーム内のモンスターが自分の背後あるいは自分の左右に、どの程度の距離にいるのかをおおよそ把握することができ、モンスターから遠くに逃げたり、近づいたり、ゲーム内での向きを変えたりすると、局所的触覚が自動的に変化し、
アクチュエータシステム260は、動的触覚生成器250から触覚コマンド又は命令を受信し、所望の触覚効果を生成するアクチュエータ265を動作させ、
局所的触覚システム300は、ユーザ310上の触覚出力デバイスを含み、触覚出力デバイスの位置は、作動点と呼ばれ、ユーザ310の頭部、胸部、左手及び右手、並びに左足及び右足上の312-1〜321-7を含む作動点312の位置が例示され、
各作動点312は、触覚アクチュエータと、アクチュエータ決定器240と通信する機能部を含み、触覚アクチュエータは、振動、変形、熱、ESF、または当技術分野で知られている他の任意のタイプの触覚アクチュエーションを含む触覚フィードバックを提供し、
局所触覚生成システム400は、仮想爆発点415として示されるビデオイベント、三次元ゲーム空間内のアバター420、および現実世界の対応するユーザ422を含む三次元ゲーム空間410を例示し、アバター420は、作動点430-lA〜430-8Aを伴い、アバターの作動点は、430-1B〜430-8Bとして示されるユーザ422の現実世界の作動点に対応し、ベクトル440は、仮想爆発点415からアバターの作動点430-1A〜430-8Aのそれぞれへの方向と距離を示し、
システム400は、触覚キューの種類、周波数、持続時間、強度などの特定の特性を有する効果を生成することができ、
このような効果や特性は、次のような特徴に基づくことができる、
・イベントとユーザの三次元位置を用いて推定されるユーザ422またはアバター420とイベントの相対的な近接度;
例:近いほど効果が強く、遠いほど弱い;
・イベントの性質;
例:爆発と衝突は異なる振動の周波数を意味し、火災は熱のフィードバックに変換される;
・イベントの強度;
例:爆発が小さい(弱い効果を生じさせる)場合と、爆発が大きい場合;
タイミングの観点においては、イベント点615に近い作動点は、事象点615から遠い作動点よりも早く触覚効果を感じることになる、
触覚効果生成システム200。」

2 引用文献Aについて
(1)引用文献A記載事項
原査定に引用された引用文献Aには、図面とともに次の事項が記載されている。

「【0024】
図1は、調節可能で付け心地の良いC字形状のカラーとして装着者30の首20の周囲にぴったりと装着され等しい間隔で配置されたアクチュエータ11の集合体として具現化された本発明に係る装置10を示している。前記装置10は、装着者のゲーム経験を大幅に増幅するために、これを経てゲームに関連する感覚や刺激が伝達され得る一つの感覚器官を提供する。前記装置10は、装着者の首の周囲に配置される様子を示すものであるが、それが使われていないため一対のヘッドフォンのようにはなっていない。開いたC字形状をした前記装置10とその調節可能な構造により、さまざまの範囲の首の大きさに応じて、正しい向きを向くような、すなわち、開放端が装着者30の喉頭あるいは喉仏に向き合うような、適合状態が得られる。」

「【0030】
前記アクチュエータ11は、前記成形された箱15に納められた電子機器と通信する。この成形された電子箱15が前記スリーブ14の後ろに取り付けられた様子が図示されている。この箱には電子機器、すなわち、バッテリー、ブルートゥース及びラジオ、あるいは伝達装置など前記装置の動作に用いられるものが納められている。情報は、無線あるいは箱15からバネ17及び可撓性ホルスター12を経て個々のアクチュエータ11に達する有線の伝送路によって伝達される。」

「【0037】
(アクチュエータを作動/停止することにより距離を表現すること)
その代案として、一つの目的物の位置を1個もしくは数個のアクチュエータで表現する代わりに、当該目的物の方向を示す1個のアクチュエータの動作を目的物と装着者との距離に応じて適切な、もしくは特定の周波数で作動させ、また停止させる方法がありうる。その目的物が近付くとその作動/停止の周波数は増加する。その目的物が装着者に極めて近づいたとき、前記周波数は最大となる。その目的物が引き下がると、その周波数は低下する。」

「【図3】



「【図7】



(2)引用発明A
前記(1)より、引用文献Aには、次の発明(以下、「引用発明A」という。)が記載されていると認められる。

「 調節可能で付け心地の良いC字形状のカラーとして装着者30の首20の周囲にぴったりと装着され等しい間隔で配置されたアクチュエータ11の集合体として具現化された装置10であって、
前記装置10は、これを経てゲームに関連する感覚や刺激が伝達され得る一つの感覚器官を提供し、
前記アクチュエータ11は、前記成形された箱15に納められた電子機器と通信し、情報は、無線あるいは箱15から有線の伝送路によって伝達され、
目的物の方向を示す1個のアクチュエータの動作を目的物と装着者との距離に応じて適切な、もしくは特定の周波数で作動させ、目的物が近付くとその作動の周波数は増加し、目的物が装着者に極めて近づいたとき、前記周波数は最大となり、その目的物が引き下がると、その周波数は低下する、
装置10。」

3 引用文献BないしGについて
(1)引用文献Bについて
原査定に引用された引用文献Bには、図面とともに次の事項が記載されていると認められる。(括弧内は記載箇所を示す。以下の(2)乃至(6)についても同様。)

「 ユーザの体の腰の部分に巻き付けて装着されるベルト型のデバイスである触覚提示装置HM21であって、([0036])
ベルトのバンド部分には、触覚提示装置HM21が装着されたときにユーザの腰の各部位に接触するように、触覚提示部SV21-1乃至触覚提示部SV21-6が略等間隔で設けられ、([0036])
これらの触覚提示部SV21-1乃至触覚提示部SV21-6は、ピエゾ素子アクチュエータなどからなり、ユーザに対して振動刺激による触覚提示を行い、([0037])
触覚提示装置HM21は、サーバ等と通信を行い、方向提示の対象オブジェクトの位置を示すオブジェクト位置情報を取得し、取得されたオブジェクト位置情報と、対象オブジェクトのある方向を提示する方向提示時における触覚提示位置(ユーザに対して触覚提示により対象オブジェクトのある方向を認知させるときの、ユーザに触覚提示が行われていると近くさせる位置、振動刺激の中心位置)を求め、([0041]〜[0043])
触覚提示装置HM21は、求めた触覚提示位置に応じて1または複数の触覚提示部SV21を振動させて触覚提示位置に対する触覚提示を行うことで、方向提示を行い、([0044])
対象オブジェクト方向は、ユーザ(触覚提示装置HM21)から見た水平面上の方向である水平方向であり、([0047])
2つの触覚提示部SV21の間に触覚提示位置PRP11がある場合には、触覚提示部SV21-1および触覚提示部SV21-2における振動強度は、触覚提示部SV21から触覚提示位置PRP11までの距離に応じて定めればよく、([0054])
距離は、触覚提示部SV21が設けられた位置と、触覚提示位置PRP11とから求めることが可能であり、([0057])
触覚提示装置HM21は、振動強度(振動の大きさ)や振動周期、振動パターンなど、振動を変化させることで、ユーザに対して対象オブジェクトまでの距離を提示することができる、([0104])
触覚提示装置HM21。」

(2)引用文献Cについて
原査定に引用された引用文献Cには、図面とともに次の事項が記載されていると認められる。

「 ウェアラブル機器1において、受信した方向指示に従って、ユーザUに移動すべき方向を通知する場合に、バルーン3(通知部、膨脹部)の膨脹と振動部6の振動とを組み合わせて(連動させて)通知すること。([0014])」

(3)引用文献Dについて
原査定に引用された引用文献Dには、図面とともに次の事項が記載されていると認められる。

「 ユーザにより把持された携帯端末10の向きと目的地方向の角度差θに基づいて、携帯端末10の四隅に設けられた振動素子60a−60dの振動強度の比率及び振動強度を求めて、振動素子60a−60dを制御して生じるユーザの掌内の振動PSの位置により目的地方向をユーザに提示すること。(【0026】、【0040】〜【0049】)」

(4)引用文献Eについて
原査定に引用された引用文献Eには、図面とともに次の事項が記載されていると認められる。

「 振動素子130Aを駆動する駆動信号Aを基準として、振動素子Bを駆動する駆動信号Bに位相差を持たせると、振動発生部120の外周面にたわみ進行波が発生し、たわみ進行波により剪断力が発生し、方向性を表す触感を提供することができること。(【0039】〜【0043】)」

(5)引用文献Fについて
原査定に引用された引用文献Fには、図面とともに次の事項が記載されていると認められる。

「 情報処理装置3でプレイ可能なゲームにおいて、(【0077】)
仮想オブジェクトOBJの種類に基づいて、当該仮想オブジェクトOBJが振動する際の振動の種類を設定し、振動種類エータDc1を更新し、(【0115】)
振動種類データDc1が示す種類の振動を情報処理装置3本体に与えるとともに、振動源位置データDc2が示す位置が当該振動の振動源として近くされるように、振動データDgからデータを読み出して当該振動に対応する左振動制御信号CSLおよび右振動制御信号CSRをそれぞれ生成し、(【0116】)
左振動制御信号CSLおよび右振動制御信号CSRをそれぞれ振動発生部37へ出力し、左振動制御信号CSLに応じた信号を左アクチュエータ373Lから発生させ、右振動制御信号CSRに応じた信号を右アクチュエータ373Rからは発生させること。(【0120】)」

(6)引用文献Gについて
原査定に引用された引用文献Gには、図面とともに次の事項が記載されていると認められる。

「 コンテンツ提供モジュール122によって提供される拡張現実仮想世界を、視線方向判定モジュール124によって判定された視線方向情報と組み合わせて、ユーザが拡張現実仮想世界内の特定のオブジェクトを視野内の特定の奥行きで見ていると判定し,
触覚効果決定モジュール126はオブジェクトの種類を識別し、触覚出力装置130によって出力される触覚効果の種類を決定すること。(【0035】)」

第6 当審拒絶理由についての判断
1 理由1(明確性要件)について
本件補正により、本願発明8ないし10(それぞれ、本件補正前の請求項8、10及び11に対応している。なお、本件補正前の請求項9は、本件補正により削除された。)は、「周波数」と「位相差」の両方を制御する場合を含まなくなり、よって、当該理由1(明確性要件)は、解消した。

2 理由2(新規性)及び理由3(進歩性)について
(1)本願発明1について
ア 対比
本願発明1と引用発明とを対比する。

(ア)引用発明において、「作動点」は、「触覚出力デバイス」の位置を指し、各「作動点312」は、「触覚アクチュエータ」を含むから、各「作動点」に配置された「触覚出力デバイス」は、「触覚アクチュエータ」を含むものである。
また、引用発明の「触覚出力デバイスの位置は、作動点と呼ばれ、ユーザ310の頭部、胸部、左手及び右手、並びに左足及び右足上の312-1〜321-7を含む作動点312の位置が例示され」との構成によれば、「ユーザ310」の「左手」と「右手」のそれぞれの位置に「作動点312」がある場合を含み、ここで、「左手」にある「作動点312」に配置された「触覚出力デバイス」(以下、「左手側触覚出力デバイス」という。)が含む「触覚アクチュエータ」(以下、「左手側触覚アクチュエータ」という。)は、本願発明1の「第1アクチュエータ」に相当し、また、「右手」にある「作動点312」に配置された「触覚出力デバイス」(以下、「右手側触覚出力デバイス」という。)が含む「触覚アクチュエータ」(以下、「右手側触覚アクチュエータ」という。)は、本願発明1の「第2アクチュエータ」に相当する。

(イ)引用発明において、「触覚アクチュエータ」は「振動、変形、熱、ESF、または当技術分野で知られている他の任意のタイプの触覚アクチュエーションを含む触覚フィードバックを提供」するものであるから、「左手側触覚アクチュエータ」及び「右手側触覚アクチュエータ」はそれぞれ、「左手側触覚出力デバイス」及び「右手側触覚出力デバイス」のそれぞれにおいてユーザの左手及び右手と接する部分を駆動することにより、前記左手及び右手の当該部分に対して「局所的触覚」を与えている、すなわち、ユーザの体の一部である左手及び右手に触覚的に作用しているといえる。
よって、引用発明において、「左手側触覚出力デバイス」及び「右手側触覚出力デバイス」のそれぞれにおいてユーザの左手及び右手と接する部分は、本願発明1の「前記第1アクチュエータおよび前記第2アクチュエータによって駆動され、ユーザの体に触覚的に作用する作用部」に相当する。

(ウ)引用発明の「イベントデータ収集器220」は、「視聴者とイベントとの間の距離や角度方向などの相対的な位置を決定する」ものであり、また、引用発明は「ベクトル440は、仮想爆発点415からアバターの作動点430-1A〜430-8Aのそれぞれへの方向と距離を示し」との構成を備え、「ベクトル440」は、「仮想爆発点415」という「イベント」から見た各「作動点」の方向と、各「作動点」と「イベント」との距離を含む相対的な位置といえるから、「イベントデータ収集器220」は、当該「ベクトル440」を相対的な位置として決定(取得)するものと認められる。
よって、前記(ア)を参酌すれば、「イベントデータ収集器220」は、「イベント」から見た「左手側触覚出力デバイス」が位置する「作動点」の方向と、当該「作動点」と「イベント」の距離と、「イベント」から見た「右手側触覚出力デバイス」が位置する「作動点」の方向と、当該「作動点」と「イベント」の距離を取得する「位置取得部」として機能しているといえる。
そして、引用発明の「左手側触覚出力デバイス」が位置する「作動点」及び「右手側触覚出力デバイス」が位置する「作動点」は、本願発明1の「基準位置」に相当し、「イベント」は、本願発明1の「対象」に相当する。
したがって、引用発明の「イベントデータ収集器220」と、本願発明1の「基準位置から見た対象の方向、および/または、前記基準位置と前記対象との距離を取得する位置取得部」とは、「方向、および/または、基準位置と対象との距離を取得する位置取得部」との限りにおいて一致する。

(エ)引用発明の「動的触覚生成器250」は「イベント検出器210、イベントデータ収集器220、ユーザデータ収集器230、およびアクチュエータ決定器240の出力に基づいて、触覚出力デバイスに対する触覚効果コマンドを動的に生成」するものであり、また、「イベントデータ収集器220」は、前記(ウ)で述べた、方向と距離を取得する機能に加え、「イベントに関するデータ」(イベントデータ)を捕捉して収集する機能を備え、「イベントデータ」は、「イベントの性質など、任意のイベント属性または他の特性」を含むのである。
そして、引用発明においては、「システム400」が生成する「触覚キューの種類、周波数、持続時間、強度などの特定の特性を有する効果」における「効果や特性」が、以下の特徴に基づくものとしている。
「・イベントとユーザの三次元位置を用いて推定されるユーザ422またはアバター420とイベントの相対的な近接度;
例:近いほど効果が強く、遠いほど弱い;
・イベントの性質;
例:爆発と衝突は異なる振動の周波数を意味し、火災は熱のフィードバックに変換される;
・イベントの強度;
例:爆発が小さい(弱い効果を生じさせる)場合と、爆発が大きい場合;」
そうすると、引用発明の「イベントデータ収集器220」が捕捉して収集する「イベントデータ」には、「イベントの性質」及び「イベントの強度」が含まれ、すなわち、「イベント」が、爆発か衝突か、または、小さい爆発か大きい爆発かといった、「イベント」の種類に関する情報を含み、「イベントデータ収集器220」は、取得した方向及び距離に加え、「イベント」の種類に関する情報を「動的触覚生成器250」に出力するものといえる。
よって、引用発明の「動的触覚生成器250」は、「イベントデータ収集器220」が生成し出力する、前記方向および/または距離の情報に応じて、かつ、「イベント」の種類を考慮して、「左手側触覚アクチュエータ」及び「右手側触覚アクチュエータ」の触覚効果の強さ及び周波数に対応した「駆動波形」を制御する制御部として機能しているといえる。
そして、引用発明は、「例えば、マイクが三次元のゲームをしているとき、彼は、頭を回転させなくても、局所的触覚を通して、ゲーム内のモンスターが自分の背後あるいは自分の左右に、どの程度の距離にいるのかをおおよそ把握することができ」るものであることから、「動的触覚生成器250」による制御は、「ユーザが前記方向および/または距離を把握できるよう」にすることを目的としたものといえる。
以上から、引用発明の「動的触覚生成器250」は、本願発明1の「前記ユーザが前記方向および/または距離を把握できるよう、前記方向および/または距離に応じて、かつ、前記対象の種類を考慮して、前記第1アクチュエータおよび前記第2アクチュエータの少なくとも一方の駆動波形を制御する制御部」に相当する。

(オ)引用発明は、「三次元のゲーム」を実行するシステムである場合を含み、また、前記(エ)を参酌すれば、「イベント」の種類に応じて、異なる周波数、異なる強度のパラメータが設定され、当該パラメータが触覚アクチュエータの制御に考慮されているといえる。
よって、引用発明と、本願発明1の「前記対象の種類は、ゲームにおいて、前記対象に設定されたパラメータまたはレアリティであ」ることとは、「前記対象の種類は、ゲームにおいて、前記対象に設定されたパラメータであ」ることとの限りにおいて一致する。

(カ)引用発明の「触覚効果生成システム200」は、ユーザに対して「イベント」の位置の情報を提示するものといえるから、本願発明1の「位置情報提示システム」に相当する。

イ 一致点、相違点
前記アから、本願発明1と引用発明とは、以下の点において一致ないし相違する。

[一致点]
「第1アクチュエータと、
第2アクチュエータと、
前記第1アクチュエータおよび前記第2アクチュエータによって駆動され、ユーザの体に触覚的に作用する作用部と、
方向、および/または、基準位置と対象との距離を取得する位置取得部と、
前記ユーザが前記方向および/または距離を把握できるよう、前記方向および/または距離に応じて、かつ、前記対象の種類を考慮して、前記第1アクチュエータおよび前記第2アクチュエータの少なくとも一方の駆動波形を制御する制御部と、を備え、
前記対象の種類は、ゲームにおいて、前記対象に設定されたパラメータである、位置情報提示システム。」

[相違点]
本願発明1は、「前記方向が前記基準位置から見て後ろ側である場合、前記制御部は、前記作用部が前記ユーザの体に作用しないよう、前記第1アクチュエータおよび前記第2アクチュエータの少なくとも一方の振幅を制御する」との構成を備えるのに対し、引用発明は、「例えば、マイクが三次元のゲームをしているとき、彼は、頭を回転させなくても、局所的触覚を通して、ゲーム内のモンスターが自分の背後あるいは自分の左右に、どの程度の距離にいるのかをおおよそ把握することができ」るものであり、「イベント」の「方向」が「背後」(基準位置から見て後ろ側)である場合にも、「局所的触覚」がユーザの体に作用するように各「触覚アクチュエータ」を制御する点。

進歩性(相違点)についての判断
上記相違点について検討するに、引用発明は、ユーザが頭を回転させることなく、ユーザから見て左右及び背後の方向にある「イベント」を「局所的触覚」を通して把握できるように構成されていることからすれば、上記相違点に係る本願発明1の構成を引用発明に付加すると、引用発明が備える作用効果を失わせることになるため、上記相違点に係る本願発明1の構成を引用発明に付加することを想起することは当業者といえども困難である。また、上記相違点に係る本願発明1の構成は、本願出願前の周知技術ともいえない。
したがって、本願発明1は、当業者であっても引用発明に基いて容易に発明をすることができたものであるとはいえない。

新規性についての判断
前記ウからすると、上記相違点は、形式的なものではなく実質的なものであるから、本願発明1は、引用文献1に記載された発明には該当しない。

オ むすび
したがって、本願発明1は、引用文献1に記載された発明ではなく、また、当業者が引用文献1に記載された発明に基いて容易に発明をすることができたものでもない。

(2)本願発明2ないし10について
本願発明2ないし10は、本願発明1と同一の構成を備えるものであるから、本願発明1と同じ理由により、当業者であっても、引用文献1に記載された発明ではなく、また、当業者が引用文献1に記載された発明に基いて容易に発明をすることができたものでもない。

(3)本願発明11ないし13について
本願発明11は、本願発明1を「位置情報提示装置」の発明として特定したものであって、上記相違点に係る本願発明1の構成を備え、本願発明12及び13は、本願発明11を減縮する発明であるから、本願発明11ないし13は、本願発明1と同じ理由により、引用文献1に記載された発明ではなく、また、当業者が引用文献1に記載された発明に基いて容易に発明をすることができたものでもない。

(4)本願発明14ないし16について
本願発明14は、本願発明11を「位置情報提示プログラム」の発明として特定したものであって、上記相違点に係る本願発明1に対応する構成を備え、本願発明15及び16は、本願発明14を減縮する発明であるから、本願発明14ないし16は、本願発明1と同じ理由により、引用文献1に記載された発明ではなく、また、当業者が引用文献1に記載された発明に基いて容易に発明をすることができたものでもない。

(5)本願発明17ないし19について
本願発明17は、本願発明11を「位置情報提示方法」の発明として特定したものであって、上記相違点に係る本願発明1に対応する構成を備え、本願発明18及び19は、本願発明17を減縮する発明であるから、本願発明17ないし19は、本願発明1と同じ理由により、引用文献1に記載された発明ではなく、また、当業者が引用文献1に記載された発明に基いて容易に発明をすることができたものでもない。

(6)理由2(新規性)及び理由3(進歩性)についてのまとめ
以上のとおりであるから、当審拒絶理由の理由2(新規性)及び理由3(進歩性)はいずれも解消した。

第7 原査定についての判断
1 本願発明1について
(1) 対比
本願発明1と引用発明Aとを対比する。

ア 引用発明Aの「等しい間隔で配置されたアクチュエータ11の集合体」のうち、いずれか1つの「アクチュエータ11」は、本願発明1の「第1アクチュエータ」に相当し、また、引用発明Aの「等しい間隔で配置されたアクチュエータ11の集合体」のうち、いずれか1つの「アクチュエータ11」とは異なる他のいずれか1つの「アクチュエータ11」は、本願発明1の「第2アクチュエータ」に相当する。

イ 引用発明Aの「アクチュエータ11」は、「装着者30の首20の周囲にぴったりと装着され」ることからすれば、「装着者30の首20」(ユーザの体)に触覚的に作用するものであるから、前記アを参酌すれば、本願発明1の「前記第1アクチュエータおよび前記第2アクチュエータによって駆動され、ユーザの体に触覚的に作用する作用部」としても機能しているといえる。

ウ 引用発明Aの「装置10」は、「目的物の方向を示す1個のアクチュエータの動作を目的物と装着者との距離に応じて適切な、もしくは特定の周波数で作動させ、目的物が近付くとその作動の周波数は増加し、目的物が装着者に極めて近づいたとき、前記周波数は最大となり、その目的物が引き下がると、その周波数は低下する」ように「アクチュエータ」の動作を制御するための「制御部」を備えていることは明らかである。
そして、上記制御の内容からして、引用発明Aの制御部は、「目的物」(対象)の「方向」を示す「1個のアクチュエータ」(前記第1アクチュエータおよび前記第2アクチュエータの少なくとも一方)と、その「周波数」の大きさ(駆動波形)を制御することにより、「装着者」(ユーザ)が、自身(基準位置)から見た「目的物」(対象)の「方向」、および/または、自身(基準位置)から見た「目的物」(対象)との「距離」を把握できるようにしているといえる。
よって、引用発明Aの「制御部」と、本願発明1の「前記ユーザが前記方向および/または距離を把握できるよう、前記方向および/または距離に応じて、かつ、前記対象の種類を考慮して、前記第1アクチュエータおよび前記第2アクチュエータの少なくとも一方の駆動波形を制御する制御部」とは、「前記ユーザが前記方向および/または距離を把握できるよう、前記方向および/または距離に応じて、前記第1アクチュエータおよび前記第2アクチュエータの少なくとも一方の駆動波形を制御する制御部」である点において共通する。

エ 前記ウを参酌すれば、引用発明Aの「装置10」は、「装着者」に対して「目的物」の位置情報を提示するシステムといえるから、本願発明1の「位置情報提示システム」に相当する。

(2)一致点、相違点
前記(1)より、本願発明1と引用発明Aとは、以下の点において一致ないし相違する。

[一致点]
「 第1アクチュエータと、
第2アクチュエータと、
前記第1アクチュエータおよび前記第2アクチュエータによって駆動され、ユーザの体に触覚的に作用する作用部と、
前記ユーザが前記方向および/または距離を把握できるよう、前記方向および/または距離に応じて、前記第1アクチュエータおよび前記第2アクチュエータの少なくとも一方の駆動波形を制御する制御部と、を備える、位置情報提示システム。」

[相違点]
<相違点1>
本願発明1は、「基準位置から見た対象の方向、および/または、前記基準位置と前記対象との距離を取得する位置取得部」を備えるのに対し、引用発明Aは、当該構成を具体的に特定していない点。

<相違点2>
本願発明1は、駆動波形を制御するにあたり、「対象の種類を考慮して」いるのに対し、引用発明Aは、当該構成を具体的に特定していない点。

<相違点3>
本願発明1は、「前記方向が前記基準位置から見て後ろ側である場合、前記制御部は、前記作用部が前記ユーザの体に作用しないよう、前記第1アクチュエータおよび前記第2アクチュエータの少なくとも一方の振幅を制御する」との構成を備えるのに対し、引用発明Aは、当該構成を具体的に特定していない点。

(3)相違点についての判断
事案に鑑みて、先に相違点3について検討するに、相違点3に係る本願発明1の構成は、引用文献BないしGのいずれにも記載されておらず、また、本願出願前の周知技術ともいえない。
したがって、相違点1及び2について検討するまでもなく、本願発明1は、当業者が、引用文献AないしGに記載された発明に基いて容易に発明をすることができたものであるとはいえない。

2 本願発明2ないし10について
本願発明2ないし10は、本願発明1と同一の構成を備えるものであるから、本願発明1と同じ理由により、当業者が、引用文献AないしGに記載された発明に基いて容易に発明をすることができたものであるとはいえない。

3 本願発明11ないし13について
本願発明11は、本願発明1を「位置情報提示装置」の発明として特定したものであって、上記相違点3に係る本願発明1の構成を備え、本願発明12及び13は、本願発明11を減縮する発明であるから、本願発明11ないし13は、本願発明1と同じ理由により、当業者が、引用文献AないしGに記載された発明に基いて容易に発明をすることができたものであるとはいえない。

4 本願発明14ないし16について
本願発明14は、本願発明11を「位置情報提示プログラム」の発明として特定したものであって、上記相違点3に係る本願発明1に対応する構成を備え、本願発明15及び16は、本願発明14を減縮する発明であるから、本願発明14ないし16は、本願発明1と同じ理由により、当業者が引用文献AないしGに記載された発明に基いて容易に発明をすることができたものであるとはいえない。

5 本願発明17ないし19について
本願発明17は、本願発明11を「位置情報提示方法」の発明として特定したものであって、上記相違点3に係る本願発明1に対応する構成を備え、本願発明18及び19は、本願発明17を減縮する発明であるから、本願発明17ないし19は、本願発明1と同じ理由により、当業者が、引用文献AないしGに記載された発明に基いて容易に発明をすることができたものであるとはいえない。

第8 むすび
以上のとおり、原査定の理由によって、本願を拒絶することはできない。
他に本願を拒絶すべき理由を発見しない。
よって、結論のとおり審決する。
 
審決日 2022-04-05 
出願番号 P2019-126624
審決分類 P 1 8・ 113- WY (G06F)
P 1 8・ 121- WY (G06F)
P 1 8・ 537- WY (G06F)
最終処分 01   成立
特許庁審判長 ▲吉▼田 耕一
特許庁審判官 富澤 哲生
林 毅
発明の名称 位置情報提示システム、位置情報提示装置、位置情報提示プログラムおよび位置情報提示方法  
代理人 大野 聖二  
代理人 大野 浩之  
代理人 松野 知紘  
代理人 小林 英了  
  • この表をプリントする

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ