• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 取り消して特許、登録 G06F
審判 査定不服 特174条1項 取り消して特許、登録 G06F
管理番号 1371578
審判番号 不服2019-10267  
総通号数 256 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2021-04-30 
種別 拒絶査定不服の審決 
審判請求日 2019-08-02 
確定日 2021-03-26 
事件の表示 特願2017-541898「仮想アシスタントのアクティブ化」拒絶査定不服審判事件〔平成28年 9月15日国際公開、WO2016/144983、平成30年 2月22日国内公表、特表2018-505491、請求項の数(22)〕について、次のとおり審決する。 
結論 原査定を取り消す。 本願の発明は、特許すべきものとする。 
理由 第1 手続の経緯
本願は、2016年(平成28年)3月8日(パリ条約による優先権主張外国庁受理2015年(平成27年)3月8日 米国 2015年(平成27年)8月31日 米国)を国際出願日とする出願であって、その手続の経緯は以下のとおりである。
平成30年 5月 2日付け:拒絶理由通知書
平成30年 8月 7日 :意見書、手続補正書の提出
平成30年10月10日付け:拒絶理由通知書
平成31年 1月21日 :意見書の提出
平成31年 4月 4日付け:拒絶査定
令和 元年 8月 2日 :拒絶査定不服審判の請求
令和 2年 9月14日付け:拒絶理由(当審拒絶理由)通知書
令和 2年12月10日 :意見書、手続補正書の提出

第2 本願発明
本願請求項1?22に係る発明(以下、それぞれ「本願発明1」?「本願発明22」という。)は、令和2年12月10日に提出された手続補正書により補正された特許請求の範囲の請求項1?22に記載された事項により特定される発明であり、それらのうちの本願発明1,21,22は、それぞれ以下のとおりの発明である(下線は補正箇所を示す。)。
「【請求項1】
コンピュータプログラムであって、
ディスプレイ、マイクロフォン及び入力デバイスを備える電子デバイスにより実行されると、前記電子デバイスに、
前記ディスプレイがオフの間に、前記入力デバイスを介してユーザ入力を受信させ、
前記ユーザ入力が所定の条件を満たすかどうかを判定させ、
前記ユーザ入力が前記所定の条件を満たす場合、前記ディスプレイをオンにし、その後、前記ディスプレイがオンかどうかを判定させ、
前記ディスプレイがオンとの判定に従って、マイクロフォンを介して受信したオーディオ入力をサンプリングさせ、
前記オーディオ入力が口頭トリガを含むかどうかを判定させ、
前記オーディオ入力が前記口頭トリガを含むとの判定に従い、仮想アシスタントセッションをトリガさせる、
命令群を含む、コンピュータプログラム。」
「【請求項21】
ディスプレイ、マイクロフォン、及び入力デバイスを備える電子デバイスにおいて、
前記ディスプレイがオフの間に、前記入力デバイスを介してユーザ入力を受信することと、
前記ユーザ入力が所定の条件を満たすかどうかを判定することと、
前記ユーザ入力が前記所定の条件を満たす場合、前記ディスプレイをオンにし、その後、前記ディスプレイがオンかどうかを判定することと、
前記ディスプレイがオンとの判定に従って、マイクロフォンを介して受信したオーディオ入力をサンプリングすることと、
前記オーディオ入力が口頭トリガを含むかどうかを判定することと、
前記オーディオ入力が前記口頭トリガを含むとの判定に従い、仮想アシスタントセッションをトリガすることとを含む方法。」
「【請求項22】
ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1以上のプログラムであって、前記メモリに格納され、前記1以上のプロセッサにより実行されると、
前記ディスプレイがオフの間に、入力デバイスを介してユーザ入力を受信し、
前記ユーザ入力が所定の条件を満たすかどうかを判定し、
前記ユーザ入力が前記所定の条件を満たす場合、前記ディスプレイをオンにし、その後、前記ディスプレイがオンかどうかを判定し、
前記ディスプレイがオンとの判定に従って、マイクロフォンを介して受信したオーディオ入力をサンプリングし、
前記オーディオ入力が口頭トリガを含むかどうかを判定し、
前記オーディオ入力が前記口頭トリガを含むとの判定に従い、仮想アシスタントセッションをトリガするための命令群を含むように構成された1以上のプログラムと
を備える、電子デバイス。」

また、本願発明2?20は、本願発明1を減縮した発明である。

第3 原査定の概要
原査定(平成31年4月4日付け拒絶査定)の概要は次のとおりである。
この出願の請求項1?10,13?22に係る発明は、引用文献1?3に記載された発明に基づいて、請求項11,12に係る発明は、引用文献1?4に記載された発明に基づいて、それぞれ、その発明の属する技術の分野における通常の知識を有する者(以下、「当業者」という。)が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。
引用文献等一覧
1 米国特許出願公開第2014/0379341号明細書
2 国際公開第2014/124332号(周知技術を示す文献)
3 欧州特許出願公開第2632129号明細書(周知技術を示す文献)
4 特表2012-508530号公報

第4 引用文献、引用発明等
1 原査定の拒絶の理由にて引用された引用文献1には、図面とともに次の事項が記載されている(下線は当審による。)。
(1)「[0129] Referring to FIG. 7A, FIG. 7A is a view illustrating an example of a case where a user wears a portable terminal on the wrist, and a user 710 wears an attachable portable terminal 720 on the left hand. The portable terminal 720 may include a belt, a string, and the like so as to be attached to a target, such as an arm or a leg. Further, the user 710 may generally walk or run, and the portable terminal 720 may detect such a movement through the sensor module 170. When the movement is detected as described above, the portable terminal 720 may determine whether the movement is a movement for controlling the operation or the function of the portable terminal 720. As a basis of the determination, the portable terminal 720 may determine whether the movement is a movement for controlling the operation or the function of the portable terminal 720 by storing a moving pattern in daily life and comparing the stored moving pattern with the movement, or through various information, such as a speed, an altitude, an angle, and the like detected by the sensor module 170. Further, when there is no movement for a predetermined time or the portable terminal is in a stop state after the movement is generated, the portable terminal 720 may detect that there is no movement or the portable terminal is in the stop state. For example, when the user 710 bends the arm wearing the portable terminal 720 in the front direction as if the user 710 bends the arm wearing a watch in the front direction when generally seeing the watch, and then stops for a predetermined time or stops the movement, the portable terminal 720 detects such a gesture.
[0130] Referring to FIG. 7B, FIG. 7B is a view illustrating an example of a case where a hand wearing the portable terminal is bent in the front direction, and when the user 720 bends a left arm wearing the portable terminal 720 in the front direction, the portable terminal 720 recognizes generation of a movement or a gesture from the state of FIG. 7A to the state of FIG. 7B. In the present embodiment, the gesture of bending the left arm wearing the portable terminal in the front direction is described, but is only the exemplary embodiment, and the present disclosure includes various gestures by which the portable terminal moves. With respect to the various gestures, a different gesture may be mapped according to an attribute of a function desired to be executed through the portable terminal 720. That is, as if the voice recognition module is activated when the user bends the arm wearing the portable terminal 720 in the front direction, when the user wears the portable terminal 720 on an ankle, a module for calculating a step whenever the user walks may be activated. As described above, the present disclosure may execute a predetermined function according to the movement of the portable terminal 720.
[0131] Further, the portable terminal 720 drives a timer after the movement to the state of FIG. 7B. Further, when the time calculated by the driven timer exceeds a predetermined time, the portable terminal 720 determines that any command may be input from the user, and activates at least one of the touch screen and the voice recognition module of the portable terminal 720. The touch screen and the voice recognition module may be separately or simultaneously performed, and only one of the touch screen and the voice recognition module may be performed. Further, the portable terminal 720 may recognize or scan the eyeballs of the user 720 through at least one camera included therein. As described above, it is possible to more accurately determine whether to activate the voice recognition module by recognizing or scanning the eyeballs of the user 720. For example, when the time calculated by the driven timer exceeds the predetermined time, but the eyeballs of the user are not recognized or scanned, the portable terminal 720 may not activate at least one of the touch screen and the voice recognition module.
[0132] As described above, when the touch screen is activated, a lock screen is displayed according to preference of the user, or when the lock is not set, a basic wallpaper is displayed. When the lock screen is displayed, and then the user releases the lock, the portable terminal 720 enters a standby mode so as to allow the user to use all of the functions providable by the portable terminal 720. In this case, the voice recognition module may be or may not be executed.
[0133] Further, when the time calculated by the driven timer exceeds the predetermined time and the voice recognition module is executed, the portable terminal 720 activates the microphone 162 and enters the standby mode for receiving a voice or a sound from the user.」
(当審訳: 「[0129] 図7Aを参照すると、図7Aは、使用者が手首に携帯端末を装着している場合、及び、取り付け可能な携帯端末720を左腕に装着しているユーザ710の一例を示す図である。携帯端末720は、腕または脚などの対象に取り付けられるように帯や紐等を含んでもよい。また、ユーザ710は、一般的に歩くか又は走ってもよく、携帯端末720は、センサモジュール170を通じてそのような動きを検出してもよい。上述のように動きが検出されたとき、携帯端末720は、その動きが、携帯端末720の操作又は機能を制御するための動きであるかどうかを決定してもよい。決定の基準として、携帯端末720は、センサモジュール170によって検出された操作または携帯端末720の機能を制御する日常生活での移動パターンを記憶し、記憶された移動パターンをその動きと比較することにより、又は、センサモジュール170によって検出された速度、高度、角度などの様々な情報から、その動きが、携帯端末720の操作又は機能を制御するための動きであるかどうかを決定してもよい。更に、所定の時間動きが無い、又は、動きが発生された後携帯端末が停止状態にあるとき、携帯端末720は、動きが無い、又は、携帯端末が停止状態にあることを検出してもよい。例えば、腕時計を一般的に見るときにユーザ710が腕時計を装着している腕を手前方向に曲げるかのように、ユーザ710が携帯端末720を装着した腕を手前方向に曲げ、その後、所定時間停止したか又は動きを停止したとき、携帯端末720は、そのようなジェスチャーを検出する。
[0130] 図7Bを参照すると、図7Bは、携帯端末を装着した手が手前方向に曲げられた場合の一例を示す図であり、そして、ユーザ720が携帯端末720を装着した左腕を手前方向に曲げたとき、携帯端末720は、図7Aの状態から図7Bの状態への動き又はジェスチャーの発生を認識する。本実施形態では、携帯端末を装着した左腕を手前方向に曲げるジェスチャーが記述されるが、例示的な実施形態に過ぎず、本開示は携帯端末がそれによって動く様々なジェスチャーを含む。様々なジェスチャーに関して、携帯端末720を通じての実行が望まれる機能の属性に応じて異なるジェスチャーがマッピングされてもよい。すなわち、ユーザが携帯端末720を装着した腕を手前方向に曲げたときに音声認識モジュールが起動されるかのように、ユーザが足首に携帯端末720を装着したときに、ユーザが歩くごとに歩数を計算するためのモジュールを起動してもよい。上述したように、本開示は携帯端末720の動きに応じて所定の機能を実行し得る。
[0131] また、携帯端末720は、図7Bの状態に移行した後、タイマーを駆動する。更に、駆動されたタイマーによって算出された時間が所定の時間を超えると、携帯端末720は、任意の命令がユーザから入力されたと決定して、携帯端末720のタッチスクリーン及び音声認識モジュールのうちの少なくとも1つのうちの少なくとも1つを起動する。タッチスクリーン及び音声認識モジュールは、別々に、または、同時に実行されてもよく、タッチスクリーン及び音声認識モジュールの一方のみが実行されてもよい。更に、携帯端末720は、その中に含まれる少なくとも1つのカメラを通じてユーザ720の眼球を認識する又はスキャンすることができる。上述したように、ユーザ720の眼球を認識する又はスキャンすることにより音声認識モジュールを起動するか否かをより正確に決定することができる。例えば、駆動タイマーによって算出された時間が所定の時間を超えたが、ユーザの眼球は認識又はスキャンされないときは、携帯端末720は、タッチスクリーン及び音声認識モジュールのうちの少なくとも1つを起動しなくてもよい。
[0132] 上述のようにタッチスクリーンが活動状態にされると、ユーザの好みに応じて表示されるロック画面、又はロックが設定されていない場合は基本的な壁紙が表示される。ロック画面が表示され、そしてユーザがロックを解除すると、携帯端末720は待機モードに入り、携帯端末720が提供可能な全ての機能をユーザが使用することを許可する。この場合、音声認識モジュールが実行されてもよいし、実行されなくてもよい。
[0133] 更に、駆動タイマーによって算出された時間が所定時間を超え、音声認識モジュールが実行されると、携帯端末720は、マイクロフォン162を活動状態とし、ユーザからの声又は音を受けるための待機モードに移行する。」)

(2)「[0136] FIG. 8 is a flowchart illustrating a process of controlling a function by using voice recognition in the portable terminal according to the exemplary embodiment of the present disclosure.
[0137] Hereinafter, a process of controlling a function by using voice recognition in the portable terminal according to the exemplary embodiment of the present disclosure will be described in detail below.
[0138] When any command or input is not input during a predetermined time, the touch screen provided at the portable terminal of the present disclosure is maintained in the inactive state, that is, the sleep mode (S805). The inactive state means a state in which the touch screen is turned off.
[0139] When there is no movement for a predetermined time after a gesture moving the portable terminal is detected in the inactive state, the controller 110 changes the touch screen and the voice recognition module to be in the active state (S810 and S812). The portable terminal 100 activates at least one of the touch screen and the voice recognition module through a gesture or a movement of the portable terminal detected by the sensor module 170. An order of the activation may be variably adjusted, and the present disclosure may be applicable regardless of the order of the activation. Further, when the gesture is detected, and then there is no movement or a horizontal state of the portable terminal is maintained for the predetermined time, the controller 110 activates the touch screen and activates the voice recognition module for detecting a voice input from a user. The voice recognition module is activated when there is no movement for a predetermined time after the gesture is detected. Further, the gesture may different according to an altitude of the portable terminal and/or a direction in which the touch screen included in the portable terminal heads, and the controller 110 may recognize various gestures through the sensor module 170. The controller 110 determines whether the gesture is a movement lowering the touch screen making the altitude of the portable terminal lower through the sensor module 170, and controls the eyeballs of the user, which move the current portable terminal, to be recognized or scanned through at least one camera included in the camera module 150 and activates the voice recognition module. When the eyeballs are not recognized or detected, the controller 110 maintains the voice recognition module in the inactive state. The controller 110 analyzes the voice input through the activated voice recognition module, and determines whether to execute a function corresponding to a result of the analyzed voice based on whether personal information exists or whether the function corresponds to the personal information.
[0140] Further, when the input of the voice or an input for releasing the lock is detected, the controller 110 analyzes the detected input, and when the input is the input of the voice input as a result of the analysis, the controller 110 determines whether the input voice is an input not-corresponding to the personal information (S814 and S816). In operation S812, the portable terminal activates at least one of the touch screen and the voice recognition module. Through the activation, the portable terminal may receive the voice from the user, receive a command for releasing the lock through the activated touch screen, or display the wallpaper through the touch screen when the lock is not set. When a voice for executing a function provided by the portable terminal is input from the user through the activated voice recognition module, the controller 110 analyzes the input voice, and determines whether to execute the function corresponding to the input voice. That is, as a result of the determination, the controller 110 determines whether the function corresponding to the voice includes or corresponds to the personal information.」
(当審訳: 「[0136] 図8は、本開示の一実施形態による携帯端末において音声認識を利用して機能を制御する処理を示すフローチャートである。
[0137] 以下、本開示の実施の形態に係る携帯端末における音声認識を利用して機能を制御する処理が、詳細について後述されるだろう。
[0138] 任意のコマンド又は入力が所定時間入力されない場合に、本開示の携帯端末に設けられているタッチスクリーンは、非活動状態、すなわち、スリープモード(S805)に維持される。非活動状態は、タッチスクリーンがターンオフされている状態を意味する。
[0139] 非活動状態で携帯端末を動かすジェスチャーが検出された後、所定時間にわたって動きがない場合、コントローラー110は、タッチスクリーン及び音声認識モジュールを活動状態に変更する(S810及びS812)。携帯端末100は、ジェスチャー又はセンサモジュール170によって検出された携帯端末の動きを通じて、タッチスクリーン及び音声認識モジュールのうちの少なくとも一方をアクティブ化する。アクティブ化の順序は可変的に調整されてもよく、本開示は、アクティブ化の順序を問わずに適用されてよいものである。更に、ジェスチャーが検出されると、動きがないか、又は携帯端末の水平状態が所定時間にわたって維持されると、コントローラー110は、タッチスクリーンをアクティブ化し、ユーザからの音声入力を検知するための音声認識モジュールをアクティブ化する。音声認識モジュールは、ジェスチャーが検出された後所定時間にわたって動きがない場合にアクティブ化される。更に、ジェスチャーは、携帯端末の高度及び/又は携帯端末に含まれるタッチスクリーンが進む方向に応じて異なっていてもよく、コントローラー110は、センサモジュール170を通じて様々なジェスチャーを認識してもよい。コントローラー110は、ジェスチャーが、携帯端末の高度を低くさせながらタッチスクリーンを下げる動きであるかどうかをセンサモジュール170を通じて決定し、カメラモジュール150に含まれる少なくとも1つのカメラを通じて現下の携帯端末を認識又は走査されるべく移動させる、ユーザの眼球を制御し、音声認識モジュールをアクティブ化する。眼球が認識又は検出されない場合、コントローラー110は、音声認識モジュールを非活動状態に維持する。コントローラー110は、活動状態とされた音声認識モジュールを通じて音声入力を解析し、分析された音声結果に応じた機能を実行するかどうかを、個人情報が存在するかどうか又はその機能が個人情報に対応するかどうかに基づいて決定する。」)

2 上記1から、引用文献1には次の発明(以下、「引用発明」という。)が記載されていると認められる。
「タッチスクリーンが活動状態にされると、ユーザの好みに応じて表示されるロック画面、又はロックが設定されていない場合は基本的な壁紙が表示され、
音声認識モジュールが実行されると、マイクロフォン162を活動状態とする携帯端末720であって、
携帯端末において音声認識を利用して機能を制御する処理において、
非活動状態で携帯端末を動かすジェスチャーが検出された後、所定時間にわたって動きがない場合、コントローラー110は、タッチスクリーン及び音声認識モジュールを活動状態に変更し、
コントローラー110は、センサモジュール170を通じて様々なジェスチャーを認識してもよく、
コントローラー110は、活動状態とされた音声認識モジュールを通じて音声入力を解析する、
携帯端末720。」

第5 対比・判断
1 本願発明1について
(1)対比
ア 本願発明1と引用発明とを対比すると、次のことがいえる。
(ア)引用発明の「携帯端末720」において、「タッチスクリーン」は、「ロック画面」や「壁紙」が「表示」されるから、本願発明1の「ディスプレイ」に相当し、「マイクロフォン162」は本願発明1の「マイクロフォン」に相当する。
また、引用発明の「ジェスチャー」は、(ユーザが)「携帯端末を動かす」等のものであり、「センサモジュール170」は、それを「通じて」、「コントローラー110」が「様々なジェスチャーを認識」するから、「コントローラー110」は、「ジェスチャー」としてのユーザの入力を「センサモジュール170」を「介して」「受信」するといえ、「センサモジュール170」、「ジェスチャー」は、それぞれ本願発明1の「入力デバイス」、「ユーザ入力」に相当する。ここで、「コントローラー110」は「携帯端末720」に含まれる構成であるから、上記「受信」の主体は「携帯端末720」であるといえる。
そして、引用発明の「タッチスクリーン」、「マイクロフォン162」及び「センサモジュール170」は、「携帯端末720」が備えるといえ、当該「携帯端末720」は本願発明1の「電子デバイス」に相当する。
以上のことから、引用発明は、本願発明1の「ディスプレイ、マイクロフォン及び入力デバイスを備える電子デバイス」に相当する構成を有している。

(イ)引用発明は、「非活動状態で携帯端末を動かすジェスチャーが検出された後、所定時間にわたって動きがない場合、コントローラー110は、タッチスクリーン及び音声認識モジュールを活動状態に変更」するものであるから、「ジェスチャーが検出され」るのは、「タッチスクリーン」が「非活動状態」の「間」であり、ここで、「変更」の主体は、上記(ア)の「受信」と同様に「携帯端末720」であるといえ、その一方で、「非活動状態」であること、「活動状態に変更」することは、それぞれ、本願発明1の「オフ」であること、「オン」にすることに相当する。
また、「携帯端末を動かすジェスチャーが検出された後、所定時間にわたって動きがない場合」とは、「ジェスチャー」の態様が当該「場合」に該当するかどうか、すなわち「所定の条件を満たすかどうか」の「判定」を行い、その結果が「所定の条件を満たす場合」であるといえる。そして、その「判定」の主体は、上記(ア)の「受信」と同様に「携帯端末720」であるといえる。
以上の点について上記(ア)も踏まえると、引用発明は、本願発明1の「前記電子デバイスに、前記ディスプレイがオフの間に、前記入力デバイスを介してユーザ入力を受信させ」ることに相当する構成、及び、「前記電子デバイス」に、「前記ユーザ入力が所定の条件を満たすかどうかを判定させ、前記ユーザ入力が前記所定の条件を満たす場合、前記ディスプレイをオンに」させることに相当する構成を有している。

(ウ)引用発明の「コントローラー110は、活動状態とされた音声認識モジュールを通じて音声入力を解析する」ことに関し、「音声入力」は、「マイクロフォン162」を介して「受信」されるものであることが明らかであり、本願発明1の「オーディオ入力」に相当する。また、「解析」の主体は、上記(ア)の「受信」と同様に「携帯端末720」であるといえ、その一方で、引用発明の「解析する」ことと、本願発明1の「サンプリング」とは、「処理」することである点で共通している。
以上のことから、引用発明と本願発明1とは、「前記電子デバイス」に、「マイクロフォンを介して受信したオーディオ入力を処理させ」るとの構成を備える点で共通している。

(エ)引用発明の「携帯端末において音声認識を利用して機能を制御する処理」は、「携帯端末720」により実行される「コンピュータプログラム」により行われることが明らかであり、また、当該「コンピュータプログラム」が、「コントローラー110」に、「センサモジュール170を通じて様々なジェスチャーを認識」させること、「タッチスクリーン」を「活動状態に変更」させること、及び、「音声入力を解析」させることの「命令群」を含むことも明らかである。

イ したがって、本願発明1と引用発明とは以下の点で一致する。
(一致点)
「コンピュータプログラムであって、
ディスプレイ、マイクロフォン及び入力デバイスを備える電子デバイスにより実行されると、前記電子デバイスに、
前記ディスプレイがオフの間に、前記入力デバイスを介してユーザ入力を受信させ、
前記ユーザ入力が所定の条件を満たすかどうかを判定させ、
前記ユーザ入力が前記所定の条件を満たす場合、前記ディスプレイをオンにし、
マイクロフォンを介して受信したオーディオ入力を処理させる、
命令群を含む、コンピュータプログラム。」

ウ また、本願発明1と引用発明とは以下の点で相違する。
(相違点1)
本願発明1は、「前記ディスプレイをオンに」することと、「マイクロフォンを介して受信したオーディオ入力をサンプリングさせ」ることとの間に、「前記ディスプレイがオンかどうかを判定させ」る処理を行うものであり、「前記ディスプレイをオンにし、その後」に「前記ディスプレイがオンかどうかを判定させ」ることが行われ、かつ、「マイクロフォンを介して受信したオーディオ入力をサンプリングさせ」るのが、「前記ディスプレイがオンとの判定に従って」行われるのに対し、引用発明は、「タッチスクリーン」を「活動状態に変更」することと「音声入力を解析する」こととの間に、「タッチスクリーン」が「活動状態」かどうかを「判定」する処理を行うものではない点。

(相違点2)
本願発明1では、「オーディオ入力」に対する処理が、「サンプリング」及び「前記オーディオ入力が口頭トリガを含むかどうかを判定」するものであるとともに、「コンピュータプログラム」が、「前記オーディオ入力が前記口頭トリガを含むとの判定に従い、仮想アシスタントセッションをトリガさせる」のに対し、引用発明では、「音声入力」に対する処理が、単に「解析する」ことである点。

(2)判断
そこで、まず相違点1について検討する。
引用発明は、「非活動状態で携帯端末を動かすジェスチャーが検出された後、所定時間にわたって動きがない場合、コントローラー110は、タッチスクリーン及び音声認識モジュールを活動状態に変更」するものであって、「非活動状態で携帯端末を動かすジェスチャーが検出された後、所定時間にわたって動きがない」という条件が満足されれば、「タッチスクリーン」が「活動状態に変更」されるから、「活動状態」とされた後の時点で、「活動状態」であるかどうかを「判定」することについて、当業者はその必要性を認識することはないといえる。
また、携帯端末等において、そのディスプレイをオンにし、その後、当該ディスプレイがオンかどうかを判定して、当該ディスプレイがオンとの判定に従って、何らかの他の動作を実行することは、原査定で引用された引用文献1?4のいずれにも記載されておらず、本願優先日前において周知技術であるともいえない。
よって、他の相違点について判断するまでもなく、本願発明1は、当業者であっても引用文献1?4に記載された発明に基づいて容易に発明をすることができたものであるとはいえない。

2 本願発明2?22について
本願発明2?20は、いずれも本願発明1を減縮した発明である。
また、本願発明21,22は、いずれも本願発明1の上記相違点1に係る発明特定事項に対応する発明特定事項を含んでいる。
そうすると、本願発明2?22も本願発明1と同様の理由により、当業者であっても引用文献1?4に記載された発明に基づいて容易に発明をすることができたものであるとはいえない。

第6 原査定についての判断
令和2年12月10日付け手続補正により、本願発明1?22は、それぞれ相違点1に係る発明特定事項に対応する構成を有するものとなっており、上記第5のとおり、引用文献1?4に記載された発明に基づいて当業者が容易に発明をすることができたものではない。したがって、原査定(上記第3)を維持することはできない。

第7 当審拒絶理由について
1 令和2年9月14日付けで通知した拒絶理由(以下、「当審拒絶理由」という。)の概要は次のとおりである。
平成30年8月7日付け手続補正書でした補正は、次の点で翻訳文等(国際出願日における国際特許出願の明細書若しくは図面(図面の中の説明に限る。)の翻訳文、国際出願日における国際特許出願の請求の範囲の翻訳文又は国際出願日における国際特許出願の図面(図面の中の説明を除く。))に記載した事項の範囲内においてしたものでないから、特許法第17条の2第3項に規定する要件を満たしていない。
請求項1の記載を
「前記ユーザ入力が前記所定の条件を満たす結果として、前記ディスプレイがオンかどうかを判定させ、」
との記載に変更する補正事項は、翻訳文等のすべての記載を総合することにより導かれる技術的事項との関係において新たな技術的事項を導入するものであると認められる。
また、以上の点は、請求項1と同様の補正がなされている請求項21及び22についても同様である。

2 これに対し、令和2年12月10日に提出の手続補正書により、請求項1の記載が上記第2の本願発明1における下線部について補正され、請求項1は、
「前記ユーザ入力が前記所定の条件を満たす場合、前記ディスプレイをオンにし、その後、前記ディスプレイがオンかどうかを判定させ、
前記ディスプレイがオンとの判定に従って、マイクロフォンを介して受信したオーディオ入力をサンプリングさせ」
との発明特定事項を含むものとなっている。

一方、本願の明細書の翻訳文には、以下の記載がある(下線は当審による。)。
「【0228】
図8Aは、ユーザ802の電子デバイス800を示す。デバイス800は、いくつかの実施形態では、デバイス104、デバイス122、デバイス200、デバイス400、デバイス600及びデバイス1700(図1、図2、図4、図6、及び図17)のうちの1つである。デバイス800は、タッチスクリーン804を有する。図示された(例えば、降ろされた)位置では、タッチスクリーン804は、バッテリ使用を節約するために電源オフにされている。
【0229】
図8Bは、電子デバイス800を閲覧するために引き上げ位置に持ち上げているユーザ802を示す。移動に応じて、デバイス800は、タッチスクリーン804の電源をオンにして、ユーザインタフェースを提示する。図8A及び図8Bに示す持ち上げ移動などデバイスの移動を判定する技法について、以下、図12を参照して更に説明する。
【0230】
電源をオンしているタッチスクリーン804に従い、デバイス800はまた、そのマイクロフォンを介してオーディオ入力をサンプリングし始めて、ユーザ802からの口頭入力を聴取する。・・・(後略)」

「【0320】
いくつかの実施形態によれば、図16は、図8及び図12を参照して説明したものを含む、説明される様々な実施形態の原理に従って構成された電子デバイス1600の機能ブロック図を示す。・・・(後略)」

「【0325】
いくつかの実施形態では、処理ユニットは、ディスプレイがオンしているかを(例えば、表示可能化ユニット1616を用いて)判定し、ディスプレイがオンしているとの判定に従い、(例えば、オーディオサンプリングユニット1620を用いて)オーディオ入力のサンプリングが発生するように更に構成される。・・・(後略)」

そして、上記の各記載を総合すると、請求項1の上記発明特定事項について翻訳文等に実質的に記載されていると理解することができる。
また、以上のことは、請求項21,22についても同様である。
したがって、当審拒絶理由は解消した。

第8 むすび
以上のとおり、本願発明1?22は、当業者が引用文献1?4に記載された発明に基づいて容易に発明をすることができたものではない。
したがって、原査定の理由によっては、本願を拒絶することはできない。
また、他に本願を拒絶すべき理由を発見しない。
よって、結論のとおり審決する。
 
審決日 2021-03-09 
出願番号 特願2017-541898(P2017-541898)
審決分類 P 1 8・ 121- WY (G06F)
P 1 8・ 55- WY (G06F)
最終処分 成立  
前審関与審査官 星野 昌幸野村 和史  
特許庁審判長 稲葉 和生
特許庁審判官 林 毅
富澤 哲生
発明の名称 仮想アシスタントのアクティブ化  
代理人 特許業務法人大塚国際特許事務所  
代理人 大塚 康徳  
代理人 大塚 康弘  
代理人 高柳 司郎  
代理人 木村 秀二  
代理人 永川 行光  
代理人 下山 治  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ