ポートフォリオを新規に作成して保存 |
|
|
既存のポートフォリオに追加保存 |
|
PDFをダウンロード |
審決分類 |
審判 査定不服 2項進歩性 特許、登録しない。 G06F |
---|---|
管理番号 | 1362201 |
審判番号 | 不服2019-332 |
総通号数 | 246 |
発行国 | 日本国特許庁(JP) |
公報種別 | 特許審決公報 |
発行日 | 2020-06-26 |
種別 | 拒絶査定不服の審決 |
審判請求日 | 2019-01-11 |
確定日 | 2020-05-14 |
事件の表示 | 特願2017-243089「情報提供装置、情報提供方法、および情報提供プログラム」拒絶査定不服審判事件〔令和 1年 7月 4日出願公開、特開2019-109780〕について、次のとおり審決する。 |
結論 | 本件審判の請求は、成り立たない。 |
理由 |
第1 手続の経緯 本願は、平成29年(2017年)12月19日の出願であって、その手続の経緯は以下のとおりである。 平成30年 7月24日付け:拒絶理由通知書 平成30年 9月19日 :意見書、手続補正書の提出 平成30年10月23日付け:拒絶査定 平成31年 1月11日 :審判請求書、手続補正書の提出 第2 平成31年1月11日にされた手続補正についての補正の却下の決定 [補正の却下の決定の結論] 平成31年1月11日にされた手続補正(以下、「本件補正」という。)を却下する。 [理由] 1.本件補正について(補正の内容) (1)本件補正後の特許請求の範囲の記載 本件補正により、特許請求の範囲の請求項1の記載は、次のとおり補正された。(下線部は、補正箇所である。) 「【請求項1】 ユーザから情報の提供要求を受け付ける受付部と、 前記受付部によって受け付けられる前記提供要求に対する応答として、前記ユーザが提供を望む情報を通信ネットワーク上に公開されている情報から検索して取得する取得部と、 前記取得部によって取得される情報を、それぞれが音によって表現して前記ユーザへ通知する複数の音響を重畳して出力させる出力部と を備え、 前記出力部は、 前記ユーザへ提供する情報の詳細を音声言語によって表現する主音響と、前記ユーザへ提供する情報の概要を前記ユーザに連想させる音声言語以外の音によって表現する副音響とを重畳して出力させる ことを特徴とする情報提供装置。」 (2)本件補正前の特許請求の範囲 本件補正前の、平成30年9月19日にされた手続補正により補正された特許請求の範囲の請求項1の記載は次のとおりである。 「【請求項1】 ユーザから情報の提供要求を受け付ける受付部と、 前記受付部によって受け付けられる前記提供要求に対する応答として、前記ユーザが提供を望む情報を通信ネットワーク上に公開されている情報から検索して取得する取得部と、 前記取得部によって取得される情報を、それぞれが音によって表現して前記ユーザへ通知する複数の音響を重畳して出力させる出力部と を備えることを特徴とする情報提供装置。」 2.補正の適否 本件補正は、本件補正前の請求項1に記載された発明を特定するために必要な事項である「出力部」について、「前記出力部は、前記ユーザへ提供する情報の詳細を音声言語によって表現する主音響と、前記ユーザへ提供する情報の概要を前記ユーザに連想させる音声言語以外の音によって表現する副音響とを重畳して出力させる」との限定を付加するものであって、補正前の請求項1に記載された発明と補正後の請求項1に記載される発明の産業上の利用分野及び解決しようとする課題が同一であるから、特許法17条の2第5項2号の特許請求の範囲の減縮を目的とするものに該当する。 そこで、本件補正後の請求項1に記載される発明(以下「本件補正発明」という。)が同条第6項において準用する同法第126条第7項の規定に適合するか(特許出願の際独立して特許を受けることができるものであるか)について、以下、検討する。 (1)本件補正発明 本件補正発明は、上記1(1)に記載したとおりのものである。 (2)引用文献の記載事項 ア.引用文献1、引用発明 (ア)原査定の拒絶の理由で引用された、特開2002-318593号公報(平成14年10月31日出願公開。以下、「引用文献1」という。)には、図面とともに、次の記載がある。 「【0012】 【発明の実施の形態】図1は、本発明を適用したロボットの一実施の形態の外観構成例を示しており、図2は、その電気的構成例を示している。 【0013】本実施の形態では、ロボットは、例えば、犬等の四つ足の動物の形状のものとなっており、胴体部ユニット2の前後左右に、それぞれ脚部ユニット3A,3B,3C,3Dが連結されるとともに、胴体部ユニット2の前端部と後端部に、それぞれ頭部ユニット4と尻尾部ユニット5が連結されることにより構成されている。 【0014】?【0015】(略) 【0016】頭部ユニット4には、「耳」に相当するマイク(マイクロフォン)15、「目」に相当するCCD(Charge Coupled Device)カメラ16、触覚に相当するタッチセンサ17、「口」に相当するスピーカ18などが、それぞれ所定位置に配設されている。また、頭部ユニット4には、口の下顎に相当する下顎部4Aが1自由度をもって可動に取り付けられており、この下顎部4Aが動くことにより、ロボットの口の開閉動作が実現されるようになっている。 【0017】(略) 【0018】頭部ユニット4におけるマイク15は、ユーザからの発話を含む周囲の音声(音)を集音し、得られた音声信号を、コントローラ10に送出する。CCDカメラ16は、周囲の状況を撮像し、得られた画像信号を、コントローラ10に送出する。 【0019】?【0026】(略) 【0027】コントローラ10は、特定の外部状態を認識するセンサ入力処理部50、センサ入力処理部50の認識結果を累積して、感情や、本能、成長の状態を表現するモデル記憶部51、センサ入力処理部50の認識結果等に基づいて、続く行動を決定する行動決定機構部52、行動決定機構部52の決定結果に基づいて、実際にロボットに行動を起こさせる姿勢遷移機構部53、各アクチュエータ3AA_(1)乃至5A_(1)および5A_(2)を駆動制御する制御機構部54、並びに合成音を生成する音声合成部55から構成されている。 【0028】センサ入力処理部50は、マイク15や、CCDカメラ16、タッチセンサ17等から与えられる音声信号、画像信号、圧力検出信号等に基づいて、特定の外部状態や、ユーザからの特定の働きかけ、ユーザからの指示等を認識し、その認識結果を表す状態認識情報を、モデル記憶部51および行動決定機構部52に通知する。 【0029】即ち、センサ入力処理部50は、音声認識部50Aを有しており、音声認識部50Aは、マイク15から与えられる音声信号について音声認識を行う。そして、音声認識部50Aは、その音声認識結果としての、例えば、「歩け」、「伏せ」、「ボールを追いかけろ」等の指令その他を、状態認識情報として、モデル記憶部51および行動決定機構部52に通知する。 【0030】?【0039】(略) 【0040】行動決定機構部52は、センサ入力処理部50からの状態認識情報や、モデル記憶部51からの状態情報、時間経過等に基づいて、次の行動を決定し、決定された行動の内容を、行動指令情報として、姿勢遷移機構部53に送出する。 【0041】?【0046】(略) 【0047】なお、行動決定機構部52では、上述したように、ロボットの頭部や手足等を動作させる行動指令情報の他、ロボットに発話を行わせる行動指令情報も生成される。ロボットに発話を行わせる行動指令情報は、音声合成部55に供給されるようになっており、音声合成部55に供給される行動指令情報には、音声合成部55に生成させる合成音に対応するテキスト等が含まれる。そして、音声合成部55は、行動決定部52から行動指令情報を受信すると、その行動指令情報に含まれるテキストに基づき、合成音を生成し、スピーカ18に供給して出力させる。これにより、スピーカ18からは、例えば、ロボットの鳴き声、さらには、「お腹がすいた」等のユーザへの各種の要求、「何?」等のユーザの呼びかけに対する応答その他の音声出力が行われる。なお、行動決定機構部52は、音声合成部55から合成音を出力させる場合には、下顎部4Aを開閉させる行動指令情報を、必要に応じて生成し、姿勢遷移機構部53に出力する。この場合、合成音の出力に同期して、下顎部4Aが開閉し、ユーザに、ロボットがしゃべっているかのような印象を与えることができる。 【0048】?【0049】(略) 【0050】次に、図4は、図3の音声合成部55の構成例を示している。 【0051】非言語音生成モジュール21には、行動決定機構部52が出力する、音声合成の対象とするテキストを含む行動指令情報が供給されるようになっており、非言語音生成モジュール21は、行動指令情報からテキストを抽出し、さらに、そのテキストから非言語音情報を抽出する。 【0052】?【0070】(略) 【0071】非言語音情報解釈モジュール22は、非言語音生成モジュール21から供給されるテキストと非言語音情報のセットについて、後述するテキスト非言語音融合モジュール29において、テキストに対応する合成音データに対し、非言語音情報に対応する音響データを融合させるタイミングを表すタイミングデータを生成し、テキストと非言語音情報のセットに付加する。 【0072】ここで、テキストおよび非言語音情報のセットに対するタイミングデータの付加は、例えば、タグを用いて行うことができる。 【0073】即ち、例えば、テキストが、「今日はとっても眠い」であり、そのテキスト「今日はとっても眠い」における単語「眠い」に基づき、あくびの音を表す非言語音情報「あくび」が抽出された場合において、タイミングデータとして、テキスト「今日はとっても眠い」の先頭から3文字目の直後の位置を表すものが生成されたときには、非言語音情報解釈モジュール22は、タイミングデータが付加されたテキストおよび非言語音情報のセット(以下、適宜、タイミング付きテキストセットという)として、例えば、「今日は<あくび>とっても眠い」を生成する。このタイミング付きテキストセット「今日は<あくび>とっても眠い」においては、タイミングデータにしたがい、先頭から3文字目の直後に、非言語情報「あくび」を表すタグ<あくび>が配置されており、従って、先頭から3文字「今日は」の直後のタイミングにおいて、非言語音情報「あくび」に対応する音響データを融合することを表す。 【0074】?【0091】(略) 【0092】非言語音変換モジュール27は、非言語音情報解釈モジュール22からの非言語音情報とタイミングデータを受信し、その非言語音情報を用い、非言語音変換テーブル記憶部28を参照することで、音響データを生成する。 【0093】即ち、非言語音変換テーブル記憶部28は、非言語音情報が表す効果音の音響データを、その非言語音情報と対応付けた非言語音変換テーブルを記憶しており、非言語音変換モジュール27は、非言語音変換テーブルにおいて、非言語音解釈モジュール22からの非言語音情報と対応付けられている音響データを読み出す。 【0094】ここで、非言語音変換テーブルにおいては、例えば、非言語音情報「あくび」に対して、あくびの音である、例えば、「あーあ」などが記憶されている。また、非言語音変換テーブルにおいては、図6に示した非言語音情報「せみの声」に対しては、せみの鳴き声である、例えば、「ミーンミーン」などが、非言語音情報「ビールを飲む音」に対しては、ビールを飲むときの、喉が鳴ると言われている音に対応する、例えば、「ゴクゴク」などが、非言語音情報「ドアをたたく音」に対しては、ドアをたたいたときに生じる音である、例えば、「ドンドン」などが、非言語音情報「楽しそうな音」に対しては、楽しげな感情を表現する音である、例えば、アップテンポで、明るい感じの曲(例えば、ハ長調の曲)などが、それぞれ記憶されている。 【0095】非言語音変換モジュール27は、非言語音情報に対応する音響データを得ると、その音響データと、非言語音情報解釈モジュール22から非言語音情報とともに供給されたタイミングデータとを、テキスト非言語音融合モジュール29に供給する。 【0096】テキスト非言語音融合モジュール29は、規則合成モジュール25からの合成音データと、非言語音変換モジュール27からの音響データとを融合し、最終的な合成音データを得て、発声モジュール30に供給する。 【0097】即ち、テキスト非言語音融合モジュール29は、規則合成モジュール25から供給される合成音データの、同じく規則合成モジュール25から供給されるタイミングデータが表す位置から、非言語音変換モジュール27から供給される音響データを挿入する。あるいは、また、テキスト非言語音融合モジュール29は、規則合成モジュール25から供給される合成音データに対し、同じく規則合成モジュール25から供給されるタイミングデータが表す位置から、非言語音変換モジュール27から供給される音響データを重畳する。 【0098】なお、テキスト非言語音融合モジュール29では、規則合成モジュール25から供給される合成音データに対し、非言語音変換モジュール27から供給される音響データを、その音響データの長さ分だけ重畳する他、合成音データの全体にわたって、音響データを繰り返し重畳することも可能である。即ち、音響データは、合成音データの一部または全部に重畳することが可能である。 【0099】また、テキスト非言語音融合モジュール29において、合成音データに、音響データを挿入する場合には、音響データを複数回繰り返して挿入することが可能である。 【0100】発声モジュール30は、テキスト非言語音融合モジュール30(合議体註:「29」の誤記と認める)が出力する合成音データを、必要に応じて増幅し、さらに、D/A(Digital/Analog)変換を行って、スピーカ18(図3)に供給する。 【0101】以上のように構成される音声合成部55では、行動決定機構部52(図3)から供給される行動指令情報に含まれるテキストから、非言語音情報を抽出し、さらに、そのテキストに対応する音声記号を生成する前処理、テキストから抽出された非言語音情報に対応する音響データを生成する非言語音情報処理、およびテキストに対応する合成音データを生成し、その合成音データと、非言語音情報に対応する音響データとを融合して、最終的な合成音データを得る音声合成処理が行われる。」 「【0130】以上のように、テキストから、非言語音情報を抽出し、その非言語音情報に対応する音響データを生成して、テキストに対応する合成音データと融合するようにしたので、テキストの意味するところを、効果的に表現する合成音を得ることが可能となり、その結果、例えば、ロボットのエンタテイメント性を向上させること等が可能となる。」 (イ)上記記載から、引用文献1には、次の発明(以下、「引用発明」という。)が記載されていると認められる。 〈引用発明〉 「ロボットは、胴体部ユニット2の前後左右に、それぞれ脚部ユニット3A,3B,3C,3Dが連結されるとともに、胴体部ユニット2の前端部と後端部に、それぞれ頭部ユニット4と尻尾部ユニット5が連結されることにより構成され、 頭部ユニット4には、「耳」に相当するマイク15、「目」に相当するCCDカメラ16、触覚に相当するタッチセンサ17、「口」に相当するスピーカ18などが、それぞれ所定位置に配設され、 頭部ユニット4におけるマイク15は、ユーザからの発話を含む周囲の音声(音)を集音し、得られた音声信号を、コントローラ10に送出し、 コントローラ10は、センサ入力処理部50の認識結果等に基づいて、続く行動を決定する行動決定機構部52、行動決定機構部52の決定結果に基づいて、実際にロボットに行動を起こさせる姿勢遷移機構部53、各アクチュエータ3AA_(1)乃至5A_(1)および5A_(2)を駆動制御する制御機構部54、並びに合成音を生成する音声合成部55から構成され、 センサ入力処理部50は、マイク15等から与えられる音声信号等に基づいて、特定の外部状態や、ユーザからの特定の働きかけ、ユーザからの指示等を認識し、その認識結果を表す状態認識情報を、モデル記憶部51および行動決定機構部52に通知する、 行動決定機構部52は、センサ入力処理部50からの状態認識情報や、モデル記憶部51からの状態情報、時間経過等に基づいて、次の行動を決定し、決定された行動の内容を、行動指令情報として、姿勢遷移機構部53に送出する、 行動決定機構部52では、ロボットの頭部や手足等を動作させる行動指令情報の他、ロボットに発話を行わせる行動指令情報も生成され、ロボットに発話を行わせる行動指令情報は、音声合成部55に供給されるようになっており、音声合成部55に供給される行動指令情報には、音声合成部55に生成させる合成音に対応するテキスト等が含まれ、 音声合成部55は、行動決定部52から行動指令情報を受信すると、その行動指令情報に含まれるテキストに基づき、合成音を生成し、スピーカ18に供給して出力させ、これにより、スピーカ18からは、例えば、ロボットの鳴き声、さらには、「お腹がすいた」等のユーザへの各種の要求、「何?」等のユーザの呼びかけに対する応答その他の音声出力が行われる、 ロボットであって、 音声合成部55の非言語音生成モジュール21には、行動決定機構部52が出力する、音声合成の対象とするテキストを含む行動指令情報が供給されるようになっており、非言語音生成モジュール21は、行動指令情報からテキストを抽出し、さらに、そのテキストから非言語音情報を抽出する、 非言語音情報解釈モジュール22は、非言語音生成モジュール21から供給されるテキストと非言語音情報のセットについて、後述するテキスト非言語音融合モジュール29において、テキストに対応する合成音データに対し、非言語音情報に対応する音響データを融合させるタイミングを表すタイミングデータを生成し、テキストと非言語音情報のセットに付加する、 例えば、テキストが、「今日はとっても眠い」であり、そのテキスト「今日はとっても眠い」における単語「眠い」に基づき、あくびの音を表す非言語音情報「あくび」が抽出された場合において、タイミングデータとして、テキスト「今日はとっても眠い」の先頭から3文字目の直後の位置を表すものが生成されたときには、非言語音情報解釈モジュール22は、タイミングデータが付加されたテキストおよび非言語音情報のセットとして、例えば、「今日は<あくび>とっても眠い」を生成する、 非言語音変換モジュール27は、非言語音情報解釈モジュール22からの非言語音情報とタイミングデータを受信し、その非言語音情報を用い、非言語音変換テーブル記憶部28を参照することで、音響データを生成する、 非言語音変換テーブルにおいては、例えば、非言語音情報「あくび」に対して、あくびの音である、例えば、「あーあ」などが記憶され、また、非言語音情報「せみの声」に対しては、せみの鳴き声である、例えば、「ミーンミーン」などが、非言語音情報「ビールを飲む音」に対しては、ビールを飲むときの、喉が鳴ると言われている音に対応する、例えば、「ゴクゴク」などが、非言語音情報「ドアをたたく音」に対しては、ドアをたたいたときに生じる音である、例えば、「ドンドン」などが、非言語音情報「楽しそうな音」に対しては、楽しげな感情を表現する音である、例えば、アップテンポで、明るい感じの曲(例えば、ハ長調の曲)などが、それぞれ記憶されている、 非言語音変換モジュール27は、非言語音情報に対応する音響データを得ると、その音響データと、非言語音情報解釈モジュール22から非言語音情報とともに供給されたタイミングデータとを、テキスト非言語音融合モジュール29に供給する、 テキスト非言語音融合モジュール29は、規則合成モジュール25からの合成音データと、非言語音変換モジュール27からの音響データとを融合し、最終的な合成音データを得て、発声モジュール30に供給する、 即ち、テキスト非言語音融合モジュール29は、規則合成モジュール25から供給される合成音データに対し、同じく規則合成モジュール25から供給されるタイミングデータが表す位置から、非言語音変換モジュール27から供給される音響データを重畳する、 なお、テキスト非言語音融合モジュール29では、規則合成モジュール25から供給される合成音データに対し、非言語音変換モジュール27から供給される音響データを、その音響データの長さ分だけ重畳する他、合成音データの全体にわたって、音響データを繰り返し重畳することも可能である、即ち、音響データは、合成音データの一部または全部に重畳することが可能である、 発声モジュール30は、テキスト非言語音融合モジュール29が出力する合成音データを、必要に応じて増幅し、さらに、D/A(Digital/Analog)変換を行って、スピーカ18に供給する、 以上のように構成される音声合成部55では、行動決定機構部52から供給される行動指令情報に含まれるテキストから、非言語音情報を抽出し、さらに、そのテキストに対応する音声記号を生成する前処理、テキストから抽出された非言語音情報に対応する音響データを生成する非言語音情報処理、およびテキストに対応する合成音データを生成し、その合成音データと、非言語音情報に対応する音響データとを融合して、最終的な合成音データを得る音声合成処理が行われ、 テキストから、非言語音情報を抽出し、その非言語音情報に対応する音響データを生成して、テキストに対応する合成音データと融合するようにしたので、テキストの意味するところを、効果的に表現する合成音を得ることが可能となる、 ロボット。」 イ.引用文献2、3に記載された周知技術 (ア)同じく原査定の拒絶の理由で周知技術を示す文献として引用された、特開2001-43126号公報(以下、「引用文献2」という。)には、次の記載がある。 「【0012】外的入力手段101は、ユーザーもしくは他のロボットシステムからの入力を認識し、認識したデータを判定手段103に送る。キーボード、音声認識装置などであり、例えばユーザーがマイクに向かって発した音声を認識し、認識データを判定手段に送る。 【0013】時間入力手段102は、時刻を計時してその時刻データを判定部103に送っている。 【0014】判定部103は、認識データと時刻データとを判定し、判定に応じた命令を応答作成手段107に送る。 【0015】情報蓄積手段104は、通信手段105を介して情報獲得手段106からの情報を蓄積したり、情報の更新を行う。 【0016】情報蓄積手段104は、取得先情報の構文解析手段を備え、ホームページ上の情報を解析し、応答出力のフォーマットにテキスト変換し蓄積する。また情報獲得手段106はインターネットを介して情報源とつながっている。その機能上常時ネットワークに接続していることが望ましいので、ロボット本体100とは切り離し、通信手段105の赤外線通信モデムで、ロボット本体の情報蓄積手段104と非接触にデータのやり取りをする。 【0017】応答作成手段107は、判定手段103から送られた命令を受けて、必要に応じて情報蓄積手段104に格納された情報を参照して、応答文を生成し動作命令とともに応答出力手段108に送る。 【0018】応答出力手段108は、ロボットの体を構成する各部を備え付けられたモーター、合成音声出力装置からなり、送られてきた動作命令に従って各部のモーターが協調して回転させ、前記応答文を音声として出力させる。 【0019】たとえば、プロ野球ニュースのホームページに情報取得先アドレスを設定している場合、情報獲得手段106は定期的にそのURLアドレスにアクセスし、図2に示すような試合結果記事を取得し、情報蓄積手段104は試合結果記事独特の構文を格納した構文辞書を参照し構文解析を行い、解析結果のデータに助詞(は、で、に)、動詞(勝ち)を補完して図3に示すようなフォーマットのテキストデータを生成し蓄積する。また一定時間毎にこのURLアドレスを巡回し、情報の更新が行われていれば新しい情報をダウンロードし蓄積されている知識を更新する。図3に示されたデータが情報蓄積手段に蓄積されている場合に、予め設定した時刻が時間入力手段から送られてきたり、ユーザーが「野球の結果は」とマイクに向かって話した場合、蓄積されたデータの検索依頼と判定され、依頼に対する返答を指令する命令が、応答作成手段に送られる。応答作成手段では蓄積データを参照し、{巨人(が),勝ち}を認識し、予めプログラムされた「喜びの動作」の動作命令と音声合成のための図3に示すテキストデータを応答出力手段に送る。こうして巨人が勝っているときは、喜びの動作をしながらプロ野球ニュースを読み上げることができる。 【0020】また、最新の楽音情報を提供しているヒットチャートのサイトを情報取得先として設定しておけば、たとえばユーザーから「歌って」と音声入力されたとき、いつも最新のヒット曲を歌わせることもできる。歌声合成は公知の従来技術で対応できる。」 (イ)同じく原査定の拒絶の理由で周知技術を示す文献として引用された、真貝 寿明 他著,“未来をになうキミたちへの宿題だ!”,子供の科学 10月号,日本,(株)誠文堂新光社,2014年9月10日,第77巻,p.12-21(以下、「引用文献3」という。)には、p.12に、以下の記載がある。 「File No.8 鉄腕アトムやドラえもんはできる!? KoKaプレイバック5 万能ロボット問題 1929年10月号「人造人間ロボットの活躍」 人間のように動き、話をするロボットの可能性は当時から考えられていた。コンピューターやセンサー技術の目覚ましい発達で、ロボットはどんどん賢くなるが、万能ロボットは未だ開発されていない。 人のように考えることができる人工知能(AI)、そしてAIを頭脳とするロボットは実現するのか。そのためにはまず知能とは何かを、答えられなければならない。だが、現在の科学はまだその疑問を解き明かしていない。人のように考える機械の実現はまだまだ先の話といえそうだ。 ただし、機械知性は部分的には、さまざまなことを実現している。例えばロボットは周囲の障害物を認識して移動する道筋を考え、多少の誤差なら自分で修正できる。人の顔や音声も認識して、天気予報のような簡単なものならばインターネットを活用して答えることもできる。最近注目されているのは、「機械学習」と呼ばれる技術だ。あたかも人が経験を積むように、多くの事例を与えて統計処理をすることで、機械が自動でルール自体を学習できる。機械翻訳などにも応用できると考えられている。なかには機械の方が得意な問題もあるのだ。人と機械が共同で問題解決にあたる時代は近い。 (森山和道)」 (ウ)上記(ア)、(イ)から、次の技術は本願出願時において周知な技術であったと認められる。 〈周知技術〉 「ユーザと音声による対話を行うロボットにおいて、ユーザが提供を望む情報をインターネット(通信ネットワーク)上に公開されている情報から検索して取得し、その取得した情報を応答出力すること」 (3)引用発明との対比 ア.本件補正発明と引用発明とを対比する。 (ア)引用発明において、「センサ入力処理部50」は、マイク15等から与えられる音声信号等に基づいて、ユーザからの指示等を認識し、その認識結果を表す状態認識情報を「行動決定機構部52」に通知している。 ここで、マイク15等から与えられる音声信号等に基づいて認識される「ユーザからの指示等」は、ユーザの要求といえるから、「センサ入力処理部50」は、ユーザから要求を受け付ける処理部であるといえる。 そうしてみると、引用発明の「センサ入力処理部50」は、本件補正発明の「受付部」に対応し、本件補正発明と引用発明とは、「ユーザから要求を受け付ける受付部」を備える点で共通する。 (イ)引用発明において、「行動決定機構部52」は、「センサ入力処理部50」からの状態認識情報等に基づいて、次の行動を決定し、決定された行動の内容を、行動指令情報として送出するものであり、特に、「行動決定機構部52」では、ロボットに発話を行わせる行動指令情報も生成され、このロボットに発話を行わせる行動指令情報は、「音声合成部55」に供給されるようになっており、「音声合成部55」に供給される行動指令情報には、「音声合成部55」に生成させる合成音に対応するテキスト等が含まれ、そして、「音声合成部55」は、行動指令情報を受信すると、その行動指令情報に含まれるテキストに基づき合成音を生成し、「スピーカ18」に供給して出力させ、「スピーカ18」から、ユーザの呼びかけに対する応答その他の音声出力が行われる。 ここで、状態認識情報は、マイク15等から与えられる音声信号等に基づいて、ユーザからの指示等を認識し、その認識結果として「センサ入力処理部50」から「行動決定機構部52」に通知されたものであるから、「行動決定機構部52」は、「センサ入力処理部50」によって受け付けられるユーザからの指示等(ユーザの要求)の認識結果に基づいて、次の行動を決定し、決定された行動の内容を行動指令情報として送出しているといえる。 また、「行動決定機構部52」では、ロボットに発話を行わせる行動指令情報も生成され、この行動指令情報は、「音声合成部55」に供給され、「音声合成部55」は、この行動指令情報に含まれるテキストに基づき合成音を生成し、「スピーカ18」に供給して出力させることで、ユーザの呼びかけに対する応答その他の音声出力が行われるものであるところ、行動指令情報に含まれるテキストは、「センサ入力処理部50」によって受け付けられるユーザの要求に対する応答として、取得された情報であるといえるから、「行動決定機構部52」は、「センサ入力処理部50」によって受け付けられるユーザの要求に対する応答として、前記ユーザに提供される情報を取得する処理部であるといえる。 そうしてみると、本件補正発明と引用発明とは、「前記受付部によって受け付けられる前記要求に対する応答として、前記ユーザに提供する情報を取得する提供情報取得部」を備える点で共通する。 (ウ)引用発明の「音声合成部55」は、「行動決定機構部52」から供給される行動指令情報に含まれるテキストから、非言語音情報を抽出し、さらに、そのテキストに対応する音声記号を生成する前処理、テキストから抽出された非言語音情報に対応する「音響データ」を生成する非言語音情報処理、およびテキストに対応する「合成音データ」を生成し、その「合成音データ」と、非言語音情報に対応する「音響データ」とを融合して、「最終的な合成音データ」を得る音声合成処理が行われるものである。 そして、「音声合成部55」のテキスト非言語音融合モジュール29は、規則合成モジュール25からの「合成音データ」と、非言語音変換モジュール27からの「音響データ」とを融合し、「最終的な合成音データ」を得て、発声モジュール30に供給し、発声モジュール30は、テキスト非言語音融合モジュール29が出力する合成音データを「スピーカ18」に供給するものであり、テキスト非言語音融合モジュール29は、規則合成モジュール25から供給される「合成音データ」に対し、同じく規則合成モジュール25から供給されるタイミングデータが表す位置から、非言語音変換モジュール27から供給される「音響データ」を重畳する、または、規則合成モジュール25から供給される「合成音データ」に対し、非言語音変換モジュール27から供給される「音響データ」を、その「音響データ」の長さ分だけ重畳する他、「合成音データ」の全体にわたって、「音響データ」を繰り返し重畳することも可能であり、即ち、「音響データ」は、「合成音データ」の一部または全部に重畳することが可能である。 ここで、テキストに対応する「合成音」は、ユーザへ提供する情報を音声言語によって表現する音響であるといえ、テキストから抽出された非言語音情報に対応する「音響データ」は、ユーザへ提供する情報を音声言語以外の音によって表現する音響であるといえる。 このことから、引用発明の「音声合成部55」は、「センサ入力処理部50」によって受け付けられるユーザからの要求に対する応答として、前記ユーザに提供する情報として取得された情報を、それぞれが音によって表現して前記ユーザへ通知する複数の音響を重畳した合成音として「スピーカ18」から出力させる処理部であって、前記「音声合成部55」は、ユーザへ提供する情報を音声言語によって表現する「合成音データ」と、前記ユーザへ提供する情報を前記ユーザに連想させる非言語音情報に対応する「音響データ」とを重畳して出力させる処理部であるといえる。 そうしてみると、引用発明の「音声合成部55」は、本件補正発明の「出力部」に対応し、本件補正発明と引用発明とは、「前記提供情報取得部によって取得される情報を、それぞれが音によって表現して前記ユーザへ通知する複数の音響を重畳して出力させる出力部」を備え、「前記出力部は、前記ユーザへ提供する情報を音声言語によって表現する主音響と、前記ユーザへ提供する情報を音声言語以外の音によって表現する副音響とを重畳して出力させる」点で共通する。 (エ)引用発明の「ロボット」は、ユーザの呼びかけに対する応答その他の音声出力が行われることで、ユーザに情報を提供する装置であるから、本件補正発明の「情報提供装置」に対応する。 イ.以上のことから、本件補正発明と引用発明との一致点及び相違点は、次のとおりである。 〈一致点〉 「ユーザから要求を受け付ける受付部と、 前記受付処理部によって受け付けられる前記要求に対する応答として、前記ユーザに提供する情報を取得する提供情報取得部と、 前記提供情報取得部によって取得される情報を、それぞれが音によって表現して前記ユーザへ通知する複数の音響を重畳して出力させる出力部と を備え、 前記出力部は、 前記ユーザへ提供する情報を音声言語によって表現する主音響と、前記ユーザへ提供する情報を音声言語以外の音によって表現する副音響とを重畳して出力させる 情報提供装置。」 〈相違点1〉 本件補正発明では、ユーザから「情報の提供要求」を受け付ける受付部を備えるのに対し、引用発明では、ユーザから要求を受け付ける受付部を備えるものの、この要求が「情報の提供要求」であることは特定されていない点。 〈相違点2〉 本件補正発明では、前記受付部によって受け付けられる前記「提供要求に対する応答として、前記ユーザが提供を望む情報を通信ネットワーク上に公開されている情報から検索して」取得する取得部を備えるのに対し、引用発明では、「提供要求に対する応答として、前記ユーザが提供を望む情報を通信ネットワーク上に公開されている情報から検索して」取得することは特定されていない点。 〈相違点3〉 本件補正発明では、ユーザへ提供する「情報の詳細」を音声言語によって表現する主音響と、前記ユーザへ提供する「情報の概要」を「前記ユーザに連想させる」音声言語以外の音によって表現する副音響とを重畳して出力させるのに対し、引用発明では、当該構成について特定されていない点。 (4)判断 以下、相違点について検討する。 ア.相違点1、2について 引用文献2、3に記載されるように、「ユーザと音声による対話を行うロボットにおいて、ユーザが提供を望む情報をインターネット(通信ネットワーク)上に公開されている情報から検索して取得し、その取得した情報を応答出力すること」は、本願出願時において周知技術と認められ、ユーザと音声による対話を行うロボットである引用発明において、上記周知技術を適用して、受付部でユーザから受け付ける要求が、「情報の提供要求」である場合に、「前記提供要求に対する応答として、前記ユーザが提供を望む情報を通信ネットワーク(インターネット)上に公開されている情報から検索して取得する取得部」を備えるようにすることは、当業者が容易に想到し得たことである。 イ.相違点3について 引用発明は、行動決定機構部52が出力する音声合成の対象とするテキストが、「今日はとっても眠い」である場合に、そのテキスト「今日はとっても眠い」における単語「眠い」に基づき、あくびの音を表す非言語音情報「あくび」が抽出され、非言語音変換モジュール27は、非言語音情報「あくび」に対して、あくびの音である、例えば、「あーあ」などが記憶された非言語音変換テーブル記憶部28を参照することで音響データを生成し、音声言語によって表現する「今日はとっても眠い」との合成音データと、音声言語以外の音によって表現するあくびの音「あーあ」との音響データとを重畳した最終的な合成音データを得て、スピーカ18から出力するものであり、これにより、テキストから、非言語音情報を抽出し、その非言語音情報に対応する音響データを生成して、テキストに対応する合成音データと融合するようにしたので、テキストの意味するところを、効果的に表現する合成音を得ることが可能となるものである。 すなわち、引用発明の上記例において、音声言語で表現する「今日はとっても眠い」とのテキストは、ロボットに発話させてユーザへ提供する情報の全体であるから、ユーザへ提供する情報の詳細であるといえ、このテキストが意味するところである「眠い」は、前記ユーザに提供する情報の概要といえ、音声言語以外の音で表現するあくびの音「あーあ」は、前記ユーザに提供する情報の概要である「眠い」を前記ユーザに連想させる音といえる。 そして、時間に余裕のないユーザに対しても、音声言語以外の音で表現するあくびの音「あーあ」により、ユーザに提供する情報の概要である「眠い」を伝達することができることは明らかである。 更に、引用発明の非言語音変換テーブルには、非言語音情報「あくび」以外にも、非言語音情報「せみの声」に対しては、せみの鳴き声である、例えば、「ミーンミーン」などが、非言語音情報「ビールを飲む音」に対しては、ビールを飲むときの、喉が鳴ると言われている音に対応する、例えば、「ゴクゴク」などが、非言語音情報「ドアをたたく音」に対しては、ドアをたたいたときに生じる音である、例えば、「ドンドン」などが、非言語音情報「楽しそうな音」に対しては、楽しげな感情を表現する音である、例えば、アップテンポで、明るい感じの曲(例えば、ハ長調の曲)などが、それぞれ記憶されているところ、いずれも非言語音情報をユーザに連想させる音声言語以外の音が列挙されていることから、引用発明において、「今日はとっても眠い」の例に限らず、「ユーザへ提供する情報の詳細を音声言語によって表現する主音響と、前記ユーザへ提供する情報の概要を前記ユーザに連想させる音声言語以外の音によって表現する副音響とを重畳して出力させる」ようにすることは、当業者が容易に想到し得たことである。 ウ.そして、これらの相違点を総合的に勘案しても、本件補正発明の奏する作用効果は、引用発明及び周知技術の奏する作用効果から予測される範囲内のものにすぎず、格別顕著なものということはできない。 エ.したがって、本件補正発明は、引用発明及び周知技術に基づいて、当業者が容易に発明をすることができたものであり、特許法29条2項の規定により、特許出願の際独立して特許を受けることができないものである。 3.本件補正についてのむすび よって、本件補正は、特許法17条の2第6項において準用する同法126条7項の規定に違反するので、同法159条1項の規定において読み替えて準用する同法53条1項の規定により却下すべきものである。 よって、上記補正の却下の決定の結論のとおり決定する。 第3 本願発明について 1.本願発明 平成31年1月11日にされた手続補正は、上記のとおり却下されたので、本願の請求項に係る発明は、平成30年9月19日にされた手続補正により補正された特許請求の範囲の請求項1乃至9に記載された事項により特定されるものであるところ、その請求項1に係る発明(以下、「本願発明」という。)は、その請求項1に記載された事項により特定される、前記第2[理由]1(2)に記載のとおりのものである。 2.原査定の拒絶の理由 原査定の拒絶の理由は、この出願の請求項1乃至9に係る発明は、本願の優先権主張の日前に頒布された又は電気通信回線を通じて公衆に利用可能となった下記の引用文献1に記載された発明及び引用文献2-3に記載された周知技術に基づいて、その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから、特許法29条2項の規定により特許を受けることができない、というものである。 引用文献1.特開2002-318593号公報 引用文献2.特開2001-43126号公報 引用文献3.真貝 寿明 他著,“未来をになうキミたちへの宿題だ!”,子供の科学 10月号,日本,(株)誠文堂新光社,2014年 9月10日,第77巻,p.12-21 3 引用文献 原査定の拒絶の理由で引用された引用文献1乃至3及びその記載事項は、前記第2の[理由]2(2)に記載したとおりである。 4 対比・判断 本願発明は、前記第2の[理由]2で検討した本件補正発明から、「出力部」に係る「前記ユーザへ提供する情報の詳細を音声言語によって表現する主音響と、前記ユーザへ提供する情報の概要を前記ユーザに連想させる音声言語以外の音によって表現する副音響とを重畳して出力させる」との限定事項を削除したものである。 そうすると、本願発明の発明特定事項を全て含み、さらに他の事項を付加したものに相当する本件補正発明が、前記第2の[理由]2(3)、(4)に記載したとおり、引用発明及び引用文献2-3に記載された周知技術に基づいて、当業者が容易に発明をすることができたものであるから、本願発明も、引用発明及び引用文献2-3に記載された周知技術に基づいて、当業者が容易に発明をすることができたものである。 第4 むすび 以上のとおり、本願発明は、特許法29条2項の規定により特許を受けることができないから、他の請求項に係る発明について検討するまでもなく、本願は拒絶されるべきものである。 よって、結論のとおり審決する。 |
審理終結日 | 2020-03-16 |
結審通知日 | 2020-03-17 |
審決日 | 2020-03-30 |
出願番号 | 特願2017-243089(P2017-243089) |
審決分類 |
P
1
8・
121-
Z
(G06F)
|
最終処分 | 不成立 |
前審関与審査官 | 木内 康裕 |
特許庁審判長 |
稲葉 和生 |
特許庁審判官 |
▲吉▼田 耕一 小田 浩 |
発明の名称 | 情報提供装置、情報提供方法、および情報提供プログラム |
代理人 | 特許業務法人酒井国際特許事務所 |