ポートフォリオを新規に作成して保存 |
|
|
既存のポートフォリオに追加保存 |
|
PDFをダウンロード |
審決分類 |
審判 査定不服 2項進歩性 特許、登録しない。 G06N 審判 査定不服 5項独立特許用件 特許、登録しない。 G06N |
---|---|
管理番号 | 1373769 |
審判番号 | 不服2020-12563 |
総通号数 | 258 |
発行国 | 日本国特許庁(JP) |
公報種別 | 特許審決公報 |
発行日 | 2021-06-25 |
種別 | 拒絶査定不服の審決 |
審判請求日 | 2020-09-08 |
確定日 | 2021-05-06 |
事件の表示 | 特願2017- 53330「ニューラルネットワーク、ネットワーク学習装置、ネットワーク学習システム、ネットワーク学習方法およびプログラム」拒絶査定不服審判事件〔平成30年10月 4日出願公開,特開2018-156451〕について,次のとおり審決する。 |
結論 | 本件審判の請求は,成り立たない。 |
理由 |
第1 手続の経緯 本願は,平成29年3月17日の出願であって,その手続の経緯は以下のとおりである。 平成30年 9月12日 :出願審査請求書の提出 令和 1年10月25日付け:拒絶理由通知 令和 1年12月27日 :意見書,手続補正書の提出 令和 2年 6月 1日付け:拒絶査定 令和 2年 9月 8日 :審判請求書,手続補正書の提出 令和 2年11月24日 :前置報告 第2 令和2年9月8日にされた手続補正についての補正の却下の決定 [補正の却下の決定の結論] 令和2年9月8日にされた手続補正(以下,「本件補正」という。)を却下する。 [理由] 1 本件補正について(補正の内容) (1)本件補正後の特許請求の範囲の記載 本件補正により,特許請求の範囲の請求項1の記載は,次のとおり補正された。(下線部は,補正箇所である。以下,この特許請求の範囲に記載された請求項1を「補正後の請求項1」という。) 「 【請求項1】 入力信号を入力し、前記入力信号とは異なる出力信号を出力するニューラルネットワークであって、 前記入力信号をより低次元の第1信号に変換する第1ネットワークと、前記第1信号を前記出力信号に対応する教師信号より低次元である第2信号に変換する第2ネットワークと、前記第2信号を前記出力信号に変換する第3ネットワークと、を含み、 前記第1ネットワークは、前記入力信号を前記第1信号にエンコードし、前記第1信号を前記入力信号にデコードするオートエンコーダのエンコード部分により生成され、 前記第2ネットワークは、前記第1信号を入力とし、前記第2信号に対応する前記教師信号とするトレーニングデータを用いたトレーニングにより生成され、 前記第3ネットワークは、前記出力信号に対応する前記教師信号を前記第2信号にエンコードし、前記第2信号から前記出力信号に対応する前記教師信号をデコードするオートエンコーダのデコード部分により生成される、 ニューラルネットワーク。」 (2)本件補正前の特許請求の範囲 本件補正前の,令和1年12月27日にされた手続補正により補正された特許請求の範囲の請求項1の記載は次のとおりである。(以下,この特許請求の範囲に記載された請求項1を「補正前の請求項1」という。) 「 【請求項1】 入力信号をより低次元の第1信号に変換する第1ネットワークと、前記第1信号を教師信号より低次元である第2信号に変換する第2ネットワークと、前記第2信号を出力信号に変換する第3ネットワークと、を含み、 前記第1ネットワークは、前記第1信号から前記入力信号を生成するオートエンコーダのエンコード部分により生成され、 前記第2ネットワークは、前記第1信号を入力とし、前記第2信号を教師信号とするトレーニングデータを用いたトレーニングにより生成され、 前記第3ネットワークは、教師信号を第2信号に変換し、第2信号から教師信号を生成するオートエンコーダのデコード部分により生成される、 ニューラルネットワーク。」 2 補正の適否 本件補正は,補正前の請求項1に記載された発明を特定するために必要な事項である,「ニューラルネットワーク」について,「入力信号を入力し、前記入力信号とは異なる出力信号を出力する」との限定を付加し,同じく補正前の請求項1に記載された発明を特定するために必要な事項である,「教師信号」について,「前記出力信号に対応する」との限定を付加するとともに,補正前の請求項1における「前記第1信号から前記入力信号を生成するオートエンコーダ」との記載を,「前記入力信号を前記第1信号にエンコードし、前記第1信号を前記入力信号にデコードするオートエンコーダ」との記載に変更し,補正前の請求項1における「第2信号を教師信号とするトレーニングデータ」との記載を「第2信号に対応する前記教師信号とするトレーニングデータ」との記載に変更し,補正前の請求項1における「教師信号を第2信号に変換し、第2信号から教師信号を生成するオートエンコーダ」との記載を,「前記出力信号に対応する前記教師信号を前記第2信号にエンコードし、前記第2信号から前記出力信号に対応する前記教師信号をデコードするオートエンコーダ」との記載に変更するものである。 そして,補正前の請求項1に記載された発明と,補正後の請求項1に記載される発明の産業上の利用分野及び解決しようとする課題が同一であるから,本件補正は,特許法17条の2第5項2号の特許請求の範囲の減縮を目的とするものに該当する。 そこで,本件補正後の請求項1に記載される発明(以下「本件補正発明」という。)が同条第6項において準用する同法第126条第7項の規定に適合するか(特許出願の際独立して特許を受けることができるものであるか)について,以下,検討する。 (1)本件補正発明 本件補正発明は,上記「1(1)」に記載された下記のとおりのものである(再掲)。 「 入力信号を入力し、前記入力信号とは異なる出力信号を出力するニューラルネットワークであって、 前記入力信号をより低次元の第1信号に変換する第1ネットワークと、前記第1信号を前記出力信号に対応する教師信号より低次元である第2信号に変換する第2ネットワークと、前記第2信号を前記出力信号に変換する第3ネットワークと、を含み、 前記第1ネットワークは、前記入力信号を前記第1信号にエンコードし、前記第1信号を前記入力信号にデコードするオートエンコーダのエンコード部分により生成され、 前記第2ネットワークは、前記第1信号を入力とし、前記第2信号に対応する前記教師信号とするトレーニングデータを用いたトレーニングにより生成され、 前記第3ネットワークは、前記出力信号に対応する前記教師信号を前記第2信号にエンコードし、前記第2信号から前記出力信号に対応する前記教師信号をデコードするオートエンコーダのデコード部分により生成される、 ニューラルネットワーク。」 (2)引用文献の記載事項 ア 原査定の拒絶の理由で引用された,本願の出願日前に頒布された又は電気通信回線を通じて公衆に利用可能となった引用文献である,特開平6-266691(平成6年9月22日出願公開。以下,「引用文献」という。)には,関連する図面とともに,以下の技術的事項が記載されている。 (当審注:下線は,参考のために当審で付与したものである。以下同様。) A 「【0005】図3は、恒等写像型ニューラルネットの構成例を示すものである。この恒等写像型ニューラルネットは全5層から構成され、第1層(入力層)、第3層、第5層(出力層)は線形ユニットから成り、第2層と第4層は非線形ユニットから成っており、入力層と出力層のユニット数は同じで、第3層のユニット数は入力層および出力層のユニット数より少ない。各結合係数は線形、非線形のユニットに関わらずバックプロパゲーション法で学習される。このような恒等写像形ニューラルネットは、同一の画像や情報を入力データおよび教師出力データとして用いることにより、入力層のユニット数の次元で表現される入力画像や情報が、第3層のより少ないユニット数の次元で表現可能となるため、画像や情報の圧縮への応用が考えられている。(多層パーセプトロンによる内部表現の獲得、入江 他、電子情報通信学会論 文誌 D-II、Vol.J73-D-II、No.8、pp.1173-1178、1990年8月参照)。また、パターン認識などで恒等写像型ニューラルネットの中間層から出力される圧縮データを、パターン認識アルゴリズムの入力データとして問題を解くことも示唆されている。」 B 「【0010】 【実施例】以下、本発明を実施例により詳細に説明する。図1は本発明のニューラルネットの一実施例を示すもので、入力データ圧縮ニューラルネット10、入出力圧縮データ写像ニューラルネット20、出力データ圧縮ニューラルネット30によって構成される。入力データ圧縮ニューラルネット10は、層101(入力層)、層102、層103、層104、層105(出力層)の計5層によって構成される恒等写像型ニューラルネットである。入出力圧縮データ写像ニューラルネット20は、入力データ圧縮ニューラルネット10の層103からの出力値を入力層の出力値として扱い(即ち層103をその入力層とする)、層106(中間層)、層107(出力層)の計3層によって構成される一般写像型ニューラルネットである。出力データ圧縮ニューラルネット30は、層108(入力層)、層109、層110、層111、層112(出力層)の計5層によって構成される恒等写像型ニューラルネットである。入力データ圧縮ニューラルネット10の層102と層104、入出力圧縮データ写像ニューラルネット20の層106と層107、出力データ圧縮ニューラルネット30の層109と層111は非線形ユニットから構成され、他の各層は線形ユニットから構成される。」 C 「【0013】以上のようにして、図4のステップ202での学習が終わると、次に入力データ圧縮ニューラルネット10の層103の出力が入出力圧縮データ写像ニューラルネット20の層106に入力されるように全結合する(ステップ203)。そして、当該問題の入力データを入力データ圧縮ニューラルネット10に入力し、層103で得られる入力圧縮データを入出力圧縮データ写像ニューラルネット20の入力データとし、この入力データに対応する出力データ(教師データ)を出力データ圧縮ニューラルネット30に入力し、層110で得られる出力圧縮データを入出力圧縮データ写像ニューラルネット20の教師出力データとして、入出力圧縮データ写像ニューラルネット20の学習を行う(ステップ204)。この処理の詳細は図7に示されており、まず入出力圧縮データ写像ニューラルネット20の全ての結合係数、すなわち層103と層106間および層106と層107間の結合係数を-1.0から1.0の間のランダムな値に初期化する(ステップ501)。次に複数の入力データの1つをランダムに選び、入力データ圧縮ニューラルネット10の層101に入力し、層103からの出力される入力圧縮データを求め(ステップ502)、このときの入力データに対応する出力データを出力データ圧縮ニューラルネット30に入力して層110で得られる出力圧縮データを求める(ステップ503)。そして上記ステップ502で求めた入力圧縮データを入出力圧縮データ写像ニューラルネット20の層106へ入力し、この入力に対する層106及び107による処理を行う(ステップ504)。次にこの処理により、層107から出力された出力データと教師出力データであるステップ503の処理結果データとから誤差を計算し(ステップ505)、この誤差が終了基準値として予め設定されている値より小さくなったかどうかを判定する。その結果、もし判定基準を満たしていなければステップ507に進み、満たしていれば学習完了として終了する(ステップ506)。ステップ507では、上記誤差が終了基準に達していないので、バックプロパゲーション法により層107と層106間および層106と層103間の結合係数を修正し、ステップ502に戻り、所望の精度が得られるまで繰返し結合係数の調整を行う。 【0014】以上により学習が終了するので、次に入出力圧縮データ写像ニューラルネット20の層107と出力データ圧縮ニューラルネット30の層111を図1のように全結合し、層110と層111間の結合係数の値が層107と層111間の結合係数の値と一致するように設定する(ステップ205)。この処理により、最終的に層101、102、103、106、107、111、および112からなる全7層のニューラルネットが構成される。」 D 「【0016】次に本実施例の動作例を説明する。図9(A)は、原子炉小規模1/4炉心の各24燃料集合体の位置と中性子無限増倍率を示しており、この中性子無限増倍率がニューラルネットの入力データとなる。図9(B)は図9(A)に対応し、数値シミュレーションで計算した各24燃料集合体の相対出力値を示しており、この相対出力値がニューラルネットの出力データ(教師データ)となる。本問題ではニューラルネットの出力の最大誤差を如何に低く抑えるかが最大の評価項目となっている。 ・・・(中略)・・・ 【0017】図10は、上記のニューラルネットに於て、図9(A)に示した24次元で表現される入力データと、この入力に対して入力データ圧縮ニューラルネット10から出力される12次元の入力圧縮データと、この入力圧縮データに対して入出力圧縮データ写像ニューラルネット20から出力される12次元の出力圧縮データと、この出力圧縮データに対して出力データ圧縮ニューラルネット30から出力される24次元の実際の出力データと、図9(B)に示した正解の出力データとを示したものである。同図に示されているように、実際の出力データは正しい出力データと、全ての入力データに対してよい一致を見ている。」 E 「図1 」 F 「図3 」 G 「図10 」 上記図10及びDの記載から,動作例では,“24次元で表現される入力データと,この入力に対して入力データ圧縮ニューラルネットから出力される12次元の入力圧縮データと,この入力圧縮データに対して入出力圧縮データ写像ニューラルネットから出力される12次元の出力圧縮データと,この出力圧縮データに対して出力データ圧縮ニューラルネットから出力される24次元の実際の出力データ”が読み取れ,さらに,“入力データの値と実際の出力データの値が異なる”ことも読み取れる。 イ 引用文献に記載の技術的事項について検討する。 (ア)上記Bの,特に下線部の記載に注目すると,引用文献1には,以下の技術的事項が記載されているといえる。 「入力データ圧縮ニューラルネット,入出力圧縮データ写像ニューラルネット,出力データ圧縮ニューラルネットによって構成されるニューラルネットであって, 前記入力データ圧縮ニューラルネットは恒等写像型ニューラルネットであり, 前記入出力圧縮データ写像ニューラルネットは一般写像型ニューラルネットであり, 前記出力データ圧縮ニューラルネットは恒等写像型ニューラルネットである。」 (イ)上記Aの,特に下線部の記載に注目すると,引用文献1には,以下の技術的事項が記載されているといえる。 「恒等写像型ニューラルネットは全5層から構成され,入力層と出力層のユニット数は同じで,第3層のユニット数は入力層および出力層のユニット数より少ないものであり,同一の画像や情報を入力データおよび教師出力データとして用いることにより,入力層のユニット数の次元で表現される入力画像や情報が,第3層のより少ないユニット数の次元で表現可能となる。」 (ウ)上記Cの,特に下線部の記載に注目すると,引用文献1には,以下の技術的事項が記載されているといえる。 「入力データ圧縮ニューラルネットの層103の出力が入出力圧縮データ写像ニューラルネットの層106に入力されるように全結合され,入力データを前記入力データ圧縮ニューラルネットに入力し,層103で得られる入力圧縮データを前記入出力圧縮データ写像ニューラルネットの入力データとし,この入力データに対応する出力データ(教師データ)を出力データ圧縮ニューラルネットに入力し,層110で得られる前記出力圧縮データを前記入出力圧縮データ写像ニューラルネットの教師出力データとして,前記入出力圧縮データ写像ニューラルネット20の学習を行い, 前記学習が終了すると,次に前記入出力圧縮データ写像ニューラルネットの層107と前記出力データ圧縮ニューラルネットの層111を全結合し,層101,102,103,106,107,111,および112からなる全7層のニューラルネットが構成される。」 ウ 上記イの検討から,引用文献1には次の発明(以下,「引用発明」という。)が記載されているといえる。 「入力データ圧縮ニューラルネット,入出力圧縮データ写像ニューラルネット,出力データ圧縮ニューラルネットによって構成されるニューラルネットであって, 前記入力データ圧縮ニューラルネットは恒等写像型ニューラルネットであり, 前記入出力圧縮データ写像ニューラルネットは一般写像型ニューラルネットであり, 前記出力データ圧縮ニューラルネットは恒等写像型ニューラルネットであり, 前記恒等写像型ニューラルネットは全5層から構成され,入力層と出力層のユニット数は同じで,第3層のユニット数は入力層および出力層のユニット数より少ないものであり,同一の画像や情報を入力データおよび教師出力データとして用いることにより,入力層のユニット数の次元で表現される入力画像や情報が,第3層のより少ないユニット数の次元で表現可能となるものであり, 前記入力データ圧縮ニューラルネットの層103の出力が前記入出力圧縮データ写像ニューラルネットの層106に入力されるように全結合され,入力データを前記入力データ圧縮ニューラルネットに入力し,層103で得られる入力圧縮データを前記入出力圧縮データ写像ニューラルネットの入力データとし,この入力データに対応する出力データ(教師データ)を前記出力データ圧縮ニューラルネットに入力し,層110で得られる前記出力圧縮データを前記入出力圧縮データ写像ニューラルネットの教師出力データとして,前記入出力圧縮データ写像ニューラルネットの学習を行い, 前記学習が終了すると,次に前記入出力圧縮データ写像ニューラルネットの層107と前記出力データ圧縮ニューラルネットの層111を全結合し,層101,102,103,106,107,111,および112からなる全7層のニューラルネットが構成される, ニューラルネット。」 (3)対比 ア 本件補正発明と引用発明とを対比する。 (ア)引用発明の「ニューラルネット」は,「入力データ圧縮ニューラルネット,入出力圧縮データ写像ニューラルネット,出力データ圧縮ニューラルネットによって構成される」「層101,102,103,106,107,111,および112からなる全7層のニューラルネット」であるから,前記「層101」に入力データが入力され,前記「層111」から出力データが出力されるものであり,ニューラルネット,入力データ,出力データは,それぞれ,ニューラルネットワーク,入力信号,出力信号といえる。 よって,本件補正発明と引用発明とは,“入力信号を入力し,出力信号を出力するニューラルネットワーク”である点で一致している。 (イ)引用発明の「ニューラルネット」は,「入力データ圧縮ニューラルネット,入出力圧縮データ写像ニューラルネット,出力データ圧縮ニューラルネットによって構成される」「層101,102,103,106,107,111,および112からなる全7層のニューラルネット」であるところ,「入力データ圧縮ニューラルネットの層103の出力が前記入出力圧縮データ写像ニューラルネットの層106に入力されるように全結合され」,「前記学習が終了すると,次に前記入出力圧縮データ写像ニューラルネットの層107と前記出力データ圧縮ニューラルネットの層111を全結合」するものである。 すなわち,引用発明の「ニューラルネット」は,入力データが入力データ圧縮ニューラルネットの層101に入力され,入力データ圧縮ニューラルネットの層103の出力が入出力圧縮データ写像ニューラルネットの層106に入力され,入出力圧縮データ写像ニューラルネットの層107の出力が出力データ圧縮ニューラルネットの層111に入力され,出力圧縮データ写像ニューラルネットの層112から出力データが出力されるものであって,また,入力データ圧縮ニューラルネットの層103の出力は,入力信号が変換された第1信号であるといえ,入出力圧縮データ写像ニューラルネットの層107の出力は,前記第1信号が変換された第2信号であるといえる。 してみると,引用発明の「入力データ圧縮ニューラルネットの層101?層103」,「入出力圧縮データ写像ニューラルネットの層106?層107」,「出力データ圧縮ニューラルネットの層111?層112」は,それぞれ,“入力信号を第1信号に変換する第1ネットワーク”,“前記第1信号を第2信号に変換する第2ネットワーク”,“前記第2信号を出力信号に変換する第3ネットワーク”であるといえる。 よって,本件補正発明と引用発明とは,“入力信号を第1信号に変換する第1ネットワークと,前記第1信号を第2信号に変換する第2ネットワークと,前記第2信号を前記出力信号に変換する第3ネットワーク”を含む点点で一致している。 (ウ)引用発明の「恒等写像型ニューラルネット」は,「全5層から構成され,入力層と出力層のユニット数は同じで,第3層のユニット数は入力層および出力層のユニット数より少ないものであり,同一の画像や情報を入力データおよび教師出力データとして用いることにより,入力層のユニット数の次元で表現される入力画像や情報が,第3層のより少ないユニット数の次元で表現可能となるもの」である。 すなわち,引用発明の「全5層から構成」される「恒等写像型ニューラルネット」は,「同一の画像や情報を入力データおよび教師出力データとして用いる」ものであるから,入力データと同一の画像や情報を教師出力データとして学習した後は,第5層からの出力データは第1層への入力データと同一となる“オートエンコーダ”といえるものであり,さらに,引用発明では,「入力データ圧縮ニューラルネットは恒等写像型ニューラルネットであり」としていることから,引用発明の「入力データ圧縮ニューラルネット」は“オートエンコーダ”であるといえる。 そして,引用発明の「入力データ圧縮ニューラルネット」の層103の出力は,上記(イ)で検討したとおり,入力データが変換された第1信号といえるから,引用発明の「入力データ圧縮ニューラルネットの層101?層103」は,“入力信号を第1信号にエンコードし,前記第1信号を前記入力信号にデコードするオートエンコーダのエンコード部分”であるといえる。 よって,上記(イ)の検討も踏まえると,本件補正発明と引用発明とは,“第1ネットワークは,入力信号を第1信号にエンコードし,前記第1信号を前記入力信号にデコードするオートエンコーダのエンコード部分により生成され”る点で一致している。 (エ)引用発明は,「前記入力データ圧縮ニューラルネットの層103の出力が前記入出力圧縮データ写像ニューラルネットの層106に入力されるように全結合され,入力データを前記入力データ圧縮ニューラルネットに入力し,層103で得られる入力圧縮データを前記入出力圧縮データ写像ニューラルネットの入力データとし,この入力データに対応する出力データ(教師データ)を前記出力データ圧縮ニューラルネットに入力し,層110で得られる前記出力圧縮データを前記入出力圧縮データ写像ニューラルネットの教師出力データとして,前記入出力圧縮データ写像ニューラルネット20の学習を行」うものである。 ここで,上記(イ)で検討したとおり,「入力データ圧縮ニューラルネットの層103の出力」は,入力信号が変換された第1信号であるといえ,「入出力圧縮データ写像ニューラルネットの層107の出力」は,前記第1信号が変換された第2信号であるといえるから,「この入力データに対応する出力データ(教師データ)を前記出力データ圧縮ニューラルネットに入力し,層110で得られる前記出力圧縮データを前記入出力圧縮データ写像ニューラルネットの教師出力データとして,前記入出力圧縮データ写像ニューラルネットの学習を行」うことは,入力データに対応する出力データの出力圧縮データを第2信号の教師信号として,入出力圧縮データ写像ニューラルネットの学習を行うことを示すものであるから,入出力圧縮データ写像ニューラルネットが,第2信号に対応する教師信号とするトレーニングデータを用いたトレーニングにより生成されるといえる。 よって,上記(イ)の検討も踏まえると,本件補正発明と引用発明とは,“第2ネットワークは,第1信号を入力とし,第2信号に対応する教師信号とするトレーニングデータを用いたトレーニングにより生成され”る点で一致している。 (オ)上記(ウ)で検討したとおり,引用発明の「全5層から構成」される「恒等写像型ニューラルネット」は, “オートエンコーダ”といえるところ,引用発明では,「出力データ圧縮ニューラルネットは恒等写像型ニューラルネットであり」としていることから,引用発明の「出力データ圧縮ニューラルネット」は“オートエンコーダ”であるといえる。 そして,引用発明は,「この入力データに対応する出力データ(教師データ)を前記出力データ圧縮ニューラルネットに入力し,層110で得られる前記出力圧縮データを前記入出力圧縮データ写像ニューラルネットの教師出力データとして,前記入出力圧縮データ写像ニューラルネットの学習を行」うものであるから,引用発明の「層110で得られる前記出力圧縮データ」は,学習後の入出力圧縮データ写像ニューラルネットの出力データである第2信号であるといえ,引用発明の「出力データ圧縮ニューラルネットの層111?層112」は,“出力信号に対応する教師信号を第2信号にエンコードし,前記第2信号を前記出力信号に対応する前記教師信号にデコードするオートエンコーダのデコード部分”であるといえる。 よって,上記(イ)の検討も踏まえると,本件補正発明と引用発明とは,“第3ネットワークは,出力信号に対応する教師信号を第2信号にエンコードし,前記第2信号から前記出力信号に対応する前記教師信号をデコードするオートエンコーダのデコード部分により生成される”点で一致している。 イ 上記(ア)?(オ)の検討から,本件補正発明と引用発明とは,以下の点で一致し,また,以下の点で相違する。 <一致点> 「 入力信号を入力し,出力信号を出力するニューラルネットワークであって, 前記入力信号を第1信号に変換する第1ネットワークと,前記第1信号を第2信号に変換する第2ネットワークと,前記第2信号を前記出力信号に変換する第3ネットワークと,を含み, 前記第1ネットワークは,前記入力信号を前記第1信号にエンコードし,前記第1信号を前記入力信号にデコードするオートエンコーダのエンコード部分により生成され, 前記第2ネットワークは,前記第1信号を入力とし,前記第2信号に対応する前記教師信号とするトレーニングデータを用いたトレーニングにより生成され, 前記第3ネットワークは,前記出力信号に対応する前記教師信号を前記第2信号にエンコードし,前記第2信号から前記出力信号に対応する前記教師信号をデコードするオートエンコーダのデコード部分により生成される, ニューラルネットワーク。」 <相違点1> 本件補正発明は,「入力信号とは異なる」出力信号を出力するニューラルネットワークであるのに対して,引用発明には,そのような特定がなされていない点。 <相違点2> 本件補正発明は,第1信号が「入力信号より低次元」であり,第2信号が「出力信号に対応する教師信号より低次元である」のに対して,引用発明は,そのような特定がなされていない点。 (4)当審の判断 上記相違点について検討する。 ア <相違点1>について 引用発明の「入出力圧縮データ写像ニューラルネット」は,恒等写像型ニューラルネットではなく「一般写像型ニューラルネット」であるところ,「一般写像型ニューラルネット」は,入力データを学習に応じた出力データに変換して出力するものであって,恒等写像型ニューラルネットとは異なり,入力データと出力データが同じであることを前提としたニューラルネットではない。 さらに,上記(2)Gに示される図10の記載から,引用発明の動作例では,“入力データの値と実際の出力データの値が異なる”ことが読み取れることから,引用発明の,入力データ圧縮ニューラルネット,入出力圧縮データ写像ニューラルネット,出力データ圧縮ニューラルネットによって構成されるニューラルネットは,一般写像型ニューラルネットである前記入出力圧縮データ写像ニューラルネットを備えることにより,入力データとは異なる出力データを出力することができるものと認められる。 よって,引用発明の,入力データ圧縮ニューラルネット,入出力圧縮データ写像ニューラルネット,出力データ圧縮ニューラルネットによって構成されるニューラルネットを,「入力信号とは異なる」出力信号を出力するニューラルネットとすることは,引用発明の上記動作例に基づいて,当業者であれば適宜なし得る事項であると認められる。 イ <相違点2>について 引用発明は,「入力データ圧縮ニューラルネットは恒等写像型ニューラルネットであり」,「出力データ圧縮ニューラルネットは恒等写像型ニューラルネットであり」,さらに,「前記恒等写像型ニューラルネットは全5層から構成され,入力層と出力層のユニット数は同じで,第3層のユニット数は入力層および出力層のユニット数より少ないもの」であるところ,上記(2)Gに示される図10の記載から,引用発明の動作例では,“24次元で表現される入力データと,この入力に対して入力データ圧縮ニューラルネットから出力される12次元の入力圧縮データと,この入力圧縮データに対して入出力圧縮データ写像ニューラルネットから出力される12次元の出力圧縮データと,この出力圧縮データに対して出力データ圧縮ニューラルネットから出力される24次元の実際の出力データ”が読み取れる。 してみると,引用発明は,全5層からなる恒等写像型ニューラルネットの第3層のユニット数が入力層および出力層のユニット数より少ないことにより,その動作例では,24次元で表現される入力データを,より低次元である12次元の入力圧縮データに変換し,かかる12次元の入力圧縮データを,24次元の実際の出力データより低次元である12次元の出力圧縮データに変換することができるものと認められ,ここで,前記「入力圧縮データ」,「出力圧縮データ」は,それぞれ本件補正発明の「第1信号」,「第2信号」に対応するものである。 してみると,引用発明において,入力信号を「より低次元の」第1信号に変換し,前記第1信号を「出力信号に対応する教師信号より低次元である」第2信号に変換するとすることは,引用発明の上記動作例に基づいて,当業者であれば適宜なし得る事項であると認められる。 ウ 小括 上記ア及びイで検討したとおり,<相違点1>及び<相違点2>に係る構成は,引用発明に基づいて,当業者が容易に想到し得たものであり,そして,これらの相違点を総合的に勘案しても,本件補正発明の奏する作用効果は,引用発明の奏する作用効果から予測される範囲内のものにすぎず,格別顕著なものということはできない。 したがって,本件補正発明は,引用発明に基づいて,当業者が容易に発明をすることができたものであるから,特許法第29条第2項の規定により,特許出願の際独立して特許を受けることができない。 3 本件補正についてのむすび よって,本件補正は,特許法第17条の2第6項において準用する同法第126条第7項の規定に違反するので,同法第159条第1項の規定において読み替えて準用する同法第53条第1項の規定により却下すべきものである。 よって,上記補正の却下の決定の結論のとおり決定する。 第3 本願発明について 1 本願発明の認定 令和2年9月8日にされた手続補正は,上記のとおり却下されたので,本願の請求項に係る発明は,令和1年12月27日にされた手続補正により補正された特許請求の範囲の請求項1?9に記載された事項により特定されるものであるところ,その請求項1に係る発明(以下,「本願発明」という。)は,その請求項1に記載された事項により特定される,上記「第2[理由]1(2)」に記載された下記のとおりのものである(再掲)。 「 入力信号をより低次元の第1信号に変換する第1ネットワークと、前記第1信号を教師信号より低次元である第2信号に変換する第2ネットワークと、前記第2信号を出力信号に変換する第3ネットワークと、を含み、 前記第1ネットワークは、前記第1信号から前記入力信号を生成するオートエンコーダのエンコード部分により生成され、 前記第2ネットワークは、前記第1信号を入力とし、前記第2信号を教師信号とするトレーニングデータを用いたトレーニングにより生成され、 前記第3ネットワークは、教師信号を第2信号に変換し、第2信号から教師信号を生成するオートエンコーダのデコード部分により生成される、 ニューラルネットワーク。」 2 原査定の拒絶の理由 原査定の拒絶の理由は,本願発明は,本願の出願日前に頒布された又は電気通信回線を通じて公衆に利用可能となった下記の引用文献A(上記「引用文献」に対応)に記載された技術に基づいて,その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから,特許法第29条第2項の規定により特許を受けることができない,というものである。 A.特開平6-266691号公報 3 引用文献 原査定の拒絶の理由に引用された,引用文献A,及びその記載事項は,上記「第2[理由]2(2)」に記載したとおりである。 4 対比・判断 (1)本願発明は,上記「第2[理由]2(1)」で検討した本件補正発明の「ニューラルネットワーク」について,「入力信号を入力し、前記入力信号とは異なる出力信号を出力する」との限定を削除し,本件補正発明の「教師信号」について,「前記出力信号に対応する」との限定を削除するとともに,本件補正発明の「前記入力信号を前記第1信号にエンコードし,前記第1信号を前記入力信号にデコードするオートエンコーダ」との記載を,「前記第1信号から前記入力信号を生成するオートエンコーダ」との記載に変更し,本件補正発明の「第2信号に対応する前記教師信号とするトレーニングデータ」との記載を「第2信号を教師信号とするトレーニングデータ」との記載に変更し,本件補正発明の「前記出力信号に対応する前記教師信号を前記第2信号にエンコードし,前記第2信号から前記出力信号に対応する前記教師信号をデコードするオートエンコーダ」との記載を,「教師信号を第2信号に変換し,第2信号から教師信号を生成するオートエンコーダ」との記載に変更するものである。 (2)そうすると,上記「第2[理由]2(3)」における検討内容を踏まえると,本願発明と引用発明とは,以下の点で一致し,また,以下の点で相違する。 <一致点> 「 入力信号を第1信号に変換する第1ネットワークと,前記第1信号を第2信号に変換する第2ネットワークと,前記第2信号を出力信号に変換する第3ネットワークと,を含み, 前記第1ネットワークは,前記第1信号から前記入力信号を生成するオートエンコーダのエンコード部分により生成され, 前記第2ネットワークは,前記第1信号を入力とし,前記第2信号を教師信号とするトレーニングデータを用いたトレーニングにより生成され, 前記第3ネットワークは,教師信号を第2信号に変換し,第2信号から教師信号を生成するオートエンコーダのデコード部分により生成される, ニューラルネットワーク。」 <相違点a> 本願発明は,第1信号が「入力信号より低次元」であり,第2信号が「教師信号より低次元である」のに対して,引用発明は,そのような特定がなされていない点。 (3)上記<相違点a>に関して,第1信号が「入力信号より低次元」である点は,上記「第2[理由]2(3)イ」における<相違点2>と同一であり,第2信号が「教師信号より低次元である」点は,上記<相違点2>の,第2信号が「出力信号に対応する教師信号より低次元である」点から「出力信号に対応する」との限定を削除したものにすぎない。 してみると,上記<相違点a>は,上記「第2[理由]2(4)」における<相違点2>で検討したとおり,格別のものではなく,本願発明は,上記引用発明に基づいて,当業者が容易に発明をすることができたものである。 第4 むすび 以上のとおり,本願の請求項1に係る発明は,特許法第29条第2項の規定により特許を受けることができないものであるから,その余の請求項に係る発明について検討するまでもなく,本願は拒絶すべきものである。 よって,結論のとおり審決する。 |
審理終結日 | 2021-02-26 |
結審通知日 | 2021-03-02 |
審決日 | 2021-03-19 |
出願番号 | 特願2017-53330(P2017-53330) |
審決分類 |
P
1
8・
575-
Z
(G06N)
P 1 8・ 121- Z (G06N) |
最終処分 | 不成立 |
前審関与審査官 | 渡部 博樹、福西 章人 |
特許庁審判長 |
田中 秀人 |
特許庁審判官 |
月野 洋一郎 山澤 宏 |
発明の名称 | ニューラルネットワーク、ネットワーク学習装置、ネットワーク学習システム、ネットワーク学習方法およびプログラム |
代理人 | 特許業務法人酒井国際特許事務所 |