• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 取り消して特許、登録 G06F
管理番号 1356443
審判番号 不服2018-9478  
総通号数 240 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2019-12-27 
種別 拒絶査定不服の審決 
審判請求日 2018-07-09 
確定日 2019-11-12 
事件の表示 特願2014- 58628「次元削減装置、方法及びプログラム」拒絶査定不服審判事件〔平成27年10月22日出願公開、特開2015-184775、請求項の数(10)〕について、次のとおり審決する。 
結論 原査定を取り消す。 本願の発明は、特許すべきものとする。 
理由 第1 手続の経緯

本件審判請求に係る出願(以下,「本願」という。)は,平成26年3月20日の出願であって,平成28年8月30日付けで審査請求がなされ,平成29年5月22日付けで拒絶理由通知(同年5月30日発送)がなされ,同年6月12日付けで意見書が提出されるとともに,同日付けで手続補正がなされ,同年10月17日付けで拒絶理由通知(同年10月31日発送)がなされ,平成30年2月14日付けで意見書が提出されるとともに,同日付けで手続補正がなされたが,同年3月30日付けで拒絶査定(同年4月10日謄本送達)がなされた。
これに対して,「原査定を取り消す。本願の発明は特許すべきものとする、との審決を求める。」ことを請求の趣旨として,平成30年7月9日付けで本件審判請求がなされ,平成30年8月23日付けで審査官により特許法第164条第3項に定める報告(前置報告)がなされた。
そして,令和元年7月17日付けで当審拒絶理由通知(同年7月23日発送)がなされ,同年9月10日付けで意見書が提出されたものである。


第2 原査定の概要

原査定(平成30年3月30日付け拒絶査定)の概要は次のとおりである。

本願の請求項1?13に係る発明は,以下の引用文献1,2に基づいて,その発明の属する技術の分野における通常の知識を有する者(以下,「当業者」という。)が容易に発明できたものであるから,特許法第29条第2項の規定により特許を受けることができない。

引用文献等一覧
1.Yann Lecun, et al., "Gradient-based Learning Applied to Document Recognition, " Proceedings of the IEEE, 米国, IEEE, 1998年11月, Volume 86, Issue 11, P.2278 - P.2287 [online], [retrieved on 2017.10.17], Retrieved from the Internet:
,

2.特開平4-184686号公報


第3 本願発明

ア 本願請求項1?10に係る発明(以下,それぞれ「本願発明1」?「本願発明10」という。)は,平成30年7月9日付けの手続補正で補正された特許請求の範囲の請求項1?10に記載された事項により特定される発明であり,本願発明1は以下のとおりの発明である。

「複数の要素で構成されるn次元(nは自然数)の第1ベクトルを取得する取得部と、
前記複数の要素のうちの1以上の要素で構成される複数の第1部分ベクトルを生成する生成部と、
前記第1部分ベクトルを、当該第1部分ベクトルに対応する第1写像を用いて、要素の数を削減した第2部分ベクトルに変換し、変換後の複数の前記第2部分ベクトルを連結して、m次元(mはnより小さい自然数)の第2ベクトルを生成する第1写像部と、
前記第2ベクトルに前記m次元以下の空間への第2写像を適用し、第3ベクトルを生成する第2写像部と、
前記第3ベクトルを出力する出力部と、を備え、
前記第1写像は、アフィン写像を含む、
次元削減装置。」

イ なお,本願発明2?本願発明10の概要は以下のとおりである。

(ア)本願発明2?本願発明8は,本願発明1を直接・間接に引用して減縮した発明である。

(イ)本願発明9は,本願発明1に対応する方法の発明であり,本願発明1とカテゴリー表現が異なるだけの発明である。

(ウ)本願発明10は,本願発明1に対応するプログラムの発明であり,本願発明1とカテゴリー表現が異なるだけの発明である。


第4 引用文献

1 引用文献1に記載されている技術的事項及び引用発明の認定

ア 本願の出願日前に頒布(又は電気通信回線を通じて公衆に利用可能となった文献である)され,原審の拒絶の査定の理由である上記平成29年10月17日付けの拒絶理由通知において引用された引用文献1『Yann Lecun, et al., "Gradient-based Learning Applied to Document Recognition, " Proceedings of the IEEE, 米国, IEEE, 1998年11月, Volume 86, Issue 11, P.2278 - P.2287 [online], [retrieved on 2017.10.17], Retrieved from the Internet: , 』には,図面(特に,Fig.2)とともに,以下の技術的事項が記載されている。
(当審注:下線は,参考のために当審で付与したものである。)

A 「A. Convolutional Networks
Convolutional networks combine three architectural ideas to ensure some degree of shift, scale, and distortion invariance: 1) local receptive fields; 2) shared weights (or weight replication); and 3) spatial or temporal subsampling. A typical convolutional network for recognizing characters, dubbed LeNet-5, is shown in Fig. 2. The input plane receives images of characters that are approximately size normalized and centered. Each unit in a layer receives inputs from a set of units located in a small neighborhood in the previous layer.」(2283頁左欄33行?同頁右欄1行)
(当審訳:A. 畳み込みネットワーク
畳み込みネットワークは,ある程度のシフト,スケール,および歪みの不変性を保証するために,3つのアーキテクチャのアイデア(1)局所受容野,2)共有重み(または重み複製), 3)空間的または時間的サブサンプリング)を組み合わせたものです。LeNet-5と呼ばれる,文字を認識するための典型的な畳み込みネットワークを図2に示します。入力プレーンは,サイズがほぼ正規化され,中央に配置された文字の画像を受け取ります。レイヤ内の各ユニットは,前のレイヤの小さな近傍にあるユニットのセットから入力を受け取ります。)

B 「B. LeNet-5
This section describes in more detail the architecture of LeNet-5, the Convolutional NN used in the experiments. LeNet-5 comprises seven layers, not counting the input, all of which contain trainable parameters (weights). The input is a 32×32 pixel image.」(2284頁右欄27?32行)
(当審訳:B. LeNet-5
このセクションでは,実験で使用した畳み込みNNであるLeNet-5のアーキテクチャについて詳しく説明します。LeNet-5は,入力を数えずに7つのレイヤで構成され,すべてのレイヤにトレーニング可能なパラメータ(重み)が含まれています。入力は32×32ピクセルの画像です。)

C 「Layer C1 is a convolutional layer with six feature maps. Each unit in each feature map is connected to a 5×5 neighborhood in the input. The size of the feature maps is 28×28 which prevents connection from the input from falling off the boundary.」(2284頁右欄48?52行)
(当審訳:レイヤC1は,6つの特徴マップを持つ畳み込みレイヤです。各特徴マップ内の各ユニットは,入力の5×5領域に接続されています。特徴マップのサイズは28×28で,入力からの接続が境界から外れるのを防ぎます。)

D 「Layer S2 is a subsampling layer with six feature maps of size 14×14. Each unit in each feature map is connected to a 2×2 neighborhood in the corresponding feature map in C1. The four inputs to a unit in S2 are added, then multiplied by a trainable coefficient, and then added to a trainable bias. The result is passed through a sigmoidal function.」(2284頁右欄54行?2285頁左欄2行)
(当審訳:レイヤS2は,サイズが14×14の6つの特徴マップを有するサブサンプリングレイヤです。各フィーチャマップ内の各ユニットは,C1の対応する特徴マップ内の2×2領域に接続されています。S2のユニットへの4つの入力が加算され,次にトレーニング可能な係数が乗算されてから,トレーニング可能なバイアスに加算されます。結果はシグモイド関数を介して渡されます。)

E

(2283頁Fig.2.)

F 畳み込みNNであるLeNet-5のアーキテクチャを示す図2(上記E参照)において,“32×32ピクセルの入力画像の部分領域から特徴マップC1への畳み込みを行うことで,28×28サイズの特徴マップC1を生成”する態様,“28×28サイズの特徴マップの部分領域から特徴マップS2へのサブサンプリングを行うことで,14×14サイズの特徴マップS2を生成”する態様が読み取れる。

イ ここで,上記引用文献1に記載されている事項を検討する。

(ア)上記Aの「A typical convolutional network for recognizing characters, dubbed LeNet-5 (LeNet-5と呼ばれる,文字を認識するための典型的な畳み込みネットワーク)」との記載からすると,引用文献1には,“LeNet-5と呼ばれる畳み込みネットワーク”が記載されている。

(イ)上記Bの「This section describes in more detail the architecture of LeNet-5, the Convolutional NN(このセクションでは,…(中略)…畳み込みNNであるLeNet-5のアーキテクチャについて詳しく説明します)」,「LeNet-5 comprises seven layers, not counting the input(LeNet-5は,入力を数えずに7つのレイヤで構成され)」,及び「The input is a 32×32 pixel image(入力は32×32ピクセルの画像です)」との記載からすると,引用文献1には,“32×32ピクセルの入力画像”が畳み込みネットワークに入力される態様が記載されている。

(ウ)上記Cの「Layer C1 is a convolutional layer with six feature maps(レイヤC1は,6つの特徴マップを持つ畳み込みレイヤです)」,「Each unit in each feature map is connected to a 5×5 neighborhood in the input(各特徴マップ内の各ユニットは,入力の5×5領域に接続されています)」,「The size of the feature maps is 28×28(特徴マップのサイズは28×28)」との記載,上記Fの“32×32ピクセルの入力画像の部分領域から特徴マップC1への畳み込みを行うことで,28×28サイズの特徴マップC1を生成”する態様からすると,引用文献1には,“32×32ピクセルの入力画像の各部分領域(5×5領域)に畳み込みを行うことで,28×28サイズの特徴マップC1内の各ユニットを生成”する態様が記載されている。

(エ)上記Dの「Layer S2 is a subsampling layer with six feature maps of size 14×14(レイヤS2は,サイズが14×14の6つの特徴マップを有するサブサンプリングレイヤです)」,「Each unit in each feature map is connected to a 2×2 neighborhood in the corresponding feature map in C1(各フィーチャマップ内の各ユニットは,C1の対応する特徴マップ内の2×2領域に接続されています)」,上記Fの“28×28サイズの特徴マップの部分領域から特徴マップS2へのサブサンプリングを行うことで,14×14サイズの特徴マップS2を生成”する態様からすると,引用文献1には,“28×28サイズの特徴マップC1の各部分領域(2×2領域)にサブサンプリングを行うことで,14×14サイズの特徴マップS2内の各ユニットを生成”する態様が記載されている。

ウ 以上,(ア)ないし(エ)で指摘した事項を踏まえると,引用文献1には,次の発明(以下,「引用発明」という。)が記載されているものと認められる。

32×32ピクセルの入力画像に対して,
前記32×32ピクセルの入力画像の各部分領域(5×5領域)に畳み込みを行うことで,28×28サイズの特徴マップC1内の各ユニットを生成し,
前記28×28サイズの特徴マップC1の各部分領域(2×2領域)にサブサンプリングを行うことで,14×14サイズの特徴マップS2内の各ユニットを生成する,
LeNet-5と呼ばれる畳み込みネットワーク。

2 引用文献2に記載されている技術的事項

本願の出願日前に頒布(又は電気通信回線を通じて公衆に利用可能となった文献である)され,原審の拒絶査定に引用された引用文献2『特開平4-184686号公報(平成4年7月1日公開)』には,図面(特に,第2図及び第3図)とともに,以下の技術的事項が記載されている。
(当審注:下線は,参考のために当審で付与したものである。)

G 「[従来の技術]
ラメルハートから提案したバツクプロパゲーション型ニューラルネットワーク(以下、単にニューラルネツトと呼ぶ)は、高性能なパターー認識装置として適用可能であるとして、注目を集めている。以下、第3図に従って、一般的なニューラルネツトの構成について説明する。
第3図において、301は入力層の素子で、この層の素子は受け取った値をそのまま次の層の素子全てに送る。302は中間層の素子で、前層の素子からの入力x_(i)(i=1,2,…)に対して、y=f(ΣW_(i)x_(i)-θ)という出力を、次の出力層の全ての素子に送る。ここで、W_(i)及びθはそれぞれ重み計数、バイアスと呼ばれる素子固有の値である。また、fは伝達関数と呼ばれ、通常、シグモイド関数f(s)=1/(1+exp(-s))が用いられる。303は出力層の素子で、中間層の素子からの入力y_(j)(j=1,2,…)に対して、同様にz=f(ΣW_(j)y_(j)-θ)なる出力を行う。出力層の素子は、認識対象となるカテゴリの数Mだけ用意されており、全ての素子の重み計数及び、バイアスが理想的に定まっていると、或る入力にたいしてその入力データの属するカテゴリに対応した素子からの出力だけが1となり、他の素子からの出力は0となる。
なお、ここでは、中間層が1層の場合を説明したが、中間層は複数層とすることもできる。各素子の重み係数及びバイアスの値を決定するための学習アルゴリズムはRumelhart etal, "Parallel Distributed Processing, vol, 1" MIT Press 1986に詳しく述べられている。
次に、このようなニューラルネツトにおける信号処理の意味について説明する。簡単のため中間層が1層のネットワークを考える。入力層からの出力、中間層からの出力をそれぞれまとめてx,yというベクトルで表わすと、これらは次の関係にある。
y=f(W・x-θ) (1)
ただし、fはベクトルの各要素をシグモイド関数に通したものを各要素とするベクトル値関数を表わすこととする。W,x-θは明らかにアフイン変換を表わしており、入力層から中間層にかけてはアフイン変換を行なった後、シグモイド関数でその値を区間[0、1]に抑制するという変換を行なっていると解釈できる。
第2図は入力ベクトルの分布例を説明する図である。簡単のため、入力ベクトルxは2次元ベクトルとし、対象とするカテゴリはC_(1), C_(2), C_(3)の3種類とする。バツクプロパゲーシヨンアルゴリズムに従って学習が完了すると、その時のθは、第2図201で表わされるような、すべての学習データの平均に近いベクトルに収束しているものと考えられる。
また、中間層からの出力と出力層からの出力も(1)と同様に
z=f(W・y-θ) (2)
で表現されるが、ここでは別の解釈をした方がよい。すなわち(2)ではW・y-θを線形識別関数の集合とみなすことができ、その出力(複数)を各々シグモイド関数に通したものが最終的な出力zになる。」(1頁右下欄8行?2頁左下欄8行)


第5 対比・判断

1 本願発明1について

(1)対比

ア 本願発明1と引用発明とを対比する。

(ア)引用発明の「入力画像」は,本願発明1の「第1ベクトル」に対応付けられるものであるところ,引用発明の「32×32ピクセルの入力画像」は,複数の要素で構成され,1,024(= 32×32)次元の入力画像であるといえるから,引用発明と本願発明1は,後記する点で相違するものの,“複数の要素で構成されるn次元(nは自然数)の第1ベクトルを取得”する点で一致する。

(イ)引用発明の「部分領域(5×5領域)」は,入力画像の部分領域であり,入力画像の複数の要素のうちの1以上の要素で構成されるものであることから,本願発明1の「第1部分ベクトル」に対応する。

(ウ)引用発明の「ユニット」,「畳み込み」,及び「特徴マップC1」は,それぞれ,本願発明1の「第2部分ベクトル」,「第1写像」,及び「第2ベクトル」に対応付けられるものであるところ,引用発明の「28×28サイズの特徴マップC1」は, 784(= 28×28)次元であることから,入力画像より要素の数が削減されたといえるものであり,また,「特徴マップC1」は,入力画像の各部分領域(5×5領域)に畳み込みを行うことで変換された各ユニットを連結して生成されるものといえる。そうすると,上記(イ)の検討内容を考慮すると,引用発明と本願発明1は,後記する点で相違するものの,“前記第1ベクトルの第1部分ベクトルを、当該第1部分ベクトルに対応する第1写像を用いて、要素の数を削減した第2部分ベクトルに変換し、変換後の複数の前記第2部分ベクトルを連結して、m次元(mはnより小さい自然数)の第2ベクトルを生成”する点で一致する。

(エ)引用発明の「サブサンプリング」及び「特徴マップS2」は,それぞれ,本願発明1の「第2写像」及び「第3ベクトル」に対応付けられるものであるところ,引用発明の「14×14サイズの特徴マップS2」は,196(= 14×14)次元であることから,特徴マップC1より要素の数が削減されたといえるものであり,また,「特徴マップS2」は,特徴マップC1の各部分領域(2×2領域)にサブサンプリングを行うことで変換された各ユニットを連結して生成されるものといえる。そうすると,引用発明と本願発明1は,後記する点で相違するものの,“第2写像を適用し,第3ベクトルを生成”する点で一致する。

(オ)引用発明の「LeNet-5と呼ばれる畳み込みネットワーク」は,畳み込み等によって次元を削減するものといえるから,本願発明1の「次元削減装置」に相当する。

イ 以上から,本願発明1と引用発明とは,以下の点で一致し,また,以下の点で相違する。

(一致点)

複数の要素で構成されるn次元(nは自然数)の第1ベクトルを取得し,
前記第1ベクトルの第1部分ベクトルを、当該第1部分ベクトルに対応する第1写像を用いて、要素の数を削減した第2部分ベクトルに変換し、変換後の複数の前記第2部分ベクトルを連結して、m次元(mはnより小さい自然数)の第2ベクトルを生成し,
第2写像を適用し,第3ベクトルを生成する
次元削減装置。

(相違点1)

本願発明1が,「複数の要素で構成されるn次元(nは自然数)の第1ベクトル」を取得する「取得部」を備えるものであるのに対し,引用発明は,「32×32ピクセルの入力画像」を取得する構成が不明であり,本願発明1の「取得部」に相当するものを備えるかどうか不明である点。

(相違点2)

本願発明1が,「前記複数の要素のうちの1以上の要素で構成される複数の第1部分ベクトルを生成する生成部」を備えるものであるに対して,引用発明の「部分領域(5×5領域)」は順に選択されるものであって,「部分領域(5×5領域)」を生成するための特別な構成を備えていない点。

(相違点3)

本願発明1が,「第1部分ベクトルを、当該第1部分ベクトルに対応する第1写像を用いて、要素の数を削減した第2部分ベクトルに変換し、変換後の複数の前記第2部分ベクトルを連結して、m次元(mはnより小さい自然数)の第2ベクトルを生成する第1写像部」を備えるものであるのに対し,引用発明は,畳み込みによって,入力画像内の「各部分領域(5×5領域)」から特徴マップS2内の「各ユニット」への変換を行うものの,本願発明1の「第1写像部」に相当するものを備えるかどうか不明である点。

(相違点4)

「第2写像」の適用に関し,本願発明1が,「第2ベクトルに」「第2写像を適用し、第3ベクトルを生成する」ものであるのに対し,引用発明の「特徴マップS2」は,特徴マップC1の各部分領域(2×2領域)にサブサンプリングを行うことで変換された各ユニットを連結して生成されるものであって,「特徴マップC1」自体にサブサンプリングを行うことで「特徴マップS2」自体を生成するものではない点。

(相違点5)

本願発明1が,「前記第2ベクトルに前記m次元以下の空間への第2写像を適用し、第3ベクトルを生成する第2写像部」を備えるものであるのに対し,引用発明は,サブサンプリングによって,特徴マップC1内の「各部分領域(2×2領域)」から特徴マップS2内の「各ユニット」への変換を行うものの,本願発明1の「第2写像部」に相当するものを備えるかどうか不明である点。

(相違点6)

本願発明1が,「第3ベクトルを出力する出力部」を備えるものであるのに対し,引用発明は,「特徴マップS2」を出力する出力部を備えるものであるか不明である点。

(相違点7)

本願発明1の「第1写像」が,「アフィン写像を含む」ものであるのに対し,引用発明の「畳み込み」は,アフィン写像を含むものであるか不明である点。

(2)相違点についての判断

事案に鑑み,先に相違点4及び相違点7について検討する。

ア 相違点4について

引用発明の「LeNet-5と呼ばれる畳み込みネットワーク」は,変換元の「入力画像」や「特徴マップ」の「各部分領域」に対して畳み込みやサブサンプリングを行うものであり,「入力画像」や「特徴マップ」自体に対して畳み込みやサブサンプリングを行うものではない。

そうすると,引用発明の「サブサンプリング」(本願発明1の「第2写像」に対応)において,「特徴マップC1の各部分領域(2×2領域)」に替えて「特徴マップC1」自体にサブサンプリングを行い,「特徴マップS2」自体を生成するように変更することについては,引用文献1に記載も示唆もなされておらず,また,本願の出願日前に当業者にとって,周知技術または技術常識であるともいえない。

イ 相違点7について

上記引用文献2の上記Gに記載されるように,ニューラルネツトにおいて,アフイン変換を用いる技術は,本願の出願日前に当業者にとって,周知技術であった。

しかしながら,引用発明の「LeNet-5と呼ばれる畳み込みネットワーク」における「畳み込み」(本願発明1の「第1写像」に対応)において,アフィン変換を適用することについては,引用文献1に記載も示唆もなされておらず,また,本願の出願日前に当業者にとって,周知技術または技術常識であるともいえない。

ウ したがって,他の相違点について判断するまでもなく,本願発明1は,当業者であっても,引用発明及び引用文献2に記載の周知技術に基づいて容易に発明できたものであるとはいえない。

2 本願発明2ないし本願発明8について

本願発明2ないし本願発明8も,本願発明1の「前記第2ベクトルに前記m次元以下の空間への第2写像を適用し、第3ベクトルを生成する第2写像部」及び「第1写像は、アフィン写像を含む」構成を備えるものであるから,上記「1 本願発明1について」と同じ理由により,当業者であっても,引用発明及び引用文献2に記載の周知技術に基づいて容易に発明できたものとはいえない。

3 本願発明9について

本願発明9は,本願発明1に対応する方法の発明であり,本願発明1の「前記第2ベクトルに前記m次元以下の空間への第2写像を適用し、第3ベクトルを生成する第2写像部」に対応するステップ,及び「第1写像は、アフィン写像を含む」構成を備えるものであるから,上記「1 本願発明1について」と同じ理由により,当業者であっても,引用発明及び引用文献2に記載の周知技術に基づいて容易に発明できたものとはいえない。

4 本願発明10について

本願発明10は,本願発明1に対応するプログラムの発明であり,本願発明1の「前記第2ベクトルに前記m次元以下の空間への第2写像を適用し、第3ベクトルを生成する第2写像部」及び「第1写像は、アフィン写像を含む」構成に対応するステップ,及び「第1写像は、アフィン写像を含む」構成を備えるものであるから,上記「1 本願発明1について」と同じ理由により,当業者であっても,引用発明及び引用文献2に記載の周知技術に基づいて容易に発明できたものとはいえない。


第6 当審拒絶理由について

当審では,
『本願発明の課題は「低記憶容量かつ高速な次元削減を実現可能な次元削減装置、方法及びプログラムを提供すること」であり,本願実施例は,各写像部において,写像を用いてベクトルを変換することにより次元数を削減することで,上記課題を解決しているものと把握されるところ,請求項1記載の発明には,「前記第2ベクトルに前記m次元以下の空間への第2写像を適用し、第3ベクトルを生成する第2写像部」(当審注:下線は、参考のために当審で付与したものである。)と記載されるように,第3ベクトルが第2ベクトルと同じm次元になる構成も含んでおり,第2写像部で生成される第3ベクトルにおいて,必ずしも次元数が削減される構成となっていない。
してみると,請求項1記載の発明は,本願の発明な詳細な説明において,発明の課題が解決できることを当業者が認識できるように記載された範囲のものとは認め得るものではなく,請求項1は,本願の発明の詳細な説明に記載した範囲を超えて特許請求するものに他ならない。
したがって,請求項1記載の発明は,発明の詳細な説明に記載したものではない。(第36条第6項第1号違反)
また,請求項9及び請求項10は,それぞれ,請求項1記載の発明を,“方法の発明”及び“プログラムの発明”として表現したものであるから,請求項9及び請求項10記載の発明は,上記と同様の理由により,発明の詳細な説明に記載したものではない。(第36条第6項第1号違反)』
との拒絶の理由を通知しているが,

令和元年9月10日付けの意見書において,
『本願発明は、第1写像部により、n次元(nは自然数)の第1ベクトルよりも次元数が小さい、m次元(mはnより小さい自然数)の第2ベクトルを生成する。少なくともこの第1写像部が、次元数を削減することで課題を解決する構成に相当する。
また、第2写像部が第2ベクトルと同じm次元の第3ベクトルを生成することは、例えば明細書段落0041「第2ベクトルの次元数以下の空間への第2写像を適用」、および、段落0056「第2写像は500次元から500次元へのアフィン写像」などに記載されている。
以上のように、本願発明は、発明な詳細な説明において、発明の課題が解決できることを当業者が認識できるように記載された範囲のものである。』
と釈明された結果,この拒絶理由は解消した。


第7 むすび

以上のとおり,本願発明1?10は,当業者が引用発明及び引用文献2に記載の周知技術に基づいて,容易に発明をすることができたものではない。
したがって,原査定の理由によっては,本願を拒絶することはできない。

また,他に本願を拒絶すべき理由を発見しない。

よって結論のとおり審決する。
 
審決日 2019-10-28 
出願番号 特願2014-58628(P2014-58628)
審決分類 P 1 8・ 121- WY (G06F)
最終処分 成立  
前審関与審査官 大桃 由紀雄  
特許庁審判長 辻本 泰隆
特許庁審判官 田中 秀人
松平 英
発明の名称 次元削減装置、方法及びプログラム  
代理人 特許業務法人酒井国際特許事務所  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ