• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 特17条の2、3項新規事項追加の補正 特許、登録しない。 G06T
審判 査定不服 2項進歩性 特許、登録しない。 G06T
管理番号 1372355
審判番号 不服2020-3089  
総通号数 257 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2021-05-28 
種別 拒絶査定不服の審決 
審判請求日 2020-03-05 
確定日 2021-03-24 
事件の表示 特願2018- 3565「検査機器および荷物における銃器を検出する方法」拒絶査定不服審判事件〔平成30年 7月19日出願公開、特開2018-113038〕について、次のとおり審決する。 
結論 本件審判の請求は、成り立たない。 
理由 第1 手続の経緯
本願は、平成30年1月12日(パリ条約による優先権主張2017年1月12日、中国)出願であって、その手続の経緯は以下のとおりである。

平成31年 2月 8日付け:拒絶理由通知書
令和 元年 5月17日 :意見書、手続補正書の提出
同年10月29日付け:拒絶査定
令和 2年 3月 5日 :審判請求書、手続補正書の提出


第2 令和2年3月5日にされた手続補正についての補正却下の決定

[補正却下の決定の結論]
令和2年3月5日に提出された手続補正書による手続補正を却下する。

[理由]
1 本件補正の内容
令和2年3月5日にされた手続補正(以下、「本件補正」という。)は、令和元年5月17日にされた手続補正により補正された請求項1(以下、「補正前の請求項1」という。)を、以下の請求項1(以下、「補正後の請求項1」という。)とする補正事項を含むものである。なお、下線は補正箇所である。

(補正前の請求項1)
「【請求項1】
荷物に対してX線検査を行い、透過画像を取得するステップと、
訓練された銃器検出神経回路網に基づいて、前記透過画像における複数の候補領域を特定するステップと、
前記銃器検出神経回路網に基づいて、前記複数の候補領域を分類することによって、前記透過画像に銃器が含まれているか否かを特定するステップと、を含み、
前記銃器検出神経回路網は、銃器サンプルの透過画像を構築する操作と、RPNとCNNの畳み込み層を統合して初期検出ネットワークを取得する操作と、サンプルの透過画像に基づいて初期検出ネットワークを訓練して、銃器検出神経回路網を取得する操作とによって訓練されて得たものである、荷物における銃器を検出する方法。」

(補正後の請求項1)
「【請求項1】
荷物に対してX線検査を行い、透過画像を取得するステップと、
訓練された銃器検出神経回路網に基づいて、前記透過画像における複数の候補領域を特定するステップと、
前記銃器検出神経回路網に基づいて、前記複数の候補領域を分類することによって、前記透過画像に銃器が含まれているか否かを特定するステップと、を含み、
前記銃器検出神経回路網は、銃器サンプルの透過画像を構築する操作と、RPNとCNNの畳み込み層を統合して初期検出ネットワークを取得する操作と、サンプルの透過画像に基づいて初期検出ネットワークを訓練して、銃器検出神経回路網を取得する操作とによって訓練されて得たものであり、
前記初期検出ネットワークは、
前記RPNを用いて、前記透過画像における複数の候補領域を特定するステップと、
前記CNNを用いて、前記複数の候補領域を分類することによって、前記透過画像に銃器が含まれているか否かを特定するステップであって、前記RPNと前記CNNとは畳み込み層を共有する、ステップと、
前記RPNと前記CNNとの前記畳み込み層のデータを共有せずに前記CNNのパラメータを調整し、前記RPNと前記CNNとの前記畳み込み層のデータを共有して前記RPNのパラメータを調整することによって、交替訓練で前記銃器検出神経回路網を訓練するステップと、によって訓練されたものである、荷物における銃器を検出する方法。」

2 補正の適否
本件補正が、願書に最初に添付した明細書、特許請求の範囲又は図面(以下、当該明細書を「当初明細書」といい、全体を「当初明細書等」という。)に記載した事項の範囲内においてなされたものか以下検討する。

(ア)本件補正は、補正前の請求項1に対して、
「前記初期検出ネットワークは、
前記RPNを用いて、前記透過画像における複数の候補領域を特定するステップと、
前記CNNを用いて、前記複数の候補領域を分類することによって、前記透過画像に銃器が含まれているか否かを特定するステップであって、前記RPNと前記CNNとは畳み込み層を共有する、ステップと、
前記RPNと前記CNNとの前記畳み込み層のデータを共有せずに前記CNNのパラメータを調整し、前記RPNと前記CNNとの前記畳み込み層のデータを共有して前記RPNのパラメータを調整することによって、交替訓練で前記銃器検出神経回路網を訓練するステップと、によって訓練されたものである、」
との記載(以下、「記載A」という。)を追加する補正事項(以下、「補正事項1」という。)を含むものである。

(イ)まず、記載Aにより特定される事項について検討する。
記載Aは、3つのステップによって「訓練されたもの」を「初期検出ネットワーク」とすることが特定されている。しかしながら、「訓練されたもの」を「初期検出ネットワーク」とすることは、当初明細書等には記載されていない。
当初明細書の段落0033には「初期検出ネットワークを訓練して、銃器検出神経回路網を取得する」ことが記載されており、訓練される前のもの(訓練対象)を「初期検出ネットワーク」とし、訓練した後のものを「銃器検出神経回路網」とすることは当初明細書等に記載されているが、「訓練されたもの」を「初期検出ネットワーク」とすることは、当初明細書等に記載も示唆もされていない。

(ウ)次に、記載Aにおける「前記CNNを用いて、前記複数の候補領域を分類することによって、前記透過画像に銃器が含まれているか否かを特定するステップであって、前記RPNと前記CNNとは畳み込み層を共有する、ステップ」について検討する。
当初明細書の段落0037には、分類に関して、「候補領域を抽出した後、候補領域に対して正・負サンプルのラベリングを行う」ステップが記載されているが、当該ステップが「前記RPNと前記CNNとは畳み込み層を共有する」ものであることは、当初明細書等に記載も示唆もされていない。

(エ)さらに、記載Aに関連する記載について検討する。
記載Aにおける「前記初期検出ネットワーク」とは、「前記」の意味からして当該「前記初期検出ネットワーク」の記載より前に記載されている「初期検出ネットワーク」を指すものである。そして、補正後の請求項1において、当該「前記初期検出ネットワーク」の記載より前に「初期検出ネットワーク」との記載が存在するのは、「前記銃器検出神経回路網は、銃器サンプルの透過画像を構築する操作と、RPNとCNNの畳み込み層を統合して初期検出ネットワークを取得する操作と、サンプルの透過画像に基づいて初期検出ネットワークを訓練して、銃器検出神経回路網を取得する操作とによって訓練されて得たものであり、」との記載部分(以下、「記載B」という。」)のみであるから、補正事項1に係る補正は、当該記載Bにおける「初期検出ネットワーク」が、記載Aの3つのステップによって訓練されたものであることに限定するものである。
上記限定に基づけば、記載Bにおける「初期検出ネットワーク」に関する部分は、「RPNとCNNの畳み込み層を統合して」「記載Aの3つのステップによって訓練されたものである」「初期検出ネットワークを取得する」というもの、及び、「サンプルの透過画像に基づいて」「記載Aの3つのステップによって訓練されたものである」「初期検出ネットワークを訓練して」というものが特定されている。しかしながら、これらはいずれも当初明細書等に記載されたものではない。
当初明細書の段落0033には「RPNとCNNの畳み込み層を統合して、初期検出ネットワークを取得する」こと、及び、「サンプルの透過画像に基づいて、初期検出ネットワークを訓練」することが記載されているが、「RPNとCNNの畳み込み層を統合して」「記載Aの3つのステップによって訓練されたものである」「初期検出ネットワークを取得する」というもの、及び、「サンプルの透過画像に基づいて」「記載Aの3つのステップによって訓練されたものである」「初期検出ネットワークを訓練して」というものは、当初明細書等に記載も示唆もされていない。

(オ)なお、審判請求人は、審判請求書の3(1)(1-1)において以下の説明を行っている。
「(1-1)補正後の請求項1について、補正前の請求項1、本願明細書の段落0022、0034、図5等の記載に基づいて、以下の技術的特徴を導入する補正を行いました。
「前記初期検出ネットワークは、
前記RPNを用いて、前記透過画像における複数の候補領域を特定するステップと、
前記CNNを用いて、前記複数の候補領域を分類することによって、前記透過画像に銃器が含まれているか否かを特定するステップと…によって訓練されたものである」
例えば、
補正前の請求項1に、「訓練された銃器検出神経回路網に基づいて、前記透過画像における複数の候補領域を特定する…前記銃器検出神経回路網に基づいて、前記複数の候補領域を分類することによって、前記透過画像に銃器が含まれているか否かを特定する」が開示されており、
本願明細書段落0022に、「…例えば、本願では、主に深層学習の方法に基づいて、銃器の検出を行う…CNN分類を行う…候補領域の抽出は、領域提案ネットワーク(Region Proposal Networks,以下RPNと略する)を採用し…」が開示されており、
本願明細書段落0034に、「本開示の実施例で、アルゴリズムとしてRPNモジュールとCNN検出モジュールが用いられる…図5は、交替訓練の例を示しているが、具体的な訓練は以下の通りである。」が開示されています。」
上記説明は、補正の根拠となる当初明細書等の記載を示したものと認められる。
しかしながら、上記「訓練された銃器検出神経回路網に基づいて、前記透過画像における複数の候補領域を特定する…前記銃器検出神経回路網に基づいて、前記複数の候補領域を分類することによって、前記透過画像に銃器が含まれているか否かを特定する」との記載は、訓練後の銃器検出神経回路網における処理についてのものであって、「訓練されたもの」を「初期検出ネットワーク」とすることは説明されていない。
また、上記「…例えば、本願では、主に深層学習の方法に基づいて、銃器の検出を行う…CNN分類を行う…候補領域の抽出は、領域提案ネットワーク(Region Proposal Networks,以下RPNと略する)を採用し…」及び「本開示の実施例で、アルゴリズムとしてRPNモジュールとCNN検出モジュールが用いられる…図5は、交替訓練の例を示しているが、具体的な訓練は以下の通りである。」との各記載も、「訓練されたもの」を「初期検出ネットワーク」とすることは説明されていない。
したがって、審判請求人による上記説明に基づいても、補正事項1を当初明細書等に記載した事項の範囲内においてするものということはできない。

(カ)以上のとおり、補正事項1は、当初明細書等に記載も示唆もされておらず、当初明細書等に記載した事項の範囲内においてするものではないから、補正事項1を含む本件補正は、特許法第17条の2第3項に規定する要件を満たしていない。

3 本件補正についてのむすび
以上のとおり、本件補正は、特許法第17条の2第3項の規定に違反しているから、同法第159条第1項の規定において読み替えて準用する同法第53条第1項の規定により却下されるべきものである。
よって、上記補正却下の決定の結論のとおり決定する。


第3 本願発明について
1 本願発明
令和2年3月5日にされた手続補正は、上記のとおり却下されたので、本願の請求項に係る発明は、令和元年5月17日にされた手続補正により補正された特許請求の範囲の請求項1?8に記載された事項により特定されるものであるところ、その請求項6に係る発明(以下、「本願発明」という。)は、明細書及び図面の記載からみて、その請求項6に記載された事項により特定される以下のとおりのものである。
なお、本願発明の各構成の符号(A)?(E)は、説明のために当審で付したものであり、以下、構成A?構成Eという。

(本願発明)
(A)荷物に対してX線検査を行い、透過画像を取得するX線検査システムと、
(B)前記透過画像、および、銃器サンプルの透過画像を格納するメモリと、
(C)訓練された銃器検出神経回路網に基づいて、前記透過画像における複数の候補領域を特定し、且つ前記複数の候補領域を分類することによって、前記透過画像に銃器が含まれているか否かを特定するように構成されたプロセッサと、を備え、
(D)前記プロセッサは、RPNとCNNの畳み込み層を統合して初期検出ネットワークを取得する操作と、サンプルの透過画像に基づいて初期検出ネットワークを訓練して、銃器検出神経回路網を取得する操作とによって訓練されて、前記銃器検出神経回路網を取得するようにさらに配置されている、
(E)検査機器。

2 原査定の拒絶の理由
本願発明に係る原査定の拒絶の理由は、本願の請求項6に係る発明は、本願の出願前に頒布された又は電気通信回線を通じて公衆に利用可能となった引用文献1及び引用文献2に記載された発明に基づいて、当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない、というものである。

引用文献1:国際公開第2008/009134号
引用文献2:Shaoqing Ren et al., Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks, Computer Vision and Pattern Recognition, 2016年1月6日, version v3, P.1-14, https://arxiv.org/abs/1506.01497

3 引用文献、引用発明
(1)引用文献1について
(ア)引用文献1の記載
上記引用文献1には、図面とともに次の記載がある。

「Figure 1 shows a system 100 for security screening of receptacles in accordance with an embodiment of the present invention. A "receptacle", as used herein, refers to an entity adapted for receiving and carrying objects therein such as, for example, an item of luggage, a cargo container, or a mail parcel.」(7頁7?10行)
(仮訳:図1は、本発明の実施形態による容器のセキュリティ検査のためのシステム100を示している。本明細書で使用される「容器」とは、例えば荷物、貨物専用コンテナ、又は郵便荷物の品目のような、その中に物体を受け入れて保持するために適合された実体をいう。)

「In this embodiment, the system 100 comprises an image generation apparatus 102, a display unit 202, and a processing system 120 in communication with the image generation apparatus 102 and the display unit 202.」(7頁14?16行)
(仮訳:この実施形態において、システム100は、画像生成装置102、ディスプレイユニット202、並びに、画像生成装置102及びディスプレイユニット202と通信する処理システム120を備えている。)

「The processing system 120 is adapted to process the image data in an attempt to detect presence of one or more threat-posing objects which may be contained in the receptacle 104. A "threat-posing object" refers to an object that poses a security threat and that the processing system 120 is designed to detect. For example, a threat-posing object may be a prohibited object such as a weapon (e.g., a gun, a knife, an explosive device, etc.).」(7頁20?25行)
(仮訳:処理システム120は、画像データを処理して、容器104に含まれうる1つ以上の脅威物体の存在を検出するように構成される。「脅威物体」は、セキュリティ脅威を提起し、処理システム120が検出するように設計されている物体をいう。例えば、脅威物体は、武器(例えば、銃、ナイフ、爆発装置等)のような禁止された物体であってもよい。)

「In this embodiment, the image generation apparatus 102 subjects the receptacle 104 to penetrating radiation to generate the image data conveying the image of contents of the receptacle 104. Examples of suitable devices that may be used to implement the image generation apparatus 102 include, without being limited to, x-ray, gamma ray, computed tomography (CT), thermal imaging, TeraHertz and millimeter wave devices. Such devices are well known and as such will not be described further here. In this example, the image generation apparatus 102 is a conventional x-ray machine suitable for generating data conveying an x-ray image of the receptacle 104. The x-ray image conveys, amongst others, material density information related to objects present in the receptacle 104.」(10頁22?31行)
(仮訳:この実施形態では、画像生成装置102は、容器104の内容物の画像を伝える画像データを生成するために、容器104を透過放射線にさらす。画像生成装置102を実装するために使用できる適当な装置の例としては、限定されるものではないが、X線、ガンマ線、コンピュータ断層撮影(CT)、赤外線画像、テラヘルツ及びミリ波の装置を含む。このような装置は、よく知られておりここではさらに説明しない。本例では、画像生成装置102は、容器104のX線画像を伝達するデータを生成するのに適した従来のX線装置である。X線画像は、特に、容器104内に存在する物体に関する材料密度情報を伝達する。)

「In this embodiment, the processing system 120 comprises an input 206, an output 210, and a processing unit 250 in communication with the input 206 and the output 210.」(12頁4?6行)
(仮訳:この実施形態では、処理システム120は、入力206及び出力210、並びに、入力206及び出力210と通信する処理ユニット250を備えている。)

「More particularly, in this embodiment, the processing unit 250 comprises an automated threat detection processing module 106 and a display control module 200.」(13頁10?11行)
(仮訳:より詳細には、この実施形態では、処理ユニット250は、自動脅威検出処理部106及び表示制御部200を備えている。)

「In this embodiment, the automated threat detection processing module 106 comprises a first input 810, a second input 814, an output 812, and a processing unit, which comprises a pre-processing module 800, an region of interest locator module 804, an image comparison module 802, and an output signal generator module 806.」(43頁2?5行)
(仮訳:この実施形態では、自動脅威検出処理部106は、第1の入力810、第2の入力814、出力812、並びに、前処理部800、関心領域検出部804、画像比較部802及び出力信号生成部806からなる処理ユニットを備えている。)

「The processing unit of the automated threat detection processing module 106 receives at the first input 810 the image data conveying the image of contents of the receptacle 104 derived from the image generation apparatus 102.」(43頁7?9行)
(仮訳:自動脅威検出処理部106の処理ユニットは、画像生成装置102からの容器104の内容物の画像を伝える画像データを第1の入力810において受信する。)

「The region of interest locator module 804 is adapted for generating data conveying one or more regions of interest of the image of contents of the receptacle 104 based on characteristics intrinsic to that image.」(43頁25?27行)
(仮訳:関心領域検出部804は、画像に固有の特徴に基づいて、容器104の内容物の画像の1つ以上の関心領域を伝えるデータを生成するように構成される。)

「The image comparison module 802 receives the data conveying the one or more regions of interest of the image from the region of interest locator module 804. The image comparison module 802 is adapted for effecting a comparison operation between, on the one hand, the received data conveying the one or more regions of interest of the image and, on the other hand, data included in entries of the reference database 110 that are associated with threat-posing objects, in an attempt to detect a representation of one or more of these threat-posing object in the image of contents of the receptacle 104. Based on results of this comparison operation, the image comparison module 802 is adapted to derive threat information regarding the receptacle 104.」(44頁1?9行)
(仮訳:画像比較部802は、関心領域検出部804から画像の1つ以上の関心領域を伝えるデータを受信する。画像比較部802は、容器104の内容物の画像におけるこれらの1つ以上の脅威対象の表現を検出する試みにおいて、一方の、画像の1つ以上の関心領域を伝える受信されたデータと、他方の、脅威対象に関連する参照データベース110の入力に含まれるデータとの間の比較動作を実施するように適合される。この比較演算の結果に基づいて、画像比較部802は、荷物104の脅威情報を導出するように構成される。)

「Figure 14 summarizes graphically steps performed by the region of interest locator module 804 and the image comparison module 802 in an alternative embodiment. In this embodiment, the region of interest locator module 804 processes an input scene image to identify therein one or more regions of interest. Subsequently, for each given region of interest, the image comparison module 802 applies a least-squares fit process for each contour in the reference database 110 and derives an associated quadratic error data element and a scale factor data element for each contour. The image comparison module 802 then makes use of a neural network to determine the likelihood (of confidence level) that the given region of interest contains a representation of a threat. In this case, the neural network makes use of the quadratic error as well as the scale factor generated as part of the least-squares fit process for each contour in the reference database 110 to derive a level of confidence that the region of interest contains a representation of a threat. More specifically, the neural network, which was previously trained using a plurality of images and contours, is operative for classifying the given region of interest identified by the region of interest locator module 804 as either containing a representation of a threat, as containing no representation of a threat or as unknown.」(53頁24行?54頁8行)
(仮訳:図14は、代替的な実施態様における、関心領域検出部804及び画像比較部802によって実行されるステップを図で要約する。この実施形態において、関心領域検出部804は、入力されたシーン画像を処理して1つ以上の関心領域を特定する。続いて、得られた各関心領域について、画像比較部802は、参照データベース110内の各輪郭線について最小二乗適合処理を適用し、各輪郭について関連する二次誤差データ要素および尺度データ要素を求める。その際、画像比較部802は、神経回路網を使用して、得られた関心領域が脅威の表現を含む尤度(信頼度レベル)を決定する。この場合、神経回路網は、参照データベース110内の各々の輪郭についての最小二乗適合処理の一部として生成された二次誤差および尺度を使用し、関心領域が脅威の表現を含んでいることの信頼度を導出する。より具体的には、神経回路網は、予め複数の画像と輪郭を用いて訓練され、関心領域検出部804によって特定される得られた関心領域を、どれかに脅威の表現を含むものとして、脅威の表現を含まないものとして、又は、不明として分類するよう動作する。)

(イ)引用発明
上記(ア)の記載から、引用文献1には、次の発明(以下、「引用発明」という。)が記載されていると認められる。
なお、引用発明の各構成の符号(a)?(l)は、説明のために当審で付したものであり、以下、構成a?構成lという。

(引用発明)
(a)画像生成装置102、ディスプレイユニット202、並びに、画像生成装置102及びディスプレイユニット202と通信する処理システム120を備えた容器のセキュリティ検査のためのシステム100であって、
(b)「容器」とは、例えば荷物であり、
(c)処理システム120は、画像データを処理して、容器104に含まれうる1つ以上の脅威物体の存在を検出するように構成され、
(d)例えば、脅威物体は銃であり、
(e)画像生成装置102は、容器104の内容物の画像を伝える画像データを生成するために、容器104を透過放射線にさらすX線装置であり、
(f)処理システム120は、入力206及び出力210、並びに、入力206及び出力210と通信する処理ユニット250を備え、
(g)処理ユニット250は、自動脅威検出処理部106及び表示制御部200を備え、
(h)自動脅威検出処理部106は、第1の入力810、第2の入力814、出力812、並びに、前処理部800、関心領域検出部804、画像比較部802及び出力信号生成部806からなる処理ユニットを備え、
(i)自動脅威検出処理部106の処理ユニットは、画像生成装置102からの容器104の内容物の画像を伝える画像データを第1の入力810において受信し、
(j)関心領域検出部804は、画像に固有の特徴に基づいて、容器104の内容物の画像の1つ以上の関心領域を伝えるデータを生成するように構成され、
(k)画像比較部802は、関心領域検出部804から画像の1つ以上の関心領域を伝えるデータを受信し、荷物104の脅威情報を導出するように構成され、
(l)代替的な実施態様における、関心領域検出部804及び画像比較部802によって実行されるステップは、
関心領域検出部804は、入力されたシーン画像を処理して1つ以上の関心領域を特定し、
画像比較部802は、神経回路網を使用して、得られた関心領域が脅威の表現を含む尤度(信頼度レベル)を決定し、
神経回路網は、予め複数の画像と輪郭を用いて訓練され、関心領域検出部804によって特定される得られた関心領域を、どれかに脅威の表現を含むものとして、脅威の表現を含まないものとして、又は、不明として分類するよう動作する
(a)容器のセキュリティ検査のためのシステム100。

(2)引用文献2について
(ア)引用文献2の記載
上記引用文献2には、図面とともに次の記載がある。

「3 FASTER R-CNN
Our object detection system, called Faster R-CNN, is composed of two modules. The first module is a deep fully convolutional network that proposes regions, and the second module is the Fast R-CNN detector [2] that uses the proposed regions. The entire system is a single, unified network for object detection (Figure 2). Using the recently popular terminology of neural networks with ‘attention’ [31] mechanisms, the RPN module tells the Fast R-CNN module where to look. In Section 3.1 we introduce the designs and properties of the network for region proposal. In Section 3.2 we develop algorithms for training both modules with features shared.」(3頁左欄27行?右欄8行)
(仮訳:3 高速R-CNN
我々の物体検出システムは、高速R-CNNというものであって、2つのモジュールで構成される。第1のモジュールは、複数の領域(regions)を提案する深い完全な畳み込み回路網であり、第2のモジュールは、提案された複数の領域(regions)を用いる高速R-CNN検出器である。全体のシステムは物体検出のための単一の統合された回路網である(図2)。最近評価されている注目機構を有する神経回路網の技術を用いて、RPNモジュールは高速R-CNNモジュールに調べる場所を伝える。3.1節では、領域提案のための回路網の設計と特性を紹介する。3.2節では、特徴を共有する両モジュールの学習アルゴリズムを開発する。)

「3.1 Region Proposal Networks
A Region Proposal Network (RPN) takes an image (of any size) as input and outputs a set of rectangular object proposals, each with an objectness score.^(3) We model this process with a fully convolutional network [7], which we describe in this section. Because our ultimate goal is to share computation with a Fast R-CNN object detection network [2], we assume that both nets share a common set of convolutional layers.」(3頁右欄9?17行)
(仮訳:3.1 領域提案回路網
領域提案回路網(RPN)は、入力として(任意のサイズの)画像を取得し、長方形の物体の提案の組を、それぞれに物体としてのスコアを伴って出力する。我々は、この処理のモデルを、本節で示す完全な畳み込み回路網で作る。我々の最終目的は高速R-CNN物体検出回路網と演算を共有することなので、両回路網が畳み込み層の共通の組を共有するものを前提とする。)

「3.2 Sharing Features for RPN and Fast R-CNN
Thus far we have described how to train a network for region proposal generation, without considering the region-based object detection CNN that will utilize these proposals. For the detection network, we adopt Fast R-CNN [2]. Next we describe algorithms that learn a unified network composed of RPN and Fast R-CNN with shared convolutional layers (Figure 2).
Both RPN and Fast R-CNN, trained independently, will modify their convolutional layers in different ways. We therefore need to develop a technique that allows for sharing convolutional layers between the two networks, rather than learning two separate networks.」(5頁右欄44行?6頁左欄2行)
(仮訳:3.2 RPNと高速R-CNNの特徴共有
これまで、我々は、これらの提案を使用する領域ベースの物体検出CNNを考慮することなく、領域提案生成のための回路網を訓練する方法を示した。我々は、検出回路網に高速R-CNNを採用する。次に、我々は、畳み込み層を共有するRPNと高速R-CNNで構成される統合回路網(図2)を学習するアルゴリズムを示す。
双方が独立して訓練されるRPNと高速R-CNNは、これらの畳み込み層を異なる方法で更新する。したがって、我々は、2つの分離した回路網を学習するのではなく、2つの回路網の間で畳み込み層の共有を許容する方法を開発する必要がある。)

「4-Step Alternating Training. In this paper, we adopt a pragmatic 4-step training algorithm to learn shared features via alternating optimization. In the first step, we train the RPN as described in Section 3.1.3. This network is initialized with an ImageNet-pre-trained model and fine-tuned end-to-end for the region proposal task. In the second step, we train a separate detection network by Fast R-CNN using the proposals generated by the step-1 RPN. This detection network is also initialized by the ImageNet-pre-trained model. At this point the two networks do not share convolutional layers. In the third step, we use the detector network to initialize RPN training, but we fix the shared convolutional layers and only fine-tune the layers unique to RPN. Now the two networks share convolutional layers. Finally, keeping the shared convolutional layers fixed, we fine-tune the unique layers of Fast R-CNN. As such, both networks share the same convolutional layers and form a unified network.」(6頁左欄40行?右欄7行)
(仮訳:4ステップ交替訓練
本稿では、我々は、共有された特徴を交互に行う最適化により学習する実用的な4ステップ訓練アルゴリズムを採用する。第1ステップでは、RPNを3.1.3.節に示したように訓練する。この回路網は、ImageNet事前訓練モデルで初期化され、及び領域提案タスクのためにエンドツーエンドで微調整される。第2ステップでは、第1ステップのRPNにより生成された提案を用いて高速R-CNNによる分離した検出回路網を訓練する。この検出回路網も、ImageNet事前訓練モデルにより初期化される。この段階では、2つの回路網は畳み込み層を共有していない。第3ステップでは、検出回路網を用いてRPNの訓練を初期化するが、共有された畳み込み層を固定し、RPNに特有の層の微調整のみを行う。ここで、2つの回路網は畳み込み層を共有する。最後に、共有された畳み込み層を固定したまま、高速R-CNNの特有の層の微調整を行う。このように、両回路網は同じ畳み込み層を共有し、統合した回路網を形成する。)

(イ)引用文献2に記載された技術
上記(ア)の記載から、引用文献2には、次の技術(以下、「文献2技術」という。)が記載されていると認められる。

(文献2技術)
第1のモジュールは、複数の領域(regions)を提案する深い完全な畳み込み回路網であり、第2のモジュールは、提案された複数の領域(regions)を用いる高速R-CNN検出器である、2つのモジュールで構成される物体検出システムであって、
注目機構を有する神経回路網の技術を用いて、RPNモジュールは高速R-CNNモジュールに調べる場所を伝え、
領域提案回路網(RPN)は、入力として(任意のサイズの)画像を取得し、長方形の物体の提案の組を、それぞれに物体としてのスコアを伴って出力するものであり、
畳み込み層を共有するRPNと高速R-CNNで構成される統合回路網を学習するアルゴリズムは、
第1ステップでは、RPNを訓練し、
第2ステップでは、第1ステップのRPNにより生成された提案を用いて高速R-CNNによる分離した検出回路網を訓練し、
この段階では、2つの回路網は畳み込み層を共有しておらず、
第3ステップでは、検出回路網を用いてRPNの訓練を初期化するが、共有された畳み込み層を固定し、RPNに特有の層の微調整のみを行い、
ここで、2つの回路網は畳み込み層を共有し、
最後に、共有された畳み込み層を固定したまま、高速R-CNNの特有の層の微調整を行い、
このように、両回路網は同じ畳み込み層を共有し、統合した回路網を形成する
という4ステップ訓練アルゴリズムである技術。

4 対比
本願発明の構成A?構成Eと引用発明の構成a?構成lとを対比する。

ア 構成Aについて
構成eの、X線装置において容器104を透過放射線にさらして生成される「容器104の内容物の画像を伝える画像データ」は、構成Aの「透過画像」に相当する。
そして、「容器」とは、例えば荷物であるとの構成bに基づけば、構成eの画像生成装置102は、X線装置であって、荷物を透過放射線にさらして荷物の内容物の画像を伝える画像データを生成するものであるから、構成aの画像生成装置102を備えた容器のセキュリティ検査のためのシステム100は、構成Aの「荷物に対してX線検査を行い、透過画像を取得するX線検査システム」に相当する。

イ 構成Bについて
構成iの「画像生成装置102からの容器104の内容物の画像を伝える画像データ」は、構成eの「画像生成装置102」において生成される「容器104の内容物の画像を伝える画像データ」に対応するものであるから、構成Bの「前記透過画像」に相当する。
また、構成c及び構成dによれば、引用発明は、脅威物体である銃の存在を検出するものであるから、構成lの神経回路網の訓練に検出対象である銃のサンプル画像が用いられることは当然である。よって、構成lの神経回路網の訓練に用いられる「複数の画像」は、構成Bの「銃器サンプルの透過画像」に相当するといえる。
そして、情報処理の際に使用されるデータをメモリに格納しておくことは、情報処理一般において通常用いられている手段であるから、構成iの「自動脅威検出処理部106の処理ユニット」において受信された「画像生成装置102からの容器104の内容物の画像を伝える画像データ」(上記のとおり構成Bの「前記透過画像」に相当する。)を、当該処理ユニットでの処理の際に格納しておくため、及び、構成lの神経回路網の訓練に用いられる「複数の画像」(上記のとおり構成Bの「銃器サンプルの透過画像」に相当する。)を当該訓練の処理の際に格納しておくためのメモリは、引用発明に当然備わっているものといえる。
よって、引用発明は、構成Bの「前記透過画像、および、銃器サンプルの透過画像を格納するメモリ」に相当する構成を有する点で、本願発明と一致する。

ウ 構成Cについて
構成lの「関心領域検出部804」は、構成hの自動脅威検出処理部106の処理ユニットに含まれる関心領域検出部804に対応するものであるから、構成lの「入力されたシーン画像」とは、構成iの自動脅威検出処理部106の処理ユニットが受信する「画像生成装置102からの容器104の内容物の画像を伝える画像データ」(上記のとおり構成Bの「前記透過画像」に相当する。)のことであると認められる。
また、構成lの「関心領域」は、画像比較部802において脅威の表現を含むものとして分類される可能性があるものであり、構成cの脅威物体の存在を検出する領域の候補といえるから、構成Cの「候補領域」に相当する。
以上から、構成lの「関心領域検出部804」における「入力されたシーン画像を処理して1つ以上の関心領域を特定し」は、構成Cの「前記透過画像における複数の候補領域を特定し」に相当するといえる。

また、構成dによれば、構成cの処理システム120は、銃の存在を検出するものであり、構成lの「画像比較部802」は、構成cの処理システム120における構成fの処理ユニット250が備える構成gの自動脅威検出処理部106に含まれる構成hの画像比較部802に対応するものであるから、構成lの「画像比較部802」において、「予め複数の画像と輪郭を用いて訓練され、関心領域検出部804によって特定される得られた関心領域を、どれかに脅威の表現を含むものとして、脅威の表現を含まないものとして、又は、不明として分類するよう動作する」「神経回路網」は、構成Cの「前記複数の候補領域を分類することによって、前記透過画像に銃器が含まれているか否かを特定する」「訓練された銃器検出神経回路網」に相当する。

そして、構成lの「関心領域検出部804」及び「画像比較部802」がプロセッサで構成されることは技術常識であるから、引用発明は、「前記透過画像における複数の候補領域を特定し、且つ」「訓練された銃器検出神経回路網に基づいて、」「前記複数の候補領域を分類することによって、前記透過画像に銃器が含まれているか否かを特定するように構成されたプロセッサと、を備え」に相当する構成を備える点で、構成Cと共通する。

しかしながら、「前記透過画像における複数の候補領域を特定」することが、本願発明では「訓練された銃器検出神経回路網に基づいて」いるのに対し、引用発明では基づく処理構成が特定されていない点で、両者は相違する。

エ 構成Dについて
上記イのとおり、構成lの神経回路網の訓練に用いられる「複数の画像」は、構成Bの「銃器サンプルの透過画像」に相当し、また、構成lの「神経回路網」が構成Cの「銃器検出神経回路網」に相当することは、上記ウの対比から明らかであるから、構成lの「神経回路網は、予め複数の画像と輪郭を用いて訓練され」との構成を備えた引用発明は、「サンプルの透過画像に基づいて」「ネットワークを訓練して、銃器検出神経回路網を取得する操作」「によって訓練されて、前記銃器検出神経回路網を取得するようにさらに配置されている」に相当する構成を備える点で、構成Dと共通する。

しかしながら、銃器検出神経回路網の訓練について、本願発明では「RPNとCNNの畳み込み層を統合して初期検出ネットワークを取得する操作」を行い、当該「初期検出ネットワーク」を訓練するのに対し、引用発明では当該特定がなされていない点で、両者は相違する。

オ 構成Eについて
構成aの「容器のセキュリティ検査のためのシステム100」は、「検査機器」である点で、構成Eと一致する。

カ 一致点、相違点について
以上のことから、本願発明と引用発明との一致点及び相違点は、次のとおりである。

(一致点)
(A)荷物に対してX線検査を行い、透過画像を取得するX線検査システムと、
(B)前記透過画像、および、銃器サンプルの透過画像を格納するメモリと、
(C’)前記透過画像における複数の候補領域を特定し、且つ、訓練された銃器検出神経回路網に基づいて、前記複数の候補領域を分類することによって、前記透過画像に銃器が含まれているか否かを特定するように構成されたプロセッサと、を備え、
(D’)前記プロセッサは、サンプルの透過画像に基づいてネットワークを訓練して、銃器検出神経回路網を取得する操作によって訓練されて、前記銃器検出神経回路網を取得するようにさらに配置されている、
(E)検査機器。

(相違点1)
「前記透過画像における複数の候補領域を特定」することが、本願発明では「訓練された銃器検出神経回路網に基づいて」いるのに対し、引用発明では基づく処理構成が特定されていない点。

(相違点2)
銃器検出神経回路網の訓練について、本願発明では「RPNとCNNの畳み込み層を統合して初期検出ネットワークを取得する操作」を行い、当該「初期検出ネットワーク」を訓練するのに対し、引用発明では当該特定がなされていない点。

5 判断
上記相違点について、以下、検討する。

文献2技術は、3(2)(イ)に示したとおりであり、以下に再掲する。

(文献2技術)
第1のモジュールは、複数の領域(regions)を提案する深い完全な畳み込み回路網であり、第2のモジュールは、提案された複数の領域(regions)を用いる高速R-CNN検出器である、2つのモジュールで構成される物体検出システムであって、
注目機構を有する神経回路網の技術を用いて、RPNモジュールは高速R-CNNモジュールに調べる場所を伝え、
領域提案回路網(RPN)は、入力として(任意のサイズの)画像を取得し、長方形の物体の提案の組を、それぞれに物体としてのスコアを伴って出力するものであり、
畳み込み層を共有するRPNと高速R-CNNで構成される統合回路網を学習するアルゴリズムは、
第1ステップでは、RPNを訓練し、
第2ステップでは、第1ステップのRPNにより生成された提案を用いて高速R-CNNによる分離した検出回路網を訓練し、
この段階では、2つの回路網は畳み込み層を共有しておらず、
第3ステップでは、検出回路網を用いてRPNの訓練を初期化するが、共有された畳み込み層を固定し、RPNに特有の層の微調整のみを行い、
ここで、2つの回路網は畳み込み層を共有し、
最後に、共有された畳み込み層を固定したまま、高速R-CNNの特有の層の微調整を行い、
このように、両回路網は同じ畳み込み層を共有し、統合した回路網を形成する
という4ステップ訓練アルゴリズムである技術。

ここで、文献2技術において、第1のモジュールである「複数の領域(regions)を提案する深い完全な畳み込み回路網」が、注目機構を有する神経回路網の技術を用いて、高速R-CNNモジュールに調べる場所を伝える「RPNモジュール」のことであることは、前者と後者の機能が共通していることから明らかである。

そして、引用発明と文献2技術とは、画像における物体検出という共通の技術分野に属し、かつ、当該物体の検出を、画像から特定された物体に関する複数の領域に基づき行うという機能も共通するから、引用発明における、画像データから関心領域を特定し、当該関心領域について銃の存在を検出する構成として、複数の領域を提案するRPN、及び、提案された複数の領域を用いて物体を検出する高速R-CNNで構成される文献2技術を適用することは、当業者であれば容易に着想しうることである。

ここで、前記「RPN」は4ステップ訓練アルゴリズムで訓練されたものであるから、銃の存在を検出する引用発明に適用された文献2技術における「複数の領域を提案するRPN」は、構成Cの「訓練された銃器検出神経回路網」に相当する。
したがって、引用発明に文献2技術を適用して、前記透過画像における複数の候補領域の特定を、訓練された銃器検出神経回路網に基づいて行うように構成すること、すなわち上記相違点1に係る構成を備えることは、当業者が容易になし得たことである。

また、引用発明に適用された文献2技術の神経回路網は、第3ステップでRPNと高速R-CNNは畳み込み層を共有してRPNの調整を行い、最後に、共有された畳み込み層を固定したまま高速R-CNNの調整を行うという学習を行うものである。
ここで、文献2技術の「RPNと高速R-CNNは畳み込み層を共有」することは、構成Dの「RPNとCNNの畳み込み層を統合」することに相当する。そして、当該畳み込み層を共有したネットワークは、調整を行う前のものであるから、構成Dの「初期検出ネットワーク」に相当するものといえ、文献2技術は、「RPNと高速R-CNNは畳み込み層を共有」することで、「初期検出ネットワークを取得する」に相当する操作を行っているものといえる。さらに、文献2技術のRPN及び高速R-CNNの調整を行うことは、構成Dの「初期検出ネットワーク」を訓練することに相当する。
したがって、引用発明に文献2技術を適用して、RPNとCNNの畳み込み層を統合して初期検出ネットワークを取得する操作を行い、当該初期検出ネットワークを訓練すること、すなわち上記相違点2に係る構成を備えることは、当業者が容易になし得たことである。

そして、本願発明の奏する作用効果は、引用発明及び文献2技術の奏する作用効果から予測される範囲内のものにすぎず、格別顕著なものということはできない。

よって、本願発明は、引用発明及び文献2技術に基づいて、当業者が容易に発明をすることができたものである。


第4 むすび
以上のとおり、本願の請求項6に係る発明は、当業者が容易に発明をすることができたものであり、特許法第29条第2項の規定により特許を受けることができないから、他の請求項に係る発明について検討するまでもなく、本願は拒絶されるべきものである。

よって、結論のとおり審決する。

 
別掲
 
審理終結日 2020-10-13 
結審通知日 2020-10-20 
審決日 2020-11-06 
出願番号 特願2018-3565(P2018-3565)
審決分類 P 1 8・ 121- Z (G06T)
P 1 8・ 561- Z (G06T)
最終処分 不成立  
前審関与審査官 真木 健彦  
特許庁審判長 五十嵐 努
特許庁審判官 樫本 剛
小池 正彦
発明の名称 検査機器および荷物における銃器を検出する方法  
代理人 岡部 博史  
代理人 山田 卓二  
代理人 山田 卓二  
代理人 岡部 博史  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ