• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 取り消して特許、登録 G01C
管理番号 1376111
審判番号 不服2020-16960  
総通号数 261 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2021-09-24 
種別 拒絶査定不服の審決 
審判請求日 2020-12-09 
確定日 2021-08-04 
事件の表示 特願2014-233868号「水底観測システム」拒絶査定不服審判事件〔平成28年5月30日出願公開、特開2016-99140号、請求項の数(3)〕について、次のとおり審決する。 
結論 原査定を取り消す。 本願の発明は、特許すべきものとする。 
理由 第1 手続の経緯
本願は、平成26年11月18日にした特許出願であって、平成30年8月22日付けの拒絶理由通知に対し、同年12月28日に意見書及び手続補正書が提出され、令和元年5月30日付けの拒絶理由通知(最後)に対し、同年8月9日に意見書及び手続補正書が提出され、令和2年4月27日付けの拒絶理由通知に対し、同年7月9日に意見書及び手続補正書が提出されたところ、同年10月29日付けで拒絶査定(以下「原査定」という。)がされた(原査定の謄本の送達日:同年11月11日)。
これに対して、同年12月9日に拒絶査定不服審判の請求がされたものである。

第2 本願発明
本願の請求項1?3に係る発明(以下、請求項の番号に従って「本願発明1」等という。)は、令和2年7月9日に提出された手続補正書により補正された特許請求の範囲の請求項1?3に記載された次の事項により特定されるとおりのものである。
「 【請求項1】
水中移動可能な潜水艇と、
前記潜水艇に搭載された可視光を連続的に検出する複数の水中カメラと、
レーザビームを放出し、海底面により反射されたレーザビームをセンサによって検出して、水底までの距離を前記複数の水中カメラと同期して連続的に計測可能なレーザ測距装置と、
前記複数の水中カメラおよび前記レーザ測距装置の姿勢を検出する姿勢センサと、
前記複数の水中カメラの撮影位置および前記レーザ測距装置の計測位置を検出するGNSSセンサと、
前記複数の水中カメラによって撮影された撮影画像データと前記姿勢センサによって検出された前記複数の水中カメラの姿勢データおよび前記GNSSセンサによって検出された前記複数の水中カメラの撮影位置データとを同期記録する収録手段と、
前記収録手段の記録画像を処理する画像処理手段を備え、
前記画像処理手段が、前記水中カメラによって撮影された複数の撮影画像の重複範囲について、それぞれの姿勢データおよび撮影位置データに基づく画像処理によって地理座標を付与された水深データと、前記レーザ測距装置によって計測された水底までの距離を示す距離データと前記姿勢センサによって検出された前記レーザ測距装置の姿勢データとに基づいて作成された補完用データを用いて補完して、DSMデータを作成可能に構成され、
前記レーザ測距装置が、レーザビームを拡散させて、n×n本のレーザビームに分割し、n×nのマトリックス状に海底面に照射する拡散部材を備えていることを特徴とする水底観測システム。
【請求項2】
前記複数の水中カメラがシャッター制御可能なビデオカメラにより構成され、前記複数のビデオカメラが左右に配置されていることを特徴とする請求項1に記載の水底観測システム。
【請求項3】
前記姿勢センサと前記GNSSセンサが、GNSS/ジャイロ装置によって構成されたことを特徴とする請求項1または2に記載の水底観測システム。」

第3 原査定の理由の概要
原査定の拒絶の理由の概要は、次のとおりである。

本願発明1?3は、下記の引用文献1?4に記載された発明に基づいて、その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから、特許法29条2項の規定により特許を受けることができない。



引用文献1:小熊宏之他、ボート搭載型の水中カメラを用いた浅海底観測システムの開発、国立研究開発法人国立環境研究所、2014年2月6日筑波研究学園都市記者会、環境省記者クラブ同時配布
引用文献2:特開2009-47497号公報(周知技術を示す文献)
引用文献3:国際公開2012/137434号公報
(周知技術を示す文献)
引用文献4:米国特許出願公開2012/0050715号明細書
(周知技術を示す文献)

第4 引用文献、引用発明等
1 引用文献1
ア 引用文献1の記載事項
上記引用文献1には次の記載がある(下線は当審が付したものである。以下同様。)。
(ア)「国立環境研究所は、朝日航洋株式会社(本社:東京都江東区新木場、代表取締役社長:立野良太郎)と共同で、サンゴ礁や藻場などが分布する浅海域を効率的に調査するシステム「浅海底観測システム」(特許出願済)を開発しました。
本システムは、ハイビジョン水中ビデオカメラとGPS及び姿勢センサを小型フロートボートに搭載した観測システムと、新たに開発した画像解析手法によって構成されています。潜水による調査をせずに浅海域の海底地形やサンゴなどの立体的形状の計測と、海底の観測対象に地理座標を付与することを可能とした世界的にも珍しいシステムです。
これにより、浅海域を対象としたモニタリングなど反復調査が飛躍的に進展するものと期待されます。」
(イ)「1.経緯
近年、サンゴの白化や死滅、藻場の衰退など浅海域の生態系の変化が観察されており、同域を反復して詳細に観測し、変化を定量的に明らかにして原因を究明する必要性が高まっています。従来、浅海域海底の詳細な観測は、スノーケリングや潜水調査により行われ、広域を対象とした調査には限界がありました。また、水中ではGPSなどの衛星測位システムが利用できないため観測対象の精確な測位が困難であり、これが反復調査の妨げとなっていました。よって、サンゴ礁や藻場など浅海域の生態系においては、海底地形やサンゴ・海藻の三次元形状と現存量の把握や、生息位置の特定および経年的な変化に関する情報が乏しいのが現状です。
以上から、(1)群体の判別を可能とする高解像度画像の撮影、(2)ステレオ解析による海底地形や生物の三次元情報と現存量の取得、(3)生物の生息位置を特定するための地理座標の付与、(4)撮影画像を接合することによる詳細かつ三次元的な浅海底の広域画像の作成などの、反復して調査を行い変化を定量的に明らかにできる観測システムの開発が必要とされていました。
※本研究は、環境省地球環境保全試験研究費(地球一括計上)課題「船舶観測による広域サンゴモニタリングに関する研究」により実施されました。」
(ウ)「2.システムの概要と特徴
本システムは、小型フロートボートの左右に配置した水中ビデオカメラで海底の撮影を行います(図1?3)。フルハイビジョン(1920×1080画素)のビデオカメラを用いることで、水深5m程度での観測時には1cmよりも細かい解像度で撮影が可能です。また、同一の観測対象を左右のビデオカメラでステレオ撮影することにより、対象の三次元形状を数値化し、三次元モデル(DSM:Digital Surface Model)を作成することが可能となります(図4)。
次に、ビデオカメラの撮影と同期してGPSによる位置座標と姿勢センサ(ジャイロ)によるフロートボートの傾き情報を収録します。DSMに撮影画像を投影し三次元化(図5)すると共に、同時収録したGPS及び姿勢センサの情報に基づき、三次元化した画像に緯度・経度を付与します。
小型フロートボートにシステムを実装したことにより、小型漁船でも座礁する危険のある極めて浅い海域でも観測が可能です。」
(エ)「3.今後の発展
これまで浅海底の反復調査では、GPSが使えないことから、調査対象を特定するために目印などを使う必要がありましたが、本システムによる撮影画像は全画素に位置情報を持つことから、精確な反復調査が容易になります。また、高さ情報も同時に得られることから海底地形やサンゴ・海藻等の三次元形状と現存量の経年変化の抽出も容易となります。
今後、地球温暖化で注目されるサンゴ礁の白化現象や再生状況のモニタリング、藻場をはじめとした浅海域の漁場評価、河川・湖沼の水底調査、更には水中構造物の点検等への活用が期待されます。
さらに、ナビゲーションシステムの搭載などにより自動航行と観測を行うシステムへと発展させ、手軽な調査やモニタリングを可能とすることが期待されます。」
「【図1】

図1 浅海底観測システムの概要」

「【図2】

図2 小型フロートボートに装着されたカメラの様子」

「【図3】

図3 浅海域における観測の様子。ボートは人が乗船し操縦することもラジコンでの遠隔操作も可能。」

「【図4】

図4 ステレオ撮影から算出されたサンゴの三次元モデル(DSM:Digital Surface Model)」

「【図5】

図5 フルハイビジョンの撮影画像を図4のDSMに投影し三次元化した画像」

引用発明の認定
上記記載内容及び上記図示内容を総合すると、引用文献1には、以下の発明(以下「引用発明」という。)が記載されていると認められる。
[引用発明]
「ハイビジョン水中ビデオカメラとGPS及び姿勢センサを小型フロートボートに搭載し、潜水による調査をせずに浅海域の海底地形やサンゴなどの立体的形状の計測と、海底の観測対象に地理座標を付与することを可能とした浅海底観測システムであって、(上記(ア))
小型フロートボートの左右に配置した水中ビデオカメラで海底の撮影を行い、フルハイビジョン(1920×1080画素)のビデオカメラを用いることで、水深5m程度での観測時には1cmよりも細かい解像度で撮影が可能なものであって、同一の観測対象を左右のビデオカメラでステレオ撮影することにより、対象の三次元形状を数値化し、三次元モデル(DSM:Digital Surface Model)を作成することが可能なものであり、(上記(ウ))
ビデオカメラの撮影と同期してGPSによる位置座標と姿勢センサ(ジャイロ)によるフロートボートの傾き情報を収録し、DSMに撮影画像を投影し三次元化すると共に、同時収録したGPS及び姿勢センサの情報に基づき、三次元化した画像に緯度・経度を付与し、(上記(ウ))
高さ情報も同時に得られることから海底地形やサンゴ・海藻等の三次元形状と現存量の経年変化の抽出も容易となり、(上記(エ))
小型漁船でも座礁する危険のある極めて浅い海域でも観測が可能なシステム。(上記(ウ))」

2 引用文献2
引用文献2には次の記載がある。
「【0015】
以下、図面を参照して本発明の実施形態について説明する。図1は本発明の第1の実施形態による立体撮像装置の外観構成を示す前面側斜視図、図2はその背面側斜視図である。図1,2に示すように、第1の実施形態による立体撮像装置1は、その前面側に、第1から第3の撮像部2A,2B,2Cを備える。第1の撮像部2Aは立体撮像装置1の前面の略中央位置に配設されており、測距光を被写体に照射することに基づいて第1の距離画像D1を取得するための撮像を行うものである。また、第1の撮像部2Aの上下の位置には、被写体に向けて赤外光からなる測距光を照射するためのLED等の測距光照射部3が設けられている。
【0016】
第2および第3の撮像部2B,2Cは、第1の撮像部2Aの左右の位置に配設されており、ステレオマッチングを行って第2の距離画像D2を生成するために必要な基準画像G1および参照画像G2を取得するための撮像を行うものである。」
「【0028】
図6は第1の実施形態による立体撮像装置1の内部構成を示す概略ブロック図である。立体撮像装置1は、撮像制御部22、画像処理部23、圧縮/伸長処理部24、フレームメモリ25、メディア制御部26、内部メモリ27、および表示制御部28を備える。」
「【0037】
第1の距離画像生成部30は、撮像部2Aが取得した距離画像用のデータを用いて被写体上の各点の立体撮像装置1からの距離を算出して距離画像を生成する。具体的には、被写体により反射された測距光の反射光を撮像することにより得られた距離画像用のデータから、測距光照射部3の発光光と反射光との位相差を算出し、この位相差に基づいて撮像部2Aから被写体までの距離を算出する。そして算出された距離をCCD13Aの各画素と対応づけて第1の距離画像D1を生成する。なお、第1の距離画像D1の各画素の画素値が撮像部2Aから被写体までの距離を表すものとなる。
【0038】
ステレオマッチング部31は、図7に示すように、基準画像G1上のある点Paに写像される実空間上の点は、点P1,P2,P3というように点O2からの視線上に複数存在するため、実空間上の点P1,P2,P3等の写像である直線(エピポーラ線)上に、点Paに対応する参照画像R上の点Pa′が存在するということに基づいて、基準画像G1と参照画像G2との対応点を参照画像G2上において探索する。なお、図7において点O2は基準カメラとなる撮像部2Bの視点、点O3は参照カメラとなる撮像部2Cの視点である。ここで、視点とはCCDの中心である。」
「【0049】
次いで、第1の実施形態において行われる処理について説明する。図10は第1の実施形態において行われる処理を示すフローチャートである。なお、レリーズボタン4の半押し操作に基づく撮像制御部22におけるAF処理およびAE処理はすでに行われているものとし、ここではレリーズボタン4が全押しされて撮像の指示が行われた以降の処理について説明する。
【0050】
レリーズボタン4が全押しされることによりCPU33が処理を開始し、撮像部2AがCPU33からの指示により測距光照射部3から測距光を被写体に向けて照射し(ステップST1)、さらに測距光の被写体による反射光を撮像して、距離画像用のデータを取得する(ステップST2)。そして、第1の距離画像生成部30が距離画像用のデータから第1の距離画像D1を生成する(ステップST3)。
【0051】
一方、撮像部2B,2CがCPU33からの指示により被写体を撮像し、さらに取得した画像データに画像処理部23が画像処理を施して基準画像G1および参照画像G2を取得する(ステップST4)。なお、ステップST1?3およびステップST4の処理は並列に行ってもよく順次行ってもよい。本実施形態においては並列に行うものとする。
【0052】
次いで、ステレオマッチング部31が、距離画像D1上においてあらかじめ定められた距離Laを基準とした所定の距離範囲L0?L1内にある領域を、対応点の探索範囲に設定し(ステップST5)、設定した探索範囲において対応点を探索する(ステップST6)。なお、ステップST5の処理は、距離画像D1が生成されるまで行うことができないため、基準画像G1および参照画像G2を取得した時点において距離画像D1が生成されていない場合には、距離画像D1の生成が完了するまでステップST5の処理を待つ必要がある。
【0053】
そして、第2の距離画像生成部32が、探索した対応点に基づいて第2の距離画像D2を生成する(ステップST7)。さらに、距離画像D2上において対応点が見つからなかった画素があるか否かを判定し(ステップST8)、ステップST8が肯定されると、距離画像D2における対応点が見つからなかった画素の画素値に対して、距離画像D1における対応する画素の画素値を適用して第3の距離画像D3を生成する(ステップST9)。ステップST8が否定されるとステップST10に進む。
【0054】
そして、CPU33からの指示によりメディア制御部26が基準画像G1、参照画像G2および距離画像D2またはD3を記録メディア29に記録し(画像記録:ステップST10)、処理を終了する。
【0055】
このように、第1の実施形態においては、第1の距離画像D1上におけるあらかじめ定められた距離Laを基準とした所定の距離範囲L0?L1内にある領域を対応点の探索範囲に設定して、対応点を探索するようにしたものである。このように、第1の距離画像D1を対応点の探索範囲の設定に使用しているため、撮像しようとする被写体の大きさに依存することなく、基準画像G1および参照画像G2におけるあらかじめ定められた距離範囲にある領域のみを対応点の探索範囲に設定することができる。したがって、対応点の探索範囲を確実に狭くすることができ、その結果、対応点探索のための演算時間を短縮することができる。また、探索範囲は基準画像G1および参照画像G2上の画素単位で設定することができるため、対応点の探索を精度良く行うことができる。
【0056】
また、第2の距離画像D2において対応点が見つからなかった画素については、第1の距離画像D1における対応する画素の画素値を適用して第3の距離画像D3を生成するようにしたため、精度良く距離画像を生成することができる。」
「【図1】



「【図6】



「【図10】



3 引用文献3
引用文献3には次の記載がある。
「[0028] 図1は、本発明の実施の形態に係る立体撮像装置100の主要構成を示すブロック図である。同図に記載された立体撮像装置100は、第1の撮像カメラC1と、第2の撮像カメラC2と、光源1と、撮像制御部2と、ステレオマッチング部3と、変調信号発生部4と、距離測定精度判定部5と、画像出力切替制御部6とを備える。
[0029] 立体撮像装置100は、その前面部に、被写体OBJに向けて赤外光L1を照射する光源1と、前記被写体OBJからの反射光R1を受光して被写体OBJを撮像する第1の撮像カメラC1と、被写体OBJからの反射光R2を受光して被写体OBJを撮像する第2の撮像カメラC2とが配置されている。ここで、反射光R1およびR2は、赤外光L1が被写体OBJにあたって反射した光のほかに、例えば、太陽光などの環境光L0が被写体OBJにあたって反射した光を含んでいてもよい。
[0030] 第1の撮像カメラC1および第2の撮像カメラC2は、それぞれ、ステレオマッチングにより被写体OBJの立体形状を表す第1の距離画像を生成するための基準画像および参照画像を取得する撮像部であり、所定間隔をあけて平行に配置されている。
[0031] 第1の撮像カメラC1による撮像および第2の撮像カメラC2による撮像は、撮像制御部2から送られる同期信号Sg1およびSg2によりシャッタータイミングの同期が取られている。
[0032] 第1の撮像カメラC1に入射した反射光R1は、第1の撮像カメラC1を通して画像信号G1に変換され、その画像信号G1はステレオマッチング部3に送られるとともに、画像出力切替制御部6にも送られる。一方、第2の撮像カメラC2に入射した反射光R2は、第2の撮像カメラC2を通して画像信号G2に変換され、その画像信号G2はステレオマッチング部3に送られるとともに、画像出力切替制御部6にも送られる。ここで、画像信号G1および画像信号G2は、それぞれ、ステレオマッチングの基準側および参照側の画像信号に相当する。
[0033] ステレオマッチング部3は、画像信号G1と画像信号G2との間における対応画素を探索する対応画素探索部であり、また、当該対応画素に基づいて被写体画像部分のずれ量を三角測量の原理を用いて計測することで第1の距離画像信号D1を生成する第1の距離画像生成部でもある。生成された第1の距離画像信号D1は距離測定精度判定部5に送られる。
[0034] 変調信号発生部4は、光源1に変調信号Sg3を与えるとともに第1の撮像カメラC1に変調信号Sg3と同期した同期信号Sg4を与える同期信号供給部でもある。
[0035] さらに、第1の撮像カメラC1は、変調信号Sg3により光強度が変調された赤外光L1が被写体OBJにあたって反射した光を含む反射光R1を、同期信号Sg1の情報をもとに所定のシャッタータイミングおよびシャッター時間において受光する。第1の撮像カメラC1は、照射した光が被写体から戻ってくるまでの時間を画素毎に計測することにより、被写体OBJの反射点からの距離情報を含む第2の距離画像信号D2を生成する機能を備えたTOF型のカメラでもある。つまり、本実施の形態における第1の撮像カメラC1は、第2の距離画像生成部でもある。生成された第2の距離画像信号D2は距離測定精度判定部5に送られる。
[0036] 距離測定精度判定部5は、第1の距離画像信号D1および第2の距離画像信号D2のそれぞれのデータを、対応する画素間で比較を行って、距離測定の精度を判定する。その判定結果をもとに、第1の距離画像信号D1および第2の距離画像信号D2から必要に応じてデータを再構成した第3の距離画像信号D3を生成する。望ましくは、距離測定精度判定部5は、第1の距離画像信号D1の生成時にステレオマッチング部3において対応画素が探索できなかった画素があった場合に、該当の画素データを第2の距離画像信号D2における画素データで置換して第3の距離画像信号D3を生成する機能を有している。生成された第3の距離画像信号D3は画像出力切替制御部6に送られる。
[0037] 画像出力切替制御部6は、画像信号G1と画像信号G2と第3の距離画像信号D3をディスプレイ7上に選択的にあるいは同時に出力するための切替制御を行う。
[0038] 上記構成によれば、ステレオマッチング方式による第1の距離画像を生成するための基準側撮像部である第1の撮像カメラC1が、TOF方式による第2の距離画像をも生成する。よって、第1の距離画像と第2の距離画像との間で、視線が完全に一致する。そのため、ステレオマッチング方式により第1の距離画像を生成する際に、対応画素探索が出来なかった画素があった場合に、TOF方式による第2の距離画像の対応する画素のデータで置き換えても視線のズレが生じることはない。ゆえに、距離画像データの補正が正しく機能し、距離画像データの高精度化が実現できる。
[0039] また、上記構成では、ステレオカメラ方式の基準側である第1の撮像部がTOF方式の距離画像生成をも兼ねていることから、2眼式の構成となりセット構成の簡素化が実現できる。
[0040] また、距離測定精度判定部5が、第1の距離画像データおよび第2の距離画像データを比較し距離測定精度を判定することで、距離測定精度の低いデータを距離測定精度の高いデータへと画素データごとに相互補完することが可能となる。
[0041] 具体的には、ステレオマッチング方式による第1の距離画像の画素データを、TOF方式による第2の距離画像の対応する画素のデータで置き換えても視線のズレが生じることはない。ゆえに、距離画像データの補正が正しく機能し、距離画像データの高精度化が実現できる。」
「[図1]



4 引用文献4
引用文献4には次の記載がある。日本語訳は当審が作成した。
「[0012] Various exemplary embodiments of the invention are directed to imaging devices and methods utilizing a light source. As best shown in FIG. 1, a light emitter 10 emits a beam of light 12. After exiting the light emitter 10, the beam of light 12 may be passed through a series of optical elements 14. These optical elements 14 may shape and/or direct the light 12. In an exemplary embodiment, part of the optical elements 14 split the beam of light 12 into a plurality of individual rays of light 18 which are directed onto a target area 22. The rays of light 18 strike the target area 22 and are reflected back to a receiving device 23. The receiving device 23 may be connected to a calculating device 24, which determines the time of flight for the rays of light 18 to reach the target area and return to the receiving device 23. To do so the calculating device 24 will have a timing device (not shown) such as a timing circuit, serial clock, or other device as known in the art. The calculating device 24 also receives a signal from the light emitter 10 indicating that the beam of light 12 has been emitted. By determining the time of flight and knowing the speed of light, the distance from the light emitter 10 and individual points in the target area 22 may be determined. This range calculation can be further analyzed by a processing device 25, which may be either an external system or internal to the imaging device. The processing device 25 may compile the data to form an image on a display 26, or it may be used to identify a specific object, such as in a robotic assembly line.」
(日本語訳)
[0012] 本発明の様々な例示的な実施形態は、光源を利用したイメージングデバイス及び方法に向けられている。図1に最もよく示されるように、発光部10は、光ビーム12を放射する。発光部10を出た後、光ビーム12は、一連の光学要素14を通過することができる。これらの光学要素14は、光12を形成及び/又は指向することができる。例示的な実施形態では、光学要素14の一部は、光12のビームを複数の個々の光線18に分割し、光線18はターゲット領域22上に向けられる。光線18は、ターゲット領域22を照射し、反射して受光装置23に戻される。受光装置23は、演算装置24に接続されてもよく、演算装置24は、光線18がターゲット領域に到達し、受光装置23に戻るまでの飛行時間を決定する。そうするために、当技術分野で知られているように、演算装置24は、タイミング回路、シリアルクロック、またはその他のデバイスなどのタイミング装置(図示せず)を有する。さらに、演算装置24は、光ビーム12が出射されたことを示す発光部10からの信号を受信する。飛行時間を決定し、光の速度を知ることによって、発光部10からターゲット領域22内の個々の点までの距離を決定することができる。この距離計算は、処理装置25によってさらに分析され得るものであり、処理装置25は、外部のシステム又はイメージングデバイスの内部に設けることができる。処理装置25は、ディスプレイ26上に画像を形成するためにデータをコンパイルすることができるものであるか、又はロボット組立ラインのようなものにおける特定の対象物を特定するために使用されるものであってもよい。

「[0013] An exemplary embodiment of the device is shown in greater detail in FIG. 2. In this example, the light emitter 10 is a laser 27 which emits a laser beam 28. The laser 27 may operate in a variety of power ranges and wavelengths. In an exemplary embodiment, the laser 27, or any type of light emitting device 10, operates in a wavelength safe to the human eye, for example at a wavelength of 1.5 μm. While the single laser 27 is shown, the light emitter 10 may be light sources such as multiple lasers, light emitting diodes (LEDs), laser diodes, or other similar light sources. LEDs are less powerful than a laser 27 and therefore may be used in applications where the distance to the target 22 is not great. The laser 27 may be in a variety of housings and attached to a number of different bases and platforms associated with imaging devices. These include both stationary and mobile platforms such as vehicles or automated systems.」
(日本語訳)
[0013] 装置の例示的な実施形態は図2においてより詳細に示されている。この例では、発光部10は、レーザビーム28を放射するレーザ27である。レーザ27は、さまざまな出力範囲及び波長で動作することができる。例示的な実施形態では、レーザ27又は任意のタイプの発光装置10は、人間の目に安全な波長、例えば、波長1.5μmで動作する。単一のレーザ27が示されているが、発光部10は、複数のレーザ、発光ダイオード(LED)、レーザダイオード、又は他の同様の光源のような光源であってもよい。LEDは、レーザ27よりも出力が小さく、それゆえ、対象物22までの距離が大きくない用途において使用することができる。レーザ27は、種々のハウジング内にあってもよく、イメージングデバイスに関連したさまざまな基台やプラットフォームに取り付けられている。これらは、車両又は自動化されたシステムのような固定及び移動プラットフォームを含む。

「[0014] After the laser beam 28 is emitted, it may be passed through a first optical element 30. The various examples and embodiments of optical elements described throughout this disclosure are not necessarily meant to be limiting. In LIDAR systems, a variety of optical elements such as mirrors, lenses, and telescopes can be used alone or in combination to provide various affects to an emitted beam 28 as will be understood by one of ordinary skill in the art upon viewing this disclosure. In an exemplary embodiment, the first optical element 30 is an expander lens. The expander lens may be a Galilean beam expander which utilizes a negative focal length lens and a positive lens. Additionally, the expander lens may be a Keplerian beam expander which utilizes a first positive focal length lens and a second positive focal length lens. The first optical element 30 may also be a lens, mirror, or telescope as will be dependent upon the operation and type of light emitter 10. In certain instances, the first optical element 30 may be completely omitted.」
(日本語訳)
[0014] レーザビーム28が放射された後、第1の光学要素30を通過することができる。本開示全体にわたって説明される光学要素の様々な例および実施形態は、必ずしも限定することを意味しない。この開示内容を読めば当業者には理解されるように、LIDARシステムでは、鏡、レンズ、望遠鏡のようなさまざまな光学要素が、単独で、又は放出されたビーム28に種々の影響を与えるために組み合わせて用いられる。一つの例示的な実施形態では、第1の光学素子30は、拡大レンズである。拡大レンズは負の焦点距離レンズ及び正レンズを使用したガリレオ式ビームエキスパンダであってもよい。さらに、拡大レンズは、第1の正の焦点距離のレンズ及び第2正の焦点距離のレンズを利用した、ケプラー式ビームエキスパンダであってもよい。第1の光学要素30は、発光部10の動作方式及び型に依存するであろうとしても、レンズ、ミラー、望遠鏡とすることができる。特定の例において、第1の光学要素30は完全に省略してもよい。

「[0015] Either direct from the laser emitter, or after being passed through the optional first optical element 30, the laser beam 28 enters a second optical element 32 which splits the laser beam 28 into individual rays. In an exemplary embodiment, a lens array 34 is used to perform this function. The number of individual lens elements in the array 34 may vary, so that the array 34 is either one-dimensional or two-dimensional. In an exemplary embodiment, the shape of the array is square, having 32×32 elements. The lens array 34 may have macro or micro size lens elements. Examples of suitable microlens arrays are the microlens arrays created by Suss MicroOptics, the specifications of which are incorporated herein by reference. In an exemplary embodiment, the lens array 34 will generate a uniform array of rays of light 36 so that each ray of light 36 has the same intensity or approximately the same intensity. In another exemplary embodiment, achromatic lenses may used as the elements of the lens array 34. Achromatic lenses will allow a system to distinguish colors, for example, a two color robotic vision system, in addition to providing range information.」
(日本語訳)
[0015] レーザ・エミッタから直接、あるいはオプションの第1の光学要素30を通過した後に、レーザビーム28は、第2の光学要素32に入射し、レーザビーム28は個々の光線に分離される。一つの例示的な実施形態では、レンズアレイ34がこの機能を実行するために使用される。アレイ34の個々のレンズ素子の数は変わることができ、アレイ34は、1次元状又は2次元状のいずれかである。一つの例示的な実施形態では、アレイの形状は正方形であって、32×32の要素を有する。レンズアレイ34は、マクロまたはマイクロサイズのレンズ素子を有していてもよい。適切なマイクロレンズアレイの例としては、Suss MicroOptics社により作成されたマイクロレンズのアレイを有しており、その詳細は、参照することにより、ここに援用されている。一つの例示的な実施形態では、レンズアレイ34は、光線36の均一な配列を生成するであろう。それにより、各光線36は同じ強度又はほぼ同一の強度を有するようになっている。別の例示的な実施形態においては、色消しレンズを、レンズアレイ34の素子として使用することができる。色消しレンズは、距離情報を提供することに加えて、例えば、2色のロボットビジョンシステムの色を識別することができる。

「【図1】



「【図2】



5 周知技術の認定
(1)周知技術1
引用文献2及び引用文献3の記載事項から、次の技術事項は周知であったと認められる(以下「周知技術1」という。)
[周知技術1]
「2台のカメラでステレオ撮像して得た2つの画像をステレオマッチングして距離画像を生成する際に、ステレオマッチング時に対応画素が探索できなかった画素があった場合に、当該未対応画素について、TOF方式を用いた光学的測距手段により得た距離画像で補完すること。」

(2)周知技術2
引用文献4の記載事項から、次の技術事項は周知であったと認められる(以下「周知技術2」という。)
[周知技術2]
「レーザ測距装置が、レーザビームをビームエキスパンダにより拡大し、マイクロレンズアレイにより、個々の光線に分離してn×nの2次元アレイ状の均一な光線配列にして、対象物に照射すること。」

第5 対比・判断
1 本願発明1について
(1)対比
本願発明1と引用発明を対比する。
ア 本願発明1の「水中移動可能な潜水艇」と引用発明の「小型フロートボート」は、移動体であることで共通する。

イ 引用発明の「水中ビデオカメラ」は、可視光を検出して動画撮影するものであることは自明であるから、本願発明1の「前記潜水艇に搭載された可視光を連続的に検出する複数の水中カメラ」と引用発明の「小型フロートボートの左右に配置した水中ビデオカメラ」は、移動体に搭載された可視光を連続的に検出する複数の水中カメラという点で共通する。

ウ 引用発明の「水中ビデオカメラ」が小型フロートボートの左右に配置したものであることを考慮すると、本願発明1の「前記複数の水中カメラおよび前記レーザ測距装置の姿勢を検出する姿勢センサ」と引用発明の「フロートボートの傾き情報」を得るための「姿勢センサ(ジャイロ)」は、複数の水中カメラの姿勢を検出する姿勢センサである点で共通する。

エ 本願発明1の「前記複数の水中カメラの撮影位置および前記レーザ測距装置の計測位置を検出するGNSSセンサ」と引用発明の「位置座標」を得るための「GPS」は、複数の水中カメラの撮影位置を検出するGNSSセンサである点で共通する。

オ 引用発明の「ビデオカメラの撮影と同期してGPSによる位置座標と姿勢センサ(ジャイロ)によるフロートボートの傾き情報を収録」することは、本願発明1の「前記複数の水中カメラによって撮影された撮影画像データと前記姿勢センサによって検出された前記複数の水中カメラの姿勢データおよび前記GNSSセンサによって検出された前記複数の水中カメラの撮影位置データとを同期記録する」ことに相当するから、引用発明も、本願発明1の「収録手段」に相当する構成を備えているといえる。

カ 引用発明の「同一の観測対象を左右のビデオカメラでステレオ撮影することにより、対象の三次元形状を数値化し、三次元モデル(DSM:Digital Surface Model)を作成」することは、本願発明1の「DSMデータを作成」することに相当する。

キ 引用発明の「DSMに撮影画像を投影し三次元化すると共に、同時収録したGPS及び姿勢センサの情報に基づき、三次元化した画像に緯度・経度を付与」することは、本願発明1の「前記水中カメラによって撮影された複数の撮影画像の重複範囲について、それぞれの姿勢データおよび撮影位置データに基づく画像処理によって地理座標を付与された水深データ」を得ることに相当する。

ク 上記オ?キの検討内容を踏まえると、引用発明は、本願発明1の「前記収録手段の記録画像を処理する画像処理手段」に相当する構成を備えているといえる。

ケ 本願発明1の「水底観測システム」と引用発明の「浅海底観測システム」とは、水底観測システムである点で共通する。

上記ア?ケの検討内容をまとめると、本願発明1と引用発明とは、以下の一致点で一致し、以下の相違点1?3で相違する。

[一致点]
「移動体と、
前記移動体に搭載された可視光を連続的に検出する複数の水中カメラと、
前記複数の水中カメラの姿勢を検出する姿勢センサと、
前記複数の水中カメラの撮影位置を検出するGNSSセンサと、
前記複数の水中カメラによって撮影された撮影画像データと前記姿勢センサによって検出された前記複数の水中カメラの姿勢データおよび前記GNSSセンサによって検出された前記複数の水中カメラの撮影位置データとを同期記録する収録手段と、
前記収録手段の記録画像を処理する画像処理手段を備え、
前記画像処理手段が、前記水中カメラによって撮影された複数の撮影画像の重複範囲について、それぞれの姿勢データおよび撮影位置データに基づく画像処理によって地理座標を付与された水深データを得て、DSMデータを作成可能に構成された、
水底観測システム。」

[相違点1]
「移動体」が、本願発明1では「水中移動可能な潜水艇」のに対して、引用発明では「小型フロートボート」である点。


[相違点2]
本願発明1は、「レーザビームを放出し、海底面により反射されたレーザビームをセンサによって検出して、水底までの距離を前記複数の水中カメラと同期して連続的に計測可能なレーザ測距装置」を備えており、「前記レーザ測距装置が、レーザビームを拡散させて、n×n本のレーザビームに分割し、n×nのマトリックス状に海底面に照射する拡散部材を備えて」おり、「前記複数の水中カメラの姿勢を検出する姿勢センサ」が前記レーザ測距装置の姿勢を検出し、「前記複数の水中カメラの撮影位置を検出するGNSSセンサ」が前記レーザ測距装置の計測位置を検出するのに対して、引用発明は、そのような構成を備えていない点。

[相違点3]
「DSMデータを作成可能に構成された」「画像処理手段」が、本願発明1では、「前記レーザ測距装置によって計測された水底までの距離を示す距離データと前記姿勢センサによって検出された前記レーザ測距装置の姿勢データとに基づいて作成された補完用データを用いて補完して」いるのに対して、引用発明ではそのような構成を備えていない点。

(2)判断
上記相違点1?3は関連するため、以下まとめて検討する。
ア 本願発明1の「水底観測システム」に関して、本願明細書には以下の記載がある。
「【背景技術】
【0002】
特開2003-4845号公報(特許文献1)は、水面を走行移動可能に支持した音響測深機による観測方法を開示しており(特許文献1の図1参照)、かかる観測方法によれば、水深観測による広範囲の海底地形等の地図情報を得ることが可能になるが、きわめて浅い地域の水深観測に限られており、水深が深い水底を観測することはできない。
【0003】
また、特許第4173027号公報(特許文献2)は、水中移動可能に曳航支持したビデオカメラによる観測方法を開示しており(特許文献2の図1参照)、かかる観測方法によれば、水中の広範囲にわたって映像観察をすることが可能になる。」
「【発明が解決しようとする課題】
【0005】
ここに、ビデオカメラによって得られる水中映像は、水中における動的観測により光学的性状を把握することが可能になるが、一過性の映像情報で、地理座標を持たないため、水底の態様に関する光学的性状全般に及ぶ定量解析の基礎となり得ないという問題があった。
【0006】
さらに、特許文献2においては、ビデオカメラによって水底画像を撮像するように構成されているので、太陽光線の陰りや夜明け/薄暮時に水底領域を撮像する場合や、水深が深く、太陽光線が届かない水底領域を撮像する場合、水質が汚濁している水底領域を撮像する場合、撮像すべき水底領域が陰になっている場合などには、精度よく、水底表面データを作成することができないという問題があった。
【0007】
したがって、本発明は、太陽光線の陰りや夜明け/薄暮時に水底領域を撮像する場合や、水深が深く、太陽光線が届かない水底領域を撮像する場合、水質が汚濁している水底領域を撮像する場合、撮像すべき水底領域が陰になっている場合などにおいても、精度よく、地理座標位置とともに、水底表面データを作成することができる水底観測システムを提供することを目的とするものである。」
「【0010】
本発明によれば、水底観測システムにおいては、可視光を検出する複数の水中カメラが潜水艇に搭載されているから、複数の水中カメラによって水底の画像を撮影し、水底の状況を視覚的に分りやすく示すことができる。
【0011】
また、本発明によれば、水底観測システムは、可視光を検出する複数の水中カメラに加えて、水底までの距離を計測可能なレーザ測距装置を備えているから、水深が深いために、太陽光線が届かず、明るさ不足しているため、可視光を検出する複数の水中カメラよっては、精度よく、水底表面データを作成することができず、複数の水中カメラによって得られる水底表面データの一部が欠損している場合や、水質が汚濁しているために、可視光を検出する複数の水中カメラによっては、精度よく、水底表面データを作成することができず、複数の水中カメラによって得られる水底表面データの一部が欠損している場合、可視光を検出する複数の水中カメラによって水底を撮影するときに、陰になってしまい、精度よく、水底表面データを作成することができず、複数の水中カメラによって得られる水底表面データの一部が欠損している場合、太陽光線の陰りや夜明け/薄暮時、あるいは、コントラストがきわめて高く、そのために明るさが不足して十分な露光が得られない部分ができ、複数の水中カメラによって得られる水底表面データの一部が欠損している場合、複数の水中カメラによって得られる水底表面画像の結合処理(画像マッチング処理)がうまく出来ずに、水底表面データの一部が欠損している場合にも、レーザ測距装置によって水深までの距離を測定し、可視光を検出する複数の水中カメラによって得られる水底表面データの欠損を補完することが可能になる。」

イ 上記アにおいて摘記した記載事項によると、従来の水面を走行移動可能な観測システムでは、きわめて浅い地域の水深観測に限られ、水深が深い水底を観測することはできないという問題があり、また、従来の水中移動可能な観測システムでは、太陽光線の陰りや夜明け/薄暮時に水底領域を撮像する場合や、水深が深く、太陽光線が届かない水底領域を撮像する場合、水質が汚濁している水底領域を撮像する場合、撮像すべき水底領域が陰になっている場合などには、精度よく、水底表面データを作成することができないという問題があったことから、本願発明1の「水底観測システム」は、可視光を検出する複数の水中カメラに加えて、水底までの距離を計測可能なレーザ測距装置を潜水艇に搭載することにより、上述のような事情により複数の水中カメラによって得られる水底表面データの一部が欠損している場合に、レーザ測距装置によって水深までの距離を測定し、その欠損を補完することを可能にしたものであるといえる。

ウ これに対して、引用発明の「浅海底観測システム」は、「小型漁船でも座礁する危険のある極めて浅い海域でも観測が可能な」ものであって、「ハイビジョン水中ビデオカメラとGPS及び姿勢センサを小型フロートボートに搭載し、潜水による調査をせずに浅海域の海底地形やサンゴなどの立体的形状の計測と、海底の観測対象に地理座標を付与することを可能とした」ものであり、本願発明1のように水深が深く、太陽光線が届かない水底領域を撮像しようとするものではないから、小型フロートボートに代えて潜水艇に測定装置を搭載しようとする動機は見いだせない。

エ そうすると、引用発明において、「小型フロートボート」の代わりに「水中移動可能な潜水艇」にして上記相違点1に係る構成とすることは、当業者といえども困難であり、また、周知技術1及び2のいずれにも、「小型フロートボート」の代わりに「水中移動可能な潜水艇」にすることが示唆されてはいないから、このような動機を欠く引用発明に周知技術1及び2を如何に適用しても、上記相違点2及び3に係る本願発明1の構成とすることは当業者といえども困難であるというべきである。
したがって、本願発明1は、当業者であっても容易に発明をすることができたものとはいえない。

2 本願発明2?3について
本願発明2?3も、上記相違点1?3に係る本願発明1の構成と同じものを含むから、本願発明1と同様の理由により、当業者であっても容易に発明をすることができたものとはいえない。

第6 むすび
以上のとおりであるから、本願発明1?3は、引用文献1?4に記載された発明に基づいて当業者が容易に発明をすることができたものではなく、原査定の理由によっては、本願を拒絶することはできない。
また、他に本願を拒絶すべき理由を発見しない。

よって、結論のとおり審決する。
 
審決日 2021-07-15 
出願番号 特願2014-233868(P2014-233868)
審決分類 P 1 8・ 121- WY (G01C)
最終処分 成立  
前審関与審査官 眞岩 久恵  
特許庁審判長 居島 一仁
特許庁審判官 濱野 隆
岸 智史
発明の名称 水底観測システム  
代理人 大石 皓一  
  • この表をプリントする

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ