• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 取り消して特許、登録 G06T
管理番号 1328578
審判番号 不服2016-7460  
総通号数 211 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2017-07-28 
種別 拒絶査定不服の審決 
審判請求日 2016-05-23 
確定日 2017-06-16 
事件の表示 特願2014-513977「車両の周辺区域にある物体を認識する方法および装置」拒絶査定不服審判事件〔平成24年12月13日国際公開、WO2012/168055、平成26年 9月25日国内公表、特表2014-525067、請求項の数(12)〕について、次のとおり審決する。 
結論 原査定を取り消す。 本願の発明は、特許すべきものとする。 
理由 第1 経緯
本願は、2012年(平成24年)5月21日(パリ条約による優先権主張外国庁受理2011年6月7日、ドイツ)を国際出願日とする出願であって、その手続の経緯は、以下のとおりである。

平成26年 2月 4日:手続補正
平成27年 2月 2日:拒絶理由の通知
平成27年 8月 4日:手続補正
平成28年 1月15日:拒絶査定
平成28年 1月21日:拒絶査定の謄本の送達
平成28年 5月23日:拒絶査定不服審判の請求
平成28年 5月23日:手続補正

第2 原査定の概要
原査定の理由は、概略、次のとおりである。

[査定の理由]
この出願の請求項1?6、9?12に係る発明は、その出願前に日本国内又は外国において、頒布された下記の刊行物に記載された発明又は電気通信回線を通じて公衆に利用可能となった発明に基いて、その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。


引用文献1:特開2005-92857号公報
引用文献2:特開平6-274626号公報
引用文献3:特開2010-272067号公報

第3 本願発明
1 本願請求項1?12に係る発明
本願請求項1?12に係る発明(以下、それぞれ「本願発明1」?「本願発明12」という。)は、平成26年2月4日付け、平成27年8月4日付け、平成28年5月23日付けの手続補正で補正された特許請求の範囲の請求項1?12に記載された事項により特定される発明であり、以下のとおりの発明である。

「 【請求項1】
車両(100)の周辺区域(130)にある物体(240,250)を認識する方法(500)において、前記方法(500)は次の各ステップを有しており、すなわち、
車両(100)の周辺区域(130)を表し、第1の露光時間で記録された、車両カメラ(110)の第1の画像(210)を読み込み(510)、第1の画像(210)の後で第2の露光時間で記録された、車両カメラ(110)の第2の画像(220)を読み込み、このとき第2の露光時間は第1の露光時間と相違しており、
車両カメラ(110)の第2の画像(220)から画像断片(230)を抽出し(520)、画像断片(230)は第1の画像(210)よりも狭い車両(100)の周辺区域(130)の領域を表しており、抽出(520)のときには、車両の速度、ハンドルを切るステアリング角度、及びナビゲーション機器から読み出された想定される道路形状のうちの少なくとも1つのパラメータに基づいて第2の画像(220)における画像断片(230)の位置が決定され、
第1の物体認識アルゴリズムを第1の画像(210)に適用し(530)、それにより第1の画像(210)で少なくとも1つの物体(240)を認識し、第2の物体認識アルゴリズムを画像断片(230)に適用し、それにより画像断片(230)で少なくとも1つの別の物体(250)を認識する方法。
【請求項2】
抽出のステップ(520)で、位置情報を利用したうえで画像断片(230)が抽出され、位置情報は、車両(100)の走行を表す情報に対する応答として変更可能であり、もしくは変更されることを特徴とする、請求項1に記載の方法(500)。
【請求項3】
読み込みのステップ(510)で、第2の画像(220)として読み込まれる画像よりも短い露光時間を有する画像が第1の画像(210)として読み込まれることを特徴とする、請求項1または2に記載の方法(500)。
【請求項4】
適用のステップ(530)で、第1の物体認識アルゴリズムが第1の画像(210)の全体に適用されることを特徴とする、請求項1から3のうちいずれか1項に記載の方法(500)。
【請求項5】
抽出のステップ(520)で、車両(100)前方の事前設定された最低距離に配置された物体(250)が車両カメラ(110)の画像で結像されている、第2の画像(220)の画像断片(230)が抽出されることを特徴とする、請求項1から4のうちいずれか1項に記載の方法(500)。
【請求項6】
適用のステップ(530)で、第1の物体認識アルゴリズムが第1の物体タイプの物体(240)の認識のために利用され、第2の物体認識アルゴリズムが、第1の物体タイプとは相違する第2の物体タイプの物体(250)の認識のために利用されることを特徴とする、請求項1から5のうちいずれか1項に記載の方法(500)。
【請求項7】
適用のステップ(530)で、第1の物体認識アルゴリズムは、第1の画像(210)における位置での明度(320,330;400)と、第2の画像(220)における、対応する位置での明度(320,330;400)との比較を利用したうえで、第1の画像(210)で物体(240)を認識するために構成されており、および/または適用のステップ(530)で、第2の物体認識アルゴリズムは、第2の画像(220)における位置での明度(320,330;400)と、第1の画像(210)における対応する位置での明度(320,330;400)との比較を利用したうえで、第2の画像(220)で物体(250)を認識するために構成されていることを特徴とする、請求項1から6のうちいずれか1項に記載の方法(500)。
【請求項8】
適用のステップ(530)で、第1の画像(210)における位置での明度(400)が、第2の画像(220)における対応する位置での明度(400)に許容誤差範囲内で等しいときには、第1の物体認識アルゴリズムによって物体(240)がパルス状の光源として認識され、および/または第1の画像(210)における位置での明度(320,330)が、事前設定された閾値を超えて、第2の画像(220)における対応する位置での明度(320,330)と相違しているときには、第1の物体認識アルゴリズムによって物体(240)が一定の光を放射する光源として認識され、および/または第2の画像(220)における位置での明度(400)が、第1の画像(210)における対応する位置での明度(400)に許容誤差範囲内で等しいときには、第2の物体認識アルゴリズムによって物体(250)がパルス状の光源として認識され、および/または第2の画像(220)における位置での明度(320,330)が、事前設定された閾値を超えて、第1の画像(210)における対応する位置での明度(320,330)と相違しているときには、第2の物体認識アルゴリズムによって物体(250)が一定の光を放射する光源として認識されることを特徴とする、請求項7に記載の方法(500)。
【請求項9】
車両前方の車道照明を制御する方法において、次の各ステップを有しており、すなわち、
請求項1から8のうちいずれか1項に記載の方法(500)の各ステップを実施し、
第1の物体認識アルゴリズムにより認識された少なくとも1つの物体(240)に対する応答として、および/または第2の物体認識アルゴリズムにより認識された少なくとも1つの物体(250)に対する応答として、車両(100)のヘッドライト(160)の光放射の変更を制御する方法。
【請求項10】
さらに制御のステップで、第1または第2の物体認識アルゴリズムにより認識された車
道縁部のインフラストラクチャー設備に関わりなく、光放射の変更が行われることを特徴
とする、請求項9に記載の方法。
【請求項11】
請求項1から10のいずれか1項に記載の方法(500)の各ステップを実施するために構成された各ユニットを有している装置(140)。
【請求項12】
プログラムが請求項11に記載の装置(140)で実行されるときに、請求項1から10のいずれか1項に記載の方法(500)を実施するためのプログラムコードを有しているコンピュータプログラム。」

2 本願発明1の分説
本願発明1を分説すると、次のとおりである。なお、請求項1に記載された括弧付きの記号は、請求項1の記載の内容を理解するために用いられるものであるから、本願発明1の分説においては省略した。

(本願発明1)
「(A)車両の周辺区域にある物体を認識する方法において、前記方法は次の各ステップを有しており、すなわち、
(B)車両の周辺区域を表し、第1の露光時間で記録された、車両カメラの第1の画像を読み込み、第1の画像の後で第2の露光時間で記録された、車両カメラの第2の画像を読み込み、このとき第2の露光時間は第1の露光時間と相違しており、
(C)車両カメラの第2の画像から画像断片を抽出し、画像断片は第1の画像よりも狭い車両の周辺区域の領域を表しており、抽出のときには、車両の速度、ハンドルを切るステアリング角度、及びナビゲーション機器から読み出された想定される道路形状のうちの少なくとも1つのパラメータに基づいて第2の画像における画像断片の位置が決定され、
(D)第1の物体認識アルゴリズムを第1の画像に適用し、それにより第1の画像で少なくとも1つの物体を認識し、第2の物体認識アルゴリズムを画像断片に適用し、それにより画像断片で少なくとも1つの別の物体を認識する
(E)方法。」

((A)?(E)は、当審で付与した。以下各構成要件を「構成要件A」等という。)

第4 引用文献、引用発明
1 引用文献1について
(1)引用文献1の記載事項
原査定の拒絶の理由に引用された引用文献1には、図面とともに次の事項が記載されている。(下線は当審が付与した。)

「【0006】
本発明は、カメラ1台で、近傍のヘッドライトから遠方のテールランプまで高精度に光点の位置を特定できる高精度でかつ安価な画像処理システムを提供する。また、ヘッドライトやテールライトと、信号機や街灯、自動販売機などのノイズ光を識別して、夜間の車両検知性能を高め、より高度な機能を提供することを目的としている。
【課題を解決するための手段】
【0007】
本発明では、車両に搭載された1台のカメラ(撮像手段)が撮影した画像を解析する画像解析手段を備え、画像解析手段でカメラが撮影した2つ以上の露光量の異なる画像を解析して前方を走行する他の車両の位置を検知する。検知した他車両の位置情報は、車両制御のために用いる。」

「【0016】
図4は、実施例1の処理の流れを表したフローチャートである。S401からS409は、それぞれの処理ステップを示している。まず、各処理ステップの概略について説明する。
【0017】
S401からS404では、カメラ101から高輝度検出用の画像と低輝度検出用の画像を取得し、画像解析ユニット102に転送する処理である。転送される画像データには同期信号が含まれており、CPU203は、同期信号を割り込みタイミングとして画像入出力にかかわる処理を行う。
【0018】
S405からS407では、画像データから画像解析ユニット102を用いて、画像中の光点の位置を検出している。
【0019】
S408では自車両と前方を走行する他の車両との車間距離を計算し、S409は、最も近い他の車両との車間距離からヘッドライト104に加える目標電圧を算出し、ヘッドライト制御ユニット103によってヘッドライト104にかける電圧を制御している。

【0020】
次に、図4及び図5、図6、図7を用いて、各処理ステップの詳細な説明を行う。
S401では、CPU203がレジスタ302を高輝度検出用露光量に設定する。詳述すると、高輝度の光点を検出するために最適な露光時間に設定するものであって、前方の対向車のヘッドライト、または比較的近距離にある先行車両のテールランプの光点を検出するために選ばれる。高輝度の光点を検出するための露光時間は、撮像素子であるCCD201の感度特性にもよるが、1/120秒から1/250秒程度である。
【0021】
図5は、カメラ101によって車両100の前方を撮像した画像の模式図である。図5(a)は、道路を走行する車両100の前方の像を示し、対向車両501及び先行車両502が認識される。図5(a)の状態を、前記高輝度検出用露光時間で撮像した画像が、図5(b)に示す高輝度検出用画像503である。対向車両501のヘッドライトは、輝度が高いために高輝度検出用画像503では光点として写る。しかし、先行車両502のテールランプは、輝度値が低いために、高輝度検出用画像503には写らない。
【0022】
S402では、S401で設定した露光時間で撮像したデジタル画像信号を、画像解析ユニット102中の画像入力I/F205が受信したのち、メモリ206に格納する。
【0023】
S403では、CPU203によって、レジスタ302を低輝度検出用露光量に書き換える。これは、低輝度の光点を検出するために最適な露光時間であって、前方の比較的遠距離にあるテールランプの光点を検出するために選ばれる。そのため露光時間は、S401で設定したものよりも長くなり、1/30秒から1/60秒程度である。図5(a)の状態を低輝度検出用露光時間で撮像した画像が、図5(c)の低輝度検出用画像504である。低輝度検出用画像504は、先行車両502のテールランプの低輝度光点を捉えることができる反面、対向車両501のヘッドライトは高輝度であるため、ブルーミングを起こして周辺の画素まで白く飽和している。
【0024】
S404では、S402と同様にS403で設定した露光時間で撮像したデジタル画像信号を、画像入力I/F205が受信し、メモリ206に格納する。
【0025】
S405?S407では、カメラ101から取得した画像を解析して光点の位置を求める。S405?S407の処理は、CPU203と画像処理ユニット204によって行われる。S405?S407に関する一連の処理を、図6、図7を用いて説明する。
【0026】
S405は、高輝度検出用画像503を用いて、図6(a)に示す高輝度光点601の位置検出を行っている。光点の位置検出方法については、後述する。高輝度光点601の位置が求まったら、S406?S407で、図6(b)に示す低輝度検出用画像504を用いて低輝度光点の位置検出を行う。ここで、低輝度検出用画像504には、高輝度の光点も含まれており、前述したようにブルーミングを起こすことがある。ただし、高輝度光点601の位置が含まれる光点のブルーミング領域603は、高輝度検出用画像503ですでに求めている。
【0027】
そこでS406では、図6(b)に示すように低輝度検出用画像504で高輝度点の二重検出を防ぐためにマスキングを行っている。ここで、日本の道路のように自動車などの車両が左側通行である場合は、対向車両が画像面の右側に位置し、対向車両のヘッドライトよりも画像面の右側に先行車両のテールランプが位置することは考えにくい。そこで、マスキング領域604は、図6(b)のようにブルーミング領域603から画像面の右側すべてとする。自動車などの車両が道路右側通行の場合は、反対にブルーミング領域から画像面の左側すべてをマスキングすることになる。
【0028】
続いてS407では、マスキング領域604以外の領域で、低輝度光点602の位置を算出している。
【0029】
次に、高輝度光点と低輝度光点の位置の検出方法について図7を用いて説明する。ここで、図7(a)は高輝度検出用画像503、図7(b)は低輝度検出用画像504を示している。光点は、輝度値が高いため画像上での濃度値が高く白く写る。濃度値は8ビットで示される。即ち、0から255までの256段階で表現される。高輝度の光点付近の濃度値は255に近く、それ以外の領域の濃度値は0に近い。そこで、まず高輝度点を検出するため、図7(a)のようにY座標が等しい画素の濃度値をすべてY軸に累積しながら投影する。この投影分布をY軸の濃度投影分布と呼ぶこととする。図7(a)のようにY軸濃度投影分布には車両1台につき、Y座標軸に1つの山が現れる。この山の頂点を求めることで、光点のY座標を求めることができる。更に、Y軸濃度投影分布で検出された山の裾野を上端下端とした光点存在帯701に限定して、X軸濃度投影分布を求める。通常の自動車などの車両は、左右にヘッドライトがあることからX座標軸に2つの山が現れる。ただし、片側複数の車線がある路線では、車両が2台以上並ぶこともあり、2つ以上の山が現れる場合もある。また、車両がオートバイなどの2輪車である場合、ヘッドライトは1つであるため、X座標軸には1つしか山が現れない。低輝度光点の場合も、高輝度光点と同様にして座標軸上の位置を算出することができる。図7(b)のようにマスキング領域604を除外した領域で、図7(a)の場合と同様にY軸濃度投影分布を求め、帯状領域でX軸投影を求める。
【0030】
通常、自動車などの4輪車両の場合は、テールランプやヘッドライトの光点が2つとなり、2つの光点を検出すればよい。しかしながら4灯テールランプ等の車両も存在し、例え先行車両が1台であってもX軸濃度投影分布に4つの山ができることがある。このような場合は、先行車両が、1台か2台か判断しにくい。そこで、本発明の実施例では、前記のような4灯テールランプの車両において、山が4つ以上現れた場合は、テールランプが車両中心から左右対称であることを利用し、山のX軸の幅や位置を解析することとする。前記解析結果から、先行車両が、4灯テールランプの車両か、それとも2灯テールランプの車両が2台存在するのかを判断できる。」

(2)引用文献1に記載された発明
段落【0006】?【0007】、【0016】?【0030】には、車両に搭載された1台のカメラにより車両前方を撮影した画像を解析し、車両検知することが記載されている。この車両を検出することを方法の発明として認定する。この発明を以下「引用発明」という。

段落【0016】?【0024】によると、高輝度検出用露光時間で撮像した画像をメモリに格納し、次に、低輝度検出用露光時間で撮像した画像をメモリに格納する。ここで、低輝度検出用露光時間は高輝度検出用露光時間より長い(段落【0023】)。
したがって、引用発明は、『高輝度検出用露光時間で撮像した画像をメモリに格納し、次に、低輝度検出用露光時間で撮像した画像をメモリに格納』する。『ここで、低輝度検出用露光時間は高輝度検出用露光時間より長い』。

段落【0026】によると、高輝度検出用画像を用いて高輝度光点の位置検出を行う。また、段落【0030】によると、光点を検出することで、車両を判断する。
したがって、引用発明は、『高輝度検出画像を用いて高輝度光点の位置検出を行い、車両を検知する』ものである。

段落【0026】?【0028】によると、低輝度検出用画像から、高輝度検出画像ですでに求めている高輝度光点の位置が含まれる光点のブルーミング領域から画面の右側全てとするマスキング領域を除外した領域で、低輝度光点の位置検出を行う。また、段落【0030】によると、光点を検出することで、車両を判断する。
したがって、引用発明は、『低輝度検出用画像から、高輝度検出画像ですでに求めている高輝度光点の位置が含まれる光点のブルーミング領域から画面の右側全てとするマスキング領域を除外した領域で、低輝度光点の位置検出を行い、車両を検知する』ものである。

段落【0029】によると、高輝度検出用画像を用いて高輝度光点の位置検出を行い、車両を検知する検知方法と、低輝度検出用画像からマスキング領域を除外した領域で、低輝度光点の位置検出を行い、車両を検知する検知方法とは、同じ検知方法であり、この検知方法は、『検知アルゴリズム』といえる。

以上まとめると、引用発明は次のとおりである。

(引用発明)
「(a)車両に搭載された1台のカメラにより車両前方を撮影した画像を解析し、車両検知する方法であって、
(b)高輝度検出用露光時間で撮像した画像をメモリに格納し、次に、低輝度検出用露光時間で撮像した画像をメモリに格納し、ここで、低輝度検出用露光時間が高輝度検出用露光時間より長く、
(c)検知アルゴリズムにより、高輝度検出画像を用いて高輝度光点の位置検出を行い、車両を検知し、
(d)検知アルゴリズムにより、低輝度検出用画像から、高輝度検出画像ですでに求めている高輝度光点の位置が含まれる光点のブルーミング領域から画面の右側全てとするマスキング領域を除外した領域で、低輝度光点の位置検出を行い、車両を検知する
(e)方法。」

なお、(a)?(e)は、構成を識別するために付与した。以下各構成を「構成a」等という。

2 引用文献2について
(1)引用文献2の記載事項
原査定の拒絶の理由に引用された引用文献2には、図面とともに次の事項が記載されている。(下線は当審が付与した。)

「【0032】
次に、本実施例で基にした日中において画像処理により先行車両11を認識し、定速走行等のクルーズ制御をする処理を、図6に示した車両認識走行制御ルーチンを参照して説明する。なお、画像信号によって形成されるイメージ上の各画素は、イメージ上に設定された各々直交するX軸とY軸とによって定まる座標系の座標(X_(n) ,Y_(n))で位置を特定する。
【0033】
図5(1)には、車両10が走行する道路122をTVカメラ22によって撮影したときのドライバーが目視する画像と略一致するイメージ120を示した。この道路122は、車両10が走行する車線の両側に白線124を備えている。このイメージ120によって先行車両11を認識する。
【0034】
画像処理装置48にイメージ120の画像信号が入力されると、画像処理が開始され、白線候補点抽出処理及び直線近似処理の順に処理し、車両10の走行レーンを検出したのち、車両認識領域W_(P)を設定する(ステップ610)。このステップ610の処理を説明する。
【0035】
白線候補点抽出処理は、車両10が走行する車線の白線と推定される候補点を抽出する処理であり、先ず、前回求めた白線推定線126の位置に対して所定の幅γを有する領域をウインド領域W_(S)と設定する(図5(3)参照)。初回の場合は、予め設定された白線推定線126の設定値を読み取ってウインド領域W_(S)を設定する。また、イメージ120の上下の領域には、先行車両11が存在する確度が低いため、上限線128及び下限線130を設け、この間の範囲を、以下の処理対象領域とする。次に、このウインド領域W_(S)内において明るさについて微分し、この微分値のピーク点(最大点)を白線候補点であるエッジ点として抽出する。すなわち、ウインド領域W_(S)内を垂直方向(図5(3)矢印A方向)に、水平方向の各画素について最下位置の画素から最上位置の画素までの明るさについて微分し、明るさの変動がおおきな微分値のピーク点をエッジ点として抽出する。このエッジ点の連続を図5(3)の点線132に示した。
【0036】
次の直線近似処理は、白線候補点抽出処理で抽出されたエッジ点をハフ(Hough)変換を用いて直線近似し、白線と推定される線に沿った直線134、136を求める。この求めた直線136、138と下限線130とで囲まれた領域を車両認識領域W_(P)として設定する(図5(4)参照)。なお、上記道路122がカーブ路のときには、上記求めた直線136、138の傾き差を有して下限線130とで囲まれた領域が車両認識領域W_(P)として設定される(図5(2)参照)。
【0037】
次に、白線候補点抽出処理及び直線近似処理が終了すると、水平エッジ検出処理及び垂直エッジ検出処理の順に処理し、設定された車両認識領域内W_(P)において先行車両11の有無を判定すると共に先行車両11の有のときに車間距離ΔVを演算する(ステップ620)。このステップ620の処理を説明する。
【0038】
水平エッジ検出処理は、車両認識領域W_(P)内において、先ず、上記白線候補点検出処理と同様の処理で水平エッジ点を検出する。次に、検出された水平エッジ点を横方向に積分し、積分値が所定値を越える位置のピーク点E_(P)を検出する(図5(5)参照)。
【0039】
垂直エッジ検出処理は、水平エッジ点の積分値のピーク点E_(P)が複数あるとき、画像上で下方に位置するピーク点E_(P)(距離のより近い点)から順に、ピーク点E_(P)に含まれる水平エッジ点の両端を各々含むように垂直線を検出するためのウインド領域W_(R)、W_(L)を設定する(図5(6)参照)。このウインド領域W_(R)、W_(L)内において垂直エッジを検出し、垂直線138R,138Lが安定して検出された場合に先行車両11が存在すると判定する。次に、ウインド領域W_(R)、W_(L)内の各々で検出された垂直線138R,138Lの横方向の間隔を求めることによって車幅を求め、かつこの先行車両11の水平エッジの位置及び求めた車幅から先行車両11と自車両10との車間距離ΔVを演算する。垂直線138R,138Lの横方向の間隔は、垂直線138R,138Lの各々の代表的なX座標(例えば、平均座標値や多頻度の座標値)の差から演算できる。
【0040】
上記処理が終了すると、設定走行処理が実行される(ステップ630)。ステップ630は、定速走行制御や車間距離制御等の設定走行における先行車両の存在をフィードバック制御するための処理例である。例えば、求めた車間距離ΔVが所定値を越える場合に定速走行を継続したり、車間距離ΔVが所定値以下になると定速走行を解除したりする。また、車間距離を所定値に制御する場合は、自車両10と先行車両11との車間距離ΔVが所定距離を維持するように車速等を制御する。」

「【0041】
以下、本実施例の作用を説明する。先ず、ドライバーが車両の図示しないライトスイッチをオンし、ヘッドランプ18、20を点灯させると、所定時間毎に図7に示した制御メインルーチンが実行される。本制御ルーチンのステップ200では先行車両認識サブルーチン(図8参照)が実行されて先行車両11が認識される。この先行車両11が認識されると次のステップ300において配光制御サブルーチン(図19参照)によりヘッドランプ18、20が配光制御されて本ルーチンを終了する。
【0042】
次に、ステップ200の詳細を説明する。先ずステップ202では、上記説明した日中の白線検出と同様に白線検出ウインド領域W_(sd)を設定する。本実施例では、車両10は夜間走行のため、車両10の前方の略40?50mまでの画像しか検出できないため、車両10の前方60mを越える画像の検出が不要である。このため、白線検出ウインド領域W_(sd)を、車両10の前方60mまでを検出できるように、上記ウインド領域W_(S)から所定の水平線140以上の領域を除去した白線検出ウインド領域W_(sd)を設定する(図9参照)。
【0043】
次に、上記ステップ610の白線候補点抽出処理及び直線近似処理と同様に、白線検出ウインド領域W_(sd)内のエッジ点を検出し(ステップ204)、ハフ変換を行って(ステップ206)、直線近似された道路122の白線に沿う近似直線142、144を求める(図9参照)。
【0044】
次のステップ208では、求めた近似直線の交点P_(N)(X座標、X_(N))を求め、求めた交点P_(N)と基準とする予め定めた直線路の場合の近似直線の交点P_(0)(X座標、X_(0))との水平方向の変位量A(A=X_(N)-X_(0))を求める。この変位量Aは、道路122のカーブ路の度合いに対応している。
【0045】
次のステップ210では、A_(2)≧A≧A_(1)か否かを判定することにより道路122が略直線路か否かを判定する。この判定基準値A_(1)は、直線路と右カーブ路との境界を表す基準値であり、判定基準値A_(2)は、直線路と左カーブ路との境界を表す基準値である。
【0046】
ステップ210で直線路と判定された場合には、自車両10の車速Vを読み取って(ステップ212)、次のステップ214において、読み取った車速Vに応じた、車両認識領域W_(P)を設定するために近似直線の位置を補正する左右の補正幅α_(R)、α_(L)を決定する。高速走行時は車両が旋回可能な道路の曲率半径が大きいため、略直線の道路を走行していると見なせるが、低速走行時は車両の直前方が略直線に近い道路であっても遠方は道路の曲率半径が小さくなっている場合があるので車両10の前方60mまでの白線だけでは道路が直線か否かを判別できないことがある。従って、低速走行時は補正幅を大きくし、高速走行時は小さくすることによって(図12参照)、低速走行時は高速走行時より車両認識領域WP を大きくして、先行車両11の認識領域を大きくする(図11参照)。
【0047】
次のステップ216では、下限線130、近似直線142、144及び決定された左右の補正幅α_(R)、α_(L)を用いて先行車両11を認識処理する車両認識領域W_(P)を決定する(図10参照)。
【0048】
上記ステップ210で否定判定されると、ステップ218において、A>A_(2)か否かを判定することによって、道路が右カーブ路か左カーブ路かを判定する。肯定判定の場合には、道路は右カーブ路と判定され、車両10の車速Vを読み取って(ステップ220)、読み取った車速Vに応じた左右の補正幅α_(R)、α_(L)に対する補正値α_(R)’ 、α_(L)’を決定する(ステップ222、図12参照)。次のステップ224では、カーブ路の度合いである変位量Aに応じて車両認識領域の左右の補正幅α_(R)、α_(L)を決定するためのゲインGL,GRを決定し(図13,図14参照)、ステップ226において、決定された補正値α_(R)’ 、α_(L)’及びゲインGL,GRに基づいて最終的なウインド領域の左右の補正幅α_(R)、α_(L)を決定する。このとき道路はカーブ路であるため、左右は非対称となり、近似直線142、144は異なる傾きとなる。このため、左右の補正幅α_(R)、α_(L)は独立した値に設定される。すなわち、道路が右カーブ路で曲率半径が小さい(変位量Aが大)ときは、先行車両11が右側に存在する確度が高い。従って、右側のゲインGRを大きくすることにより補正幅α_(R)は大きくし(図13参照)かつ左側のゲインGLを小さくすることにより補正幅α_(L)は小さくする(図14参照)。また、道路が右カーブ路で曲率半径が大きい(変位量Aが小)ときは、右側のゲインGRを小さくすることにより補正幅α_(R)は小さくしかつ左側のゲインGLを大きくすることにより補正幅α_(L)は大きくする。この補正幅の変化を、図15にイメージとして表した。
【0049】
ステップ228では、決定されたウインド領域の左右の補正幅α_(R)、α_(L)を用いて先行車両11を認識処理する車両認識領域W_(P)を設定する。
【0050】
一方、ステップ218で否定判定されると、左カーブ路とみなしてステップ230へ進み、車両10の車速Vを読み取る。次に、この車速Vに応じて、左右の補正値α_(R)’、α_(L)’を決定し(ステップ232、図12参照)、変位量Aに応じた左右のゲインGL,GRを決定する(ステップ234)。すなわち、道路が左カーブ路で曲率半径が小さい(変位量Aが大)ときは先行車両11が左側に存在する確度が高いため、右側のゲインGRを小さくすることにより補正幅α_(R)は小さくし(図17)かつ左側のゲインGLを大きくすることにより補正幅α_(L)は大きくする(図18)。次のステップ236では、決定された補正値α_(R)’、α_(L)’及びゲインGL,GRに基づいて最終的なウインド領域の左右の補正幅α_(R)、α_(L)を決定し、決定されたウインド領域の左右の補正幅α_(R)、α_(L)を用いて先行車両を認識処理する車両認識領域W_(P)を決定する(ステップ238)。
【0051】
上記のように車両認識領域W_(P)が決定されると、ステップ240へ進み、上記ステップ620の先行車両検出処理と同様に決定された車両認識領域W_(P)内において水平エッジ点積分を行うことにより、存在する先行車両を認識処理し、車間距離ΔVを演算する(ステップ242)。
【0052】
このように、車速及び道路の曲線の度合いに応じて、先行車両11の認識領域を変動させているため、得られる車両認識領域は、実際に先行車両が存在する確度が高い範囲を確実に含むことができ、高い確度で先行車両を認識することができる。」

(2)引用文献2に記載された技術的事項
段落【0032】?【0040】には、日中において画像処理により先行車両を認識し、定速走行等のクルーズ制御をする処理が記載されている。
車両が走行する道路をTVカメラで撮影した画像から、白線と推定される線に沿った直線と下限線に囲まれた領域を車両領域をして設定し、カーブ路のときは、前記直線の傾き差を有して下限線とで囲まれた領域が車両認識領域として設定される(段落【0036】)。
設定された車両認識領域内において先行車両の有無を判定する(段落【0037】)。
段落【0041】?【0052】には、ライトスイッチをオンした時に実行される処理が記載されている。
上記の日中の場合と同様に、白線に沿う近似直線を求め、求めた近似曲線の交点と基準の光点との変位を求め、直線路、右カーブ路、左カーブ路を判定し、それぞれの場合において、車速に応じた補正幅を求め、車両認識領域を設定し、先行車両を認識する。
以上より、引用文献2には、『車両が走行する道路をTVカメラで撮影した画像から、白線と推定される線に沿った直線と下限線に囲まれた領域を車両認識領域として設定し、先行車両を認識するものにおいて、カーブ路、車速に応じて車両認識領域を設定する』技術が記載されている。

3 引用文献3について
(1)引用文献3の記載事項
原査定の拒絶の理由に引用された引用文献3には、図面とともに次の事項が記載されている。

「【請求項1】
第1のシャッタ速度で第1の露光データを取得する手段と、
前記シャッタ速度よりも低速な第2のシャッタ速度で第2の露光データを取得する手段と、
第1のシャッタ速度よりも低速な第3のシャッタ速度で第3の露光データを取得する手段と、
前記第1の露光データを可視濃淡画像に変換する手段と、該可視濃淡画像を出力する手段と、
前記第2の露光データをカラー画像に変換する手段と、該カラー画像を出力する手段と、
前記第3の露光データを赤外濃淡画像に変換する手段と、該赤外濃淡映像を出力する手段と、
を備えた画像処理装置。
【請求項2】
請求項1に記載された装置において、
前記可視濃淡画像に基づいてヘッドライトを検知する手段と、
前記カラー画像に基づいてテールライトを検知する手段と、
前記赤外濃淡画像と前記カラー画像を演算して得られる画像に基づいて歩行者を検知する手段と、
を備えた画像処理装置。
【請求項3】
第1のシャッタ速度で第1の露光データを取得する手段と、
前記シャッタ速度よりも低速な第2のシャッタ速度で第2の露光データを取得する手段と、
第1のシャッタ速度よりも低速な第3のシャッタ速度で第3の露光データを取得する手段と、
前記第1の露光データをカラー画像に変換する手段と、該カラー画像を出力する手段と、
前記第2の露光データをカラー画像に変換する手段と、該カラー画像を出力する手段と、
前記第3の露光データを赤外濃淡画像に変換する手段と、該赤外濃淡映像を出力する手段と、
を備えた画像処理装置。
【請求項4】
請求項3に記載された装置において、
前記第1の露光データの前記カラー画像に基づいてヘッドライトを検知する手段と、
前記第2の露光データの前記カラー画像に基づいてテールライトを検知する手段と、
前記近赤外光濃淡画像と前記第2の露光データの前記カラー画像を演算して得られる画像に基づいて歩行者を検知する手段と、
を備えた画像処理装置。」

「【図5】



(2)引用文献3に記載された技術的事項
請求項1?4及び図5によると、引用文献3には、『第1の露光データに第1のアルゴリズムを適用してヘッドライトを検出し、第2の露光データに第2のアルゴリズムを適用してテールライトを検出する』技術が記載されている。

第5 対比・判断
1 本願発明1について
(1)対比
本願発明1と引用発明とを対比する。

ア 構成要件Aと構成aとを対比する。
引用発明の「車両に搭載された1台のカメラにより車両前方を撮影した画像を解析し、車両検知する方法」は、本願発明1の「車両の周辺区域にある物体を認識する方法」といえる。
また、引用発明は、方法の発明であり、各構成はステップといえる。
したがって、本願発明1と引用発明とは、「車両の周辺区域にある物体を認識する方法において、前記方法は次の各ステップを有して」いる点で一致する。

イ 構成要件Bと構成bとを対比する。
引用発明の「撮像した画像」は、構成aの「車両に搭載された1台のカメラにより車両前方を撮影した画像」であり、「車両カメラの画像」といえ、「車両の周辺区域を表」しているといえる。
引用発明の「高輝度検出用露光時間」、「低輝度検出用露光時間」は、それぞれ、本願発明1の「第1の露光時間」、「第2の露光時間」に相当する。そして、「低輝度検出用露光時間が高輝度検出用露光時間より長」いから、「第2の露光時間は第1の露光時間と相違して」いる。さらに、引用発明の「高輝度検出用露光時間で撮像した画像」、「低輝度検出用露光時間で撮像した画像」は、それぞれ、本願発明1の「第1の露光時間で記録された、車両カメラの第1の画像」、「第2の露光時間で記録された、車両カメラの第2の画像」に相当する。
また、引用発明は「高輝度検出用露光時間で撮像した画像をメモリに格納」しているが、格納された画像は後段の構成要件Cの検知処理に際して読み出すことは自明であるから、「第1の露光時間で記録された、車両カメラの第1の画像を読み込」むことになり、引用発明は、「次に、低輝度検出用露光時間で撮像した画像をメモリに格納」するから、同様に、「第1の画像の後で第2の露光時間で記録された、車両カメラの第2の画像を読み込」むことになるといえる。
したがって、本願発明1と引用発明とは、「車両の周辺区域を表し、第1の露光時間で記録された、車両カメラの第1の画像を読み込み、第1の画像の後で第2の露光時間で記録された、車両カメラの第2の画像を読み込み、このとき第2の露光時間は第1の露光時間と相違して」いる点で一致する。

ウ 構成要件C、構成dについて
引用発明は、本願発明1の「車両カメラの第2の画像」に相当する「低輝度検出用画像」から、「高輝度検出画像ですでに求めている高輝度光点の位置が含まれる光点のブルーミング領域から画面の右側全てとするマスキング領域を除外した領域で、低輝度光点の位置検出を行い、車両を検知する」ものであるが、「低輝度検出用画像」から「画像断片」を抽出するものではない。
したがって、引用発明は、構成要件Cを有していない、すなわち、「車両カメラの第2の画像から画像断片を抽出し、画像断片は第1の画像よりも狭い車両の周辺区域の領域を表しており、抽出のときには、車両の速度、ハンドルを切るステアリング角度、及びナビゲーション機器から読み出された想定される道路形状のうちの少なくとも1つのパラメータに基づいて第2の画像における画像断片の位置が決定され」るものではない点で、本願発明1と相違する。

エ 構成Dと構成c、dとを対比する。
構成c、dの「検知アルゴリズム」は、車両を検知するアルゴリズムであるから、「物体認識アルゴリズム」といえる。
構成cの「検知アルゴリズムにより、高輝度検出画像を用いて高輝度光点の位置検出を行い、車両を検知」することは、「物体認識アルゴリズムを第1の画像に適用し、それにより第1の画像で少なくとも1つの物体を認識」するとして本願発明1と共通する。「物体認識アルゴリズム」については後述する。
構成dの「検知アルゴリズムにより、低輝度検出用画像から、高輝度検出画像ですでに求めている高輝度光点の位置が含まれる光点のブルーミング領域から画面の右側全てとするマスキング領域を除外した領域で、低輝度光点の位置検出を行い、車両を検知する」ことは、「物体認識アルゴリズムを領域に適用し、それにより領域で少なくとも1つの別の物体を認識する」として本願発明1と共通する。
しかしながら、「領域」が、本願発明1においては上記ウにおいて検討した「画像断片」であるのに対し、引用発明においては「低輝度検出用画像から、高輝度検出画像ですでに求めている高輝度光点の位置が含まれる光点のブルーミング領域から画面の右側全てとするマスキング領域を除外した領域」であって、「画像断片」ではない点で相違する。
さらに、「物体認識アルゴリズム」が、本願発明1においては、「第1の画像」に適用するものと、「第2の画像」に適用するものが、それぞれ「第1の物体認識アルゴリズム」、「第2の物体認識アルゴリズム」であるのに対し、引用発明においては、「第1の物体認識アルゴリズム」、「第2の物体認識アルゴリズム」ではない点で相違する。
以上まとめると、本願発明1と引用発明とは、
「物体認識アルゴリズムを第1の画像に適用し、それにより第1の画像で少なくとも1つの物体を認識し、物体認識アルゴリズムを領域に適用し、それにより領域少なくとも1つの別の物体を認識する」点で共通する。
しかしながら、「領域」が、本願発明1においては「第2の画像」から抽出された「画像断片」であるのに対し、引用発明においては、「低輝度検出用画像から、高輝度検出画像ですでに求めている高輝度光点の位置が含まれる光点のブルーミング領域から画面の右側全てとするマスキング領域を除外した領域」であって、「画像断片」ではない点で相違し、
さらに、「物体認識アルゴリズム」が、本願発明1においては、「第1の画像」に適用するものと、「第2の画像」に適用するものが、それぞれ「第1の物体認識アルゴリズム」、「第2の物体認識アルゴリズム」であるのに対し、引用発明においては、「第1の物体認識アルゴリズム」、「第2の物体認識アルゴリズム」ではない点で相違する。

オ 構成要件Eと構成eとを対比すると「方法」として一致する。

カ 以上より、本願発明1と引用発明との一致点、相違点は、次のとおりである。

(一致点)
車両の周辺区域にある物体を認識する方法において、前記方法は次の各ステップを有しており、すなわち、
車両の周辺区域を表し、第1の露光時間で記録された、車両カメラの第1の画像を読み込み、第1の画像の後で第2の露光時間で記録された、車両カメラの第2の画像を読み込み、このとき第2の露光時間は第1の露光時間と相違しており、
物体認識アルゴリズムを第1の画像に適用し、それにより第1の画像で少なくとも1つの物体を認識し、物体認識アルゴリズムを領域に適用し、それにより領域で少なくとも1つの別の物体を認識する
方法。

(相違点1)
本願発明1は、「車両カメラの第2の画像から画像断片を抽出し、画像断片は第1の画像よりも狭い車両の周辺区域の領域を表しており、抽出のときには、車両の速度、ハンドルを切るステアリング角度、及びナビゲーション機器から読み出された想定される道路形状のうちの少なくとも1つのパラメータに基づいて第2の画像における画像断片の位置が決定され」るのに対し、
引用発明は、「車両カメラの第2の画像から画像断片を抽出し、画像断片は第1の画像よりも狭い車両の周辺区域の領域を表しており、抽出のときには、車両の速度、ハンドルを切るステアリング角度、及びナビゲーション機器から読み出された想定される道路形状のうちの少なくとも1つのパラメータに基づいて第2の画像における画像断片の位置が決定され」るものではない点

(相違点2)
物体認識アルゴリズムが適用される「領域」が、
本願発明1においては「第2の画像」から抽出された「画像断片」であるのに対し、
引用発明においては、「低輝度検出用画像から、高輝度検出画像ですでに求めている高輝度光点の位置が含まれる光点のブルーミング領域から画面の右側全てとするマスキング領域を除外した領域」であって、「画像断片」ではない点

(相違点3)
「物体認識アルゴリズム」が、
本願発明1においては、「第1の画像」に適用するものと、「第2の画像」に適用するものが、それぞれ「第1の物体認識アルゴリズム」、「第2の物体認識アルゴリズム」であるのに対し、
引用発明においては、「第1の物体認識アルゴリズム」、「第2の物体認識アルゴリズム」ではない点

(2)相違点についての判断
上記相違点1について検討する。
引用発明は、低輝度光点の位置検出を行う際に、低輝度検出画像から、ブルーミング領域から画面の右側全てとするマスキング領域を除外した領域において、低輝度光点の位置検出を行うものであって、低輝度検出画面から光点の位置を検出を行う際に、ブルーミング領域においては光点の位置を検出ができないためにその領域を含む領域を除外した領域で光点の位置を検出を行うものと認められ、引用文献1をみても、車両の状況に応じて、低輝度検出画像から抽出される位置が決定される画像断片を、低輝度輝度検出画像から画像断片を抽出すること、すなわち、「車両の速度、ハンドルを切るステアリング角度、及びナビゲーション機器から読み出された想定される道路形状のうちの少なくとも1つのパラメータに基づいて」「位置が決定され」る「画像断片」を「低輝度検出画像から」「抽出」することは開示されていない。
また、他の引用文献をみても、「車両の速度、ハンドルを切るステアリング角度、及びナビゲーション機器から読み出された想定される道路形状のうちの少なくとも1つのパラメータに基づいて」「位置が決定され」る「画像断片」を「低輝度検出画像から」「抽出」することは開示されていない。
そして、相違点1に係る構成が、自明のこととも認められない。
ここで、引用文献2には、「車両が走行する道路をTVカメラで撮影した画像から、白線と推定される線に沿った直線と下限線に囲まれた領域を車両認識領域として設定し、先行車両を認識するものにおいて、カーブ路、車速に応じて車両認識領域を設定する」技術が開示されているが、この技術は、車両認識領域を設定することを前提とするものであって、当該技術を、引用発明の「低輝度検出画面」に適用する動機付けは見当たらない。
したがって、当業者といえども、引用発明及び引用文献2?3に記載された技術的事項から、相違点1に係る本願発明1の「車両カメラの第2の画像から画像断片を抽出し、画像断片は第1の画像よりも狭い車両の周辺区域の領域を表しており、抽出のときには、車両の速度、ハンドルを切るステアリング角度、及びナビゲーション機器から読み出された想定される道路形状のうちの少なくとも1つのパラメータに基づいて第2の画像における画像断片の位置が決定され」るという構成を容易に想到することはできない。
よって、相違点2、3について検討するまでもなく、本願発明1は、当業者であっても、引用発明及び引用文献2?3に記載された技術事項に基づいて容易に発明できたものとはいえない。

2 本願発明2?12について
本願発明2?12も、上記相違点1に係る、本願発明1の「車両カメラの第2の画像から画像断片を抽出し、画像断片は第1の画像よりも狭い車両の周辺区域の領域を表しており、抽出のときには、車両の速度、ハンドルを切るステアリング角度、及びナビゲーション機器から読み出された想定される道路形状のうちの少なくとも1つのパラメータに基づいて第2の画像における画像断片の位置が決定され」るという同一の構成を有しているから、本願発明1と同じ理由により、当業者であっても、引用発明及び引用文献2?3に記載された技術事項に基づいて容易に発明できたものとはいえない。

第6 原査定について
上記第3?第5のとおり、本願発明1?12は、原査定において引用された引用文献1?3に記載された発明に基づいて、容易に発明できたものとはいえない。
したがって、原査定を維持することはできない。

第7 むすび
以上のとおり、原査定の理由によっては、本願を拒絶することはできない。
また、他に本願を拒絶すべき理由を発見しない。
よって、結論のとおり審決する。
 
審決日 2017-06-02 
出願番号 特願2014-513977(P2014-513977)
審決分類 P 1 8・ 121- WY (G06T)
最終処分 成立  
前審関与審査官 佐藤 実  
特許庁審判長 篠原 功一
特許庁審判官 藤井 浩
小池 正彦
発明の名称 車両の周辺区域にある物体を認識する方法および装置  
代理人 高橋 始  
代理人 大場 玲児  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ