• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 特許、登録しない(前置又は当審拒絶理由) H04N
管理番号 1354571
審判番号 不服2017-11248  
総通号数 238 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2019-10-25 
種別 拒絶査定不服の審決 
審判請求日 2017-07-28 
確定日 2019-08-21 
事件の表示 特願2015-549913「ビデオ再生方法、端末、およびシステム」拒絶査定不服審判事件〔平成26年 7月 3日国際公開、WO2014/100966、平成28年 2月25日国内公表、特表2016-506167〕について、次のとおり審決する。 
結論 本件審判の請求は、成り立たない。 
理由 第1 手続の経緯
本願は、2012年(平成24年)12月25日を国際出願日とする出願であって、その手続の経緯は以下のとおりである。

平成27年 6月24日:手続補正書の提出
平成28年 6月20日:拒絶理由通知
平成28年 9月28日:意見書、手続補正書の提出
平成29年 3月24日:拒絶査定
平成29年 7月28日:拒絶査定不服審判請求
平成29年 7月28日:手続補正書の提出
平成30年 8月28日:拒絶理由通知(当審)
平成31年 2月 4日:意見書、手続補正書の提出

第2 本願発明
本願の請求項1に係る発明(以下、「本願発明」という。)は、平成31年2月4日付けの手続補正により補正された特許請求の範囲の請求項1に記載された事項により特定される、次のとおりのものである。
なお、本願発明の各構成の符号は、説明のために当審において付与したものであり、以下、構成A?構成Eと称する。

(本願発明)
(A)ビデオ再生方法において、
(B)元の再生画像を少なくとも2つの対象領域に分割するステップと、
(C)前記少なくとも2つの対象領域の中で、トリガイベントが発生する第1の対象領域を決定するステップと、
(D)前記第1の対象領域の中に表示される第1のビデオ画像の復号データを取得するステップと、
(E)前記第1のビデオ画像の前記復号データを、指定された再生ウィンドウに描画するステップであって、前記指定された再生ウィンドウは前記第1の対象領域よりも大きい、ステップと、を備え、
(C)前記トリガイベントが発生する前記第1の対象領域を決定する前記ステップは、
(C1)サーバから、前記元の再生画像の中のトリガイベント発生ポイントの座標メタデータを取得すること、および、
(C2)前記座標メタデータに従って、前記トリガイベント発生ポイントが属する前記対象領域を前記第1の対象領域として決定することを含む
(A)ことを特徴とするビデオ再生方法。

第3 当審の拒絶の理由
平成30年8月28日付けで当審が通知した拒絶の理由は、概略、以下のとおりである。

この出願の請求項1?13に係る発明は、その出願前日本国内または外国において頒布された下記の刊行物に記載された発明又は電気通信回線を通じて公衆に利用可能となった発明に基いて、その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。


1.特開2010-136099号公報
2.特開2004-120341号公報

第4 引用文献の記載及び引用発明
1 引用文献1
(1)引用文献1の記載事項
当審の拒絶の理由に引用された引用文献1である特開2010-136099号公報には、「画像処理装置及び方法、画像処理システム、並びに、画像処理プログラム」(発明の名称)に関し、図面とともに次に掲げる事項が記載されている。
なお、下線は、強調のために当審で付したものである。

ア「【技術分野】
【0001】
本発明は、複数の動体を追尾表示する画像処理装置及び方法、画像処理システム、並びに、画像処理プログラムに関する。」

イ「【発明を実施するための最良の形態】
【0015】
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
【0016】
図1は、本発明を適用した第1の実施の形態における画像処理システム1を示す図である。画像処理システム1は、画像送信装置2と画像処理装置3とがLAN(Local Area Network)やインターネット等のネットワーク4を介して接続された構成を備える。」

ウ「【0017】
図2は、画像送信装置2及び画像処理装置3の内部構成を示す図である。画像送信装置2は、撮像信号より生成した画像信号をネットワーク4を介して画像処理装置3に送信する。画像処理装置3は、ネットワーク4を介して画像送信装置2より受信した画像信号に対して所定の信号処理を施す。そして、画像処理装置3は、撮影領域の画像である全体画像と、全体画像より追尾対象物である動体を含む領域を切り出して得られる切出画像とを別々のウィンドウに表示させる。
【0018】
画像送信装置2は、カメラ部10と、画像データ処理部11と、外部センサ12と、データ送信部13とを備える。カメラ部10は、撮像部101と、撮像信号処理部102とを備える。また、画像データ処理部11は、エンコーダ(ENC)103と、動体/不動体検知部104と、メタデータ生成部105とを備える。
【0019】
カメラ部10において、撮像部101は、撮像レンズ(図示せず)と、CCD(Charged Coupled Device)又はCMOS(Complementary Metal-Oxide Semiconductor)からなる撮像素子(図示せず)とを有する。撮像部101は、撮像素子が撮像レンズを介して所定領域の画像を撮像して撮像信号を生成し、この撮像信号を撮像信号処理部102に供給する。撮像信号処理部102は、撮像部101より供給された撮像信号に対し、サンプルホールド、利得制御、A/D(Analog to Digital)変換等の処理や、ホワイトバランス調整、ガンマ補正等の処理を行う。そして、撮像信号処理部102は、これらの処理を経て生成された画像データを画像データ処理部11のエンコーダ103及び動体/不動体検知部104に供給する。
【0020】
エンコーダ103は、撮像信号処理部102より供給された画像データに対してMPEG(Moving Picture Experts Group)-4符号化方式に基づく符号化処理を行い、圧縮画像データをデータ送信部13に供給する。
【0021】
動体/不動体検知部104は、撮像信号処理部102より供給された画像データから動体及び不動体を検知する処理を行う。動体/不動体検知部104は、動体、不動体の検知情報をメタデータ生成部105に供給する。
【0022】
また、メタデータ生成部105には、外部センサ12から動体の検知情報が供給される。外部センサ12は、例えば、赤外線センサ、温度センサ、音センサ等からなる。外部センサ12は、赤外線、温度、音等により動体を検知した旨の情報をメタデータ生成部105に供給する。メタデータ生成部105は、動体/不動体検知部104から供給される動体、不動体の検知情報、及び、外部センサ12の検知情報を含むメタデータを生成してデータ送信部13に供給する。
【0023】
データ送信部13は、エンコーダ103より供給された画像データをTCP/IP(Transmission Control Protocol/Internet Protocol)に基づいてネットワーク4を介して画像処理装置3に送信する。また、データ送信部13は、メタデータ生成部105から供給されたメタデータを、ネットワーク4を介して画像処理装置3に送信する。」

エ「【0024】
画像処理装置3は、データ受信部111と、位置情報抽出部112と、全体画像生成部113と、切出画像生成部114と、全体画像表示部115と、切出画像表示部116とを備える。
【0025】
画像処理装置3は、図示しないCPU(Central Processing Unit)、作業用RAM(Random Access Memory)、本実施の形態における画像処理プログラムや、データ等を記憶するROM(Read Only Memory)等を備える。そして、CPUが、画像処理プログラムを実行することにより、画像処理装置3における一連の処理を行う。この画像処理プログラムは、例えばCD-ROM等の記録媒体に記録され、外部より提供されるようにしてもよい。
【0026】
データ受信部111は、画像送信装置2より画像データ及びメタデータを受信する。データ受信部111は、受信した画像データを全体画像生成部113に供給する。また、データ受信部111は、受信した画像データ及びメタデータを位置情報抽出部112に供給する。
【0027】
位置情報抽出部112は、動体、不動体の検知情報のメタデータに基づいて、データ受信部111にて受信した画像データより動体が検知された画像フレームを特定する。画像処理装置3は、全体画像表示ウィンドウに表示された全体画像から、ユーザの操作に応じて複数の追尾対象物を指定する操作部(図示せず)をさらに備える。動体の内、追尾対象物となる動体は、ユーザの操作に応じて指定されて設定される。位置情報抽出部112には、その旨の設定信号が供給される。
【0028】
位置情報抽出部112は、動体が検知された画像フレームに対し所定の演算処理を施して画像中における追尾対象物である動体の位置情報を抽出し、抽出した位置情報を切出画像生成部114に供給する。なお、何れの動体を追尾対象物とするかは、例えばユーザの設定操作により特定される。また、位置情報抽出部112は、データ受信部111が受信した画像データを切出画像生成部114に供給する。
【0029】
なお、位置情報抽出部112は、GPS(Global Positioning System)等により外部から追尾対象物の位置情報を取り込み、この追尾対象物の位置情報を画像中の位置情報として変換する処理を行うようにしてもよい。
【0030】
全体画像生成部113は、データ受信部111より供給された画像データの画像を全体画像として全体画像表示部115に供給する。
【0031】
切出画像生成部114は、位置情報抽出部112より供給された追尾対象物の位置情報に基づいて、追尾対象物の相対距離を算出し、この相対距離が所定値、すなわち所定の閾値よりも大きいか否かを判断する。この相対距離は、全体画像内の追尾対象物の大きさと全体画像内の追尾対象物間の距離との何れか一方又は両方に基づいて算出される。そして、切出画像生成部114は、この判断に基づいて切出範囲を特定し、この切出範囲の情報を画角情報として全体画像生成部113に供給する。全体画像生成部113は、切出画像生成部114より供給された画角情報に基づく切出範囲の画像を全体画像より切り出して切出画像生成部114に供給する。
【0032】
ここで、切出画像生成部114は、位置情報抽出部112によって抽出された位置情報に基づいて算出した追尾対象物間の相対距離が所定の閾値以下である場合には、位置情報に基づいて、追尾対象物間の相対距離が所定の閾値以下である追尾対象物が全て含まれる1つの切出範囲を特定する。そして、この切出範囲の画像を切出画像として生成する。一方、切出画像生成部114は、追尾対象物間の相対距離が所定の閾値よりも大きい場合には、位置情報に基づいて、この相対距離が所定の閾値よりも大きく離れた追尾対象物がそれぞれ含まれる2つの切出範囲を特定する。そして、切出画像生成部114は、特定された切出範囲の画像を切出画像としてそれぞれ生成する。
【0033】
切出画像生成部114は、生成された切出画像をユーザの操作に応じて又は自身の判断により任意の拡大率で拡大する。また、切出画像生成部114は、ユーザの操作に応じて又は自身の判断により拡大された画像を任意の縮小率で縮小してもよい。切出画像生成部114は、生成した切出画像を切出画像表示部116に供給する。切出画像生成部114は、切出画像の拡大率又は縮小率をユーザの設定操作に応じて任意に変更することが可能である。また、切出範囲は、位置情報抽出部112によって抽出された追尾対象物の位置情報に基づいて特定され、追尾対象物が完全に含まれるようになる。
【0034】
なお、切出画像生成部114は、このような追尾対象物の位置情報に基づく追尾対象物間の演算処理を繰り返すことにより、3以上の切出画像を生成することができる。
【0035】
画像処理装置3は、LCD(Liquid Crystal Display)等のディスプレイを備える。画像処理装置3が備えるディスプレイは、例えば図3に示すような表示画面21を表示する。表示画面21において、全体画像表示ウィンドウ22には、所定領域の全体画像が表示される。また、表示画面21において、切出画像表示ウィンドウ24には、全体画像表示ウィンドウ22に表示される全体画像から切り出された切出画像が表示される。全体画像表示部115は、全体画像生成部113より供給された全体画像を全体画像表示ウィンドウ22に表示する。また、切出画像表示部116は、切出画像生成部114より供給された切出画像を切出画像表示ウィンドウ24に表示する。
【0036】
このように、画像処理装置3は、全体画像生成部113及び全体画像表示部115を備えて所定領域の全体画像を全体画像表示ウィンドウに表示するように制御する。また、画像処理装置3は、切出画像生成部114及び切出画像表示部116を備えて、全体画像に含まれる複数の追尾対象物を拡大して切出画像表示ウィンドウに表示するように制御する。」

オ「【0037】
なお、画像送信装置2から送信される画像データの画像は、動画であっても静止画であってもよい。
【0038】
画像が動画である場合には、全体画像表示ウィンドウ、切出画像表示ウィンドウには、リアルタイムの画像を表示することができる。」

(2)引用文献1に記載された発明
引用文献1に記載された発明を以下に認定する。

ア 画像処理システムについて
上記(1)アによれば、引用文献1には、「本発明は、複数の動体を追尾表示する画像処理装置及び方法」に関すると記載されている。
また、上記(1)イの段落0016には、「本発明を適用した第1の実施の形態における画像処理システム1」について、「画像処理システム1は、画像送信装置2と画像処理装置3とがLAN(Local Area Network)やインターネット等のネットワーク4を介して接続された構成を備える」と記載されている。

以上によれば、引用文献1には、『画像送信装置と画像処理装置とがネットワークを介して接続された構成を備える画像処理システムの画像処理装置における複数の動体を追尾表示する方法』に関する発明が記載されている。

イ 画像送信装置について
上記(1)ウの段落0018には、「画像送信装置2」は、「カメラ部10」と、「画像データ処理部11」と、「データ送信部13」とを備え、「カメラ部10は、撮像部101と、撮像信号処理部102」とを備え、「画像データ処理部11は、エンコーダ(ENC)103と、動体/不動体検知部104と、メタデータ生成部105とを備える」と記載されている。
また、上記(1)ウの段落0020には、「エンコーダ103は、撮像信号処理部102より供給された画像データに対してMPEG(Moving Picture Experts Group)-4符号化方式に基づく符号化処理を行い、圧縮画像データをデータ送信部13に供給する」と記載されている。
また、上記(1)ウの段落0021には、「動体/不動体検知部104は、撮像信号処理部102より供給された画像データから動体及び不動体を検知する処理」を行い、「動体/不動体検知部104は、動体、不動体の検知情報をメタデータ生成部105に供給する」と記載されている。
また、上記(1)ウの段落0022には、「メタデータ生成部105は、動体/不動体検知部104から供給される動体、不動体の検知情報」を含む「メタデータを生成してデータ送信部13に供給する」と記載されている。
また、上記(1)ウの段落0023には、「データ送信部13は、エンコーダ103より供給された画像データをTCP/IP(Transmission Control Protocol/Internet Protocol)に基づいてネットワーク4を介して画像処理装置3」に送信し、「データ送信部13は、メタデータ生成部105から供給されたメタデータを、ネットワーク4を介して画像処理装置3に送信する」と記載されている。
また、上記(1)オの段落0037には、「画像送信装置2から送信される画像データの画像は、動画」であってもよいと記載されている。

以上によれば、引用文献1には、『画像送信装置は、カメラ部と、画像データ処理部と、データ送信部とを備え、
カメラ部は、撮像部と、撮像信号処理部とを備え、画像データ処理部は、エンコーダ(ENC)と、動体/不動体検知部と、メタデータ生成部とを備え、
エンコーダは、撮像信号処理部より供給された画像データに対して符号化処理を行い、圧縮画像データをデータ送信部に供給し、
動体/不動体検知部は、撮像信号処理部より供給された画像データから動体及び不動体を検知する処理を行い、動体、不動体の検知情報をメタデータ生成部に供給し、
メタデータ生成部は、動体/不動体検知部から供給される動体、不動体の検知情報を含むメタデータを生成してデータ送信部に供給し、
データ送信部は、エンコーダより供給された画像データをネットワークを介して画像処理装置に送信し、メタデータ生成部から供給されたメタデータを、ネットワークを介して画像処理装置に送信するものであり、
画像送信装置から送信される画像データの画像は、動画である』ことが記載されている。

ウ 画像処理装置について
上記(1)エの段落0024には、「画像処理装置3は、データ受信部111と、位置情報抽出部112と、全体画像生成部113と、切出画像生成部114と、全体画像表示部115と、切出画像表示部116とを備える」と記載されている。
また、上記(1)エの段落0026には、「データ受信部111は、画像送信装置2より画像データ及びメタデータを受信」し、「データ受信部111は、受信した画像データを全体画像生成部113に供給」し、「データ受信部111は、受信した画像データ及びメタデータを位置情報抽出部112に供給する」と記載されている。
また、上記(1)エの段落0027には、「位置情報抽出部112は、動体、不動体の検知情報のメタデータに基づいて、データ受信部111にて受信した画像データより動体が検知された画像フレームを特定する」と記載されている。
また、上記(1)エの段落0028には、「位置情報抽出部112は、動体が検知された画像フレームに対し所定の演算処理を施して画像中における追尾対象物である動体の位置情報を抽出し、抽出した位置情報を切出画像生成部114に供給する」と記載されている。
また、上記(1)エの段落0030には、「全体画像生成部113は、データ受信部111より供給された画像データの画像を全体画像として全体画像表示部115に供給する」と記載されている。

上記(1)エの段落0031には、「切出画像生成部114は、位置情報抽出部112より供給された追尾対象物の位置情報に基づいて、追尾対象物の相対距離を算出し、この相対距離が所定値、すなわち所定の閾値よりも大きいか否かを判断」し、「切出画像生成部114は、この判断に基づいて切出範囲を特定し、この切出範囲の情報を画角情報として全体画像生成部113に供給する」と記載されている。
また、上記(1)エの段落0032には、「切出画像生成部114は、位置情報抽出部112によって抽出された位置情報に基づいて算出した追尾対象物間の相対距離が所定の閾値以下である場合には、位置情報に基づいて、追尾対象物間の相対距離が所定の閾値以下である追尾対象物が全て含まれる1つの切出範囲を特定する」と記載されている。
以上によれば、引用文献1には、「切出画像生成部114」が、『位置情報抽出部112より供給された追尾対象物の位置情報に基づいて、追尾対象物が全て含まれる1つの切出範囲を特定し、この切出範囲の情報を画角情報として全体画像生成部に供給する』ことが記載されている。

上記(1)エの段落0031には、「全体画像生成部113は、切出画像生成部114より供給された画角情報に基づく切出範囲の画像を全体画像より切り出して切出画像生成部114に供給する」と記載されている。
また、上記(1)エの段落0033には、「切出画像生成部114は、生成された切出画像をユーザの操作に応じて又は自身の判断により任意の拡大率で拡大」し、「切出画像生成部114は、生成した切出画像を切出画像表示部116に供給する」と記載されている。
また、上記(1)エの段落0035には、「全体画像表示部115は、全体画像生成部113より供給された全体画像を全体画像表示ウィンドウ22に表示」し、「切出画像表示部116は、切出画像生成部114より供給された切出画像を切出画像表示ウィンドウ24に表示する」と記載されている。
また、上記(1)オの段落0038には、「画像が動画である場合には、全体画像表示ウィンドウ、切出画像表示ウィンドウには、リアルタイムの画像を表示することができる」と記載されている。

以上によれば、引用文献1には、『画像処理装置は、データ受信部と、位置情報抽出部と、全体画像生成部と、切出画像生成部と、全体画像表示部と、切出画像表示部とを備え、
データ受信部が、画像送信装置より画像データ及びメタデータを受信し、受信した画像データを全体画像生成部に供給し、受信した画像データ及びメタデータを位置情報抽出部に供給することと、
位置情報抽出部が、動体、不動体の検知情報のメタデータに基づいて、データ受信部にて受信した画像データより動体が検知された画像フレームを特定し、動体が検知された画像フレームに対し所定の演算処理を施して画像中における追尾対象物である動体の位置情報を抽出し、抽出した位置情報を切出画像生成部に供給することと、
全体画像生成部が、データ受信部より供給された画像データの画像を全体画像として全体画像表示部に供給することと、
切出画像生成部が、位置情報抽出部より供給された追尾対象物の位置情報に基づいて、追尾対象物が全て含まれる1つの切出範囲を特定し、この切出範囲の情報を画角情報として全体画像生成部に供給することと、
全体画像生成部が、切出画像生成部より供給された画角情報に基づく切出範囲の画像を全体画像より切り出して切出画像生成部に供給することと、
切出画像生成部が、生成された切出画像をユーザの操作に応じて又は自身の判断により任意の拡大率で拡大し、生成した切出画像を切出画像表示部に供給することと、
全体画像表示部が、全体画像生成部より供給されたリアルタイムの全体画像を全体画像表示ウィンドウに表示することと、
切出画像表示部が、切出画像生成部より供給されたリアルタイムの切出画像を切出画像表示ウィンドウに表示すること』が記載されている。

エ まとめ
以上より、引用文献1には、次の発明(以下、「引用発明」という。)が記載されていると認められる。引用発明の各構成については、以下、構成a?構成c8と称する。

(引用発明)
(a)画像送信装置と画像処理装置とがネットワークを介して接続された構成を備える画像処理システムの画像処理装置における複数の動体を追尾表示する方法であって、
(b)画像送信装置は、カメラ部と、画像データ処理部と、データ送信部とを備え、
(b1)カメラ部は、撮像部と、撮像信号処理部とを備え、画像データ処理部は、エンコーダ(ENC)と、動体/不動体検知部と、メタデータ生成部とを備え、
(b2)エンコーダは、撮像信号処理部より供給された画像データに対して符号化処理を行い、圧縮画像データをデータ送信部に供給し、
(b3)動体/不動体検知部は、撮像信号処理部より供給された画像データから動体及び不動体を検知する処理を行い、動体、不動体の検知情報をメタデータ生成部に供給し、
(b4)メタデータ生成部は、動体/不動体検知部から供給される動体、不動体の検知情報を含むメタデータを生成してデータ送信部に供給し、
(b5)データ送信部は、エンコーダより供給された画像データをネットワークを介して画像処理装置に送信し、メタデータ生成部から供給されたメタデータを、ネットワークを介して画像処理装置に送信するものであり、
(b6)画像送信装置から送信される画像データの画像は、動画であり、
(c)画像処理装置は、データ受信部と、位置情報抽出部と、全体画像生成部と、切出画像生成部と、全体画像表示部と、切出画像表示部とを備え、
(c1)データ受信部が、画像送信装置より画像データ及びメタデータを受信し、受信した画像データを全体画像生成部に供給し、受信した画像データ及びメタデータを位置情報抽出部に供給することと、
(c2)位置情報抽出部が、動体、不動体の検知情報のメタデータに基づいて、データ受信部にて受信した画像データより動体が検知された画像フレームを特定し、動体が検知された画像フレームに対し所定の演算処理を施して画像中における追尾対象物である動体の位置情報を抽出し、抽出した位置情報を切出画像生成部に供給することと、
(c3)全体画像生成部が、データ受信部より供給された画像データの画像を全体画像として全体画像表示部に供給することと、
(c4)切出画像生成部が、位置情報抽出部より供給された追尾対象物の位置情報に基づいて、追尾対象物が全て含まれる1つの切出範囲を特定し、この切出範囲の情報を画角情報として全体画像生成部に供給することと、
(c5)全体画像生成部が、切出画像生成部より供給された画角情報に基づく切出範囲の画像を全体画像より切り出して切出画像生成部に供給することと、
(c6)切出画像生成部が、生成された切出画像をユーザの操作に応じて又は自身の判断により任意の拡大率で拡大し、生成した切出画像を切出画像表示部に供給することと、
(c7)全体画像表示部が、全体画像生成部より供給されたリアルタイムの全体画像を全体画像表示ウィンドウに表示することと、
(c8)切出画像表示部が、切出画像生成部より供給されたリアルタイムの切出画像を切出画像表示ウィンドウに表示することと、
(a)を備える方法。

2 引用文献2
(1)引用文献2の記載事項
当審の拒絶の理由に引用された引用文献2である特開2004-120341号公報には、「映像監視システム」(発明の名称)に関し、図面とともに次に掲げる事項が記載されている。
なお、下線は、強調のために当審で付したものである。

ア「【0024】
【発明の実施の形態】
本発明に係る映像監視システムの好適な実施形態を図面を用いて説明する。図1は、撮像環境の1例としてスーパーマーケットやコンビニエンスストアを監視する場合の例が示されている。これは、消費者の購買行動を調査するために行われる。すなわち、 消費者の年齢、購入商品、購入時間を調査し分析するものである。もちろん、 撮像環境としてはこれに限定されるものではなく、不審者・動物の侵入の監視、駐車場における空きスペースの監視、異常事態の発生(火事等)の監視をする撮像環境の場合にも適用可能である。
【0025】
<システム構成>
撮像環境には、撮像カメラ1がセットされる他、人の存在を検出する赤外線センサー2が適宜の場所に1つ又は複数個セットされる。ただし、センサー2は、必ずしも必要ではない。撮像カメラ1には、撮像レンズ1aが装着される。撮像レンズ1aは、広角レンズや魚眼レンズが装着されるが、特定の画角のものに限定されるものではない。CCDセンサー1bは、映像信号取得手段として機能するものである。映像信号取得手段として、C-MOS型や今後登場するであろう新型のものを用いてもよい。撮像カメラ1は、アナログ式、デジタル式のいずれであってもよい。CCDの画素数としては、例えば、300万程度のものを使用する。
【0026】
次に、映像監視システム10について説明する。この映像監視システム10は、コンピュータ(パソコンや、後述の<別実施形態>による専用コンピュータとカメラ一体システム等)により構成することができる。映像データ受信部11は、撮像カメラ1により取得された映像データを受信する。撮像カメラ1と、映像監視システム10とは、適宜の通信回線により接続される。例えば、LANによる接続がある。映像データ受信部11により受信される映像データは高解像度の第1解像度である。
【0027】
解像度変換手段12は、第1解像度を有する全体映像データを第1解像度よりも低解像度である第2解像度の全体映像データに変換する。低解像度に変換する方法は、公知の方法で行うことができる。例えば、データを間引く方法(リサイズ処理)がある。例えば、1ライン毎にデータを間引くことでデータ量を半分にできる。なお、全体映像データとは、1画面(1フレーム)を構成する映像データのことをいうものとする。
【0028】
トリミング手段13は、映像データ受信部11により受信された全体映像データをトリミングして、トリミング映像データを切り出す。トリミングされる領域は、1画面の中の一部の領域の映像である。また、切り出されるトリミング映像データは、高解像度の第1解像度のままである。画像圧縮部14は、トリミングされた映像データを圧縮する。画像圧縮は公知の方法で行えばよく、例えば、JPEGやGIFに基づいて圧縮することができる。これにより、データ量を減らすことができる。
【0029】
映像データ処理手段15は、第2解像度の全体映像データと第1解像度のトリミング映像データを記録又は転送させる処理を行う。映像データは、記憶装置16に記録される。記憶装置16は、大容量の記憶装置であり、例えば、ハードディスクが利用される。それ以外に、DVDやテープ等を記憶装置として用いても良い。全体映像データは、低解像度に変換されているので、記憶装置の容量を無駄に消費することがない。映像データ出力部17は、記憶装置16に記録されている全体映像データ及びトリミング映像データを再生装置で再生するため、これらデータを転送(送信)させる。
【0030】
画像処理部18は、映像データ受信部11を介して受信した映像データを画像処理して特徴抽出等の処理を行う。例えば、画像の中のどの商品が取り出されたかを画像処理技術を用いて抽出する。また、その商品が置かれている場所(全体画像の中のどの場所か)も演算で求めることができる。すなわち、 全体映像の中の特定位置を決定する特定位置決定手段としての機能も有している。
【0031】
本システムのような映像監視システムにおいて撮影される映像は、あまり動きがないのが普通である。すなわち、 ある瞬間における映像と、次の瞬間における映像とに差がないのが通常であるから、差分を演算して0になれば何も変化は生じていない、すなわち、 抽出すべき特徴はないものと判断可能である。従って、差分が発生すれば、それに基づいて特徴及びその位置を検出することが可能である。特徴としては、その他に動体の検出や高輝度部分の検出等、種々の例が考えられる。
【0032】
トリミング設定部19は、全体映像データの中からトリミング映像データを切り出す場合に、どの部分を切り出すのかを設定する機能を有する。詳細は後述する。例えば、手動入力部24(キーボードやマウス)を介してオペレータが特定の位置を設定することができる。また、画像処理部18により決定された特定位置に基づいて設定することも可能である。また、赤外線センサー2により変化が検出された場所に基づいて設定することも可能である。トリミングされる部分は、常に一定とは限らず、センサー2等の出力に応じて変化しうるものである。赤外線センサー2からの検出信号は、インターフェース23を介してトリミング設定部19に入力される。
【0033】
映像監視システム1により取得された映像データは、再生装置により再生される。再生装置としては、パソコン30のモニターや携帯電話31のモニターが例としてあげられるが、特定の構造のモニターに限定されるものではない。映像監視システム1から再生装置への映像データの転送は、適宜の通信手段を用いて行われる。例えば、LAN、インターネット等により映像データが転送される。全体映像データは、低解像度に変換されているから、大容量回線でないインフラでも支障なく映像データを転送することができる。また、トリミング映像データは高解像度のままであるが、サイズはもともと小さいので、これも支障なく転送可能である。
【0034】
<トリミング方式>
次に、トリミング方式の種々の例を説明する。図2は、第1の例を示す図である。この例では、画面全体を縦5×横5の25の区画に予め分割している。もちろん、分割の個数については、適宜変更可能である。この25の論理的な区画から、トリミングする領域を予め設定することができる。トリミング領域の設定は、次の5通りが考えられる。
【0035】
(1)1aから5eまでの各1区画の指定
全体映像の25分の1の大きさのトリミング映像を指定する。
(2)正方形の4区画をまとめて指定
例えば、1a,2a,1b,2bを指定した正方形の領域を指定する。また、任意の隣接する4区画(例えば、1c,2c,3c,4c)を指定できるようにしてもよい。
(3)正方形の9区画をまとめて指定
例えば、1a?3cによる正方形の領域を指定する。また、任意の隣接する9区画を指定できるようにしても良い。
(4)正方形の16区画をまとめて指定
例えば、1c?4dによる正方形の領域を指定する。また、任意の隣接する16区画を指定できるようにしても良い。
【0036】
(5)全区画をまとめて指定
1a?5eの全25区画をまとめて指定する。すなわち、 画面全体の指定と同じである。
【0037】
上記によるいずれかのトリミング領域を指定する。この指定は、手動入力部24を介してオペレータが行う。例えば、商品陳列棚の特定の場所に置いてある商品についての売れ行き状況を監視する場合は、予めトリミングする区画を設定しておくことができる。トリミング設定部19には、指定されたトリミング情報が設定される。トリミング手段13は、指定された区画のトリミング映像データを切り出す。」

(2)引用文献2に記載された技術
上記(1)アによれば、引用文献2には、以下の技術(以下、「文献2技術」という。)が記載されていると認められる。

(文献2技術)
映像監視システムにおいて、全体映像データの中からトリミング映像データを切り出す場合に、画面全体を縦5×横5の25の区画に予め分割し、画像処理部が映像データを画像処理して、画像の中のどの商品が取り出されたかを抽出し、その商品が置かれている場所も演算で求め、全体映像の中の特定位置を決定し、画像処理部により決定された特定位置に基づいて、この25の論理的な区画から、トリミングする領域を指定する技術。

3 引用文献3
(1)引用文献3の記載事項
周知技術を示す文献として引用する特開2008-187328号公報(以下、「引用文献3」という。)には、「ネットワーク機器、ネットワークシステムおよび監視カメラシステム」(発明の名称)に関し、図面とともに次に掲げる事項が記載されている。
なお、下線は、強調のために当審で付したものである。

ア「【発明を実施するための最良の形態】
【0017】
以下、図面を参照しながら、この発明の実施の形態について説明する。
【0018】
図1は、第1のネットワーク機器11と第2のネットワーク機器12とがネットワーク13を介して接続されたネットワークシステム10である。第1のネットワーク機器11は、例えば、監視カメラ、カメラサーバ等である。また、第2のネットワーク機器12は、例えば、監視装置(コンピュータ)、記録装置(レコーダ)等である。
【0019】
第1のネットワーク機器11は、動体または不動体を検知する検知部を有している。この検知部は、画像データを処理し、動体または不動体を検知する。この場合、検知部は、フレーム毎に、動体または不動体の検知動作を行う。例えば、第1のネットワーク機器11が監視カメラ等の撮像機器である場合、当該第1のネットワーク機器11では、自身が撮像して生成した画像データを処理して、動体または不動体の検知が行われる。この場合、第1のネットワーク機器11は、データ生成部を有している。また、例えば、第1のネットワーク機器11がカメラサーバ等の録画機器である場合、当該第1のネットワーク機器11では、他の機器から供給される画像データ、あるいは自身が記録メディアから再生した画像データを処理して、動体または不動体の検知が行われる。
【0020】
第1のネットワーク機器は、検知情報(検知部の検知状態を示す情報および検知部で検知された動体または不動体に関する情報)を含むメタデータを生成するメタデータ生成部を有している。図2は、例えば、後述する監視カメラで生成されて監視装置に送信される、メタデータの1フレーム分を示している。このメタデータには、時刻情報、位置情報および検知情報が含まれている。
【0021】
時刻情報は、時刻およびフレームカウントからなっている。時刻は現在時刻を示す時分秒であり、フレームカウントは監視カメラが起動してからのフレーム数である。位置情報は、パン位置、チルト位置およびズーム倍率からなっている。検知情報は、検知ステータス、オブジェクト数、およびオブジェクト情報からなっている。
【0022】
検知ステータスは、検知部の検知状態を示す情報を構成している。この検知ステータスは、例えば、検知中(0x01)、背景取得中(0x02)、PTZ(Pan Tilt Zoom)動作中(0x03)、映像異常(0x04)、機器異常(0x05)等である。なお、検知部では、検知中である場合には動体または不動体の検知が行われるが、その他の場合には動体または不動体の検知は行われず、検知停止中となる。
【0023】
オブジェクト数は、検知された動体または不動体の個数である。オブジェクト情報は、オブジェクト数分だけ存在する。オブジェクト情報は、検知部で検知された動体または不動体に関する情報を構成している。オブジェクト数が0である場合、オブジェクト情報は存在しない。オブジェクト数が0となるのは、検知ステータスが検知中(0x01)で、検知部で検知が行われたが、動体または不動体が検知されなかった場合、あるいは、検知ステータスが検知中以外で、検知部で検知が行われなかった場合が該当する。
【0024】
オブジェクト情報は、オブジェクトクラス、座標、差分値、検知時間からなっている。オブジェクトクラスは、動体検知であるか不動体検知であるかを示す情報である。座標は、検知された動体または不動体の位置を示す座標である。差分値は、検知された動体または不動体と背景との画素レベルの差である。検知時間は、検知された動体または不動体が最初に検知された時刻である。この検知時間により、動体または不動体の滞在時間を求めることができる。
【0025】
第1のネットワーク機器11は、第2のネットワーク機器12に、画像データおよびメタデータを送信するデータ送信部を有している。データ送信部は、画像データの各フレームに対応して、図2に示すようなメタデータを送信する。ただし、データ送信部は、検知情報を構成する各情報に変化がないフレームにあっては、伝送容量を低減するために、当該メタデータを送信しない。例えば、動体または不動体が検知されないフレームが連続する場合、最初のフレームでのみメタデータの送信が行われる。また、検知中以外の所定の検知ステータスにあるフレームが連続する場合、最初のフレームでのみメタデータの送信が行われる。
【0026】
第2のネットワーク機器12は、第1のネットワーク機器11から送信されてくる画像データおよびメタデータを受信するデータ受信部と、この受信された画像データおよびメタデータ記録するデータ記録部を有している。上述したように、画像データの各フレームに対応して送信されてくるメタデータには、検知部の検知状態を示す情報を構成する検知ステータスが含まれているので、第2のネットワーク機器12側では、第1のネットワーク機器11の検知部における検知状態を認識できる。」

(2)引用文献3に記載された技術
上記(1)アによれば、引用文献3には、次の技術(以下、「文献3技術」という。)が記載されていると認められる。

(文献3技術)
「監視カメラ、カメラサーバ等である第1のネットワーク機器と、監視装置である第2のネットワーク機器とがネットワークを介して接続されたネットワークシステムにおいて、
第1のネットワーク機器が、動体または不動体を検知する検知部と、
検知情報(検知部の検知状態を示す情報および検知部で検知された動体または不動体に関する情報)を含むメタデータを生成するメタデータ生成部と、
第2のネットワーク機器に、画像データおよびメタデータを送信するデータ送信部を有し、
このメタデータには検知情報が含まれ、検知情報はオブジェクト情報からなり、オブジェクト情報は座標からなり、座標は検知された動体または不動体の位置を示す座標であり、
第2のネットワーク機器は、第1のネットワーク機器から送信されてくる画像データおよびメタデータを受信する技術。」

第5 対比
次に、本願発明と、引用発明を対比する。

1 構成Aについて
構成aの「画像処理装置における複数の動体を追尾表示する方法」は、「画像送信装置より画像データ」を受信し(構成c1)、「画像データの画像を全体画像」とし(構成c3)、「切出範囲の画像」を全体画像より切り出し(構成c5)、「生成された切出画像」を拡大し(構成c6)、「リアルタイム」の「全体画像」と「切出画像」を表示する(構成c7、構成c8)ものであり、「画像データの画像は、動画」である(構成b6)。
よって、構成aの「方法」は、「動画」である「画像データ」を表示するものといえる。
そして、「動画」である「画像データ」を表示することは、「ビデオ」を「再生」することといえる。

したがって、本願発明と引用発明は、「ビデオ再生方法」である点で一致する。

2 構成B、Cについて
構成c2の「画像データ」は、全体画像として全体画像表示ウィンドウに表示される(構成c3、構成c7)ものであり、表示される画像は「再生画像」といえるから、構成Bの「元の再生画像」に相当する。
また、構成c2の「画像データ」に「動体が検知」されることは、構成Cの「トリガイベントが発生」することに相当する。
また、構成c4の「追尾対象物」は構成c2の「検知」された「動体」であるから、構成c4の「追尾対象物が全て含まれる1つの切出範囲」は、構成Cの「トリガイベントが発生する第1の対象領域」に相当する。
以上によれば、構成c2の「位置情報抽出部」が、「動体、不動体の検知情報のメタデータに基づいて、データ受信部にて受信した画像データより動体が検知された画像フレームを特定し、動体が検知された画像フレームに対し所定の演算処理を施して画像中における追尾対象物である動体の位置情報を抽出し、抽出した位置情報を切出画像生成部に供給」し、構成c4の「切出画像生成部」が、「位置情報抽出部より供給された追尾対象物の位置情報に基づいて、追尾対象物が全て含まれる1つの切出範囲を特定」することは、構成B、構成Cと、「元の再生画像の中で、トリガイベントが発生する第1の対象領域を決定する」ことである点で共通する。

したがって、本願発明と引用発明は、「元の再生画像の中で、トリガイベントが発生する第1の対象領域を決定するステップ」を備える点で共通する。
ただし、「元の再生画像」について、本願発明は、「元の再生画像を少なくとも2つの対象領域に分割するステップ」を備えるのに対し、引用発明は、当該「元の再生画像を少なくとも2つの対象領域に分割するステップ」を備えていない点で、両発明は相違する。
また、それに伴い、「トリガイベントが発生する第1の対象領域を決定するステップ」が、本願発明では、「前記少なくとも2つの対象領域の中」で、トリガイベントが発生する第1の対象領域を決定するステップであるのに対し、引用発明は、「前記少なくとも2つの対象領域の中」で、トリガイベントが発生する第1の対象領域を決定するステップではない点で、両発明は相違する。

3 構成Dについて
上記2で述べたとおり、構成c4の「切出範囲」は、構成Cの「第1の対象領域」に相当するから、構成c5の「切出範囲」は、構成Dの「前記第1の対象領域」に相当する。

構成c5の「全体画像」は、「データ受信部より供給された画像データ」の「画像」であり(構成c3)、構成c3の「画像データ」は、構成b2の「エンコーダ」で「符号化処理」を行い、「圧縮画像データ」とされたものであり、「画像データ」の「画像」は、「動画」である(構成b6)。
ここで、動画が符号化処理された「圧縮画像データ」を「画像」にするためには、復号の処理が必要であることは、動画像符号化の技術分野における技術常識であるから、構成c3の「画像」である構成c5の「全体画像」は、動画の復号されたデータ、すなわち、ビデオ画像の復号データといえる。
よって、構成c5の「全体画像」より切り出された「切出範囲の画像」は、構成Dの「前記第1の対象領域の中に表示される第1のビデオ画像の復号データ」に相当する。

以上によれば、構成c5の「全体画像生成部」が、「切出範囲の画像を全体画像」より切り出すことは、構成Dの「前記第1の対象領域の中に表示される第1のビデオ画像の復号データを取得する」ことに相当する。

したがって、本願発明と引用発明は、「前記第1の対象領域の中に表示される第1のビデオ画像の復号データを取得するステップ」を備える点で一致する。

4 構成Eについて
構成c8の「切出画像」は、構成c5の「切出範囲の画像」を構成c6の「切出画像生成部」で拡大したものであり、また、上記3で述べたとおり、構成c5の「切出範囲の画像」は、構成Dの「前記第1の対象領域の中に表示される第1のビデオ画像の復号データ」に相当するから、構成c8の「切出画像」は、構成Eの「前記第1のビデオ画像の前記復号データ」に相当する。

構成c8の「切出画像表示ウィンドウ」は、切出画像を表示するために指定されたウィンドウといえるから、構成Eの「指定された再生ウィンドウ」に相当する。
また、構成c8の「切出画像表示部」が、「切出画像」を「表示」することは、「切出画像」を「描画」することといえる。
また、構成c8の「切出画像表示部」は、構成c5の「切出範囲の画像」を構成c6の「切出画像生成部」で拡大した「切出画像」を「切出画像表示ウィンドウ」に表示するから、構成c8の「切出画像表示ウィンドウ」は、構成c5の「切出範囲」よりも大きいといえる。
また、上記3で述べたとおり、構成c5の「切出範囲」は、構成Dの「前記第1の対象領域」に相当するから、構成Eの「前記第1の対象領域」に相当する。

以上によれば、構成c8の「切出画像表示部」が、「切出画像生成部より供給されたリアルタイムの切出画像を切出画像表示ウィンドウに表示する」ことは、構成Eの「前記第1のビデオ画像の前記復号データを、指定された再生ウィンドウに描画する」ことであって、「前記指定された再生ウィンドウは前記第1の対象領域よりも大きい」ことに相当する。

したがって、本願発明と引用発明は、「前記第1のビデオ画像の前記復号データを、指定された再生ウィンドウに描画するステップであって、前記指定された再生ウィンドウは前記第1の対象領域よりも大きい、ステップ」を備える点で一致する。

5 構成C1、C2について
(1)構成C1について
構成bの「画像送信装置」は、画像を提供するものであるから、「サーバ」といえ、構成C1の「サーバ」に相当する。

構成c1の「メタデータ」は、構成b3の「動体/不動体検知部」で「画像データ」から「動体」を「検知する」ことにより得られた「動体」の「検知情報」を含む(構成b4)ものである。
ここで、構成b3の「画像データ」は、構成cの「画像処理装置」に送信される(構成b5)ものであるから、構成c2の「画像データ」と同じ内容の画像といえる。
そして、上記2で述べたとおり、構成c2の「画像データ」は、構成Bの「元の再生画像」に相当し、構成c2の「画像データ」に「動体が検知」されることは、構成Cの「トリガイベントが発生」することに相当するから、構成b3の「動体/不動体検知部」が、「画像データ」から「動体」を「検知する」ことは、構成C1の「前記元の再生画像の中のトリガイベント発生」に相当する。
また、構成c2の「位置情報抽出部」が抽出する「画像中における追尾対象物である動体の位置」は、「トリガイベント発生ポイント」といえる。

以上によれば、構成b3の「動体/不動体検知部」で「画像データ」から「動体」を「検知する」ことにより得られた「動体」の「検知情報」を含む構成c1の「メタデータ」は、「前記元の再生画像の中のトリガイベント発生のメタデータ」といえる。
よって、構成c1の「データ受信部」が、構成bの「画像送信装置」より「メタデータを受信」することは、構成C1と、「サーバから、前記元の再生画像の中のトリガイベント発生のメタデータを取得すること」である点で共通する。
ただし、サーバから取得する「前記元の再生画像の中のトリガイベント発生のメタデータ」が、本願発明では、「前記元の再生画像の中のトリガイベント発生ポイントの座標メタデータ」であるのに対し、引用発明では、「前記元の再生画像の中のトリガイベント発生ポイントの座標メタデータ」とは特定されていない点で、両発明は相違する。

(2)構成C2について
上記(1)で述べたとおり、構成c1の「メタデータ」は、「前記元の再生画像の中のトリガイベント発生のメタデータ」といえるから、構成c2の「メタデータ」は、構成C2の「前記座標メタデータ」と、「前記メタデータ」である点で共通する。
また、上記(1)で述べたとおり、構成c2の「位置情報抽出部」が抽出する「画像中における追尾対象物である動体の位置」は、「トリガイベント発生ポイント」といえるから、構成C2の「前記トリガイベント発生ポイント」に相当する。
また、構成c4の「追尾対象物」は構成c2の「検知」された「動体」であるから、構成c4の「追尾対象物が全て含まれる1つの切出範囲」は、構成c2の「画像中における追尾対象物である動体の位置」が属する領域といえる。
また、上記2で述べたとおり、構成c4の「追尾対象物が全て含まれる1つの切出範囲」は、構成Cの「トリガイベントが発生する第1の対象領域」に相当するから、構成C2の「前記第1の対象領域」に相当する。

以上によれば、構成c2の「位置情報抽出部」が、「動体、不動体の検知情報のメタデータに基づいて、データ受信部にて受信した画像データより動体が検知された画像フレームを特定し、動体が検知された画像フレームに対し所定の演算処理を施して画像中における追尾対象物である動体の位置情報を抽出し、抽出した位置情報を切出画像生成部に供給」し、構成c4の「切出画像生成部」が、「位置情報抽出部より供給された追尾対象物の位置情報に基づいて、追尾対象物が全て含まれる1つの切出範囲を特定」することは、構成C2と、「前記メタデータに従って、前記トリガイベント発生ポイントが属する領域を前記第1の対象領域として決定すること」である点で共通する。
ただし、上記(1)で述べたとおり、サーバから取得する「前記元の再生画像の中のトリガイベント発生のメタデータ」が、引用発明では、「前記元の再生画像の中のトリガイベント発生ポイントの座標メタデータ」とは特定されていないから、「前記メタデータ」が、本願発明では、「前記座標メタデータ」であるのに対し、引用発明では、「前記座標メタデータ」とは特定されていない点で、両発明は相違する。
また、上記2で述べたとおり、引用発明は、「元の再生画像を少なくとも2つの対象領域に分割するステップ」を備えていないから、「前記トリガイベント発生ポイントが属する領域」が、本願発明では、前記トリガイベント発生ポイントが属する「前記対象領域」であるのに対し、引用発明では、前記トリガイベント発生ポイントが属する「前記対象領域」とは特定されていない点で、両発明は相違する。

(3)まとめ
したがって、本願発明と引用発明の「前記トリガイベントが発生する前記第1の対象領域を決定する前記ステップ」は、「サーバから、前記元の再生画像の中のトリガイベント発生のメタデータを取得すること、および、前記メタデータに従って、前記トリガイベント発生ポイントが属する領域を前記第1の対象領域として決定することを含むこと」を含む点で共通する。
ただし、サーバから取得する「前記元の再生画像の中のトリガイベント発生のメタデータ」が、本願発明では、「前記元の再生画像の中のトリガイベント発生ポイントの座標メタデータ」であるのに対し、引用発明では、「前記元の再生画像の中のトリガイベント発生ポイントの座標メタデータ」とは特定されていない点で、両発明は相違する。
また、それに伴い、「前記メタデータ」が、本願発明では、「前記座標メタデータ」であるのに対し、引用発明では、「前記座標メタデータ」とは特定されていない点で、両発明は相違する。
また、上記2で述べたとおり、引用発明は、「元の再生画像を少なくとも2つの対象領域に分割するステップ」を備えていないから、「前記トリガイベント発生ポイントが属する領域」が、本願発明では、前記トリガイベント発生ポイントが属する「前記対象領域」であるのに対し、引用発明では、前記トリガイベント発生ポイントが属する「前記対象領域」とは特定されていない点で、両発明は相違する。

6 まとめ
以上によれば、本願発明と引用発明の一致点及び相違点は、以下のとおりである。

[一致点]
(A)ビデオ再生方法において、
(B’、C’)元の再生画像の中で、トリガイベントが発生する第1の対象領域を決定するステップと、
(D)前記第1の対象領域の中に表示される第1のビデオ画像の復号データを取得するステップと、
(E)前記第1のビデオ画像の前記復号データを、指定された再生ウィンドウに描画するステップであって、前記指定された再生ウィンドウは前記第1の対象領域よりも大きい、ステップと、を備え、
(C)前記トリガイベントが発生する前記第1の対象領域を決定する前記ステップは、
(C1’)サーバから、前記元の再生画像の中のトリガイベント発生のメタデータを取得すること、および、
(C2’)前記メタデータに従って、前記トリガイベント発生ポイントが属する領域を前記第1の対象領域として決定することを含む
(A)ことを特徴とするビデオ再生方法。

[相違点]
(相違点1)「元の再生画像」について、本願発明は、「元の再生画像を少なくとも2つの対象領域に分割するステップ」(構成B)を備えるのに対し、引用発明は、当該「元の再生画像を少なくとも2つの対象領域に分割するステップ」を備えていない点。
また、それに伴い、「トリガイベントが発生する第1の対象領域を決定するステップ」が、本願発明では、「前記少なくとも2つの対象領域の中」で、トリガイベントが発生する第1の対象領域を決定するステップ(構成C)であるのに対し、引用発明は、「前記少なくとも2つの対象領域の中」で、トリガイベントが発生する第1の対象領域を決定するステップではない点。
また、それに伴い、「前記トリガイベント発生ポイントが属する領域」が、本願発明では、前記トリガイベント発生ポイントが属する「前記対象領域」(構成C2)であるのに対し、引用発明では、前記トリガイベント発生ポイントが属する「前記対象領域」とは特定されていない点。

(相違点2)サーバから取得する「前記元の再生画像の中のトリガイベント発生のメタデータ」が、本願発明では、「前記元の再生画像の中のトリガイベント発生ポイントの座標メタデータ」(構成C1)であるのに対し、引用発明では、「前記元の再生画像の中のトリガイベント発生ポイントの座標メタデータ」とは特定されていない点。
また、それに伴い、「前記メタデータ」が、本願発明では、「前記座標メタデータ」(構成C2)であるのに対し、引用発明では、「前記座標メタデータ」とは特定されていない点。

第6 判断
以下、相違点について検討する。

1 相違点1について
上記第4の2(2)のとおり、引用文献2には、文献2技術として、「映像監視システムにおいて、全体映像データの中からトリミング映像データを切り出す場合に、画面全体を縦5×横5の25の区画に予め分割し、画像処理部が映像データを画像処理して、画像の中のどの商品が取り出されたかを抽出し、その商品が置かれている場所も演算で求め、全体映像の中の特定位置を決定し、画像処理部により決定された特定位置に基づいて、この25の論理的な区画から、トリミングする領域を指定する技術」が記載されている。

ここで、「画像処理部」が「映像データを画像処理して、画像の中のどの商品が取り出されたかを抽出し、その商品が置かれている場所も演算で求め、全体映像の中の特定位置を決定」することは、イベントをトリガすることといえるから、「画面全体を縦5×横5の25の区画に予め分割し、画像処理部が映像データを画像処理して、画像の中のどの商品が取り出されたかを抽出し、その商品が置かれている場所も演算で求め、全体映像の中の特定位置を決定し、画像処理部により決定された特定位置に基づいて、この25の論理的な区画から、トリミングする領域を指定する」ことは、画像を少なくとも2つの対象領域に分割し、前記少なくとも2つの対象領域の中で、トリガイベントが発生する第1の対象領域を決定することといえる。

そして、引用発明と、文献2技術は、いずれも、全体画像から切り出す範囲を指定するものである点で共通するから、引用発明において、第1の対象領域を決定するために、文献2技術を適用し、「元の再生画像を少なくとも2つの対象領域に分割し、少なくとも2つの対象領域の中で、トリガイベントが発生する第1の対象領域を決定する」ことにより、相違点1に係る構成とすることは、当業者が容易に想到し得ることである。

2 相違点2について
上記第4の3(2)のとおり、引用文献3には、文献3技術として、「監視カメラ、カメラサーバ等である第1のネットワーク機器と、監視装置である第2のネットワーク機器とがネットワークを介して接続されたネットワークシステムにおいて、第1のネットワーク機器が、動体または不動体を検知する検知部と、検知情報(検知部の検知状態を示す情報および検知部で検知された動体または不動体に関する情報)を含むメタデータを生成するメタデータ生成部と、第2のネットワーク機器に、画像データおよびメタデータを送信するデータ送信部を有し、このメタデータには検知情報が含まれ、検知情報はオブジェクト情報からなり、オブジェクト情報は座標からなり、座標は検知された動体または不動体の位置を示す座標であり、第2のネットワーク機器は、第1のネットワーク機器から送信されてくる画像データおよびメタデータを受信する技術」が記載されている。
そして、当該文献3技術に見られるように、クライアントである監視装置が、サーバから、動体の位置を示す座標を含むメタデータを取得する技術は、監視カメラの技術分野における周知技術であるといえる。

そして、引用発明に当該周知技術を適用し、画像処理装置(クライアント)が、画像送信装置(サーバ)から、動体の位置を示す座標を含むメタデータを取得するようにすることにより、サーバから取得する「前記元の再生画像の中のトリガイベント発生のメタデータ」を、「前記元の再生画像の中のトリガイベント発生ポイントの座標メタデータ」とし、「前記座標メタデータ」に従って、前記トリガイベント発生ポイントが属する前記対象領域を前記第1の対象領域として決定するようにし、相違点2に係る構成とすることは、当業者が容易に想到し得ることである。

3 効果等について
本願発明の構成は、上記のように当業者が容易に想到できたものであるところ、本願発明が奏する効果は、その容易想到である構成から当業者が容易に予測し得る範囲内のものであり、同範囲を超える顕著なものではない。

4 まとめ
以上のように、本願発明は、引用文献1に記載された発明、引用文献2に記載された技術及び周知技術に基いて、当業者が容易に発明をすることができたものである。

第7 むすび
以上のとおり、本願発明は、引用文献1に記載された発明、引用文献2に記載された技術及び周知技術に基いて、当業者が容易に発明をすることができたものであるから、特許法29条第2項の規定により特許を受けることができない。

したがって、本願は、その余の請求項について検討するまでもなく、拒絶をすべきものである。
よって、結論のとおり審決する。
 
別掲
 
審理終結日 2019-03-19 
結審通知日 2019-03-26 
審決日 2019-04-08 
出願番号 特願2015-549913(P2015-549913)
審決分類 P 1 8・ 121- WZ (H04N)
最終処分 不成立  
前審関与審査官 古川 哲也  
特許庁審判長 清水 正一
特許庁審判官 鳥居 稔
坂東 大五郎
発明の名称 ビデオ再生方法、端末、およびシステム  
代理人 特許業務法人 谷・阿部特許事務所  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ