• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 5項独立特許用件 特許、登録しない。 H04N
審判 査定不服 2項進歩性 特許、登録しない。 H04N
管理番号 1230796
審判番号 不服2008-29225  
総通号数 135 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2011-03-25 
種別 拒絶査定不服の審決 
審判請求日 2008-11-17 
確定日 2011-01-20 
事件の表示 特願2006-184686「情報処理装置および方法、並びにプログラム」拒絶査定不服審判事件〔平成20年 1月24日出願公開、特開2008- 17042〕について、次のとおり審決する。 
結論 本件審判の請求は、成り立たない。 
理由 【第1】経緯

[1]手続

本願は、平成18年7月4日の出願であって、手続の概要は以下のとおりである。

拒絶理由通知 :平成20年 4月 1日(起案日)
意見書 :平成20年 6月 3日
手続補正(明細書の補正) :平成20年 6月 3日
拒絶査定 :平成20年10月14日(起案日)
拒絶査定不服審判請求 :平成20年11月17日
手続補正(明細書の補正) :平成20年12月15日
前置審査報告 :平成21年 1月23日
審尋 :平成22年 7月 5日(起案日)
回答書 :平成22年 8月27日

[2]査定
原査定の理由は、概略、以下のとおりである。

〈査定の理由〉
本願の請求項1から請求項21までに係る各発明は、下記刊行物に記載された発明に基づいて当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により、特許を受けることができない。
記(引用例)
刊行物1:特開2005-333381号公報
刊行物2:特開2001-167110号公報

【第2】補正の却下の決定

平成20年12月15日付けの補正(以下「本件補正」という。)について次のとおり決定する。

《結論》
平成20年12月15日付けの補正を却下する。

《理由》

【第2-1】本件補正の内容
本件補正は、特許請求の範囲についてする以下の補正事項を含むものである。(下線部は補正箇所)。

請求項1,18,20の記載についてのみ補正するものであって、

請求項1について、
「動画コンテンツに基づいて顔検出処理を実行する顔検出手段と、
前記顔検出手段により検出された顔に関する顔画像を保持する保持手段と、
前記動画コンテンツ内において前記顔検出手段により検出された顔に関する第1の顔画像と、前記動画コンテンツ内で既に検出された顔に関する、前記保持手段に保持された第2の顔画像とを比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する顔画像処理手段と
を備える情報処理装置。」(補正前)を、

「1つのファイルに相当する動画コンテンツに対して顔検出処理を実行する顔検出手段と、
前記顔検出手段により検出された顔に関する顔画像を保持する保持手段と、
前記動画コンテンツ内において前記顔検出手段により検出された顔に関する第1の顔画像と、前記第1の顔画像に関する顔が検出された前記動画コンテンツと同一の前記動画コンテンツ内で既に検出された顔に関する、前記保持手段に保持された第2の顔画像とを比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する顔画像処理手段と
を備える情報処理装置。」(補正後)とし、

請求項18について
「情報処理装置が、
動画コンテンツに基づいて顔検出処理を実行し、
検出された顔に関する顔画像を保持手段に保持し、
前記動画コンテンツ内において検出された顔に関する第1の顔画像と、前記動画コンテンツ内で既に検出された顔に関する、前記保持手段に保持された第2の顔画像とを比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する
ステップを含む情報処理方法。」(補正前)を、

「情報処理装置が、
1つのファイルに相当する動画コンテンツに対して顔検出処理を実行し、 検出された顔に関する顔画像を保持手段に保持し、
前記動画コンテンツ内において検出された顔に関する第1の顔画像と、前記第1の顔画像に関する顔が検出された前記動画コンテンツと同一の前記動画コンテンツ内で既に検出された顔に関する、前記保持手段に保持された第2の顔画像とを比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する
ステップを含む情報処理方法。」(補正後)とし、

請求項20について
「コンピュータが実行するステップとして、
動画コンテンツに基づいて顔検出処理を実行し、
検出された顔に関する顔画像を保持手段に保持し、
前記動画コンテンツ内において検出された顔に関する第1の顔画像と、前記動画コンテンツ内で既に検出された顔に関する、前記保持手段に保持された第2の顔画像とを比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する
ステップを含むプログラム。」(補正前)を、

「コンピュータが実行するステップとして、
1つのファイルに相当する動画コンテンツに対して顔検出処理を実行し、 検出された顔に関する顔画像を保持手段に保持し、
前記動画コンテンツ内において検出された顔に関する第1の顔画像と、前記第1の顔画像に関する顔が検出された前記動画コンテンツと同一の前記動画コンテンツ内で既に検出された顔に関する、前記保持手段に保持された第2の顔画像とを比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する
ステップを含むプログラム。」(補正後)とする補正。

【第2-2】本件補正の適合性1 補正の範囲(第17条の2第3項)
本件補正は、願書に最初に添付した明細書(段落0036)に記載した事項の範囲内においてする補正である。

【第2-3】本件補正の適合性2 補正の目的(第17条の2第4項)
請求項1についてする上記補正事項は、補正前の請求項1に記載のあった特定事項である「顔検出手段」の検出対象である動画コンテンツを限定し減縮するものといえ、補正の前後において、産業上の利用分野及び解決しようとする課題は同一である。
また、請求項18,20についてする上記補正事項も、上記請求項1についてする上記補正事項と同趣旨のものである。

そして、補正のない請求項2から17,19,21も、請求項1,18又は20を引用することから、請求項1,18,20についてする補正と同様、「顔検出手段」の検出対象である動画コンテンツを限定し減縮したものとなる。
したがって、本件補正は、平成18年法律第55号改正附則第3条第1項によりなお従前の例によるとされる同法による改正前の特許法第17条の2第4項第2号で規定する特許請求の範囲の減縮を目的とするものに該当する。

【第2-4】本件補正の適合性3 独立特許要件(第17条の2第5項)
そこで、独立特許要件について検討するに、補正後の請求項1に記載される発明は特許出願の際独立して特許を受けることができない。

本件補正は、平成18年年法律第55号改正附則第3条第1項によりなお従前の例によるとされる同法による改正前の特許法第17条の2第5項において準用する同法第126条第5項の規定に違反するので、同法第159条第1項において読み替えて準用する同法第53条第1項の規定により却下すべきものである。

本件補正後の請求項1に記載される発明が特許出願の際独立して特許を受けることができないとする理由の詳細は、以下のとおりである。

《理由:独立特許要件に適合しない理由の詳細》

[1]補正後発明

本件補正後の請求項1から請求項21までに係る発明のうち請求項1に記載された発明(以下「補正後発明」という。)は、下記のとおりであると認められる。

記(補正後発明)
1つのファイルに相当する動画コンテンツに対して顔検出処理を実行する顔検出手段と、
前記顔検出手段により検出された顔に関する顔画像を保持する保持手段と、
前記動画コンテンツ内において前記顔検出手段により検出された顔に関する第1の顔画像と、前記第1の顔画像に関する顔が検出された前記動画コンテンツと同一の前記動画コンテンツ内で既に検出された顔に関する、前記保持手段に保持された第2の顔画像とを比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する顔画像処理手段と
を備える情報処理装置。

[2]引用刊行物の記載

刊行物1:特開2005-333381号公報

原査定の拒絶の理由に引用された刊行物である特開2005-333381号公報(上記刊行物1に同じ。)には、図面と共に次に掲げる事項が記載されている。

〈技術分野〉
(K1)「【技術分野】【0001】
本発明は、時間の経過に伴って変化していく音声や映像などの時系列データが記録されたメディアデータの再生制御を行うメディアデータ再生装置、メディアデータ再生システム、メディアデータ再生プログラムおよび遠隔操作プログラムに関するものである。」

〈発明が解決しようとする課題〉
(K2)「【発明が解決しようとする課題】
【0006】
しかしながら、このような従来技術では、スライダによって指定できる領域の範囲には限度があるため、長時間記録されたメディアデータの場合、全再生時間分をスライダの小さな領域に割当てなければならず、このため、所望の再生位置を検索する場合、時刻の精度が低くなり、所望の再生位置の検索が困難になるという問題がある。
【0007】
また、サムネイル表示を行う従来技術では、画像が小さくなりすぎて、所望の再生位置かどうかの判断が難しくなり、所望の再生位置の検索が困難になるという問題がある。
【0008】
特に、メディアデータが音声データのみを記録したオーディオデータである場合には、利用者に視覚的に再生位置を把握させることができず、このため、指定した再生位置が所望の再生位置であるかどうかは、オーディオデータを実際に再生する以外には把握させることができない。
【0009】
本発明は、上記に鑑みてなされたものであって、再生時間が長時間のメディアデータであっても、メディアデータの各時刻での情報を再生位置の指定精度と同精度で表示することを可能にすることにより、メディアデータの再生位置の検索を容易にかつ高精度で行うことができるメディアデータ再生装置、メディアデータ再生システム、メディアデータ再生プログラムおよび遠隔操作プログラムを提供することを目的とする。」

〈実施の形態1、図1〉
(K3)「【0024】
(実施の形態1)
実施の形態1にかかるメディアデータ再生装置は、表示装置の再生制御表示画面に、メディアデータの各再生時刻を示す時刻図形を長方形状の領域に時系列に配列表示し、各再生時刻のデータに関連する特徴を抽出し、その特徴を示す特徴図形を時刻図形に対応づけて表示し、利用者が所望の時刻図形を指定することにより、指定された時刻図形の再生開始時刻の位置に再生位置を移動して再生するものである。
【0025】
図1は、本実施の形態にかかるメディアデータ再生装置の機能的構成を示すブロック図である。図1において、矢印はデータの流れを示している。本実施の形態にかかるメディアデータ再生装置は、図1に示すように、メディアデータ再生部110と、再生制御インターフェイス部120と、特徴情報保存部130と、特徴抽出部140とを備えている。そして、メディアデータ再生部110には、スピーカ114と、表示合成部116を介して表示装置117が接続されている。
【0026】
メディアデータ再生部110は、メディアデータを記憶すると共に、メディアデータの再生処理を行うものであり、メディアデータ記憶部111と、データ選択部112と、オーディオデコーダ113と、ビデオデコーダ115と、を備えた構成となっている。
【0027】
メディアデータ記憶部111は、例えばCD-ROMやハードディスクやフラッシュメモリやビデオテープであり、少なくとも一つのメディアデータが保存されている。メディアデータは、音声データと画像データとを含むデータであり、時間の経過に従って内容が変化していく時系列メディアデータである。メディアデータは、メディアデータ記憶部111内部で一意的な名称(例えば、ファイル名等)に関連付けられており、メディアデータを利用者が検索し選択する際にこの一意な名称が表示装置117に表示されるようになっている。
【0028】
データ選択部112は、利用者の指定によってメディアデータ記憶部111に記録されているメディアデータを検索し、再生を行うメディアデータを選択するものである。例えば、本実施の形態のメディアデータ再生装置100がPC(Personal Computer)の場合には、ファイルシステムで管理されているメディアデータ記憶部111としてのハードディスクドライブ(HDD)にメディアデータがファイル単位で記憶されており、データ選択部112による操作は、ファイルを選択する操作に該当する。また、例えば、本実施の形態のメディアデータ再生装置100がビデオデッキであればビデオテープを入れる動作に該当する。このデータ選択部112により、利用者は再生を希望するメディアデータを選択する。
【0029】
オーディオデコーダ113は、メディアデータ中の音声データをオーディオデータに変換するものである。スピーカ114は、オーディオデコーダ113によって変換したオーディオデータを出力するものである。
【0030】
ビデオデコーダ115は、メディアデータ中の画像データをビデオデータに変換するものである。表示合成部116は、ビデオデコーダ115から受け取ったビデオデータと再生制御インターフェイスから受け取った、後述する時刻図形や特徴図形などのデータを合成するものである。」

《特徴抽出部140、顔認識部144》
(K4)「【0036】
特徴情報保存部130は、例えばHDDやメモリ等の記憶媒体であり、テキストデータベース131と、音声区間データベース132と、話者情報データベース133と、顔データベース134と、シーンチェンジデータベース135とを格納している。
【0037】
特徴抽出部140は、メディアデータの各時刻における特徴を抽出して特徴情報保存部130に格納するものであり、テキスト変換部141と、音声区間検出部142と、話者識別部143と、顔認識部144と、シーンチェンジ認識部145とを備えている。
【0038】
テキスト変換部141は、オーディオデコーダ113から受け取ったオーディオデータと音声区間検出部142から受け取った音声区間データとから音声区間内のオーディオデータをテキストデータに変換し、変換したテキストデータをテキストデータベース131に登録するものである。かかる変換には、公知の音声認識技術を利用する。テキストデータには、文字単位や単語単位や文単位で開始時刻と終了時刻が関連付けられる。
【0039】
音声区間検出部142は、オーディオデコーダ113から受け取ったオーディオデータに音声が存在するかどうかを判断し、音声が存在する場合にはオーディオデータの音声が含まれている区間(開始時刻と終了時刻)を示す音声区間データを音声区間データベース132に登録するものである。
【0040】
話者識別部143は、オーディオデコーダ113から受け取ったオーディオデータと音声区間検出部142から受け取った音声区間データとから、音声区間内のオーディオデータに対して、話者を識別し、話者データを生成して話者情報データベース133に登録するものである。話者情報には、例えば話者の識別番号(ID)と音声区間検出部142から得た音声の開始時刻と終了時刻が含まれる。
【0041】
顔認識部144は、ビデオデコーダ115から受け取ったビデオデータから人物の顔が映っているか否かを判断し、映っている場合にはその顔の人物の特定をして、顔が映っている時間帯(開始時刻と終了時刻)示す顔存在区間データを顔データベース134に登録するものである。さらに、映っている顔の人物を特定できた場合は、顔存在区間データにその人物の顔を特定する顔IDを開始時刻と終了時刻に対応付ける。」

《顔データベース 図10-1》
(K5)「【0072】
次に、特徴情報保存部130に保存されている各データベースについて説明する。
【0073】?【0075】略
【0076】
顔データベース134は、メディアデータの中のビデオデータから人物の顔が写っている区間とその人物の顔の識別情報である顔IDとを対応付けた顔存在区間データを登録したデータベースである。図10-1は、顔データベース134のデータ構造の一例を示す説明図である。顔データベース134には、図10-1に示すように、人物の顔が存在する区間の開始時刻と終了時刻と顔IDとを対応付けた顔区間データが登録されている。」
《特徴情報の抽出処理 図12》
(K6)「【0078】
次に、以上のように構成された本実施の形態にかかるメディアデータ再生装置100によるメディアデータの再生処理について説明する。まず、特徴抽出部140によるメディアデータからの特徴情報の抽出処理について説明する。
【0079】?【0085】略
【0086】
次に、メディアデータの中のビデオデータからの特徴情報の抽出処理について説明する。図12は、メディアデータの中のビデオデータからの特徴情報の抽出処理の手順を示すフローチャートである。
【0087】
利用者がこれから再生を行うメディアデータを指定すると、データ選択部112によって、メディアデータ記憶部111から指定されたメディアデータが読み出される(ステップS1201)。そして、ビデオデコーダ115が読み出されたメディアデータにビデオデータが含まれるか否かを判断する(ステップS1202)。そして、ビデオデータが含まれていないと判断された場合には(ステップS1202:No)、処理を終了する。
【0088】
一方、ステップS1202において、メディアデータにビデオデータが含まれている判断された場合には(ステップS1202:Yes)、ビデオデーダ115はメディアデータ記憶部111から受け取ったデータをビデオデータに変換し、顔認識部144によって、ビデオデータに人物の顔の画像が含まれるか否かを判断して、顔の画像が含まれる場合にさらに顔の画像が誰の顔であるかを識別する(ステップS1203)。そして、顔認識部144は、識別した人物の顔IDと顔の画像が存在する開始時刻と終了時刻である顔存在区間の時刻情報を、図10-1に示すように顔存在区間データとして顔データベース134に登録する(ステップS1204)。
【0089】略
【0090】
以上のような処理によって、メディアデータの中のビデオデータから特徴的な情報である顔存在区間データとシーンチェンジデータが抽出され、それぞれ顔データベース134、シーンチェンジデータベース135に登録されることになる。」

(K7)「【0092】
また、本実施の形態では、特徴情報抽出処理をメディアデータを選択した直後に行っているが、この他、利用者が各特徴図形を再生制御表示画面302に表示する際に、再生制御インターフェイス122によって実行するように構成してもよい。例えば、設定ボタンA18を、特徴情報抽出設定ボタンとして、この特徴情報抽出設定ボタンをクリックした場合に、特徴情報抽出処理を再生制御インターフェイス122によって実行するように構成することができる。
【0093】
また、一旦、メディアデータの特徴を抽出すれば各特徴の情報は特徴情報保存部130の各データベースに記録された状態となるので、同一のメディアデータを再度選択した場合には、特徴情報抽出処理を実行する必要はなくなる。」

[3]刊行物1に記載された発明(以下、「引用発明」という)

(1)引用発明を認定する構成・処理概要
刊行物1には、全般、「再生時間が長時間のメディアデータであっても、メディアデータの各時刻での情報を再生位置の指定精度と同精度で表示することを可能にすることにより、メディアデータの再生位置の検索を容易にかつ高精度で行うことができる」(K2)ものを提供することを、解決しようとする課題・目的とするものが記載されており、
そのための実施の形態1として前掲(K3)?(K7)に掲げるメディアデータ再生装置(図1)が記載され、このメディアデータ再生装置に着目する。
メディアデータ再生装置で行われる処理のうち、特に、「メディアデータの中のビデオデータから特徴的な情報である顔存在区間データ」を抽出して「顔データベース134」「に登録」する処理(段落【0090】、図12)であって、
「メディアデータの特徴抽出が未だ特徴情報保存部130の各データベースに記録される前、メディアデータを選択した直後に行う処理」
{このような処理であるといえることは、「メディアデータを選択した直後に行う」((K7)段落【0092】)、「また、一旦、メディアデータの特徴を抽出すれば各特徴の情報は特徴情報保存部130の各データベースに記録された状態となるので、同一のメディアデータを再度選択した場合には、特徴情報抽出処理を実行する必要はなくなる。」((K7)段落【0093】}から明らかである。}である。
に着目する。

以上によれば、
メディアデータの特徴抽出が未だ特徴情報保存部130の各データベースに記録される前、メディアデータを選択した直後に行う、メディアデータの中のビデオデータから特徴的な情報である顔存在区間データを抽出して顔データベース134に登録する処理であって、
メディアデータの再生位置の検索を容易にかつ高精度で行うことができるようにするメディアデータ再生装置、
を認定することができる。

(2)構成(詳細)
(ア)メディアデータ再生装置の構成{(K3),図1等}
メディアデータ再生装置(図1)は、「メディアデータ再生部110」、「特徴抽出部140」、「特徴情報保存部130」を備え、
「メディアデータ再生部110は、メディアデータを記憶すると共に、メディアデータの再生処理を行うものであり、メディアデータ記憶部111と、データ選択部112と、オーディオデコーダ113と、ビデオデコーダ115と、」を備え{(K3)段落【0025】【0026】}、
「特徴抽出部140は、メディアデータの各時刻における特徴を抽出して特徴情報保存部130に格納するもので」、「顔認識部144」を備え{(K4)段落【0037】}、
「特徴情報保存部130」は、「顔データベース134」を格納している{(K4)段落【0036】}。

以上によれば、
メディアデータ再生部110、特徴抽出部140、特徴情報保存部130を備えるメディアデータ再生装置、
メディアデータ再生部110のメディアデータ記憶部111、データ選択部112、ビデオデコーダ115、
メディアデータの各時刻における特徴を抽出する特徴抽出部140の顔認識部144、
を認めることができる。

(イ)メディアデータ、ファイル、メディアデータの選択{(K3)等}
前掲(K3)の特に段落【0027】【0028】によれば、
「メディアデータは、音声データと画像データとを含」み、「時間の経過に従って内容が変化していく時系列」データで、「ファイルシステムで管理されているメディアデータ記憶部111」に「ファイル名に関連付けされて」「ファイル単位で記憶されて」いるもので、
利用者が、データ選択部112でファイルを選択することで、再生を行うメディアデータを選択するものである。
そして、選択されたメディアデータは、前掲(K6)段落【0087】のように記憶部111から読み出される。
上記(ア)を踏まえれば、以上のことから、
メディアデータ再生部110のデータ選択部112でファイルを選択することにより、ファイルシステムで管理されているメディアデータ記憶部111にファイル名に関連付けされてファイル単位で記憶されているメディアデータであって、音声データと画像データとを含み時間の経過に従って内容が変化していく時系列データであるメディアデータ、がメディアデータ記憶部111から選択されて読み出される処理
を認めることができる。

《段落【0027】【0028】再掲》
「【0027】
メディアデータ記憶部111は、例えばCD-ROMやハードディスクやフラッシュメモリやビデオテープであり、少なくとも一つのメディアデータが保存されている。メディアデータは、音声データと画像データとを含むデータであり、時間の経過に従って内容が変化していく時系列メディアデータである。メディアデータは、メディアデータ記憶部111内部で一意的な名称(例えば、ファイル名等)に関連付けられており、メディアデータを利用者が検索し選択する際にこの一意な名称が表示装置117に表示されるようになっている。
【0028】
データ選択部112は、利用者の指定によってメディアデータ記憶部111に記録されているメディアデータを検索し、再生を行うメディアデータを選択するものである。例えば、本実施の形態のメディアデータ再生装置100がPC(Personal Computer)の場合には、ファイルシステムで管理されているメディアデータ記憶部111としてのハードディスクドライブ(HDD)にメディアデータがファイル単位で記憶されており、データ選択部112による操作は、ファイルを選択する操作に該当する。また、例えば、本実施の形態のメディアデータ再生装置100がビデオデッキであればビデオテープを入れる動作に該当する。このデータ選択部112により、利用者は再生を希望するメディアデータを選択する。」

(ウ)特徴情報の抽出処理(図12、(K4)?(K6)等)、
上述(1)した「メディアデータを選択した直後に行う、メディアデータの中のビデオデータから特徴的な情報である顔存在区間データを抽出して顔データベース134に登録する処理」は、
前掲(K6)、特に、段落【0087】【0088】【0041】【0076】及び図12等によれば、次のようにしてなされる。

(ウ-1)ステップS1201、S1202(図12)
〈S1201:メディアデータを読み出す〉
「利用者がこれから再生を行うメディアデータを指定すると、データ選択部112によって、メディアデータ記憶部111から指定されたメディアデータが読み出され」(ステップS1201)、
〈S1202:ビデオデータ存在?〉
「メディアデータにビデオデータが含まれている判断された場合には(ステップS1202:Yes)、ビデオデーダ115はメディアデータ記憶部111から受け取ったデータをビデオデータに変換」する。(段落【0087】【0088】)
これらステップS1201、S1202は、メディアデータ再生部110で行われる処理であり、利用者によるメディアデータの指定は上記(イ)のように、メディアデータ再生部110のデータ選択部112でファイルを選択することでなされる。
すなわち、データ選択部112でファイルを選択することにより、
読み出されたメディアデータは、メディアデータ再生部110のビデオデーダ115によりビデオデータに変換される。

(ウ-2)ステップS1203、1204(図12,図10-1)
〈S1203:顔の識別〉
変換されたビデオデータは、「顔認識部144によって、ビデオデータに人物の顔の画像が含まれるか否かを判断して、顔の画像が含まれる場合にさらに顔の画像が誰の顔であるかを識別」(ステップS1203)し、
〈S1204:顔IDを時刻情報とともに顔DBに登録〉
「そして、顔認識部144は、識別した人物の顔IDと顔の画像が存在する開始時刻と終了時刻である顔存在区間の時刻情報を、図10-1に示すように顔存在区間データとして顔データベース134に登録する(ステップS1204)。」(段落【0088】)
これらのステップでの処理は、詳しくは、「顔認識部144は、ビデオデコーダ115から受け取ったビデオデータから人物の顔が映っているか否かを判断し、映っている場合にはその顔の人物の特定をして、顔が映っている時間帯(開始時刻と終了時刻)示す顔存在区間データを顔データベース134に登録する。さらに、映っている顔の人物を特定できた場合は、顔存在区間データにその人物の顔を特定する顔IDを開始時刻と終了時刻に対応付ける。」(段落【0041】)であり、
「顔データベース134は、メディアデータの中のビデオデータから人物の顔が写っている区間とその人物の顔の識別情報である顔IDとを対応付けた顔存在区間データを登録したデータベースである。図10-1は、顔データベース134のデータ構造の一例を示す説明図である。顔データベース134には、図10-1に示すように、人物の顔が存在する区間の開始時刻と終了時刻と顔IDとを対応付けた顔区間データが登録されている。」(段落【0076】)とされ、
図10-1の顔データベース134には、
開始時刻00:13:10から終了時刻00:20:35まで、顔IDが0201の人物が映っており、
開始時刻01:05:20から終了時刻01:15:45まで、顔IDが0202の人物が映っていることが示されている。

(a)上記〈S1203:顔の識別〉で「顔認識部144」による
「変換されたビデオデータに人物の顔の画像が含まれるか否か(ビデオデータから人物の顔が映っているか否か)を判断し、」
「映っている場合にはその顔の画像が誰の顔であるか識別しその顔の人物の特定をし、」とする処理は、
「顔認識部144」は、読み出された「メディアデータの各時刻における特徴を抽出する」「特徴抽出部140」の「顔認識部144」である
{「特徴抽出部140は、メディアデータの各時刻における特徴を抽出して特徴情報保存部130に格納するものであり、テキスト変換部141と、音声区間検出部142と、話者識別部143と、顔認識部144と、シーンチェンジ認識部145とを備えている。」(K4)段落【0037】}
ことから、
ビデオデータの各時刻(その間隔はともかく)においてなされていることは明らかである。

また、このことは、以下の点からみても、明らかである。
すなわち、
・ビデオデータは、一般に時系列で連続する多数枚の静止画からなるデータであることが技術常識であるし、
「顔認識部144」は、
「顔が映っている時間帯(区間)を示す顔存在区間の時刻情報であって顔の画像が存在する開始時刻と終了時刻の時刻情報と、識別した人物の顔の識別情報である顔IDとを対応付けた、図10-1に示す顔存在区間データとして特徴情報保存部130の顔データベース134」であって、
「開始時刻00:13:10から終了時刻00:20:35まで」の7分25秒間、「顔IDが0201の人物が映って」いること、
また、「開始時刻01:05:20から終了時刻01:15:45まで」の10分25秒間は、顔IDが0201の人物とは異なる「顔IDが0202の人物が映っていること」を
登録している以上、
少なくとも、開始時刻00:13:10から終了時刻00:20:35までの各時刻において、「ビデオデータに人物の顔の画像が含まれるか否か(ビデオデータから人物の顔が映っているか否か)」を判断し、その結果、図10-1では人物の顔が映っていると判断していることは明らかであり、
これらの点から見ても、
上記処理は、ビデオデータの各時刻(その間隔はともかく)においてなされているということができる。

(b)上記〈S1204:顔IDを時刻情報とともに顔DBに登録〉で「顔認識部144」による上記処理は、
「顔が映っている時間帯(区間)を示す顔存在区間の時刻情報であって顔の画像が存在する開始時刻と終了時刻の時刻情報と、識別した人物の顔の識別情報である顔IDとを対応付けた、図10-1に示す顔存在区間データとして特徴情報保存部130の顔データベース134」であって、
「開始時刻00:13:10から終了時刻00:20:35までの7分25秒間、顔IDが0201の人物が映っており、
開始時刻01:05:20から終了時刻01:15:45までの10分25秒間は、顔IDが0201の人物とは異なる、顔IDが0202の人物が映っていること」を登録していることを示している、といえ、
このことから、
上記「顔存在区間」である上記7分25秒間、継続的に顔IDが0201の特定の同一人物の顔が映っている区間とし、上記10分25秒間は、継続的に、顔IDが0201の人物とは異なる顔IDが0202の特定の同一人物の顔が映っている区間として、抽出識別していると認められる。

(ウ-3)以上によれば、
データ選択部112でファイルを選択することにより、
読み出されたメディアデータは、メディアデータ再生部110のビデオデーダ115によりビデオデータに変換され、
メディアデータの各時刻における特徴を抽出する特徴抽出部140の顔認識部144によって、
・変換されたビデオデータの各時刻(その間隔はともかく)において、
ビデオデータに人物の顔の画像が含まれるか否か(ビデオデータから人物の顔が映っているか否か)を判断し、
映っている場合にはその顔の画像が誰の顔であるか識別しその顔の人物の特定をし、
・顔が映っている時間帯(区間)を示す顔存在区間の時刻情報であって顔の画像が存在する開始時刻と終了時刻の時刻情報と、識別した人物の顔の識別情報である顔IDとを対応付けた、図10-1に示す顔存在区間データとして特徴情報保存部130の顔データベース134に登録する処理
であって、
開始時刻00:13:10から終了時刻00:20:35までの7分25秒間、継続的に顔IDが0201の特定の同一人物の顔が映っている区間とし、
開始時刻01:05:20から終了時刻01:15:45までの10分25秒間は、継続的に、顔IDが0201の人物とは異なる顔IDが0202の特定の同一人物の顔が映っている区間として、 抽出識別し登録する処理するもの
を認めることができる。

(3)引用発明
以上によれば、補正後発明と対比する引用発明として、下記の発明を認定することができる。

記(引用発明)
メディアデータ再生部110、特徴抽出部140、特徴情報保存部130を備えるメディアデータ再生装置であって、
メディアデータの特徴抽出が未だ特徴情報保存部130の各データベースに記録される前、メディアデータを選択した直後に行う、メディアデータの中のビデオデータから特徴的な情報である顔存在区間データを抽出して顔データベース134に登録する処理であって、
メディアデータ再生部110のデータ選択部112でファイルを選択することにより、ファイルシステムで管理されているメディアデータ記憶部111にファイル名に関連付けされてファイル単位で記憶されているメディアデータであって、音声データと画像データとを含み時間の経過に従って内容が変化していく時系列データであるメディアデータ、がメディアデータ記憶部111から選択されて読み出され、
読み出されたメディアデータは、メディアデータ再生部110のビデオデーダ115によりビデオデータに変換され、
メディアデータの各時刻における特徴を抽出する特徴抽出部140の顔認識部144によって、次の〔処理P1〕〔処理P2〕を行うようにした、
メディアデータの再生位置の検索を容易にかつ高精度で行うことができるようにするメディアデータ再生装置。

〔処理P1〕
変換されたビデオデータの各時刻(その間隔はともかく)において、
ビデオデータに人物の顔の画像が含まれるか否か(ビデオデータから人物の顔が映っているか否か)を判断し、
映っている場合にはその顔の画像が誰の顔であるか識別しその顔の人物の特定をし、
〔処理P2〕
顔が映っている時間帯(区間)を示す顔存在区間の時刻情報であって顔の画像が存在する開始時刻と終了時刻の時刻情報と、識別した人物の顔の識別情報である顔IDとを対応付けた、図10-1に示す顔存在区間データとして特徴情報保存部130の顔データベース134に登録する処理
であって、
開始時刻00:13:10から終了時刻00:20:35までの7分25秒間、継続的に顔IDが0201の特定の同一人物の顔が映っている区間とし、
開始時刻01:05:20から終了時刻01:15:45までの10分25秒間は、継続的に、顔IDが0201の人物とは異なる顔IDが0202の特定の同一人物の顔が映っている区間として、
抽出識別し登録する処理。

[4]補正後発明と引用発明との対比(対応関係)

(1)補正後発明(構成要件の分説)

補正後発明は、以下のように要件A?Dに分説することができる。

補正後発明(分説)
A:1つのファイルに相当する動画コンテンツに対して顔検出処理を実行する顔検出手段と、
B:前記顔検出手段により検出された顔に関する顔画像を保持する保持手段と、
C:前記動画コンテンツ内において前記顔検出手段により検出された顔に関する第1の顔画像と、前記第1の顔画像に関する顔が検出された前記動画コンテンツと同一の前記動画コンテンツ内で既に検出された顔に関する、前記保持手段に保持された第2の顔画像とを比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する顔画像処理手段と
D:を備える情報処理装置。

(2)対応関係

ア 構成要件A,Dについて
A「1つのファイルに相当する動画コンテンツに対して顔検出処理を実行する顔検出手段と、」、
D「を備える情報処理装置。」

ア-1 「1つのファイルに相当する動画コンテンツ」
「1つのファイルに相当する動画コンテンツ」とは、本願明細書の下記記載に照らせば、「1つのファイルで表現された、主に動画像から構成されたコンテンツ」をいうものと解されるところ、
引用発明の「ファイルシステムで管理されているメディアデータ記憶部111にファイル名に関連付けされてファイル単位で記憶されているメディアデータであって、音声データと画像データとを含み時間の経過に従って内容が変化していく時系列データであるメディアデータ」も、「ファイル単位で表現された、動画像から構成されたコンテンツ」といい得ることは明らかであり、このことからすれば、
引用発明の「メディアデータ再生部110のデータ選択部112でァイルを選択することにより」「メディアデータ記憶部111から選択されて読み出され」る「メディアデータ」は、
「1つのファイルで表現された動画像コンテンツ」といえ、したがって、補正後発明でいう「1つのファイルに相当する動画コンテンツ」と言い得るものである。
また、引用発明の上記「読み出されたメディアデータ」は、
「メディアデータ再生部110のビデオデーダ115によりビデオデータに変換され」、
「メディアデータの各時刻における特徴を抽出する特徴抽出部140の顔認識部144によって、
〔処理P1〕
変換されたビデオデータの各時刻(その間隔はともかく)において、
ビデオデータに・・・を判断し、
映っている場合には・・・特定をし、
〔処理P2〕
顔が映っている時間帯(区間)・・・抽出識別し登録する処理
を行うのであるから、
これら「変換され、」、「判断し、」、「特定をし、」、「登録する」とされる「メディアデータ」も、補正後発明でいう「1つのファイルに相当する動画コンテンツ」と言い得るものである。

記(本願明細書の記載)
「コンテンツとは人間の創造的活動により生み出されるものをいい、それらのうちの画像を少なくとも含むコンテンツを画像コンテンツという。また、画像コンテンツは、主に動画像から構成される動画コンテンツと、主に静止画像から構成される静止画コンテンツとに大別される。」(段落【0035】)
「コンテンツはファイル単位で記録媒体に記録されるとし、コンテンツの個数はファイル単位で表現する。」(段落【0036】)
「従来、複数の動画コンテンツの中から所望の1つの再生を指示するための再生指示操作として、次のような操作が知られている。即ち、複数の動画コンテンツのインデックスとしての各サムネイル画像の一覧がユーザに提示され、ユーザは、その一覧の中から、再生を所望する動画コンテンツに対応するサムネイル画像を選択する、といった再生指示操作が知られている。」(段落【0037】)

ア-2 「動画コンテンツに対して顔検出処理を実行する顔検出手段」
引用発明は、上記「〔処理P1〕
変換されたビデオデータの各時刻(その間隔はともかく)において、
ビデオデータに人物の顔の画像が含まれるか否か(ビデオデータから人物の顔が映っているか否か)を判断し、
映っている場合にはその顔の画像が誰の顔であるか識別しその顔の人物の特定」するのであるから、
顔を検出する「顔検出処理」を「実行」しているということができる。
また、「人物の顔の画像を捕捉している」ことも明らかである。
そして、同〔処理P1〕は、「読み出されたメディアデータ」を「ビデオデータに変換され」たビデオデータの各時刻においてなされる処理であるが、 変換して〔処理P1〕する処理は、「読み出されたメディアデータに対して、メディアデータの各時刻において顔検出処理を実行し人物の顔の画像を捕捉」する処理ということができる{「メディアデータの各時刻における特徴を抽出する特徴抽出部140」としている。}から、
引用発明は、
「読み出されたメディアデータに対して、メディアデータの各時刻において顔検出処理を実行する顔検出手段」を備えているということができる。
そして、「読み出されたメディアデータ」が、「1つのファイルに相当する動画コンテンツ」といい得ることは上記の通りであるから、
引用発明は、「1つのファイルに相当する動画コンテンツに対して、動画コンテンツの各時刻において、顔検出処理を実行する顔検出手段」を備えているといえ、
構成要件A「1つのファイルに相当する動画コンテンツに対して顔検出処理を実行する顔検出手段と、」とする補正後発明と引用発明は相違しない。

ア-3 情報処理装置
「メディアデータ再生装置。」である引用発明も、「情報処理装置」と言い得ることは明らかである。

ア-4 以上によれば、
引用発明は、構成要件A及びD、すなわち、
「1つのファイルに相当する動画コンテンツに対して顔検出処理を実行する顔検出手段と、」「を備える情報処理装置。」である点において、補正後発明と相違はない。

イ 構成要件Bについて
B「前記顔検出手段により検出された顔に関する顔画像を保持する保持手段と、」

引用発明が「顔検出処理を実行する顔検出手段」を備えていると認められることは上記アの通りであり、また、「顔検出処理を実行し人物の顔の画像を捕捉」する処理をしているといえることも、上記ア-2の通りであるところ、
その「人物の顔の画像」は、「顔検出手段により検出された顔に関する顔画像」ということができるから、
引用発明は、「前記顔検出手段により検出された顔に関する顔画像」を捕捉しているということができる。
もっとも、引用発明は、「前記顔検出手段により検出された顔に関する顔画像を保持する保持手段」を備えるとはしておらず、この点、構成要件Bを備えるとする補正後発明とは相違が認められる。(→相違点1)

ウ 構成要件Cについて
C「前記動画コンテンツ内において前記顔検出手段により検出された顔に関する第1の顔画像と、前記第1の顔画像に関する顔が検出された前記動画コンテンツと同一の前記動画コンテンツ内で既に検出された顔に関する、前記保持手段に保持された第2の顔画像とを比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する顔画像処理手段と」

ウ-1 補正後発明
「第1の顔画像」と「前記第2の顔画像を比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する」処理は、
『第1の顔画像と前記第2の顔画像とを用いた処理』といえるから、
構成要件Cは、
『前記動画コンテンツ内において前記顔検出手段により検出された顔に関する第1の顔画像と、前記第1の顔画像に関する顔が検出された前記動画コンテンツと同一の前記動画コンテンツ内で既に検出された顔に関する第2の顔画像とを用いた処理手段』であって、
「前記第1の顔画像と前記第2の顔画像を比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する顔画像処理手段」
ということができる。

ウ-2 引用発明

(a)同一の前記動画コンテンツ内
上記(ア-2)したように、引用発明は、「1つのファイルに相当する動画コンテンツに対して、動画コンテンツの各時刻において、顔検出処理を実行する顔検出手段」を備えているといえるのであるから、
「同一の動画コンテンツに対して、動画コンテンツの各時刻において、顔検出処理を実行する手段」を備えているということができる。

(b)顔に関する「第1の顔画像」、「第2の顔画像」
また、上記(ア-2)したように、「メディアデータの各時刻において顔検出処理を実行し人物の顔の画像(すなわち、「顔検出手段により検出された顔に関する顔画像」)を捕捉」しているといえるから、上記(a)を踏まえれば、
引用発明は、少なくとも、「同一の動画コンテンツ内の異なる時点で、顔検出手段により検出された顔に関する顔画像」を捕捉していると言え、
第1の時点で捕捉された顔画像を「第1の顔画像」、同一の動画コンテンツ内で第1の時点より前の時点で既に検出されていた顔に関する顔画像(捕捉された顔の画像)」を「第2の顔画像」と称すれば、
『前記動画コンテンツ内において前記顔検出手段により検出された顔に関する第1の顔画像と、前記第1の顔画像に関する顔が検出された前記動画コンテンツと同一の前記動画コンテンツ内で既に検出された顔に関する第2の顔画像』を捕捉しているものと認められる。

(c)「第1の顔画像」と「第2の顔画像」を用いた処理手段 引用発明では、
ビデオデータに変換して〔処理P1〕し、続いて〔処理P2〕するところ、
「〔処理1〕で、映っている場合にはその顔の画像が誰の顔であるか識別しその顔の人物の特定」をし、
〔処理2〕で、顔が映っている時間帯(区間)を示す顔存在区間の時刻情報であって顔の画像が存在する開始時刻と終了時刻の時刻情報と、識別した人物の顔の識別情報である顔IDとを対応付けた、図10-1に示す顔存在区間データとして特徴情報保存部130の顔データベース134に登録する処理であって、
開始時刻00:13:10から終了時刻00:20:35までの7分25秒間、継続的に顔IDが0201の特定の同一人物の顔が映っている区間とし、
開始時刻01:05:20から終了時刻01:15:45までの10分25秒間は、継続的に、顔IDが0201の人物とは異なる顔IDが0202の特定の同一人物の顔が映っている区間として、
抽出識別し登録する処理」
(以下、略して簡単に『顔の人物の特定をし、区間を抽出識別し登録する処理』ともいう。)
は、
「捕捉した人物の顔の画像」を用いずに、「顔の画像が誰の顔であるか識別しその顔の人物の特定をし、」とか、図10-1に示す、継続的に特定の同一人物の顔が映っている区間を抽出識別する処理ができるとは考えられないから、少なくとも、
メディアデータの各時刻において「捕捉した人物の顔の画像」(顔検出手段により検出された顔に関する顔画像)を用いた「処理」と普通に想定される。

(d)まとめ
上記(a)?(c)によれば、
引用発明は、「同一の動画コンテンツに対して、動画コンテンツの各時刻において、顔検出処理を実行する顔検出手段」により「各時刻において検出された顔に関する顔画像」を用いた処理手段、
したがって、
『前記動画コンテンツ内において前記顔検出手段により検出された顔に関する第1の顔画像と、前記第1の顔画像に関する顔が検出された前記動画コンテンツと同一の前記動画コンテンツ内で既に検出された顔に関する第2の顔画像を用いた処理手段』といい得る手段であって、
上記『顔の人物の特定をし、区間を抽出識別し登録する処理』手段
を備えているということができる。

ウ-3 対比
以上によれば、
補正後発明と引用発明は、
『前記動画コンテンツ内において前記顔検出手段により検出された顔に関する第1の顔画像と、前記第1の顔画像に関する顔が検出された前記動画コンテンツと同一の前記動画コンテンツ内で既に検出された顔に関する第2の顔画像とを用いた処理手段』を備えるといい得る点では相違しないが、
上記『処理手段』が、
補正後発明では、
第2の顔画像が、前記保持手段に保持された第2の顔画像であり、
前記第1の顔画像と前記第2の顔画像とを比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する顔画像処理手段であるとするのに対して、
引用発明では、
第2の顔画像が、前記保持手段に保持された第2の顔画像であり、とはしていないし、
前記第1の顔画像と前記第2の顔画像とを比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する顔画像処理手段であるともしていない点では相違が認められる。(→相違点2)

[5]一致点、相違点
以上の対比結果によれば、補正後発明と引用発明との一致点、相違点は次のとおりであることが認められる。

[一致点]
A:1つのファイルに相当する動画コンテンツに対して顔検出処理を実行する顔検出手段と、
C’:『前記動画コンテンツ内において前記顔検出手段により検出された顔に関する第1の顔画像と、前記第1の顔画像に関する顔が検出された前記動画コンテンツと同一の前記動画コンテンツ内で既に検出された顔に関する第2の顔画像とを用いた処理手段』
D:を備える情報処理装置。

[相違点]

[相違点1]
補正後発明は、
B「前記顔検出手段により検出された顔に関する顔画像を保持する保持手段」を備えるとするのに対し、
引用発明は、
これを備えるとはしていない点。

[相違点2]
上記C’『処理手段』が、
補正後発明では、
第2の顔画像が、前記保持手段に保持された第2の顔画像であり、
前記第1の顔画像と前記第2の顔画像とを比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する顔画像処理手段であるとするのに対して、
引用発明では、
第2の顔画像が、前記保持手段に保持された第2の顔画像であり、とはしていないし、
前記第1の顔画像と前記第2の顔画像とを比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する顔画像処理手段であるともしていない点。

[6]相違点等の判断(容易想到性の判断)

(1)相違点の克服

引用発明を出発点として、

[相違点1の克服]
引用発明が、B「前記顔検出手段により検出された顔に関する顔画像を保持する保持手段」を備えるとすることで、[相違点1]は克服され、
[相違点2の克服]
引用発明の上記C’『処理手段』が、
第2の顔画像が、前記保持手段に保持された第2の顔画像であり、
前記第1の顔画像と前記第2の顔画像とを比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する顔画像処理手段(を含む)とすることで、[相違点2]は克服されて、

補正後発明に到達する。

上記[相違点2の克服]は、
上記C’『処理手段』といい得る、上記『顔の人物の特定をし、区間を抽出識別し登録する処理』手段を、
第2の顔画像が、前記保持手段に保持された第2の顔画像であり、
前記第1の顔画像と前記第2の顔画像とを比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する顔画像処理手段とすることで克服される。

(2)[相違点の克服]の容易想到性

引用発明の、上記C’『処理手段』{すなわち『前記動画コンテンツ内において前記顔検出手段により検出された顔に関する第1の顔画像と、前記第1の顔画像に関する顔が検出された前記動画コンテンツと同一の前記動画コンテンツ内で既に検出された顔に関する第2の顔画像とを用いた処理手段』}といい得る手段である、
上記『顔の人物の特定をし、区間を抽出識別し登録する処理』手段、すなわち、

「〔処理1〕で、映っている場合にはその顔の画像が誰の顔であるか識別しその顔の人物の特定」をし、
〔処理2〕で、顔が映っている時間帯(区間)を示す顔存在区間の時刻情報であって顔の画像が存在する開始時刻と終了時刻の時刻情報と、識別した人物の顔の識別情報である顔IDとを対応付けた、図10-1に示す顔存在区間データとして特徴情報保存部130の顔データベース134に登録する処理であって、
開始時刻00:13:10から終了時刻00:20:35までの7分25秒間、継続的に顔IDが0201の特定の同一人物の顔が映っている区間とし、
開始時刻01:05:20から終了時刻01:15:45までの10分25秒間は、継続的に、顔IDが0201の人物とは異なる顔IDが0202の特定の同一人物の顔が映っている区間として、
抽出識別し登録する処理」は、

引用発明のする、「メディアデータの特徴抽出が未だ特徴情報保存部130の各データベースに記録される前、メディアデータを選択した直後に行う」処理(に対応する処理)であるから、
初めて、「開始時刻00:13:10から終了時刻00:20:35までの7分25秒間、継続的に顔IDが0201の特定の同一人物の顔が映っている区間」を抽出識別する場合を考えれば、
(i)まず、開始時刻00:13:10時点(t0)で、顔画像(t0)を検出すること、
(ii)次に、開始時刻からΔt秒後の時刻(例えば、次の検出時刻)00:13:10+Δt=t1時点でも顔画像(t1)を検出すること、
(iii)このとき、これら2つの顔画像(t0)と顔画像(t1)を同一人物の顔と判定しなければならないこと(そのように判定しないのであれば、開始時刻00:13:10から終了時刻00:20:35までの7分25秒間、継続的に顔IDが0201の特定の同一人物の顔が映っている区間とはならない。)、
以上は明らかである。
そして、一般に、2つのものが同じであるか否かを判定するのに、その2つのものを比較して行うことは、自然かつ常識であって、
2つの顔画像を同一人物の顔画像と判定するのに、2つの顔画像を比較することにより判定することは、当業者ならずとも、普通に想定することである。
すなわち、前後の2つの検出時刻で検出された2つの顔画像{顔画像(t0)と顔画像(t1)}を比較することにより、これら2つ顔画像が同一人物の顔画像であると判定することは、当業者が容易に想到し得ることである。

そして、前後の2つの検出時刻で検出された2つの顔画像{顔画像(t0)と顔画像(t1)}を比較するためには、比較時点において両画像が存在していなければならず、
後の検出時刻(t1)において、後の検出時刻で検出した顔画像(t1)と、前の検出時刻で検出した顔画像(t0)を比較するためには、前の検出時刻で検出した顔画像(t0)を記憶保持しておかなくてはならないことは、当業者に自明かつ技術常識である。

以上によれば、上記[相違点1の克服]及び[相違点2の克服]をすること、すなわち、
引用発明が、B「前記顔検出手段により検出された顔に関する顔画像を保持する保持手段」を備えるとし、
引用発明の上記C’『処理手段』(上記『顔の人物の特定をし、区間を抽出識別し登録する処理』)が
第2の顔画像が、前記保持手段に保持された第2の顔画像であり、
前記第1の顔画像と前記第2の顔画像とを比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する顔画像処理手段(を含む)とする
ことは、当業者が容易に想到し得ることである。

(3)まとめ{相違点等の判断(容易想到性の判断)}
以上にように、[相違点1の克服]も[相違点2の克服]も、刊行物1記載の発明及び技術常識に基づいて、当業者が容易になし得ることであるところ、引用発明を出発点として、これらを合わせて克服することも、当業者が容易になし得ることである。

[7]まとめ(理由:独立特許要件不適合)
以上によれば、補正後の請求項1に記載される発明は、上記刊行物1に記載された発明及び技術常識に基づいて、当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許出願の際独立して特許を受けることができない。

【第3】当審の判断

[1]本願発明
平成20年12月15日付けの補正は上記のとおり却下する。
本願の請求項1から請求項21までに係る発明は、本願明細書及び図面(平成20年6月3日付けの手続補正書により補正された明細書及び図面)の記載からみて、それぞれ、その特許請求の範囲の請求項1から請求項21までに記載した事項により特定されるとおりのものであるところ、そのうち、請求項1に係る発明(以下「本願発明」という。)は、下記のとおりであると認められる。
記(本願発明)
動画コンテンツに基づいて顔検出処理を実行する顔検出手段と、
前記顔検出手段により検出された顔に関する顔画像を保持する保持手段と、
前記動画コンテンツ内において前記顔検出手段により検出された顔に関する第1の顔画像と、前記動画コンテンツ内で既に検出された顔に関する、前記保持手段に保持された第2の顔画像とを比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する顔画像処理手段と
を備える情報処理装置。

[2]引用刊行物の記載
原査定の拒絶の理由に引用された刊行物である特開2005-333381号公報(上記刊行物1に同じ。)には、前記「【第2-4】[2]」のとおりの事項が記載されている。

[3]刊行物1に記載された発明

刊行物1には、前記「【第2-4】[3]」で認定したとおりの引用発明が認められる。

[4]本願発明と引用発明との対比

本願発明は、以下のように要件A?Dに分説することができる。
本願発明(分説)
A:動画コンテンツに基づいて顔検出処理を実行する顔検出手段と、
B:前記顔検出手段により検出された顔に関する顔画像を保持する保持手段と、
C:前記動画コンテンツ内において前記顔検出手段により検出された顔に関する第1の顔画像と、前記動画コンテンツ内で既に検出された顔に関する、前記保持手段に保持された第2の顔画像とを比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する顔画像処理手段と
D:を備える情報処理装置。
本願発明と引用発明との対応については、前記「【第2-4】[4](2)「対応関係」を援用する。

[5]一致点、相違点
本願発明と引用発明との一致点、相違点は以下のとおりである。

[一致点]
A:動画コンテンツに基づいて顔検出処理を実行する顔検出手段と、
C”:『前記動画コンテンツ内において前記顔検出手段により検出された顔に関する第1の顔画像と、前記動画コンテンツ内で既に検出された顔に関する、第2の顔画像とを用いた処理手段』
D:を備える情報処理装置。

[相違点1]
本願発明は、
B「前記顔検出手段により検出された顔に関する顔画像を保持する保持手段」を備えるとするのに対し、
引用発明は、
これを備えるとはしていない点。

[相違点2]
上記C”『処理手段』が、
本願発明では、
第2の顔画像が、前記保持手段に保持された第2の顔画像であり、
前記第1の顔画像と前記第2の顔画像とを比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する顔画像処理手段であるとするのに対して、
引用発明では、
第2の顔画像が、前記保持手段に保持された第2の顔画像であり、とはしていないし、
前記第1の顔画像と前記第2の顔画像とを比較し、前記第1の顔画像と前記第2の顔画像とが同一人物の顔画像であるか否かを判別する顔画像処理手段であるともしていない点。

[6]相違点等の判断(容易想到性の判断)
前記「【第2-4】[6]」でした、補正後発明についての相違点等の判断と同じである。

[7]まとめ(本願発明)
本願発明は、刊行物1記載の発明及び技術常識に基づいて当業者が容易に発明をすることができたものである。

【第4】むすび
以上、本願の請求項1に係る発明は、刊行物1に記載された発明及び技術常識に基づいて、当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。
したがって、本願の他の請求項について検討するまでもなく、本願は拒絶をすべきものである。

よって、結論のとおり審決する。
 
審理終結日 2010-11-24 
結審通知日 2010-11-25 
審決日 2010-12-07 
出願番号 特願2006-184686(P2006-184686)
審決分類 P 1 8・ 575- Z (H04N)
P 1 8・ 121- Z (H04N)
最終処分 不成立  
前審関与審査官 星野 昌幸木方 庸輔  
特許庁審判長 乾 雅浩
特許庁審判官 藤内 光武
佐藤 直樹
発明の名称 情報処理装置および方法、並びにプログラム  
代理人 稲本 義雄  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ