ポートフォリオを新規に作成して保存 |
|
|
既存のポートフォリオに追加保存 |
|
PDFをダウンロード |
審決分類 |
審判 査定不服 2項進歩性 特許、登録しない。 G06T |
---|---|
管理番号 | 1289386 |
審判番号 | 不服2013-4583 |
総通号数 | 176 |
発行国 | 日本国特許庁(JP) |
公報種別 | 特許審決公報 |
発行日 | 2014-08-29 |
種別 | 拒絶査定不服の審決 |
審判請求日 | 2013-03-11 |
確定日 | 2014-07-02 |
事件の表示 | 特願2011-118840「自動3Dモデリングシステム及び方法」拒絶査定不服審判事件〔平成23年 8月18日出願公開、特開2011-159329〕について、次のとおり審決する。 |
結論 | 本件審判の請求は、成り立たない。 |
理由 |
1.経緯 1-1.手続 本願は、平成14年8月14日に国際出願(優先権主張2001年(平成13年)8月14日、米国 2002年(平成14年)8月13日、米国 2002年(平成14年)8月13日、米国)した特願2003-522039号の一部を、平成20年1月16日付けで新たな特許出願とした特願2008-7078号の一部を、平成23年5月27日付けで新たな特許出願としたものであって、平成24年6月4日付けで拒絶理由の通知がなされ、平成24年9月6日付けで、意見書及び手続補正書が提出され、平成24年11月2日付けで、拒絶査定がなされたものである。 本件は、上記拒絶査定を不服として平成25年3月11日に請求された拒絶査定不服審判であって、その審判請求と同時に明細書を補正する手続補正書が提出されたものである。 1-2.拒絶理由通知及び拒絶査定 ア.平成24年6月4日付けの拒絶理由通知の理由は、概略以下のとおりである。 『この出願の下記の請求項に係る発明は、その出願前に日本国内又は外国において、頒布された下記の刊行物に記載された発明又は電気通信回線を通じて公衆に利用可能となった発明に基いて、その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。 記 (引用文献等については引用文献等一覧参照) ・請求項 1-10 引 用 文 献 等 一 覧 1.長谷川修,森島繁生,金子正秀,「顔」の情報処理,電子情報通信学会論文誌(J80-A) 第8号,日本,社団法人電子情報通信学会,1997年 8月25日,第J80-A巻No.8,p1231-1249』 イ.平成24年11月2日付けの拒絶査定は、概略以下のとおりである。 『この出願については、平成24年 6月 4日付け拒絶理由通知書に記載した理由によって、拒絶をすべきものです。 なお、意見書並びに手続補正書の内容を検討しましたが、拒絶理由を覆すに足りる根拠が見いだせません。』 拒絶査定は、平成24年6月4日付け拒絶理由通知書に記載した理由、すなわち、請求項1-10に係る発明は、刊行物1に基づいて当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができないというものである。 2.本願発明 本件出願の請求項1ないし10に係る発明は、平成24年9月6日付け、平成25年3月11日付け手続補正書で補正された明細書、特許請求の範囲及び図面の記載からみて、平成24年9月6日付けで補正された特許請求の範囲の請求項1ないし10に記載されたとおりのものであり、そのうち、請求項8に係る発明(以下、「本願発明」という。)は、次のとおりである。 [本願発明](請求項8に係る発明) ジェスチャーを実行する第一のオブジェクトの画像を受領する段階であって、前記第一のオブジェクトは表面をもつ、段階と; 前記ジェスチャーに応答しての色に関連付けられた変化を示すよう構成された色変化変数および前記ジェスチャーに応答しての前記表面に関連付けられた変化を示すよう構成された二次元変数のうちの少なくとも一方を有するジェスチャーオブジェクトを定義する段階と; 第二のオブジェクトを動画化するよう前記ジェスチャーオブジェクトを前記第二のオブジェクトのモデルに適用する段階とを含む、 方法。 3.刊行物1 これに対して、原査定の拒絶の理由で引用された本願の出願前に頒布された刊行物である「長谷川修 森島繁生 金子正秀,「顔」の情報処理,電子情報通信学会論文誌(J80-A),日本,社団法人電子情報通信学会,1997年 8月25日,第J80-A巻 第8号,p.1231-1249」(以下、刊行物1という)には、次の事項が記載されている。 ア.「2.「顔」画像の合成 コンピュータグラフィックスの分野では,モデラなどを駆使することにより,極めてリアルな仮想人物の合成が可能になりつつある.しかし,対面によるコミュニケーションメディアの研究の目的は,あくまでも「コンピュータと人間」若しくは「人間同士」のコミュニケーションを実現するためのインタフェースの構築にある.そこで,時として実在の人物をモデル化する必要があるが,個々人のモデルを作成するために毎回長い時間を費やすのでは実用的でない.また表情や唇の動きのコントロールは,マニュアルで指定するのではなくこれらの運動を記述するパラメータから自動的に実行されなくてはならない.本章では,まず顔画像合成に関連した研究を概観し,次に顔のモデリング法,表情合成法,音声との同期法の研究事例について紹介する. 2.1 表情合成 頭部の形状は3次元構造モデルによって表現するのが一般的であり,このモデルを変形させることにより,表情を作り出す.顔表情合成の技術としては,大きく分けて二つの流れが存在する.一つは,顔の皮膚下にある表情筋と呼ばれる筋肉およびそれに連動して動く皮膚表面を物理的なモデルとして取り扱い,筋肉・骨の動きをもとに運動方程式を解くことによって皮膚表面にあたるワイヤフレームモデルを動かす方法である.もう一つはワイヤフレームモデルに直接規則的な幾何学的変形を施して表情を作成する方法である.」(第1232頁左欄第18行-右欄第1行) イ.「モデル変形のための表情の記述法に関しては,Ekmanらが開発したFACS(Facial Action Coding System)を利用することが一般的である[8].最近では,造形学的な観点から表情の基本ユニットを定める試みもある[9].FACSにおける表情コントロールのための基本ユニットはAction Unit(AU)と呼ばれ,各AUごとに,モデルの変形規則が定められている.表1に基本的な表情表出に関連するAUの例とその意味づけを示す.また表2は,6基本感情と呼ばれる喜び,怒り,嫌悪,悲しみ,恐れ,驚きを表現するAUの組合せとその強度の例を示している.例えば,崔らは36種類のAUをコンピュータに実装し,表情画像の作成を実現している[5].なお筋肉モデルの場合も,各AUで影響する筋肉が選択され,強度が指定される. FACSの変形規則は標準モデルを基準にして定められており,個人モデルヘの整合処理によって個人への適応が行われる.但し,ここでは,あくまで標準モデルは個人差に依存しない変形規則と構造を有しているという仮定に基づいている.しかし実際には,いわゆるステレオタイプとしての表情合成のレベルとなるため,個人の特徴を反映した特徴記述パラメータが別に必要である.将来,このようなパラメータが記述可能となれば,合成による分析手法による個人認証のための特徴パラメータとしても有効であろう.」(第1232頁右欄第15行-第1233頁左欄第6行) ウ.「2.2 人物の顔のモデル化 一般的な顔の形状を型取った標準的な3次元モデルをあらかじめ用意しておき,カメラから取得した正面画像の処理結果から得られる対象人物の顔の輪郭や目,鼻,唇などの位置情報をもとに,アフィン変換により形状を整合させて個人用の顔モデルを作成する[13].顔画像の合成は,この個人用のモデルを一定の規則に基づいて変形した後,対象人物の正面画像をテクスチャマッピングすることによって行う.」(第1233頁左欄第26行-右欄第2行) エ.「(b)表情変形 心理学分野で提案されているFACS(Facial Action Coding System)におけるAU(Action Unit)の考え方に基づいて3次元形状モデルを変形させることにより,表情画像の生成を行う.FACSにおけるAUは定性的なものであるが,モーションキャプチャ装置を用いて各AU表出時の特徴点の移動量を3次元的に実測して,表情パラメータを定量的に定めている.」(第1245頁左欄第1行-第8行) ここで、上記記載について検討する。 上記イ.の「モデル変形のための表情の記述法に関しては,Ekmanらが開発したFACS(Facial Action Coding System)を利用することが一般的である[8].」、「FACSにおける表情コントロールのための基本ユニットはAction Unit(AU)と呼ばれ,各AUごとに,モデルの変形規則が定められている.表1に基本的な表情表出に関連するAUの例とその意味づけを示す.また表2は,6基本感情と呼ばれる喜び,怒り,嫌悪,悲しみ,恐れ,驚きを表現するAUの組合せとその強度の例を示している.」、「FACSの変形規則は標準モデルを基準にして定められており」、表1 Facial Action Coding SystemにおけるAUの例、表2 基本表情を実現するAUの組合せと強度 の記載から、 刊行物1には、「標準モデルを基準にして、表情コントロールのための基本ユニットである各AUごとに、モデルの変形規則を定め、喜び、怒り、嫌悪、悲しみ、恐れ、驚きのような基本表情を、AUの組合せとその強度により表現すること」が記載されている。 上記ア.の「頭部の形状は3次元構造モデルによって表現するのが一般的であり,このモデルを変形させることにより,表情を作り出す.」、上記イ.の「モデル変形のための表情の記述法に関しては,Ekmanらが開発したFACS(Facial Action Coding System)を利用することが一般的である[8].」、「FACSの変形規則は標準モデルを基準にして定められており,個人モデルヘの整合処理によって個人への適応が行われる.」との記載から、 刊行物1においては、「3次元構造モデルを変形させることにより、表情を作り出す場合に、標準モデルを基準にして定められた変形規則を、個人モデルヘの整合処理によって個人への適応を行う」ことが記載されている。 また、刊行物1には、変形規則を定め、個人モデルヘの整合処理によって個人への適応を行うことについての一連の流れが記載されていることから、そのような流れの方法発明についても記載されているものであり、方法発明であれば、流れを段階により記載することも通常である。 したがって、刊行物1には、以下の発明(以下、「刊行物1発明」という。)が記載されている。 「標準モデルを基準にして、表情コントロールのための基本ユニットである各AUごとに、モデルの変形規則を定め、喜び、怒り、嫌悪、悲しみ、恐れ、驚きのような基本表情を、AUの組合せとその強度により表現する段階、 3次元構造モデルを変形させることにより、表情を作り出す場合に、標準モデルを基準にして定められた変形規則を、個人モデルヘの整合処理によって個人への適応を行う段階とを含む、 方法。」 4.刊行物1発明との対比 本願発明と刊行物1発明とを対比する。 (ア)「ジェスチャーを実行する第一のオブジェクトの画像を受領する段階であって、前記第一のオブジェクトは表面をもつ、段階」について 刊行物1発明は、標準モデルを基準にして、変形規則を定めているものであり、ジェスチャーを実行する第一のオブジェクトを利用するものでは無いため、「ジェスチャーを実行する第一のオブジェクトの画像を受領する段階であって、前記第一のオブジェクトは表面をもつ、段階」を有するものではない。 したがって、本願発明の「ジェスチャーを実行する第一のオブジェクトの画像を受領する段階であって、前記第一のオブジェクトは表面をもつ、段階」について、刊行物1発明は、そのような段階を含むものでは無い。 (イ)「前記ジェスチャーに応答しての色に関連付けられた変化を示すよう構成された色変化変数および前記ジェスチャーに応答しての前記表面に関連付けられた変化を示すよう構成された二次元変数のうちの少なくとも一方を有するジェスチャーオブジェクトを定義する段階」について 本願発明のジェスチャーとは、例えば、本願明細書の段落【0030】にて、「既存のモデルから微笑みジェスチャーを自動的に生成すること」とあるように、微笑みなどのような表情の動きを示すものである。 本願明細書の「図11に戻ると、本方法は、段階104において、ジェスチャーの間の画像の表面の動きに対する変化を表すテクスチャマップ変化を判断するために、特徴空間と画像空間との間の相関関係を判断する。段階106において、本方法は、画像からテクスチャマップを更新し(相関関係を検査するため)、得られたテクスチャマップを特徴空間に適用し、テクスチャマップ変化を記憶する、図14A及び14Bに示す典型的な擬似コードに示すような変数「stDeltaChange」を発生する。段階108において、本方法は、ジェスチャーの間に発生する3Dの動きを捕える、ジェスチャーの間の画像モデルの3D頂点の変化を判断する。段階110において、頂点変化は、特徴空間に適用され、図14A及び14Bに示すように、ジェスチャーオブジェクト内の変数「VertDeltaChange」に捕えられる。段階112において、本方法は、ジェスチャーの間に発生するテクスチャの配色を判断し、それを特徴空間に適用する。テクスチャ配色は、ジェスチャーオブジェクト内の「DeltaMap」変数に捕えられる。段階114において、ジェスチャーの間に発生する配色と2D及び3Dの動きとを包含する「stDeltaChange」、「VertDeltaChange」、及び「DeltaMap」変数を含むジェスチャーオブジェクトが生成される。(中略)要するに、ジェスチャーオブジェクトは、特定の画像モデルに存在するジェスチャーを抜き出して、そのジェスチャーの本質的な要素を包含する抽象的オブジェクトに変え、それによって次にそのジェスチャーを任意の3Dモデルに適用することができるようにする。」(段落【0026】)の記載から、明細書には、段階104と106にて、ジェスチャーの間の画像の表面の動きに対する変化を表すテクスチャマップ変化を記憶し、変数「stDeltaChange」を発生すること、段階108と110にて、ジェスチャーの間に発生する3Dの動きを捕える、ジェスチャーの間の画像モデルの3D頂点の変化を変数「VertDeltaChange」にすること、段階112にて、ジェスチャーの間に発生するテクスチャの配色を判断し、「DeltaMap」変数にすること、段階114にて、ジェスチャーの間に発生する配色と2D及び3Dの動きとを包含する「stDeltaChange」、「VertDeltaChange」、及び「DeltaMap」変数を含むジェスチャーオブジェクトが生成されることが記載されている。 ここで、「VertDeltaChange」が3次元の動きに関する変数であり、「DeltaMap」が、配色に関する変数であるから、2Dの動きに関する変数は「stDeltaChange」であり、これは、ジェスチャーの間の画像の表面の動きに対する変化を表す変数を示すものである。 そうすると、本願発明における「前記ジェスチャーに応答しての前記表面に関連付けられた変化を示すよう構成された二次元変数」の「二次元変数」とは、ジェスチャーの間の画像の表面の動きに対する変化を表す変数のことである。すなわち、あるジェスチャーをしたときにおける、立体的な動きの変化ではなく、表面という面上における動きの変化を表す変数を「二次元変数」としているものである。 また、本願発明の「ジェスチャーオブジェクト」とは、ジェスチャーを抜き出して、そのジェスチャーの本質的な要素を包含する抽象的オブジェクトに変えたものである。 刊行物1発明は、「表情コントロールのための基本ユニットである各AUごとに、モデルの変形規則を定め、喜び、怒り、嫌悪、悲しみ、恐れ、驚きのような基本表情を、AUの組合せとその強度により表現する」ものであるから、AUの組合せとその強度を定義するものである。 そして、刊行物1の表1をみるに、AUの例として、AU1Inner brow raiser(眉の内側を上げる)、AU15Lip corner depressor(唇の端を下げる)、AU20Lip stretcher(唇を横に引っ張る)などがあり、顔の中のあるパーツについて、上げる、下げるといった上下方向や横に引っ張るといった左右方向に変化させることを定めたものを含んでおり、そのようなAUについて、表2のように、複数のAUそれぞれの強度を指定することにより、顔の中の様々なパーツについて、上下方向や左右方向にどの程度変化させるかを定め、様々な表情を表すものである。これらの変化は、各パーツが、顔の表面内でどのように位置変化するかを規定したものであり、表面から離れるような動きを規定しているものではなく、顔の表面に沿って、ある方向にどの程度変化するかを規定したものである。 すなわち、AUの強度は、ある表情にしたときに、顔の表面上において、各パーツが、どの程度変化するかを数値で規定しているものであるから、ある表情にしたときにおける画像の表面の動きに対する変化を示す変数を表すものである。 さらに、AUの組合せとその強度は、ある表情について、顔の中の各パーツについてどの程度変化させるかを定義するものであるから、その表情を表すための本質的な要素であるし、表情の動きをInner brow raiserの強度等のように一般化、すなわち、抽象的なものに変えたものである。 本願発明のジェスチャーは、微笑みなどのような表情の動きを示すものであるから、刊行物1発明の「喜び、怒り、嫌悪、悲しみ、恐れ、驚きのような基本表情」は、本願発明の「ジェスチャー」に一致する。 刊行物1発明の「AUの強度」は、ある表情にしたときにおける画像の表面の動きに対する変化を示す変数を表すものであり、本願発明の「二次元変数」も、ジェスチャーの間の画像の表面の動きに対する変化を示す変数である。ここで、刊行物1発明の「ある表情にしたとき」とは、本願発明の「ジェスチャーの間」に一致する。したがって、刊行物1発明における「AUの強度」と、本願発明の「二次元変数」は、ともに、ジェスチャーの間の画像の表面の動きに対する変化を示す変数であるから、両者は一致する。また、刊行物1発明の「AUの強度」は、ジェスチャーの間の画像の表面の動きに対する変化を示す変数であるから、本願発明のように「ジェスチャーに応答して」おり、「表面に関連付けられた変化」である。そうすると、刊行物1発明の「AUの強度」と、本願発明の「前記ジェスチャーに応答しての前記表面に関連付けられた変化を示すよう構成された二次元変数」は、「ジェスチャーに応答しての表面に関連付けられた変化を示すよう構成された二次元変数」という点では、一致するものである。 ただし、本願発明の「ジェスチャー」は、「前記ジェスチャー」すなわち「ジェスチャーを実行する第一のオブジェクト」のジェスチャーであるのに対し、刊行物1発明のジェスチャーは、標準モデルにおけるジェスチャーである点で相違し、 本願発明の「表面」は、「前記表面」すなわち「前記第一のオブジェクトは表面を持つ」における「表面」を指すのに対し、刊行物1発明の「表面」は、標準モデルにおける顔の表面を指す点で相違する。 刊行物1発明の「AUの組合せとその強度」は、ある表情について、顔の中のそれぞれのパーツについてどの程度変化させるかを定義するものであるから、AUは、その表情を表すための本質的な要素であり、AUの組合せと強度により、喜び、怒り、嫌悪、悲しみ、恐れ、驚きのような基本表情を一般化、すなわち、抽象的なものに変えたものであり、本願発明のジェスチャーオブジェクトは、ジェスチャーを抜き出して、そのジェスチャーの本質的な要素を包含する抽象的オブジェクトに変えたものであるので、刊行物1発明の「AUの組合せとその強度」と、本願発明の「ジェスチャーオブジェクト」は、一致する。 したがって、刊行物1発明の「AUの強度」は、本願発明の「ジェスチャーに応答しての前記表面に関連付けられた変化を示すよう構成された二次元変数」と一致し、また、刊行物1発明の「AUの組合せと強度」は、「ジェスチャーオブジェクト」と一致する。 本願発明の「前記ジェスチャーに応答しての色に関連付けられた変化を示すよう構成された色変化変数および前記ジェスチャーに応答しての前記表面に関連付けられた変化を示すよう構成された二次元変数のうちの少なくとも一方を有する」は、「前記ジェスチャーに応答しての色に関連付けられた変化を示すよう構成された色変化変数」と「前記ジェスチャーに応答しての前記表面に関連付けられた変化を示すよう構成された二次元変数」のうちいずれか一方のみを選択することを含む記載である。 刊行物1発明の「AUの強度」は、本願発明の「ジェスチャーに応答しての表面に関連付けられた変化を示すよう構成された二次元変数」と一致し、刊行物1発明の「AUの組合せと強度」は、「ジェスチャーオブジェクト」と一致するので、刊行物1発明の構成は、「ジェスチャーに応答しての色に関連付けられた変化を示すよう構成された色変化変数およびジェスチャーに応答しての表面に関連付けられた変化を示すよう構成された二次元変数のうちの少なくとも一方を有するジェスチャーオブジェクトを定義する段階」において、「ジェスチャーに応答しての表面に関連付けられた変化を示すよう構成された二次元変数」を選択した場合に相当する。 そうすると、本願発明の「前記ジェスチャーに応答しての色に関連付けられた変化を示すよう構成された色変化変数および前記ジェスチャーに応答しての前記表面に関連付けられた変化を示すよう構成された二次元変数のうちの少なくとも一方を有するジェスチャーオブジェクトを定義する段階」について、本願発明と刊行物1発明は、「ジェスチャーに応答しての色に関連付けられた変化を示すよう構成された色変化変数およびジェスチャーに応答しての表面に関連付けられた変化を示すよう構成された二次元変数のうちの少なくとも一方を有するジェスチャーオブジェクトを定義する段階」という点で一致する。 しかし、本願発明のジェスチャーは、「前記ジェスチャー」、すなわち、「ジェスチャーを実行する第一のオブジェクト」のジェスチャーであるのに対し、刊行物1発明のジェスチャーは、標準モデルにおけるジェスチャーである。 また、本願発明の「表面」は、「前記表面」すなわち「前記第一のオブジェクトは表面を持つ」における「表面」を指すのに対し、刊行物1発明の「表面」は、標準モデルにおける顔の表面を指す点で相違する。 したがって、本願発明の「前記ジェスチャーに応答しての色に関連付けられた変化を示すよう構成された色変化変数および前記ジェスチャーに応答しての前記表面に関連付けられた変化を示すよう構成された二次元変数のうちの少なくとも一方を有するジェスチャーオブジェクトを定義する段階」について、本願発明と刊行物1発明は、「ジェスチャーに応答しての色に関連付けられた変化を示すよう構成された色変化変数およびジェスチャーに応答しての表面に関連付けられた変化を示すよう構成された二次元変数のうちの少なくとも一方を有するジェスチャーオブジェクトを定義する段階」という点で一致するものの、「ジェスチャー」は、本願発明は、「前記ジェスチャー」、すなわち、「ジェスチャーを実行する第一のオブジェクト」のジェスチャーであるのに対し、刊行物1発明は、標準モデルにおけるジェスチャーである点、「表面」は、本願発明は、「前記表面」すなわち「前記第一のオブジェクトは表面を持つ」における「表面」を指すのに対し、刊行物1発明は、標準モデルにおける顔の表面を指す点で相違する。 (ウ)「第二のオブジェクトを動画化するよう前記ジェスチャーオブジェクトを前記第二のオブジェクトのモデルに適用する段階」について 刊行物1発明は、「3次元構造モデルを変形させることにより、表情を作り出す場合に、標準モデルを基準にして定められた変形規則を、個人モデルヘの整合処理によって個人への適応を行う段階」を有する。 ここで、変形規則は、表情を作り出す場合に、標準モデルを基準にして、各AUごとに定めているものであるから、ある表情において、各AUがそれぞれどのような強度であるかということである。したがって、刊行物1発明の「変形規則」は、「AUの組合せと強度」であり、本願発明の「ジェスチャーオブジェクト」に一致する。 刊行物1発明は、3次元構造モデルを変形させることにより、標準モデルの変形規則を、標準モデルでは無い、個人モデルに整合処理するものであるから、個人モデルの表情を標準モデルの変形規則で動かすことであり、ある個人というオブジェクトを動画化するものであり、標準モデルの変形規則すなわち標準モデルのジェスチャーオブジェクトを個人というオブジェクトのモデルに適用するものである。 そうすると、本願発明の「第二のオブジェクトを動画化するよう前記ジェスチャーオブジェクトを前記第二のオブジェクトのモデルに適用する段階」について、本願発明と刊行物1発明は、「オブジェクトを動画化するよう前記ジェスチャーオブジェクトを前記オブジェクトのモデルに適用する段階」を有するという点で一致する。 しかし、本願発明の「前記ジェスチャーオブジェクト」は、ジェスチャーを実行する第一のオブジェクトのジェスチャーに応答してのジェスチャーオブジェクトであるのに対し、刊行物1発明の「前記ジェスチャーオブジェクト」は、標準モデルのジェスチャーに応答してのジェスチャーオブジェクトであり、本願発明の「第二のオブジェクト」は、第一のオブジェクトとは異なるオブジェクトを意味するのに対し、刊行物1発明のオブジェクトは、第一のオブジェクトが存在せず、単に「個人」というオブジェクトを指すものである。 したがって、本願発明の「第二のオブジェクトを動画化するよう前記ジェスチャーオブジェクトを前記第二のオブジェクトのモデルに適用する段階」について、本願発明と刊行物1発明は、「オブジェクトを動画化するよう前記ジェスチャーオブジェクトを前記オブジェクトのモデルに適用する段階」という点で一致するものの、 「前記ジェスチャーオブジェクト」は、本願発明は、ジェスチャーを実行する第一のオブジェクトのジェスチャーに応答してのジェスチャーオブジェクトであるのに対し、刊行物1発明は、標準モデルのジェスチャーに応答してのジェスチャーオブジェクトである点で相違し、 動画化する「オブジェクト」は、本願発明は、「第二のオブジェクト」、すなわち、第一のオブジェクトとは異なるオブジェクトを意味するのに対し、刊行物1発明は、第一のオブジェクトが存在せず、単に「個人」というオブジェクトを指すという点で相違する。 以上のとおり、構成ごとに対比され、本願発明と刊行物1発明とは、 ジェスチャーに応答しての色に関連付けられた変化を示すよう構成された色変化変数およびジェスチャーに応答しての表面に関連付けられた変化を示すよう構成された二次元変数のうちの少なくとも一方を有するジェスチャーオブジェクトを定義する段階と; オブジェクトを動画化するよう前記ジェスチャーオブジェクトを前記オブジェクトのモデルに適用する段階とを含む、 方法。 で一致し、構成ごとの相違は次のとおりである。 (ア)本願発明は、「ジェスチャーを実行する第一のオブジェクトの画像を受領する段階であって、前記第一のオブジェクトは表面を持つ、段階」を有するのに対し、刊行物1発明は、そのような段階を有しない点で相違する。 (イ)「ジェスチャー」は、本願発明は、「前記ジェスチャー」、すなわち、「ジェスチャーを実行する第一のオブジェクト」のジェスチャーであるのに対し、刊行物1発明のジェスチャーは、標準モデルにおけるジェスチャーである点で相違する。 (ウ)「表面」は、本願発明は、「前記表面」すなわち「前記第一のオブジェクトは表面を持つ」における「表面」を指すのに対し、刊行物1発明は、標準モデルにおける顔の表面を指す点で相違する。 (エ)「前記ジェスチャーオブジェクト」は、本願発明は、ジェスチャーを実行する第一のオブジェクトのジェスチャーに応答してのジェスチャーオブジェクトであるのに対し、刊行物1発明は、標準モデルのジェスチャーに応答してのジェスチャーオブジェクトである点で相違する。 (オ)「オブジェクト」は、本願発明は、「第二のオブジェクト」、すなわち、第一のオブジェクトとは異なるオブジェクトを意味するのに対し、刊行物1発明は、第一のオブジェクトが存在せず、単に「個人」というオブジェクトを指すものである点で相違する。 これらの構成における相違は、技術的に次のように整理することができる。 本願発明は、ジェスチャーを実行する第一のオブジェクトのジェスチャーに応答してのジェスチャーオブジェクトを、第二のオブジェクトのモデルに適用するのに対し、刊行物1発明は、標準モデルのジェスチャーに応答してのジェスチャーオブジェクトを、オブジェクトのモデルに適用することに起因して、 本願発明は、「ジェスチャーを実行する第一のオブジェクトの画像を受領する段階であって、前記第一のオブジェクトは表面を持つ、段階」を有するのに対し、刊行物1発明は、そのような段階を有しない点、 「ジェスチャー」は、本願発明は、「前記ジェスチャー」、すなわち、「ジェスチャーを実行する第一のオブジェクト」のジェスチャーであるのに対し、刊行物1発明のジェスチャーは、標準モデルにおけるジェスチャーである点、 「表面」は、本願発明は、「前記表面」すなわち「前記第一のオブジェクトは表面を持つ」における「表面」を指すのに対し、刊行物1発明は、標準モデルにおける顔の表面を指す点、 「前記ジェスチャーオブジェクト」は、本願発明は、ジェスチャーを実行する第一のオブジェクトのジェスチャーに応答してのジェスチャーオブジェクトであるのに対し、刊行物1発明は、標準モデルのジェスチャーに応答してのジェスチャーオブジェクトである点、 「オブジェクト」は、本願発明は、「第二のオブジェクト」、すなわち、第一のオブジェクトとは異なるオブジェクトを意味するのに対し、刊行物1発明は、第一のオブジェクトを受領する段階を有しないため、第一のオブジェクトが存在せず、単に「個人」を指すものである点 で相違する。 以上の対比によると、本願発明と刊行物1発明との一致点、相違点は次のとおりである。 [一致点] 「ジェスチャーに応答しての色に関連付けられた変化を示すよう構成された色変化変数およびジェスチャーに応答しての前記表面に関連付けられた変化を示すよう構成された二次元変数のうちの少なくとも一方を有するジェスチャーオブジェクトを定義する段階と; オブジェクトを動画化するよう前記ジェスチャーオブジェクトを前記オブジェクトのモデルに適用する段階とを含む、 方法。」 [相違点] 本願発明は、ジェスチャーを実行する第一のオブジェクトのジェスチャーに応答してのジェスチャーオブジェクトを、第二のオブジェクトのモデルに適用するのに対し、刊行物1発明は、標準モデルのジェスチャーに応答してのジェスチャーオブジェクトを、オブジェクトのモデルに適用することに起因して、 本願発明は、「ジェスチャーを実行する第一のオブジェクトの画像を受領する段階であって、前記第一のオブジェクトは表面を持つ、段階」を有するのに対し、刊行物1発明は、そのような段階を有しない点 「ジェスチャー」は、本願発明は、「前記ジェスチャー」、すなわち、「ジェスチャーを実行する第一のオブジェクト」のジェスチャーであるのに対し、刊行物1発明のジェスチャーは、標準モデルにおけるジェスチャーである点 「表面」は、本願発明は、「前記表面」すなわち「前記第一のオブジェクトは表面を持つ」における「表面」を指すのに対し、刊行物1発明は、標準モデルにおける顔の表面を指す点 「前記ジェスチャーオブジェクト」は、本願発明は、ジェスチャーを実行する第一のオブジェクトのジェスチャーに応答してのジェスチャーオブジェクトであるのに対し、刊行物1発明は、標準モデルのジェスチャーに応答してのジェスチャーオブジェクトである点 「オブジェクト」は、本願発明は、「第二のオブジェクト」、すなわち、第一のオブジェクトとは異なるオブジェクトを意味するのに対し、刊行物1発明は、第一のオブジェクトを受領する段階を有しないため、第一のオブジェクトが存在せず、単に「個人」を指すものである点 で相違する。 5.当審の判断 上記相違点について検討する。 刊行物1には、刊行物1発明以外の記載として、上記3.エ.に示されているように、 FACSにおけるAUの考え方に基づいて3次元形状モデルを変形させることにより、表情画像の生成を行う場合に、モーションキャプチャ装置を用いて各AU表出時の特徴点の移動量を3次元的に実測して,表情パラメータを定量的に定める発明(以下、「刊行物1別発明」という。) が記載されている。 モーションキャプチャ装置は、一般に、動きのあるオブジェクトの画像を受信して、その動きを解析する装置のことであり、刊行物1別発明では、各AU表出時の特徴点の移動量を3次元的に実測するためにモーションキャプチャ装置を用いるものであるから、モーションキャプチャ装置を用いるということは、刊行物1別発明においても、表情の動きがあるオブジェクトの画像を受信しているものである。また、表情の動きを解析するのであるから、顔の表面の情報が必要であり、表情の動きがあるオブジェクトは、顔の表面を持つものである。 すなわち、刊行物1別発明の「モーションキャプチャ装置を用いて各AU表出時の特徴点の移動量を3次元的に実測」するためには、その前段階として、 表情の動きがあるオブジェクトの画像を受信する段階であって、前記表情の動きがあるオブジェクトは、顔の表面を持つ、段階 を有するものである。 ここで、本願発明のジェスチャーとは、4.(イ)で検討したように、微笑みなどのような表情の動きを示すものであるから、刊行物1別発明の「表情の動き」は、本願発明のジェスチャーに一致する。 また、AUは、表1に示されているように、眉、口等のような顔のパーツの動き(例えば、AU1は、眉の内側を上げること)を示すものであるから、各AU表出時の特徴点の移動量を3次元的に実測とは、例えば、表情の動きにより、AU1であれば、眉の内側の上げがどの程度であるかを実測することであり、該実測値から表情パラメータを定め、該表情パラメータに基づいて3次元形状モデルを変形させ、表情画像の生成を行うというものである。 そうすると、表情パラメータとは、3次元形状モデルを変形させるためにAUの特徴点の移動量から定めたパラメータであるから、AUの強度と同様の意味を有するものであり、表情の動きから得られた各AUの表情パラメータに基づいて3次元形状モデルを変形させることから、結果的に、刊行物1別発明においても、本願発明のように、ジェスチャーを実行する第一のオブジェクトのジェスチャーに応答してジェスチャーオブジェクトを定義しているものである。 刊行物1発明は、標準モデルのジェスチャーに応答してのジェスチャーオブジェクトを、オブジェクトのモデルに適用するものであるが、上記3.ア.に示されているように、刊行物1には、標準モデルは個人差に依存しない変形規則と構造を有しているという仮定に基づいているため、実際には、いわゆるステレオタイプとしての表情合成のレベルとなることが記載されている。 すなわち、刊行物1発明のように、標準モデルのジェスチャーオブジェクトを、様々な個人モデルに適用した場合、適用される個人モデルとは異なるモデルである標準モデルのジェスチャーオブジェクトを用いるので、生成された個人モデルの表情は、標準モデルの表情の変化に依存した表情の変化となり、該個人自身の実際の微笑み等の表情とは異なるものとなる。 刊行物1発明においては、標準モデルのジェスチャーオブジェクトは、表2のように予め定義されているものであるが、刊行物1別発明のように、FACSにおけるAUの考え方に基づいて3次元形状モデルを変形させることにより、表情画像の生成を行う場合に、モーションキャプチャ装置を用いて各AU表出時の特徴点の移動量を3次元的に実測して,表情パラメータを定量的に定める発明が知られている以上、予め定義されている標準モデルのジェスチャーオブジェクトを使用することに代えて、予め、ある人から実測して得られたジェスチャーオブジェクトを使用することも、容易に考え得ることである。 そして、刊行物1発明の標準モデルについても、生成される個人モデルとは異なるものであり、生成された個人モデルの表情は、標準モデルの表情の変化に依存した表情の変化となり、該個人自身の実際の微笑み等の表情とは異なるものとなるから、予め、ある人から実測して得られたジェスチャーオブジェクトを使用することを採用した場合に、刊行物1発明のように、該個人自身の実際の微笑み等の表情と異なるものでもよければ、予め、ある人から実測して得られたジェスチャーオブジェクトにおける「ある人」が、個人モデルとは異なる人、すなわち、第一のオブジェクトのジェスチャーオブジェクトを第二のオブジェクトのモデルに適用するように設計することを妨げるものではなく、容易に想到できるといえる。 そうすると、刊行物1発明における標準モデルのジェスチャーに応答してのジェスチャーオブジェクトを、オブジェクトのモデルに適用することに関して、刊行物1別発明を適用し、ジェスチャーを実行する第一のオブジェクトのジェスチャーに応答してのジェスチャーオブジェクトを、第二のオブジェクトのモデルに適用し、また、ジェスチャーを実行する第一のオブジェクトの画像を受領する段階であって、前記第一のオブジェクトは表面を持つ、段階を有するようにしたことは、容易に想到できるといえ、相違点に係る本願発明の構成とすることは、当業者が容易に想到できることといえる。 以上のとおり、相違点に係る本願発明の構成は、容易に想到できるといえ、本願発明の効果も、刊行物1発明から当業者が容易に予測し得るものであり、格別顕著なものがあるとは認められない。 したがって、本願発明は、刊行物1に記載された発明に基づいて、当業者が容易に発明をすることができたものである。 6.まとめ 以上のとおり、本願の請求項8に係る発明は、刊行物1に記載された発明に基づいて当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。 したがって、残る請求項1?7、9、10に係る発明について検討するまでもなく、本件出願は拒絶をすべきものである。 よって、結論のとおり審決する。 |
審理終結日 | 2014-01-23 |
結審通知日 | 2014-02-04 |
審決日 | 2014-02-18 |
出願番号 | 特願2011-118840(P2011-118840) |
審決分類 |
P
1
8・
121-
Z
(G06T)
|
最終処分 | 不成立 |
前審関与審査官 | 岡本 俊威 |
特許庁審判長 |
松尾 淳一 |
特許庁審判官 |
渡辺 努 千葉 輝久 |
発明の名称 | 自動3Dモデリングシステム及び方法 |
代理人 | 伊東 忠彦 |
代理人 | 伊東 忠重 |
代理人 | 大貫 進介 |