• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 特許、登録しない。 H04N
審判 査定不服 5項独立特許用件 特許、登録しない。 H04N
審判 査定不服 2項進歩性 特許、登録しない。 H04N
管理番号 1266733
審判番号 不服2009-511  
総通号数 157 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2013-01-25 
種別 拒絶査定不服の審決 
審判請求日 2009-01-05 
確定日 2012-12-13 
事件の表示 特願2006- 627「ブロック予測方法」拒絶査定不服審判事件〔平成18年 7月 6日出願公開、特開2006-180526〕について、次のとおり審決する。 
結論 本件審判の請求は、成り立たない。 
理由 第1 経緯
1 手続
本願は、平成15年1月10日に出願した特願2003-4236号の一部を平成18年1月5日に新たな特許出願(パリ条約による優先権主張:平成14年4月9日 (KR)大韓民国)としたものであって、手続の概要は以下のとおりである。

拒絶理由通知 :平成19年 8月31日(起案日)
意見書 :平成20年 3月 4日
手続補正 :平成20年 3月 4日
拒絶査定 :平成20年 9月29日(起案日)
拒絶査定不服審判請求 :平成21年 1月 5日
手続補正 :平成21年 2月 4日
前置審査報告 :平成21年11月30日
審尋 :平成22年 7月 5日(起案日)
回答書 :平成22年 9月29日

2 査定
原審での査定の理由は、概略、以下のとおりである。

この出願の下記の請求項に係る発明は、その出願前日本国内又は外国において頒布された下記の刊行物に記載された発明又は電気通信回線を通じて公衆に利用可能となった発明に基いて、その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。

記 (引用文献等については引用文献等一覧参照)
1.Karl Lillevold, "Improved direct mode for B pictures in TML", ITU - Telecommunications Standardization Sector STUDY GROUP 16 Video Coding Experts Group (Question 15) Eleventh Meeting: Portland, Oregon, USA,22 August, 2000, Q15-K-44


第2 補正却下の決定
平成21年2月4日付けの手続補正(以下、本件補正という。)について次のとおり決定する。

《結論》

平成21年2月4日付けの補正を却下する。

《理由》

1 特許請求の範囲の記載(補正前と補正後)
本件補正は特許請求の範囲についてする補正を含むところ、本件補正前および本件補正後の特許請求の範囲は、下記のとおりである。(補正部分をアンダーラインで示す。)

記(補正前)
【請求項1】
双予測ピクチャにおける現在のブロックの予測方法において、
ダイレクトモードで、前記現在のブロックの第1および第2の動きベクトルを、同一の位置にあるブロックの動きベクトルから導出するステップと、
前記第1の動きベクトルと前記現在のブロックに対する第1の参照ピクチャとを利用して、第1の動き補償されたブロックを得るステップと、
前記第2の動きベクトルと前記現在のブロックに対する第2の参照ピクチャとを利用して、第2の動き補償されたブロックを得るステップと、
前記双予測ピクチャに割り当てられた第1のピクチャ順序カウンタ値、前記第1の参照ピクチャに割り当てられた第2のピクチャ順序カウンタ値及び前記第2の参照ピクチャに割り当てられた第3ピクチャ順序カウンタ値に基づいて、第1および第2の係数を計算するステップと、
前記第1および第2の動き補償されたブロックにそれぞれ前記第1および第2の係数を適用することによって、前記現在のブロックを予測するステップと、
有することを特徴とする予測方法。

【請求項2】
前記第1の参照ピクチャは、順方向参照ピクチャ中、前記双予測ピクチャから最も時間的距離が近い参照ピクチャである、請求項1に記載の予測方法。

記(補正後)
【請求項1】
双予測ピクチャにおける現在のブロックの予測方法において、
ダイレクトモードで、前記現在のブロックの第1および第2の動きベクトルを、第2の参照ピクチャに含まれる同一の位置にあるブロックの動きベクトルから導出するステップと、
前記第1の動きベクトルと前記現在のブロックに対する第1の参照ピクチャとを利用して、第1の動き補償されたブロックを得るステップと、
前記第2の動きベクトルと前記現在のブロックに対する第2の参照ピクチャとを利用して、第2の動き補償されたブロックを得るステップと、
前記双予測ピクチャに割り当てられた第1のピクチャ順序カウンタ値、前記第1の参照ピクチャに割り当てられた第2のピクチャ順序カウンタ値及び前記第2の参照ピクチャに割り当てられた第3ピクチャ順序カウンタ値に基づいて、第1および第2の係数を計算するステップと、
前記第1および第2の動き補償されたブロックにそれぞれ前記第1および第2の係数を適用することによって、前記現在のブロックを予測するステップと、
有することを特徴とする予測方法。

【請求項2】
前記第1の参照ピクチャは、順方向参照ピクチャ中、前記双予測ピクチャから最も時間的距離が近い参照ピクチャである、請求項1に記載の予測方法。

2 補正の内容
本件補正における補正の内容は、以下のとおりである。
[補正事項]
補正前請求項1、2の「同一の位置にあるブロック」を「第2の参照ピクチャに含まれる同一の位置にあるブロック」とする補正

3 補正の範囲の適否
上記補正事項は、願書に最初に添付した、明細書の段落【0022】?【0025】等に基づくものであり、願書に最初に添付した明細書及び図面に記載した範囲内においてする補正である。

4 補正の目的の適否
上記請求項1、2の補正は、補正前の請求項1、2にした発明を特定する「同一の位置にあるブロック」について限定するものであるから、特許法第17条の2第4項第2号で規定する特許請求の範囲の減縮を目的とするものに該当する。

5 独立特許要件についての検討
本件補正後の請求項1に係る発明(以下「補正後発明」という。)が、独立特許要件(特許法第17条の2第5項において準用する同法第126条第5項の規定)を満たすか否かについて検討する。

(1)補正後発明
補正後発明は、平成21年2月4日付けの手続補正書により補正された明細書及び図面の記載からみて、下記のとおりのものであると認められる。

記(補正後発明)
双予測ピクチャにおける現在のブロックの予測方法において、
ダイレクトモードで、前記現在のブロックの第1および第2の動きベクトルを、第2の参照ピクチャに含まれる同一の位置にあるブロックの動きベクトルから導出するステップと、
前記第1の動きベクトルと前記現在のブロックに対する第1の参照ピクチャとを利用して、第1の動き補償されたブロックを得るステップと、
前記第2の動きベクトルと前記現在のブロックに対する第2の参照ピクチャとを利用して、第2の動き補償されたブロックを得るステップと、
前記双予測ピクチャに割り当てられた第1のピクチャ順序カウンタ値、前記第1の参照ピクチャに割り当てられた第2のピクチャ順序カウンタ値及び前記第2の参照ピクチャに割り当てられた第3ピクチャ順序カウンタ値に基づいて、第1および第2の係数を計算するステップと、
前記第1および第2の動き補償されたブロックにそれぞれ前記第1および第2の係数を適用することによって、前記現在のブロックを予測するステップと、
有することを特徴とする予測方法。

(2)引用発明
ア 引用例1の記載事項
原査定の拒絶理由に引用されたKarl Lillevold, "Improved direct mode for B pictures in TML", ITU - Telecommunications Standardization Sector STUDY GROUP 16 Video Coding Experts Group (Question 15) Eleventh Meeting: Portland, Oregon, USA,22 August, 2000, Q15-K-44(以下「引用例1」という。)には、次の記載a.乃至r.(以下、「記載a」・・・「記載r」などという。)がある。
<title>
a.Improved direct mode for B pictures in TML
《翻訳》
TMLにおけるBピクチャのための改善されたダイレクトモード

<Introduction>
b.「Video content on the Internet is generally very different from standard ITU and MPEG test sequences.」
《翻訳》
インターネット上のビデオコンテントは、標準ITUおよびMPEGテスト・シーケンスとは一般に非常に異なります。

c.「In particular, both music videos and movie trailers make heavy use of fading transitions from scene to scene.」
《翻訳》
特に、ミュージック・ビデオおよび映画の予告編の両方は、シーンからシーンへのフェード推移を激しく使用します。

d.「For instance, it is very popular in movie trailers to fade each scene to black, and then from black to the next scene.」
《翻訳》
例えば、映画の予告編において、黒へそして黒から次のシーンへと各シーンをフェードさせることは、非常にポピュラーです。

e.「Both normal fades and these "to-black" fades are hard to encode well without visible compression artifacts, especially if the bitrate is to be maintained constant.」
《翻訳》
普通のフェードとこれら黒へのフェードの両方とも、特にビット・レートが一定のために維持されることになっている場合、可視の圧縮アーチファクトなしで、うまくエンコードすることが困難です。

<Description>
f.「While experimenting with such content it was found that the use of B pictures with direct mode prediction in a TML simulation model, resulted in significant benefits over P pictures alone.」
《翻訳》
そのようなコンテントで実験する間に、TMLシミュレーション・モデルでのダイレクトモード予測によるBピクチャの使用は、Pピクチャ単独よりもかなり有利であることが分かりました。

g.「The experiments did not include a full bi-directional mode with motion vectors in both directions.」
《翻訳》
その実験は、両方向の動きベクトルによる全双方向モードを含んでいませんでした。

h.「The direct mode was implemented in a similar manner to B pictures with direct mode in H.263+.」
《翻訳》
そのダイレクトモードは、H.263+のダイレクトモードによるBピクチャと似た方法でインプリメントされました。

i.「However, when encoding with a PBBB pattern, it was also found that the B pictures in position 1 and 3 suffered from quality degradation relative to the B pictures in position 2, as well as the surrounding P (and I) pictures.」
《翻訳》
しかしながら、PBBBパターンでエンコードする時、位置1および3のBピクチャが、周囲のP(とI)ピクチャだけでなく、位置2のBピクチャに関連した質低下にも苦しんだことがさらに分かりました。

j.「A closer examination of the problem showed that it was bi-directionally predicted macroblocks coded in the direct mode that were coded poorly, simply because the interpolated prediction did not match the actual image content well.」
《翻訳》
その問題のより近い調査は、単に、補間された予測は実画像内容とよく一致しなかったというだけの理由で、貧弱にコード化されるのは、ダイレクトモードでコード化した双方向予測されたマクロブロックであると示した。

k.「Considering how the direct mode motion vector is derived from scaling the motion vector for the subsequent P picture, based on the distance between the B picture and the surrounding pictures, it would seem natural to also scale or weigh the calculation of the prediction block based on this distance, instead of the regular averaging that has so far been used in all existing standards with B pictures.」
《翻訳》
ダイレクトモード動きベクトルが、後続するPピクチャのための動きベクトルを、そのBピクチャと周囲のピクチャの間の距離に基づいてスケーリングすることにより導出される、そのやり方を考えれば、これまでBピクチャについてすべての既存の標準で使用されてきた、規則的に平均することの代わりに、この距離に基づいて、予測ブロックの計算を計るか重み付けもすることは自然に見えるでしょう。

l.「So, the proposed method to calculate the prediction block P for direct mode coded macroblocks is
P = (Pp * (TRD - TRB) + Pf * (TRB)) / TRD
where Pp is the prediction block from the previous reference picture, and Pf is the prediction block from the future or subsequent reference picture.」
《翻訳》
だから、ダイレクトモードでコード化されたマクロブロックのための予測ブロックPを計算するために提案された方法は、
P = (Pp * (TRD - TRB) + Pf * (TRB)) / TRD
です。ここで、Ppは前の参照ピクチャからの予測ブロックで、Pfは将来か後続の参照ピクチャからの予測ブロックです。

m.「TRD is the temporal distance between the temporally previous and next reference picture, and TRB is the temporal distance between the current picture and previous reference picture.」
《翻訳》
TRDは、時間的に前と次の参照ピクチャの間の時間的距離で、また、TRBは、現在のピクチャおよび前の参照ピクチャの間の時間的距離です。

<Results>
n.「The results from two experiments are presented, one with a synthesized sequence where Hall fades into Akiyo.」
《翻訳》
2つの実験結果のひとつは、HallがAkiyoへフェードするところで、合成されたシーケンスに示されています。

o.「This is a light sequence fading into a darker sequence, and was meant to show the subjective and objective gain that can be achieved with this method.」
《翻訳》
これは明るいシーケンスからより暗いシーケンスへのフェーディングで、この方法で達成することができる主観的・客観的なゲインを示すのが目的です。

p.「The second experiment was to encode Mobile without any fades to verify that there would be no loss of performance relative to the standard way to calculate the prediction for direct mode.」
《翻訳》
ふたつ目の実験は、ダイレクトモードの予測を計算する標準方法に関してパフォーマンス損失がないだろうということを確認するために、フェードのないMobileをエンコードすることでした。

q.「Both experiments were run at CIF resolution, 30 fps, fixed quantization parameters, and B picture pattern PBBB (for the tests with B pictures).」
《翻訳》
両方の実験は、CIF解像度、30 fps、固定量子化パラメーターおよび(Bピクチャのテスト用の)BピクチャパターンPBBBで実行されました。

r.「The subjective improvement will be demonstrated at the meeting (computer playback of reconstructed sequences).」
《翻訳》
主観的な改良はミーティングで(復元されたシーケンスのコンピューター再生)実証されるでしょう。

イ 引用発明
(ア)提案された方法
記載lによれば、
「ダイレクトモードでコード化されたマクロブロックのための予測ブロックPを計算するために提案された方法」として次式が示されている。
P = (Pp * (TRD - TRB) + Pf * (TRB)) / TRD

また、「予測ブロックP」は、記載aからも明らかなように、「Bピクチャ」におけるものであり、
予測ブロックは、現在の(処理対象の)ブロックに対するものであるから、
提案された方法は、「Bピクチャにおける現在のブロックに対する予測ブロックを計算する方法」といえ、
具体的には、以下の(エ)ないし(カ)に示すステップ「を有する方法」により行われると認められる。

(イ)式の解釈
記載kによれば、上記の式は、「この距離に基づいて、予測ブロックの計算を計るか重み付け」をするためのものと認められ、
「この距離」とは、「Bピクチャと周囲のピクチャの間の距離」のことであり、時間的な距離といえるから、
PpとPfを、時間的な距離に基づいて重み付けるための式といえ、
上記の式が示すのは、
Ppに(TRD- TRB)/TRDの重み付けをし、
PfにTRB / TRD の重み付けをする
ことであると認められるから、
重みとしての(TRD - TRB) / TRDおよびTRB / TRD を得てから、予測ブロックPpおよびPfに重み付けを行う構成と理解される。

(ウ)式の計算に必要な情報
そして、上記の式を具体的に計算するにあたっては、
予測ブロックPp、
予測ブロックPf、
重みとしての(TRD - TRB) / TRDおよびTRB / TRD
を得る必要がある。

(エ)予測ブロックPpおよびPfを得るための処理(ステップ)
記載kによれば、「規則的に平均することの代わりに、この距離に基づいて、予測ブロックの計算を計るか重み付けもする」以外は、通常の「ダイレクトモード」が想定されていると解されるから、
記載kに「ダイレクトモード動きベクトルが、後続するPピクチャのための動きベクトルを、そのBピクチャと周囲のピクチャの間の距離に基づいてスケーリングすることにより導出される」とされていることからも分かるように、
通常の「ダイレクトモード」と同様に、
「ダイレクトモード動きベクトル」を「後続するPピクチャのための動きベクトルを、そのBピクチャと周囲のピクチャの間の距離に基づいてスケーリングすることにより」得ているものと認められ、
記載lによれば、「Ppは前の参照ピクチャからの予測ブロック」で、「Pfは将来か後続の参照ピクチャからの予測ブロック」であり、
該「ダイレクトモード動きベクトル」は、該「予測ブロック」を得るために用いられることは明らかであるから、
該「ダイレクトモード動きベクトル」は、「予測ブロックPp」および「予測ブロックPf」のそれぞれに対応した動きベクトルであると認められ、
該「動きベクトル」をそれぞれ用いることにより、「予測ブロックPp」および「予測ブロックPf」を得ることは明らかである。
よって、「予測ブロックPp」および「予測ブロックPf」を得る前に、
「Bピクチャと周囲のピクチャの間の距離に基づいて、後続するPピクチャのための動きベクトルをスケーリングすることにより、Pp、Pfそれぞれに対応するダイレクトモード動きベクトルを得るステップ」
が必要であり、
その後、
該「Ppに対応するダイレクトモード動きベクトルを用いて前の参照ピクチャからの予測ブロックPpを得るステップ」と、
該「Pfに対応するダイレクトモード動きベクトルを用いて将来か後続の参照ピクチャからの予測ブロックPfを得るステップ」
により「予測ブロックPp」および「予測ブロックPf」を得るものと解される。

(オ)(TRD - TRB) / TRDおよびTRB / TRDを得るための処理(ステップ)
記載mによれば、「TRDは、時間的に前と次の参照ピクチャの間の時間的距離」で、「TRBは、現在のピクチャおよび前の参照ピクチャの間の時間的距離」である。
(TRD - TRB) / TRDおよびTRB / TRDを得るためには、TRBおよびTRDに基づいた計算を行う必要があるから、
「TRDは、時間的に前と次の参照ピクチャの間の時間的距離とし、TRBは、現在のピクチャおよび前の参照ピクチャの間の時間的距離とし、重みとしての(TRD - TRB) / TRDおよびTRB / TRDを計算するステップ」
が必要であることは明らかである。

(カ)予測ブロックPの計算(ステップ)
以上によって得られたPp、Pf、(TRD - TRB) / TRDおよびTRB / TRDから、最終的に、
「PpおよびPfにそれぞれ(TRD - TRB) / TRDおよびTRB / TRDを重み付けることにより予測ブロックPを計算するステップ」
により、予測ブロックPを得る。

(キ)まとめ
以上をまとめると、補正後発明と対比する引用発明として下記の発明が認定できる。

記(引用発明)
Bピクチャにおける現在のブロックに対する予測ブロックを計算する方法において、
Bピクチャと周囲のピクチャの間の距離に基づいて後続するPピクチャのための動きベクトルをスケーリングすることにより、Pp、Pfそれぞれに対応するダイレクトモード動きベクトルを得るステップ、
Ppに対応するダイレクトモード動きベクトルを用いて前の参照ピクチャからの予測ブロックPpを得るステップ、
Pfに対応するダイレクトモード動きベクトルを用いて将来か後続の参照ピクチャからの予測ブロックPfを得るステップ、
TRDは、時間的に前と次の参照ピクチャの間の時間的距離とし、TRBは、現在のピクチャおよび前の参照ピクチャの間の時間的距離とし、重みとしての(TRD - TRB) / TRDおよびTRB / TRDを計算するステップ、
PpおよびPfにそれぞれ(TRD - TRB) / TRDおよびTRB / TRDを重み付けることにより予測ブロックPを計算するステップ、
を有する方法

(3)対比・判断
ア 「双予測ピクチャにおける現在のブロックの予測方法において」、「有することを特徴とする予測方法」について
引用発明は「Bピクチャにおける現在のブロックに対する予測ブロックを計算する方法」が前提とされており、「Bピクチャ」は「双予測ピクチャ」と称すことができ、「現在のブロックに対する予測ブロックを計算する」ことは、「現在のブロックの予測」であるといえるから、引用発明が前提とする「現在のBピクチャにおける予測ブロックを予測する方法」は「双予測ピクチャにおける現在のブロックの予測方法において」といえ、引用発明の(各ステップを)「有する方法」は、(各ステップを)「有することを特徴とする予測方法」といえる。

イ 「ダイレクトモードで、前記現在のブロックの第1および第2の動きベクトルを、第2の参照ピクチャに含まれる同一の位置にあるブロックの動きベクトルから導出するステップ」について
引用発明は「ダイレクトモード動きベクトルを得る」から、「ダイレクトモードで」の処理といえ、
「Pp、Pf」はともに現在のブロックに対応した予測ブロックであるから、「Pp、Pfそれぞれに対応するダイレクトモード動きベクトル」は、「現在のブロックの第1および第2の動きベクトル」と称しても差し支えなく、
該動きベクトルは、「後続するPピクチャのための動きベクトルをスケーリングする」ことにより得ており、「後続するPピクチャ」は「第2の参照ピクチャ」と称しても差し支えないから、「第2の参照ピクチャに含まれる動きベクトルから導出する」といえる。
よって、補正後発明と引用発明は、「ダイレクトモードで、現在のブロックの第1および第2の動きベクトルを、第2の参照ピクチャに含まれる動きベクトルから導出するステップ」を有する点で一致する。
もっとも、「現在のブロックの第1および第2の動きベクトル」を、
補正後発明は、「第2の参照ピクチャに含まれる同一の位置にあるブロックの動きベクトルから導出する」とするのに対し、
引用発明は、「第2の参照ピクチャに含まれる動きベクトルから導出する」とする点で相違する。(→相違点1)

ウ 「前記第1の動きベクトルと前記現在のブロックに対する第1の参照ピクチャとを利用して、第1の動き補償されたブロックを得るステップ」について
引用発明において、「Ppに対応するダイレクトモード動きベクトル」は、「第1の動きベクトル」と称することができ、
「前の参照ピクチャ」とは、現在の(処理対象の)ブロックに対してのピクチャであるから、「現在のブロックに対する第1の参照ピクチャ」と称しても差し支えなく、
また、「予測ブロックPp」は「第1の動き補償されたブロック」と称しても差し支えない。
そして、「Ppに対応するダイレクトモード動きベクトルを用いて前の参照ピクチャからの予測ブロックPpを得る」ことは、「Ppに対応するダイレクトモード動きベクトル」と「前の参照ピクチャ」とを利用して、「予測ブロックPp」を得るといえるから、
引用発明における「Ppに対応するダイレクトモード動きベクトルを用いて前の参照ピクチャからの予測ブロックPpを得るステップ」は、「第1の動きベクトルと現在のブロックに対する第1の参照ピクチャとを利用して、第1の動き補償されたブロックを得るステップ」といえる。

エ 「前記第2の動きベクトルと前記現在のブロックに対する第2の参照ピクチャとを利用して、第2の動き補償されたブロックを得るステップ」について
引用発明において、「Pfに対応するダイレクトモード動きベクトル」は、「第2の動きベクトル」と称することができ、
「将来か後続の参照ピクチャ」は、現在の(処理対象の)ブロックに対してのピクチャであるから、「現在のブロックに対する第2の参照ピクチャ」と称しても差し支えなく、
また、「予測ブロックPf」は「第2の動き補償されたブロック」と称しても差し支えない。
そして、「Pfに対応するダイレクトモード動きベクトルを用いて将来か後続の参照ピクチャからの予測ブロックPfを得る」ことは、「Pfに対応するダイレクトモード動きベクトル」と「将来か後続の参照ピクチャ」とを利用して、「予測ブロックPf」を得るといえるから、
引用発明における「Pfに対応するダイレクトモード動きベクトルを用いて将来か後続の参照ピクチャからの予測ブロックPfを得るステップ」は、「第2の動きベクトルと現在のブロックに対する第2の参照ピクチャとを利用して、第2の動き補償されたブロックを得るステップ」といえる。

オ 「前記双予測ピクチャに割り当てられた第1のピクチャ順序カウンタ値、前記第1の参照ピクチャに割り当てられた第2のピクチャ順序カウンタ値及び前記第2の参照ピクチャに割り当てられた第3ピクチャ順序カウンタ値に基づいて、第1および第2の係数を計算するステップ」について
引用発明は、「重みとしての(TRD - TRB) / TRDおよびTRB / TRDを計算するステップ」を有しており、「重みとしての(TRD - TRB) / TRDとTRB / TRD」は、「第1および第2の係数」と称することができるから、
補正後発明と引用発明は、「第1および第2の係数を計算するステップ」を有する点で一致する。
もっとも、補正後発明は、「前記双予測ピクチャに割り当てられた第1のピクチャ順序カウンタ値、前記第1の参照ピクチャに割り当てられた第2のピクチャ順序カウンタ値及び前記第2の参照ピクチャに割り当てられた第3ピクチャ順序カウンタ値に基づいて、第1および第2の係数を計算する」のに対し、
引用発明は、「TRDは、時間的に前と次の参照ピクチャの間の時間的距離とし、TRBは、現在のピクチャおよび前の参照ピクチャの間の時間的距離とし、(TRD - TRB) / TRD(第1の係数)およびTRB / TRD(第2の係数)を計算する」点で相違する。(→相違点2)

カ 「前記第1および第2の動き補償されたブロックにそれぞれ前記第1および第2の係数を適用することによって、前記現在のブロックを予測するステップ」について
上述ウ、エのとおり、PpおよびPfは、それぞれ「第1の動き補償されたブロック」および「第2の動き補償されたブロック」と称することができ、
上述オのとおり、「(TRD - TRB) / TRDとTRB / TRD」は、「第1および第2の係数」と称することができ、
上述アのとおり、「予測ブロック」は「現在のブロック」と称することができるから、引用発明における「PpとPfに(TRD - TRB) / TRDとTRB / TRDに重み付けを行って予測ブロックPを計算するステップ」は、「第1および第2の動き補償されたブロックにそれぞれ前記第1および第2の係数を適用することによって、前記現在のブロックを予測するステップ」といえる。

キ 一致点・相違点
以上の対比結果によれば、補正後発明と引用発明との一致点および相違点は、下記のとおりである。

[一致点]
双予測ピクチャにおける現在のブロックの予測方法において
ダイレクトモードで、前記現在のブロックの第1および第2の動きベクトルを、第2の参照ピクチャに含まれる動きベクトルから導出するステップ、
前記第1の動きベクトルと前記現在のブロックに対する第1の参照ピクチャとを利用して、第1の動き補償されたブロックを得るステップ、
前記第2の動きベクトルと前記現在のブロックに対する第2の参照ピクチャとを利用して、第2の動き補償されたブロックを得るステップ、
第1および第2の係数を計算するステップ、
前記第1および第2の動き補償されたブロックにそれぞれ前記第1および第2の係数を適用することによって、前記現在のブロックを予測するステップ、
を有することを特徴とする予測方法。

[相違点1]
「現在のブロックの第1および第2の動きベクトル」を、
補正後発明は、「第2の参照ピクチャに含まれる同一の位置にあるブロックの動きベクトルから導出する」とするのに対し、
引用発明は、「第2の参照ピクチャに含まれる動きベクトルから導出する」とする点

[相違点2]
補正後発明は、「前記双予測ピクチャに割り当てられた第1のピクチャ順序カウンタ値、前記第1の参照ピクチャに割り当てられた第2のピクチャ順序カウンタ値及び前記第2の参照ピクチャに割り当てられた第3ピクチャ順序カウンタ値に基づいて、第1および第2の係数を計算する」のに対し、
引用発明は、「TRDは、時間的に前と次の参照ピクチャの間の時間的距離とし、TRBは、現在のピクチャおよび前の参照ピクチャの間の時間的距離とし、(TRD - TRB) / TRD(第1の係数)およびTRB / TRD(第2の係数)を計算する」点

(4)相違点の判断
ア 相違点1
(ア)周知事項
下記の周知例1によれば、直接モード(ダイレクトモード)における動きベクトルの計算方法として、「対象B-VOPにあるマクロブロックMBの動きベクトルを求めるときに,直後のP-VOPにおいてMBと同じ位置にあるMB_(REF)の動きベクトルMVを」「内分して前方動きベクトルMV_(F)と後方動きベクトルMV_(B)をそれぞれ作り出す」ことが示されており、「矩形形状の場合,VOPはMPEG-1やMPEG-2のフレームまたはフィールドに相当する」ものであり、「MPEG-1やMPEG-2のフレームまたはフィールド」が「ピクチャ」と称されるのは普通のことであるから、
フレームまたはフィールド単位で符号化する場合のダイレクトモードにおける動きベクトルは、
対象BピクチャにあるマクロブロックMBの動きベクトルを求めるときに、直後のPピクチャにおいてMBと同じ位置にあるMB_(REF)の動きベクトルMVを内分することにより動きベクトルを求めることができると理解される。

記(周知例1)
三木弼一、MPEG-4のすべて、工業調査会、1998年9月30日、第37頁;第48頁
<記載事項の摘示>(下線は当審付与)
「B-VOPでは,双方向動き補償予測を行う。すなわち,VOPの表示順で過去のVOPと未来のVOPから予測信号を取得することができる。双方向予測には,直接モード(direct mode),前方予測,後方予測,双方向予測の4種類がある。
直接モードは,H.263のオプションを拡張した手法である。表示順で直後のP-VOPの動きベクトル(MV)を内分して前方動きベクトルMV_(F)と後方動きベクトルMV_(B)をそれぞれ作り出す。このようにして得られたMV_(F)とMV_(B)を用いて,それぞれ過去と未来のVOPから片方向予測信号を取得し,それらを平均化して双方向予測信号を生成する。動きが直線的でない場合には内分した動きベクトルを補正値(MV_(D))で修正することによって予測信号の正確さを高める。
図3.9は直接モードにおける動きベクトルの計算方法を示す。同図の対象B-VOPにあるマクロブロックMBの動きベクトルを求めるときに,直後のP-VOPにおいてMBと同じ位置にあるMB_(REF)の動きベクトルMVを内分する。MB_(REF)が8×8ブロック動き補償をする場合,直接モードの動きベクトルは8×8ブロック単位で求めるが,みんな同じ補正値MV_(D)を用いる。B-VOPにおいて,直接モードは8×8ブロック動き補償のできる唯一のモードである。」
(48頁12行?下から2行)

「MPEG-4では自然画像をビデオ・オブジェクト(Video Object : VO)と呼んでいる。図3.1には矩形形状のVOと任意形状のVOを示す。ビデオ・オブジェクトは,所定の時刻で撮影した複数のビデオ・オブジェクト・プレイン(Video Object Plane : VOP)から構成される。すなわちVOPは,MPEG-4で扱う映像データの基本単位である。矩形形状の場合,VOPはMPEG-1やMPEG-2のフレームまたはフィールドに相当する。」
(37頁下から7行?下から2行)

(イ)相違点1の容易想到性
ダイレクトモードにおける動きベクトルを求める必要のある引用発明において、周知のダイレクトモードにおける動きベクトルを求める方法を採用することは当業者が普通に想起し得たことである。
よって、引用発明における「現在のブロックの第1および第2の動きベクトル」を「第2の参照ピクチャに含まれる動きベクトルから導出する」構成を、
「現在のブロックの第1および第2の動きベクトル」を「第2の参照ピクチャに含まれる同一の位置にあるブロックの動きベクトルから導出する」構成とすることは、当業者が容易に想到し得たことである。

イ 相違点2
(ア)周知事項
下記の周知例2、3にもあるように、時間的距離による重み付け係数をピクチャ順序カウンタ値(フレームの番号)に基づいて計算することは周知の事項である。

記(周知例2,3)
周知例2:特開平2-285816号公報
<記載事項の摘示>(下線は当審付与)
「2次線形予測信号は、予測されるフレームと予測に使われる独立フレームの時間関係により、次式で決まる。
X=αVmq +(1-α)Vmp
α=(m-mp)/N [0≦α≦1]
但し、Xは予測信号、Vmqは後(新)フレーム値、Vmpは前(旧)フレーム値、mは予測されるフレームの番号、mqは後(新)フレーム番号、mpは前(旧)フレーム番号である。
第2図で、前(旧)フレームと後(新)フレームの値に係数かけ算器33,35でそれぞれ重み付け係数αおよび(1-α)を乗じ、加算機34で加算し、予測信号Xを得る。」(5頁右上欄8?20行)

周知例3:特開平2-192378号公報
<記載事項の摘示>(下線は当審付与)
「ここで、独立とするフレームをNフレームに1フレーム[Nは2以上の整数]とする」(4頁右上欄7?8行)
「ここで、重み付は係数は、符号化されるため予測信号減算器2に入力されるフレームと、予測に使われるフレームの時間関係により決められる。最も一般的と考えられる手法は、2次線形予測による方法で、次式により与えられる。
α=(m-m_(p))/N
ただし、mは符号化対象フレームナンバー(1,2,3,…)、m_(p)は過去独立フレームナンバー(0,N,2N,…)で、m>m_(p)であり、Nは2以上の整数である。
このようにして作られる予測信号(予測値)の例をN=4の場合について第7図に示す。これにより時間的に近い方のフレームに大きな重み付けがされ、信号がフレーム毎に線形に近い形で変化した場合に、より適切な予測値が与えられる。」(5頁左上欄8行?右上欄2行)

(イ)相違点2の克服の容易想到性
引用発明の時間的距離による係数を求めるために、上記周知例2、3にもあるような、時間的距離による重み付け係数をピクチャ順序カウンタ値(フレームの番号)に基づいて計算する構成とすることは当業者が普通に想起し得たことであり、その場合に、必要なピクチャ順序カウンタ値は、現在のピクチャ(双予測ピクチャ)に割り当てられたピクチャ順序カウンタ値、前の参照ピクチャ(第1の参照ピクチャ)に割り当てられたピクチャ順序カウンタ値および次の参照ピクチャ(第2の参照ピクチャ)に割り当てられたピクチャ順序カウンタ値であることは明らかである。なぜなら、TRDに対応する値は、次の参照ピクチャに割り当てられたピクチャ順序カウンタ値から前の参照ピクチャに割り当てられたピクチャ順序カウンタ値を引いたものであることは明らかであり、TRBに対応する値は、現在のピクチャに割り当てられたピクチャ順序カウンタ値から前の参照ピクチャに割り当てられたピクチャ順序カウンタ値を引いたものであることも明らかであるからである。
よって、引用発明において、時間的距離による重み付け係数をピクチャ順序カウンタ値(フレームの番号)に基づいて計算する構成とするために、
「TRDは、時間的に前と次の参照ピクチャの間の時間的距離とし、TRBは、現在のピクチャおよび前の参照ピクチャの間の時間的距離とし、(TRD - TRB) / TRD(第1の係数)およびTRB / TRD(第2の係数)を計算する」構成を、
「双予測ピクチャに割り当てられた第1のピクチャ順序カウンタ値、第1の参照ピクチャに割り当てられた第2のピクチャ順序カウンタ値及び第2の参照ピクチャに割り当てられた第3ピクチャ順序カウンタ値に基づいて、第1および第2の係数を計算する」構成とすることは当業者が容易に想到し得たことである。

ウ まとめ(当審の判断)
以上、引用発明を出発点として、上記相違点1、相違点2の克服を合わせて行うことで、補正後発明の構成に達するところ、これらの克服を合わせて行うことも当業者が容易になし得ることである。
そして、補正後発明の構成は、上記のとおり、当業者容易想到であるところ、補正後発明の効果は、その容易想到である構成から当業者が予測しうる範囲内のものであり、同範囲を超える格別顕著なものでもない。
よって、補正後発明は、引用例1に記載された発明に基づいて、当業者が容易に発明することができたものである。

(5)まとめ
したがって、補正後発明は、引用例1に記載された発明に基づいて、当業者が容易に発明することができたものであるから、特許法第29条第2項の規定により特許出願の際独立して特許を受けることができないものである。

6 まとめ
以上のとおりであるから、本件補正は、平成18年法律第55号改正附則第3条第1項によりなお従前の例によるとされる同法による改正前の特許法第17条の2第5項において準用する同法第126条第5項の規定に違反するので、同法第159条第1項において読み替えて準用する同法第53条第1項の規定により却下すべきものである。

第3 本願発明について
1 本願発明
本願の請求項1および2に係る発明は、本願明細書および図面(平成20年3月4日付けの手続補正書により補正された明細書及び図面)の記載からみて、その特許請求の範囲の請求項1および2に記載したとおりのものであるところ、そのうち、請求項1に係る発明(以下、「本願発明」という。)は、下記のとおりである。

記(本願発明)
双予測ピクチャにおける現在のブロックの予測方法において、
ダイレクトモードで、前記現在のブロックの第1および第2の動きベクトルを、同一の位置にあるブロックの動きベクトルから導出するステップと、
前記第1の動きベクトルと前記現在のブロックに対する第1の参照ピクチャとを利用して、第1の動き補償されたブロックを得るステップと、
前記第2の動きベクトルと前記現在のブロックに対する第2の参照ピクチャとを利用して、第2の動き補償されたブロックを得るステップと、
前記双予測ピクチャに割り当てられた第1のピクチャ順序カウンタ値、前記第1の参照ピクチャに割り当てられた第2のピクチャ順序カウンタ値及び前記第2の参照ピクチャに割り当てられた第3ピクチャ順序カウンタ値に基づいて、第1および第2の係数を計算するステップと、
前記第1および第2の動き補償されたブロックにそれぞれ前記第1および第2の係数を適用することによって、前記現在のブロックを予測するステップと、
有することを特徴とする予測方法。

2 引用発明
原査定の拒絶理由に引用された引用例1、その記載事項および引用発明は、前記第2 5(2)に記載したとおりである。

3 対比・判断
本願発明は、前記補正後発明から、前記第2 4で認定したとおりの前記手続補正による限定を省いたものであるところ、上記限定を有する補正後発明が、前記引用例1に記載された発明に基づいて当業者が容易に発明をすることができたものであることは前記第2 5(3)、(4)で認定、判断したとおりであり、また、本願発明を全体としてみても格別なものはなく、その作用効果も、上記構成の採用に伴って当然に予測される程度のものにすぎず、格別顕著なものがあるとは認められない。

したがって、本願発明も、前記引用例1に記載された発明に基づいて当業者が容易に発明をすることができたものである。

4 むすび
以上、本願の請求項1に係る発明は、引用例1に記載された発明に基づいて、当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。
したがって、本願の他の請求項について検討するまでもなく、本願は拒絶をするべきものである。

よって、結論のとおり審決する。
 
審理終結日 2011-07-28 
結審通知日 2011-08-02 
審決日 2011-08-19 
出願番号 特願2006-627(P2006-627)
審決分類 P 1 8・ 575- Z (H04N)
P 1 8・ 121- Z (H04N)
P 1 8・ 121- Z (H04N)
最終処分 不成立  
前審関与審査官 坂東 大五郎  
特許庁審判長 乾 雅浩
特許庁審判官 小池 正彦
梅本 達雄
発明の名称 ブロック予測方法  
代理人 青木 篤  
代理人 中村 健一  
代理人 鶴田 準一  
代理人 南山 知広  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ