• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 特許、登録しない(前置又は当審拒絶理由) H04N
管理番号 1258031
審判番号 不服2009-518  
総通号数 151 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2012-07-27 
種別 拒絶査定不服の審決 
審判請求日 2009-01-05 
確定日 2012-06-06 
事件の表示 特願2006- 632「ブロック予測方法」拒絶査定不服審判事件〔平成18年 7月 6日出願公開、特開2006-180527〕について、次のとおり審決する。 
結論 本件審判の請求は、成り立たない。 
理由 第1 経緯
1 手続
本願は、平成15年1月10日に出願した特願2003-4236号の一部を平成18年1月5日に新たな特許出願(パリ条約による優先権主張:平成14年4月9日 (KR)大韓民国)としたものであって、手続の概要は以下のとおりである。

拒絶理由通知 :平成19年 8月31日(起案日)
同一出願人による同日出願通知:平成19年 8月31日(起案日)
意見書 :平成20年 3月 4日
拒絶査定 :平成20年 9月29日(起案日)
手続補正 :平成21年 1月 5日
拒絶査定不服審判請求 :平成21年 1月 5日
手続補正 :平成21年 2月 4日
前置審査報告 :平成21年11月30日
審尋 :平成22年 7月 5日(起案日)
回答書 :平成22年 9月29日
拒絶理由通知(当審) :平成23年 7月28日(起案日)
意見書 :平成23年11月 1日

2 査定
原査定の理由は、概略、以下のとおりである。
本願の各請求項に係る発明は、その出願前日本国内又は外国において頒布された下記の刊行物に記載された発明又は電気通信回線を通じて公衆に利用可能となった発明に基いて、その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。


1.特開平2-285816号公報
2.特開平2-192378号公報

第2 本願発明
本願の請求項1に係る発明は、本願明細書、特許請求の範囲(平成21年2月4日付け手続補正書により補正された特許請求の範囲)および図面の記載からみて、その特許請求の範囲の請求項1に記載したとおりのものであり、下記のとおりである。

記(請求項1(以下、本願発明という。))
双予測ピクチャにおける現在のブロックの予測方法において、
前記現在のブロックに対する第1の動きベクトルと第1の参照ピクチャとを利用して、第1の動き補償されたブロックを得るステップであって、前記第1の動きベクトルはダイレクトモードにおいて第2の参照ピクチャに含まれる同一の位置のブロックの動きベクトルから導出されたものであり、
前記現在のブロックに対する第2の動きベクトルと第2の参照ピクチャとを利用して、第2の動き補償されたブロックを得るステップであって、前記第2の動きベクトルは前記同一の位置のブロックから導出されたものであり、
前記双予測ピクチャの現在のディスプレー順序、前記第1の参照ピクチャの第1ディスプレー順序、および前記第2の参照ピクチャの第2ディスプレー順序に基づいて、第1および第2の係数を計算するステップと、
前記第1および第2の動き補償されたブロックにそれぞれ前記第1および第2の係数を適用することによって、前記現在のブロックを予測するステップと、
を有することを特徴とする予測方法。

第3 当審の拒絶の理由の通知
当審が平成23年7月28日付けで通知した拒絶の理由の概略は、以下のとおりである。

<当審が通知した拒絶の理由>
拒絶の理由(第29条第2項)
本願の請求項1に係る発明は、その出願前日本国内又は外国において頒布された下記の刊行物に記載された発明又は電気通信回線を通じて公衆に利用可能となった発明に基いて、その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。


1.Karl Lillevold, "Improved direct mode for B pictures in TML", ITU - Telecommunications Standardization Sector STUDY GROUP 16 Video Coding Experts Group (Question 15) Eleventh Meeting: Portland, Oregon, USA,22 August, 2000, Q15-K-44
2.三木弼一、MPEG-4のすべて、工業調査会、1998年9月30日、第37頁、第48頁
3.特開平2-285816号公報
4.特開平2-192378号公報

第4 当審の判断
1 刊行物等の記載
(1)引用例1の記載事項
当審の拒絶理由に引用されたKarl Lillevold, "Improved direct mode for B pictures in TML", ITU - Telecommunications Standardization Sector STUDY GROUP 16 Video Coding Experts Group (Question 15) Eleventh Meeting: Portland, Oregon, USA,22 August, 2000, Q15-K-44(以下「引用例1」という。)には、次の記載a.乃至r.(以下、「記載a」・・・「記載r」などという。)がある。
<title>
a.Improved direct mode for B pictures in TML
《翻訳》
TMLにおけるBピクチャのための改善されたダイレクトモード

<Introduction>
b.「Video content on the Internet is generally very different from standard ITU and MPEG test sequences.」
《翻訳》
インターネット上のビデオコンテントは、標準ITUおよびMPEGテスト・シーケンスとは一般に非常に異なります。

c.「In particular, both music videos and movie trailers make heavy use of fading transitions from scene to scene.」
《翻訳》
特に、ミュージック・ビデオおよび映画の予告編の両方は、シーンからシーンへのフェード推移を激しく使用します。

d.「For instance, it is very popular in movie trailers to fade each scene to black, and then from black to the next scene.」
《翻訳》
例えば、映画の予告編において、黒へそして黒から次のシーンへと各シーンをフェードさせることは、非常にポピュラーです。

e.「Both normal fades and these "to-black" fades are hard to encode well without visible compression artifacts, especially if the bitrate is to be maintained constant.」
《翻訳》
普通のフェードとこれら黒へのフェードの両方とも、特にビット・レートが一定のために維持されることになっている場合、可視の圧縮アーチファクトなしで、うまくエンコードすることが困難です。

<Description>
f.「While experimenting with such content it was found that the use of B pictures with direct mode prediction in a TML simulation model, resulted in significant benefits over P pictures alone.」
《翻訳》
そのようなコンテントで実験する間に、TMLシミュレーション・モデルでのダイレクトモード予測によるBピクチャの使用は、Pピクチャ単独よりもかなり有利であることが分かりました。

g.「The experiments did not include a full bi-directional mode with motion vectors in both directions.」
《翻訳》
その実験は、両方向の動きベクトルによる全双方向モードを含んでいませんでした。

h.「The direct mode was implemented in a similar manner to B pictures with direct mode in H.263+.」
《翻訳》
そのダイレクトモードは、H.263+のダイレクトモードによるBピクチャと似た方法でインプリメントされました。

i.「However, when encoding with a PBBB pattern, it was also found that the B pictures in position 1 and 3 suffered from quality degradation relative to the B pictures in position 2, as well as the surrounding P (and I) pictures.」
《翻訳》
しかしながら、PBBBパターンでエンコードする時、位置1および3のBピクチャが、周囲のP(とI)ピクチャだけでなく、位置2のBピクチャに関連した質低下にも苦しんだことがさらに分かりました。

j.「A closer examination of the problem showed that it was bi-directionally predicted macroblocks coded in the direct mode that were coded poorly, simply because the interpolated prediction did not match the actual image content well.」
《翻訳》
その問題のより近い調査は、単に、補間された予測は実画像内容とよく一致しなかったというだけの理由で、貧弱にコード化されるのは、ダイレクトモードでコード化した双方向予測されたマクロブロックであると示した。

k.「Considering how the direct mode motion vector is derived from scaling the motion vector for the subsequent P picture, based on the distance between the B picture and the surrounding pictures, it would seem natural to also scale or weigh the calculation of the prediction block based on this distance, instead of the regular averaging that has so far been used in all existing standards with B pictures.」
《翻訳》
ダイレクトモード動きベクトルが、後続するPピクチャのための動きベクトルを、そのBピクチャと周囲のピクチャの間の距離に基づいてスケーリングすることにより導出される、そのやり方を考えれば、これまでBピクチャについてすべての既存の標準で使用されてきた、規則的に平均することの代わりに、この距離に基づいて、予測ブロックの計算を計るか重み付けもすることは自然に見えるでしょう。

l.「So, the proposed method to calculate the prediction block P for direct mode coded macroblocks is
P = (Pp * (TRD - TRB) + Pf * (TRB)) / TRD
where Pp is the prediction block from the previous reference picture, and Pf is the prediction block from the future or subsequent reference picture.」
《翻訳》
だから、ダイレクトモードでコード化されたマクロブロックのための予測ブロックPを計算するために提案された方法は、
P = (Pp * (TRD - TRB) + Pf * (TRB)) / TRD
です。ここで、Ppは前の参照ピクチャからの予測ブロックで、Pfは将来か後続の参照ピクチャからの予測ブロックです。

m.「TRD is the temporal distance between the temporally previous and next reference picture, and TRB is the temporal distance between the current picture and previous reference picture.」
《翻訳》
TRDは、時間的に前と次の参照ピクチャの間の時間的距離で、また、TRBは、現在のピクチャおよび前の参照ピクチャの間の時間的距離です。

<Results>
n.「The results from two experiments are presented, one with a synthesized sequence where Hall fades into Akiyo.」
《翻訳》
2つの実験結果のひとつは、HallがAkiyoへフェードするところで、合成されたシーケンスに示されています。

o.「This is a light sequence fading into a darker sequence, and was meant to show the subjective and objective gain that can be achieved with this method.」
《翻訳》
これは明るいシーケンスからより暗いシーケンスへのフェーディングで、この方法で達成することができる主観的・客観的なゲインを示すのが目的です。

p.「The second experiment was to encode Mobile without any fades to verify that there would be no loss of performance relative to the standard way to calculate the prediction for direct mode.」
《翻訳》
ふたつ目の実験は、ダイレクトモードの予測を計算する標準方法に関してパフォーマンス損失がないだろうということを確認するために、フェードのないMobileをエンコードすることでした。

q.「Both experiments were run at CIF resolution, 30 fps, fixed quantization parameters, and B picture pattern PBBB (for the tests with B pictures).」
《翻訳》
両方の実験は、CIF解像度、30 fps、固定量子化パラメーターおよび(Bピクチャのテスト用の)BピクチャパターンPBBBで実行されました。

r.「The subjective improvement will be demonstrated at the meeting (computer playback of reconstructed sequences).」
《翻訳》
主観的な改良はミーティングで(復元されたシーケンスのコンピューター再生)実証されるでしょう。

(2)引用例2の記載事項
当審の拒絶理由に引用された、三木弼一、MPEG-4のすべて、工業調査会、1998年9月30日、第37頁;第48頁(以下「引用例2」という。)には、次の記載s.乃至t.(以下、「記載s」、「記載t」という。)がある。(下線は当審付与)

s.「B-VOPでは,双方向動き補償予測を行う。すなわち,VOPの表示順で過去のVOPと未来のVOPから予測信号を取得することができる。双方向予測には,直接モード(direct mode),前方予測,後方予測,双方向予測の4種類がある。
直接モードは,H.263のオプションを拡張した手法である。表示順で直後のP-VOPの動きベクトル(MV)を内分して前方動きベクトルMV_(F)と後方動きベクトルMV_(B)をそれぞれ作り出す。このようにして得られたMV_(F)とMV_(B)を用いて,それぞれ過去と未来のVOPから片方向予測信号を取得し,それらを平均化して双方向予測信号を生成する。動きが直線的でない場合には内分した動きベクトルを補正値(MV_(D))で修正することによって予測信号の正確さを高める。
図3.9は直接モードにおける動きベクトルの計算方法を示す。同図の対象B-VOPにあるマクロブロックMBの動きベクトルを求めるときに,直後のP-VOPにおいてMBと同じ位置にあるMB_(REF)の動きベクトルMVを内分する。MB_(REF)が8×8ブロック動き補償をする場合,直接モードの動きベクトルは8×8ブロック単位で求めるが,みんな同じ補正値MV_(D)を用いる。B-VOPにおいて,直接モードは8×8ブロック動き補償のできる唯一のモードである。」
参照される図3.9には、横軸を表示時間として各時間間隔が示され、その時間間隔を用いて動きベクトルを内分する式が示されている。
(48頁12行?下から2行。)

t.「MPEG-4では自然画像をビデオ・オブジェクト(Video Object : VO)と呼んでいる。図3.1には矩形形状のVOと任意形状のVOを示す。ビデオ・オブジェクトは,所定の時刻で撮影した複数のビデオ・オブジェクト・プレイン(Video Object Plane : VOP)から構成される。すなわちVOPは,MPEG-4で扱う映像データの基本単位である。矩形形状の場合,VOPはMPEG-1やMPEG-2のフレームまたはフィールドに相当する。」
(37頁下から7行?下から2行)

(3)引用例3の記載事項
当審の拒絶理由に引用された特開平2-285816号公報(以下「引用例3」という。)には、次の記載u.乃至w.(以下、「記載u」・・・「記載w」などという。)がある。(下線は当審付与)

u.「(課題を解決するための手段)
本発明は上記の目的を達成するために、連続して入力される画像信号の連続フレームの中から一定間隔おきに独立フレームを設定し、この独立フレームをフレーム内で独立に符号化する第1の符号化手段と、前記独立フレームの間の非独立フレームの予測信号を、前後の独立フレームの信号をもとに形成する予測信号形成手段と、この予測信号形成手段で形成された前後の両独立フレームの信号による予測信号を、各非独立フレームでのブロック単位の信号の変化に応じて最も予測効率の高い予測信号を得る混合比で適応的に混合し、この混合した予測信号をもとに前記非独立フレームのブロック単位の信号を予測し、その予測誤差について符号化する第2の符号化手段とを備えたことを特徴とする適応型フレーム間予測符号化方式を提供するものである。
(作 用)
上記した構成の適応型フレーム間予測符号化方式においては、連続して入力される画像信号の連続フレームの中からフレーム間予測を用いないでフレーム内で独立に符号化する独立フレームを予め一定間隔(数フレーム)おきに設定し、その間のフレーム(非独立フレーム)については前後(新旧)の両独立フレームによる予測信号(2次線形予測値)を、各非独立フレームでのブロック単位の信号の変化に応じて最も予測効率の高い予測信号を得る混合比で適応的に混合し、ブロック単位の信号を予測して符号化する。そして、予測信号の混合は、混合比の異なる何種類かの予測を実際に行ない、各予測誤差(残差)のブロック二乗誤差を求め、その最も少ない混合比で行なう。どの予測が行なわれたかの予測モード情報は、数ブロックでまとめて可変長符号化し復号側に伝送する。
このフレーム間予測の様子を第3図に示すが、同図Aが従来例の前フレームからの巡回型フレーム間予測方法で、同図Bが本発明の場合のフレーム間予測方法である。同図で、四角形は連続して入力される動画像信号の連続フレームであり、その中で陰を付けたものとそうでないものとは画像が大きく異なる。更に、同図で、#を付けたものは独立にフレーム内で符号化されるフレームで、1と5はランダムアクセスや高速サーチのために定期的(ここでは同図ABとも4フレームおき)に選ばれ、他は適応動作により決められる。矢印はフレーム間予測の方向関係を示しており、同図Aでは前フレームからのみ予測が行なわれるが、同図Bでは前後の二つの独立フレームから適応的に予測される。
第3図の[1]は第3フレームでシーンチェンジが起こった場合で、同図Aではそこで予測がリセットされ、第3フレームはフレーム内処理となるが、同図Bでは後(新)フレームからの予測に切替わり、フレーム内処理されることはない。
また、同図の[2]は第3フレームのみが他と異なっている孤立フレームの場合で、同図Aでは第2→第3、第3→第4と予測ができないので、第3と第4フレームで2度リセットされることになるが、本発明では第3フレームのみがフレーム内処理となり、第4フレームは他と同様に双方向予測される。このように本発明ではシーンチェンジでは独立となるフレームが無く、全て予測により処理され、孤立フレームの場合にもそのフレームが独立となるだけで、他に影響しない。」(3頁左上欄12行?右下欄16行、第3図)

v.「次に、予測フレームにおける処理であるが、切換えスイッチ2、5はb側に接続され、入力された信号は、まず(N-1)フレームメモリ3に導かれる。ここで、予測フレームは、その予測に必要な独立フレームを先に符号化するために、(N-1)フレーム分だけ遅延させられる。遅延された信号は、後で詳述する適応予測器84で独立フレームにより適応的に予測され、予測誤差(残差)は独立フレームと同様に直交変換以降の処理が行なわれる。」(4頁右下欄7行?16行)

w.「2次線形予測信号は、予測されるフレームと予測に使われる独立フレームの時間関係により、次式で決まる。
X=αVmq +(1-α)Vmp
α=(m-mp)/N [0≦α≦1]
但し、Xは予測信号、Vmqは後(新)フレーム値、Vmpは前(旧)フレーム値、mは予測されるフレームの番号、mqは後(新)フレーム番号、mpは前(旧)フレーム番号である。
第2図で、前(旧)フレームと後(新)フレームの値に係数かけ算器33,35でそれぞれ重み付け係数αおよび(1-α)を乗じ、加算器34で加算し、予測信号Xを得る。」(5頁右上欄8?20行)

(4)引用例4の記載事項
当審の拒絶理由に引用された特開平2-192378号公報(以下「引用例4」という。)には、次の記載x.乃至z.(以下、「記載x」・・・「記載z」などという。)がある。(下線は当審付与)

x.「(課題を解決するための手段)
本発明は上記の目的を達成するために、連続して入力される画像信号の連続フレームの中から一定間隔(数フレーム)おきに独立フレームを設定し、この独立フレームをフレーム内で独立に符号化する第1の符号化手段と、前記独立フレームの間の非独立フレームの予測信号を、前後の独立フレームの信号をもとに形成する予測信号形成手段と、前記非独立フレームの信号を、それに対応する前記予測信号をもとに予測し、その予測誤差について符号化する第2の符号化手段とを備えたことを特徴とするフレーム間予測符号化方式を提供するものである。
(作 用)
上記した構成のフレーム間予測符号化方式においては、連続して入力される画像信号の連続フレームの中からフレーム間予測を用いないでフレーム内で独立に符号化する独立フレームを予め一定間隔(数フレーム)おきに設定し、その間のフレームについては前後(新旧)の独立に符号化された独立フレームにより予測して符号化する。
この様子を第6図に示すが、Aが従来例のフレーム間予測方法で、Bが本発明の場合のフレーム間予測方法である。同図で、四角形は連続して入力される動画像信号の連続フレームであり、そのの中で陰を付けたものは独立にフレーム内で符号化されるフレームで、Aでは最初(またはリセット時)のみが独立フレームとなっているが、Bでは定期的に独立フレームがある。矢印はフレーム間予測の方向関係を示しており、Aでは各フレーム同様に前フレームからのみ予測が行なわれるが、Bでは前後の二つの独立フレームから予測される。
また、予測は独立フレームのみをもとに行なわれ、予測されたフレームが別の予測に使われることはない。
(実 施 例)
本発明になるフレーム間予測符号化方式の実施例について以下に図面と共に説明する。
第1図および第2図は符号化器の構成を、第3図は復号器の構成をそれぞれ示す。この符号化器および復号器の基本的な構成は、従来例に準じたものとなっており、前出の第4図および第5図中の同一構成部分には同一番号を付す。
第1図および第2図においては、予測に使われる独立フレームの符号化が済んでから非独立フレームを符号化するための(N-1)フレームメモリ31[Nは2以上の整数]を持つ。」(3頁左上欄14行?左下欄20行、第6図)

y.「一方、残りの非独立フレームはフレーム間予測されるので、予測信号を減算するが、本発明方式では独立フレームを先に符号化しておく必要があるので、残りのフレームについてその分遅延させる。
ここで、独立とするフレームをNフレームに1フレーム[Nは2以上の整数]とする」(4頁右上欄2?8行)

z.「この再生フレーム信号は、次の独立フレームの信号が供給されるまで保持され、予測処理のために(N-1)回繰り返して出力される。
予測信号は、この二つの再生フレーム信号に係数掛は算器34.35により重み付は係数αおよび(1-α)が掛けられ、加算器36で加算されることにより得られる。
ここで、重み付は係数は、符号化されるため予測信号減算器2に入力されるフレームと、予測に使われるフレームの時間関係により決められる。最も一般的と考えられる手法は、2次線形予測による方法で、次式により与えられる。
α=(m-m_(p))/N
ただし、mは符号化対象フレームナンバー(1,2,3,…)、m_(p)は過去独立フレームナンバー(0,N,2N,…)で、m>m_(p)であり、Nは2以上の整数である。
このようにして作られる予測信号(予測値)の例をN=4の場合について第7図に示す。これにより時間的に近い方のフレームに大きな重み付けがされ、信号がフレーム毎に線形に近い形で変化した場合に、より適切な予測値が与えられる。」(5頁左上欄1行?右上欄2行、第7図)

2 引用発明
(1)提案された方法
記載lによれば、
「ダイレクトモードでコード化されたマクロブロックのための予測ブロックPを計算するために提案された方法」として次式が示されている。
P = (Pp * (TRD - TRB) + Pf * (TRB)) / TRD

また、「予測ブロックP」は、記載aからも明らかなように、「Bピクチャ」におけるものであり、
予測ブロックは、現在の(処理対象の)ブロックに対するものであるから、
提案された方法は、「Bピクチャにおける現在のブロックに対する予測ブロックを計算する方法」といえ、
具体的には、後述する(4)ないし(6)に示すステップ「を有する方法」により行われると認められる。

(2)式の解釈
記載kによれば、上記の式は、
「この距離に基づいて、予測ブロックの計算を計るか重み付け」をするためのものと認められ、
「この距離」とは、「Bピクチャと周囲のピクチャの間の距離」のことであり、具体的には、予測ブロックPpのある前の参照ピクチャと注目するBピクチャとの時間的距離および予測ブロックPfのある将来か後続の参照ピクチャと注目するBピクチャとの時間的距離であることは、記載mから明らかである。また、このことから、この時間的距離の「時間」とは、表示の時間(表示順の時間)であることも、また明らかである。(ダイレクトモードについて具体的に説明している引用例2の記載sから見ても明らかである。)
したがって、上記式は、PpとPfを、表示の時間的距離に基づいて重み付けるための式といえ、
上記の式が示すのは、
Ppに(TRD- TRB)/TRDの重み付けをし、
PfにTRB / TRD の重み付けをする
ことであると認められるから、
重みとしての(TRD - TRB) / TRDおよびTRB / TRD を得てから、予測ブロックPpおよびPfに重み付けを行う構成と理解される。

(3)式の計算に必要な情報
そして、上記の式を具体的に計算するにあたっては、
予測ブロックPp、
予測ブロックPf、
重みとしての(TRD - TRB) / TRDおよびTRB / TRD
を得る必要がある。

(4)予測ブロックPpおよびPfを得るための処理(ステップ)
記載kによれば、「規則的に平均することの代わりに、この距離に基づいて、予測ブロックの計算を計るか重み付けもする」以外は、通常の「ダイレクトモード」が想定されていると解されるから、
記載kに「ダイレクトモード動きベクトルが、後続するPピクチャのための動きベクトルを、そのBピクチャと周囲のピクチャの間の距離に基づいてスケーリングすることにより導出される」とされていることからも分かるように、
通常の「ダイレクトモード」と同様に、
「ダイレクトモード動きベクトル」を「後続するPピクチャのための動きベクトルを、そのBピクチャと周囲のピクチャの間の距離に基づいてスケーリングすることにより」得ているものと認められ、
記載lによれば、「Ppは前の参照ピクチャからの予測ブロック」で、「Pfは将来か後続の参照ピクチャからの予測ブロック」であり、
該「ダイレクトモード動きベクトル」は、該「予測ブロック」を得るために用いられることは明らかであるから、
該「ダイレクトモード動きベクトル」は、「予測ブロックPp」および「予測ブロックPf」のそれぞれに対応した動きベクトルであると認められ、
該「動きベクトル」をそれぞれ用いることにより、「予測ブロックPp」および「予測ブロックPf」を得ることは明らかである。
よって、「予測ブロックPp」および「予測ブロックPf」を得る前に、
「Bピクチャと周囲のピクチャの間の距離に基づいて、後続するPピクチャのための動きベクトルをスケーリングすることにより、Pp、Pfそれぞれに対応するダイレクトモード動きベクトルを得るステップ」
が必要であり、
その後、
該「Ppに対応するダイレクトモード動きベクトルを用いて前の参照ピクチャからの予測ブロックPpを得るステップ」と、
該「Pfに対応するダイレクトモード動きベクトルを用いて将来か後続の参照ピクチャからの予測ブロックPfを得るステップ」
により「予測ブロックPp」および「予測ブロックPf」を得るものと解される。

(5)(TRD - TRB) / TRDおよびTRB / TRDを得るための処理(ステップ)
記載mによれば、「TRDは、時間的に前と次の参照ピクチャの間の時間的距離」で、「TRBは、現在のピクチャおよび前の参照ピクチャの間の時間的距離」であり、「時間」は、上述(2)のように「表示の時間」である。
(TRD - TRB) / TRDおよびTRB / TRDを得るためには、TRBおよびTRDに基づいた計算を行う必要があるから、
「TRDは、表示の時間的に前と次の参照ピクチャの間の表示の時間的距離とし、TRBは、現在のピクチャおよび前の参照ピクチャの間の表示の時間的距離とし、重みとしての(TRD - TRB) / TRDおよびTRB / TRDを計算するステップ」
が必要であることは明らかである。

(6)予測ブロックPの計算(ステップ)
以上によって得られたPp、Pf、(TRD - TRB) / TRDおよびTRB / TRDから、最終的に、
「PpおよびPfにそれぞれ(TRD - TRB) / TRDおよびTRB / TRDを重み付けることにより予測ブロックPを計算するステップ」
により、予測ブロックPを得る。

(7)まとめ
以上をまとめると、本願発明と対比する引用発明として下記の発明が認定できる。

記(引用発明)
Bピクチャにおける現在のブロックに対する予測ブロックを計算する方法において、
Bピクチャと周囲のピクチャの間の距離に基づいて後続するPピクチャのための動きベクトルをスケーリングすることにより、Pp、Pfそれぞれに対応するダイレクトモード動きベクトルを得るステップ、
Ppに対応するダイレクトモード動きベクトルを用いて前の参照ピクチャからの予測ブロックPpを得るステップ、
Pfに対応するダイレクトモード動きベクトルを用いて将来か後続の参照ピクチャからの予測ブロックPfを得るステップ、
TRDは、表示の時間的に前と次の参照ピクチャの間の表示の時間的距離とし、TRBは、現在のピクチャおよび前の参照ピクチャの間の表示の時間的距離とし、重みとしての(TRD - TRB) / TRDおよびTRB / TRDを計算するステップ、
PpおよびPfにそれぞれ(TRD - TRB) / TRDおよびTRB / TRDを重み付けることにより予測ブロックPを計算するステップ、
を有する方法

3 対比・判断
(1)「双予測ピクチャにおける現在のブロックの予測方法において」、「を有することを特徴とする予測方法」について

引用発明は「Bピクチャにおける現在のブロックに対する予測ブロックを計算する方法」が前提とされており、「Bピクチャ」は「双予測ピクチャ」と称すことができ、「現在のブロックに対する予測ブロックを計算する」ことは、「現在のブロックの予測」であるといえるから、引用発明が前提とする「現在のBピクチャにおける予測ブロックを予測する方法」は「双予測ピクチャにおける現在のブロックの予測方法において」といえ、引用発明の(各ステップを)「有する方法」は、(各ステップを)「有することを特徴とする予測方法」といえる。

(2)「前記現在のブロックに対する第1の動きベクトルと第1の参照ピクチャとを利用して、第1の動き補償されたブロックを得るステップであって、前記第1の動きベクトルはダイレクトモードにおいて第2の参照ピクチャに含まれる同一の位置のブロックの動きベクトルから導出されたものであり、」について

引用発明は、「Bピクチャと周囲のピクチャの間の距離に基づいて後続するPピクチャのための動きベクトルをスケーリングすることにより、Pp、Pfそれぞれに対応するダイレクトモード動きベクトルを得るステップ」により、「Pp、Pfそれぞれに対応するダイレクトモード動きベクトルを得」て、「Ppに対応するダイレクトモード動きベクトルを用いて前の参照ピクチャからの予測ブロックPpを得るステップ」を行っている。

そして、「Ppに対応するダイレクトモード動きベクトル」は、「第1の動きベクトル」と称することができ、
「前の参照ピクチャ」とは、現在の(処理対象の)ブロックに対してのピクチャであるから、「現在のブロックに対する第1の参照ピクチャ」と称しても差し支えなく、
また、「予測ブロックPp」は「第1の動き補償されたブロック」と称しても差し支えない。
そして、「Ppに対応するダイレクトモード動きベクトルを用いて前の参照ピクチャからの予測ブロックPpを得る」ことは、「Ppに対応するダイレクトモード動きベクトル」(第1の動きベクトル)と「前の参照ピクチャ」(現在のブロックに対する第1の参照ピクチャ)とを利用して、「予測ブロックPp」(第1の動き補償されたブロック)を得るといえるから、
引用発明は、「第1の動きベクトルと現在のブロックに対する第1の参照ピクチャとを利用して、第1の動き補償されたブロックを得るステップ」を有している。

また、「Ppに対応するダイレクトモード動きベクトル」(第1の動きベクトル)は、
「Bピクチャと周囲のピクチャの間の距離に基づいて後続するPピクチャのための動きベクトルをスケーリングすることにより、」得られたものであり、
「ダイレクトモード動きベクトル」という名が示すように、「ダイレクトモードにおいて」得られるものであり、
「後続するPピクチャ」は「第2の参照ピクチャ」と称しても差し支えなく、「後続するPピクチャのための動きベクトル」は「第2の参照ピクチャに含まれる動きベクトル」といえるから、
「ダイレクトモードにおいて」「第2の参照ピクチャに含まれる動きベクトルから導出されたもの」といえる。
そして、本願発明における「前記第1の動きベクトルはダイレクトモードにおいて第2の参照ピクチャに含まれる同一の位置のブロックの動きベクトルから導出されたもの」も、
「第1の動きベクトル」は「ダイレクトモードにおいて第2の参照ピクチャに含まれる動きベクトルから導出されたもの」といえ、この点で両者は一致する。
もっとも、「第1の動きベクトル」を、
本願発明は、「第2の参照ピクチャに含まれる同一の位置のブロックの動きベクトルから導出されたもの」とするのに対し、
引用発明は、「第2の参照ピクチャに含まれる動きベクトルから導出されたもの」とする点で相違する。(→相違点1:同一位置)

(3)「前記現在のブロックに対する第2の動きベクトルと第2の参照ピクチャとを利用して、第2の動き補償されたブロックを得るステップであって、前記第2の動きベクトルは前記同一の位置のブロックから導出されたものであり、」について

引用発明は、「Bピクチャと周囲のピクチャの間の距離に基づいて後続するPピクチャのための動きベクトルをスケーリングすることにより、Pp、Pfそれぞれに対応するダイレクトモード動きベクトルを得るステップ」により、「Pp、Pfそれぞれに対応するダイレクトモード動きベクトルを得」て、「Pfに対応するダイレクトモード動きベクトルを用いて将来か後続の参照ピクチャからの予測ブロックPfを得るステップ」を行っている。
そして、「Pfに対応するダイレクトモード動きベクトル」は、「第2の動きベクトル」と称することができ、
「将来か後続の参照ピクチャ」とは、現在の(処理対象の)ブロックに対してのピクチャであるから、「現在のブロックに対する第2の参照ピクチャ」と称しても差し支えなく、
また、「予測ブロックPf」は「第2の動き補償されたブロック」と称しても差し支えない。
そして、「Pfに対応するダイレクトモード動きベクトルを用いて将来か後続の参照ピクチャからの予測ブロックPfを得る」ことは、「Pfに対応するダイレクトモード動きベクトル」(第2の動きベクトル)と「将来か後続の参照ピクチャ」(現在のブロックに対する第2の参照ピクチャ)とを利用して、「予測ブロックPf」(第2の動き補償されたブロック)を得るといえるから、
引用発明は、「第2の動きベクトルと現在のブロックに対する第2の参照ピクチャとを利用して、第2の動き補償されたブロックを得るステップ」を有している。

また、「第2の動きベクトル」(Pfに対応するダイレクトモード動きベクトル)は、上述(2)の「第1の動きベクトル」と同様に検討して、「ダイレクトモードにおいて」「第2の参照ピクチャに含まれる動きベクトルから導出されたもの」といえる。
そして、本願発明における「前記同一の位置のブロック」とは、上述(2)で検討した「第2の参照ピクチャに含まれる同一の位置のブロック」であるところ、
本願発明における「前記第2の動きベクトルは、前記同一の位置のブロックから導出されたもの」も、「前記第2の動きベクトルは、第2の参照ピクチャから導出されたもの」といえ、この点で両者は一致する。
もっとも、「第2の動きベクトル」を、
本願発明は、「前記同一の位置のブロックから導出されたもの」すなわち「第2の参照ピクチャに含まれる同一の位置のブロックの動きベクトルから導出されたもの」とするのに対し、
引用発明は、「第2の参照ピクチャに含まれる動きベクトルから導出されたもの」とする点で相違する。(→相違点1:同一位置)

(4)「前記双予測ピクチャの現在のディスプレー順序、前記第1の参照ピクチャの第1ディスプレー順序、および前記第2の参照ピクチャの第2ディスプレー順序に基づいて、第1および第2の係数を計算するステップ」について

引用発明は、「重みとしての(TRD - TRB) / TRDおよびTRB / TRDを計算するステップ」を有しており、「重みとしての(TRD - TRB) / TRDとTRB / TRD」は、「第1および第2の係数」と称することができるから、
本願発明と引用発明は、「第1および第2の係数を計算するステップ」を有する点で一致する。
もっとも、本願発明は、「前記双予測ピクチャの現在のディスプレー順序、前記第1の参照ピクチャの第1ディスプレー順序、および前記第2の参照ピクチャの第2ディスプレー順序に基づいて、第1および第2の係数を計算する」のに対し、
引用発明は、「TRDは、表示の時間的に前と次の参照ピクチャの間の表示の時間的距離とし、TRBは、現在のピクチャおよび前の参照ピクチャの間の表示の時間的距離とし、(TRD - TRB) / TRD(第1の係数)およびTRB / TRD(第2の係数)を計算する」点で相違する。(→相違点2:係数の計算)

(5)「前記第1および第2の動き補償されたブロックにそれぞれ前記第1および第2の係数を適用することによって、前記現在のブロックを予測するステップ」について

上述(2)、(3)のとおり、PpおよびPfは、それぞれ「第1の動き補償されたブロック」および「第2の動き補償されたブロック」と称することができ、
上述(4)のとおり、「(TRD - TRB) / TRDとTRB / TRD」は、「第1および第2の係数」と称することができ、
上述(1)のとおり、「予測ブロック」は「現在のブロック」と称することができるから、
引用発明における「PpとPfに(TRD - TRB) / TRDとTRB / TRDに重み付けを行って予測ブロックPを計算するステップ」は、
「第1および第2の動き補償されたブロックにそれぞれ前記第1および第2の係数を適用することによって、前記現在のブロックを予測するステップ」といえる。

(6)一致点・相違点
以上の対比結果によれば、本願発明と引用発明との一致点および相違点は、下記のとおりである。

[一致点]
双予測ピクチャにおける現在のブロックの予測方法において、
前記現在のブロックに対する第1の動きベクトルと第1の参照ピクチャとを利用して、第1の動き補償されたブロックを得るステップであって、前記第1の動きベクトルはダイレクトモードにおいて第2の参照ピクチャに含まれる動きベクトルから導出されたものであり、
前記現在のブロックに対する第2の動きベクトルと第2の参照ピクチャとを利用して、第2の動き補償されたブロックを得るステップであって、前記第2の動きベクトルは第2の参照ピクチャから導出されたものであり、
第1および第2の係数を計算するステップと、
前記第1および第2の動き補償されたブロックにそれぞれ前記第1および第2の係数を適用することによって、前記現在のブロックを予測するステップと、
を有することを特徴とする予測方法。

[相違点1]
「第1の動きベクトル」、「第2の動きベクトル」を、それぞれ、
本願発明は、「第2の参照ピクチャに含まれる同一の位置のブロックの動きベクトルから導出されたもの」、「前記同一の位置のブロックから導出されたもの」すなわち「第2の参照ピクチャに含まれる同一の位置のブロックの動きベクトルから導出されたもの」とするのに対し、
引用発明は、「第2の参照ピクチャに含まれる動きベクトルから導出されたもの」、「第2の参照ピクチャに含まれる動きベクトルから導出されたもの」とする点

[相違点2]
本願発明は、「前記双予測ピクチャの現在のディスプレー順序、前記第1の参照ピクチャの第1ディスプレー順序、および前記第2の参照ピクチャの第2ディスプレー順序に基づいて、第1および第2の係数を計算する」のに対し、
引用発明は、「TRDは、表示の時間的に前と次の参照ピクチャの間の表示の時間的距離とし、TRBは、現在のピクチャおよび前の参照ピクチャの間の表示の時間的距離とし、(TRD - TRB) / TRD(第1の係数)およびTRB / TRD(第2の係数)を計算する」点

4 相違点の判断
(1)相違点1
ア ダイレクトモード
上記の引用例2によれば、直接モード(ダイレクトモード)における動きベクトルの計算方法として、「対象B-VOPにあるマクロブロックMBの動きベクトルを求めるときに,直後のP-VOPにおいてMBと同じ位置にあるMB_(REF)の動きベクトルMVを」「内分して前方動きベクトルMV_(F)と後方動きベクトルMV_(B)をそれぞれ作り出す」ことが示されており、「矩形形状の場合,VOPはMPEG-1やMPEG-2のフレームまたはフィールドに相当する」ものであり、「MPEG-1やMPEG-2のフレームまたはフィールド」が「ピクチャ」と称されるのは普通のことであるから、
フレームまたはフィールド単位で符号化する場合のダイレクトモードにおける動きベクトルは、
対象BピクチャにあるマクロブロックMBの動きベクトルを求めるときに、直後のPピクチャにおいてMBと同じ位置にあるMB_(REF)の動きベクトルMVを内分することにより動きベクトルを求めることができると理解される。

イ 相違点1の容易想到性
ダイレクトモードにおける動きベクトルを求める必要のある引用発明において、公知のダイレクトモードにおける動きベクトルを求める方法を採用することは当業者が普通に想起し得たことである。
よって、引用発明における「第1の動きベクトル」および「第2の動きベクトル」が、
「第2の参照ピクチャに含まれる動きベクトルから導出されたものであり、」とする構成を、
「第2の参照ピクチャに含まれる同一の位置のブロックの動きベクトルから導出されたものであり、」とすることは当業者が容易に想到し得たことである。

(2)相違点2
ア 周知事項
(ア)引用例3記載技術
引用例3、特に記載uないしw(中でも特に記載w中の式、第3図B)によれば、引用例3には連続して入力される動画像信号のフレーム間予測符号化方式において、(予測されるフレームの)前のフレーム信号(値)と(予測されるフレームの)後のフレームの信号(値)とから予測されるフレームの予測信号を予測する2次線形予測、すなわち、双方向予測を行う際に、
予測に必要な独立フレームを先に符号化してから予測するフレームの符号化を行う技術であって、
フレームの予測信号を「予測されるフレームと予測に使われる独立フレームの時間関係により」
予測されるフレームの予測信号X=
重み係数α×後フレーム値Vmq
+重み係数(1-α)×前フレーム値Vmp
但し、
重み係数α=(m-mp)/N(0≦α≦1)
mは予測されるフレーム番号、
mqは後フレーム番号、
mpは前フレーム番号
で求めるとするところ、
上記時間関係とは、フレーム番号m、mp、mqの関係と理解され、NもN=mq-mpであって、上記時間関係で決まるものである。
すなわち、引用例3には、予測に必要な独立フレームを先に符号化してから予測するフレームの符号化を行う技術であって、
予測するフレームの予測信号X=
重み係数α×後フレーム値Vmq
+重み係数(1-α)×前フレーム値Vmp
で求めるとし、
重み係数α、(1-α)は、予測されるフレームと予測に使われる独立フレームの時間関係として、予測されるフレームの番号m、前フレーム番号mp、後フレーム番号mqを用いて求める技術が認められる。
かかる引用例3の技術と、本願発明の相違点3に係る構成「前記双予測ピクチャの現在のディスプレー順序、前記第1の参照ピクチャの第1ディスプレー順序、および前記第2の参照ピクチャの第2ディスプレー順序に基づいて、第1および第2の係数を計算する」を比較するに、引用例3記載技術の「フレーム番号」は、入力される動画像の連続するフレーム番号(1,2,3,・・・m・・・)であり、同番号は、符号化されるフレーム順を示す番号ではなく、動画像を構成する動画像自体のフレーム番号であるから、このフレーム順に画像が表示されるものである。よって、同番号は表示順を示す番号、すなわち、ディスプレイ順序を示す番号といい得ることは明らかである。
したがって、引用例3記載技術の予測するフレーム番号、前フレーム番号、後フレーム番号は本願発明でいう、双予測ピクチャの現在のディスプレイ順序、第1の参照ピクチャの第1ディスプレー順序、第2の参照ピクチャの第2ディスプレー順序ということができる。
また、重みα、(1-α)が本願発明でいう、第1および第2の係数に相当することも明らかである。
そうすると、上記引用例3には、本願発明でいう「双予測ピクチャのディスプレー順序、前記第1の参照ピクチャの第1ディスプレー順序、および前記第2の参照ピクチャの第2ディスプレー順序に基づいて、第1および第2の係数を計算する」に相当する技術が示されているということができる。

(イ)引用例4記載技術
引用例4、特に記載xないしz(中でも特に記載z中の式、第6図B、第7図)によれば、引用例4には、上述した引用例3記載技術と同様の技術、すなわち、連続して入力される動画像(フレームナンバー1,2,3,・・・m・・・)のフレーム間予測符号化方式において、
予測するフレームの予測信号X=
重み係数α×後フレーム値Vmq
+重み係数(1-α)×前フレーム値Vmp
で求めるとし、
重み係数α、(1-α)は、予測されるフレームと予測に使われる独立フレームの時間関係として、予測されるフレームの番号m、前フレーム番号mp、後フレーム番号mqを用いて求める技術が記載されている認められる。
そして、引用例4記載技術が、相違点2に係る本願発明の構成である「双予測ピクチャのディスプレー順序、前記第1の参照ピクチャの第1ディスプレー順序、および前記第2の参照ピクチャの第2ディスプレー順序に基づいて、第1および第2の係数を計算する」を示しているといえることも、上記した引用例3と同様である。

<請求人の主張について>
請求人は、平成23年11月1日付け意見書において「一般に、Bピクチャ(双予測ピクチャ、又は双方向予測ピクチャ)が存在する場合には、符号化の順番と表示の順番が異なり、時間軸上において入れ替えを行う必要があります。本願では表示順序としてのディスプレー順序を用います。一方、引用文献3、4には、Bピクチャを用いることは開示されておらず、フレームナンバーは符号化順を表すものと推定できます。従いまして、引用文献3、4に記載されるフレームナンバーはディスプレー順序とは異なるものであり、引用文献3、4には、係数算出時にディスプレー順序を用いることは記載されておりません。」と主張している。
しかし、引用例3,4における符号化は、符号化順ではなく、表示順であるフレームナンバーに基づいて係数を得ている。
引用例3,4において、具体的に数値を当てはめて検討すると、N=4フレーム毎に独立フレームとする場合に、実際の画像信号の連続フレームを独立フレームから順に、1(独立),2,3,4,5(独立)と番号を付けると、符号化順は、1(独立),5(独立),2,3,4となるが、
記載u、zからも理解されるように、引用例3,4においてフレームのナンバーは、独立フレームがN=4おきに出現するように説明されており、符号化順で対応付けると明らかに矛盾するものであり、
引用例3,4をとおしてみても、フレームの番号は、実際の画像信号の順序であることは明らかであり、実際の画像信号の順序が、ディスプレー順序といえることは普通に理解されることである。

イ 相違点2の克服の容易想到性
引用発明の時間的距離による係数を求めるために、上記ア(ア)、(イ)の技術を適用することは当業者が普通に想起し得たことである。
よって、引用発明において、引用例3,4記載の技術を適用し、時間的距離による重み付け係数をディスプレー順序(フレームの番号)に基づいて計算する構成とするために、
「TRDは、時間的に前と次の参照ピクチャの間の時間的距離とし、TRBは、現在のピクチャおよび前の参照ピクチャの間の時間的距離とし、(TRD - TRB) / TRD(第1の係数)およびTRB / TRD(第2の係数)を計算する」構成を、
「前記双予測ピクチャの現在のディスプレー順序、前記第1の参照ピクチャの第1ディスプレー順序、および前記第2の参照ピクチャの第2ディスプレー順序に基づいて、第1および第2の係数を計算する」構成とすることは当業者が容易に想到し得たことである。

(3)まとめ(当審の判断)
以上、引用発明を出発点として、上記相違点1、相違点2の克服を合わせて行うことで、本願発明の構成に達するところ、これらの克服を合わせて行うことも当業者が容易になし得ることである。
そして、本願発明の構成は、上記のとおり、当業者容易想到であるところ、本願発明の効果は、その容易想到である構成から当業者が予測しうる範囲内のものであり、同範囲を超える格別顕著なものでもない。
よって、本願発明は、引用発明(引用例1)及び上記引用例2ないし4に記載された技術に基づいて、当業者が容易に発明することができたものである。

5 むすび
以上、本願の請求項1に係る発明は、引用発明(引用例1)及び上記引用例2ないし4に記載された技術に基づいて、当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。

したがって、本願は拒絶をするべきものである。

よって、結論のとおり決定する。
 
審理終結日 2012-01-05 
結審通知日 2012-01-10 
審決日 2012-01-23 
出願番号 特願2006-632(P2006-632)
審決分類 P 1 8・ 121- WZ (H04N)
最終処分 不成立  
前審関与審査官 坂東 大五郎  
特許庁審判長 乾 雅浩
特許庁審判官 梅本 達雄
小池 正彦
発明の名称 ブロック予測方法  
代理人 青木 篤  
代理人 南山 知広  
代理人 鶴田 準一  
代理人 中村 健一  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ