• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 特許、登録しない(前置又は当審拒絶理由) H04N
管理番号 1323259
審判番号 不服2015-3261  
総通号数 206 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2017-02-24 
種別 拒絶査定不服の審決 
審判請求日 2015-02-20 
確定日 2017-01-04 
事件の表示 特願2012-548923「3Dテキストを3Dコンテンツと合成するシステムおよび方法」拒絶査定不服審判事件〔平成23年 7月21日国際公開、WO2011/087470、平成25年 5月16日国内公表、特表2013-517677〕について、次のとおり審決する。 
結論 本件審判の請求は、成り立たない。 
理由 1.手続の経緯
本願は、2010年1月13日を国際出願日とする出願であって、平成25年11月21日付けの拒絶理由通知に対し、平成26年5月14日付けで意見書が提出されたが、平成26年10月10日付けで拒絶査定がなされた。
本件は、上記拒絶査定を不服として、平成27年2月20日付けで請求された拒絶査定不服審判であって、当審における平成28年1月7日付けの拒絶理由通知に対し、平成28年6月27日付けで手続補正がなされたものである。

2.本願発明
本願の請求項1ないし15に係る発明は、平成28年6月27日付けで補正された特許請求の範囲の請求項1ないし15に記載されたとおりのものであり、そのうち、請求項1に係る発明(以下、「本願発明」という。)は、次のとおりである。
なお、A?Jについては、説明のために当審にて付したものである。
(以下、「構成A」、・・・、「構成J」という。)

「A テキストを三次元(3D)画像コンテンツと合成する方法であって、
B 結果として生じる画像は3D表示装置により表示可能であり、
C 前記方法は、
D 少なくとも一つの3D画像を含む前記3D画像コンテンツおよび前記少なくとも一つの3D画像と関連付けられたテキストの双方を受け取るステップであって、前記少なくとも一つの3D画像は、第1の表示および第2の表示を含む、前記ステップと、
E 前記少なくとも一つの3D画像から視差情報を抽出するステップと、
F 前記第1の表示におけるテキストのための位置を決定するステップと、
G 前記第2の表示におけるテキストのための位置を決定するステップと、
を含み、
H 前記第2の表示における位置は、少なくとも部分的には、前記視差情報に基づいた量だけ、対応する3D画像の第1の表示における位置に対してオフセットされ、
I 前記視差情報は視差値の和集合(UD)の最小値である、
J 前記方法。」

3.刊行物1発明
当審における拒絶理由に引用された、国際公開第2008/115222号(以下、「刊行物1」という。)には、「SYSTEM AND METHOD FOR COMBINING TEXT WITH THREE-DIMENSIONAL CONTENT」(訳:テキストを3Dコンテンツに合成するためのシステムおよび方法)として、図面とともに以下の事項が記載されている。
なお、仮訳については、当審で付したものである。
また、括弧書きで記載した頁及び行による摘出箇所の記載における行の記載については、刊行物1の各頁左欄の数字によるものである。

ア.「The present disclosure generally relates to image processing and display systems, and more particularly, to a system and method for combining text with three-dimensional content.」(1頁8行?10行)
(仮訳:本開示は、一般に画像処理および表示システムに関し、より詳細には、3次元コンテンツとテキストを合成するシステムおよび方法に関する。)

イ.「According to one aspect of the present disclosure, a system and method for combining and/or displaying text with three-dimensional (3D) content is provided. The system and method inserts text at the same level as the highest depth value in the 3D content. One example of 3D content is a two-dimensional image and an associated depth map. In this case, the depth value of the inserted text is adjusted to match the largest depth value of the given depth map. Another example of 3D content is a plurality of two-dimensional images and associated depth maps. In this case, the depth value of the inserted text is continuously adjusted to match the largest depth value of a given depth map. A further example of 3D content is stereoscopic content having a right eye image and a left eye image. In this case the text in one of the left eye image and right eye image is shifted to match the largest depth value in the stereoscopic image. Yet another example of 3D content is stereoscopic content having a plurality of right eye images and left eye images. In this case the text in one of the left eye images or right eye images is continuously shifted to match the largest depth value in the stereoscopic images. As a result, the system and method of the present disclosure produces text combined with 3D content wherein the text does not obstruct the 3D effects in the 3D content and does not create visual fatigue when viewed by a viewer.」(2頁3行?20行)
(仮訳:本開示の1つの態様によれば、3次元(3D)コンテンツとテキストを合成および/又は表示するシステムおよび方法が提供される。そのシステムおよび方法は、3Dコンテンツにおける最大深度値と同じレベルでテキストを挿入する。3Dコンテンツの一例は、2次元画像および関連深度マップである。この場合には、挿入されるテキストの深度値は、所与の深度マップの最大深度値に一致するように調整される。3Dコンテンツの他の例は、複数の2次元画像および関連深度マップである。この場合には、挿入されるテキストの深度値は、所与の深度マップの最大深度値に一致するよう連続的に調整される。3Dコンテンツの更なる例は、右眼画像および左眼画像を有する立体コンテンツである。この場合において、左眼画像および右眼画像の一方におけるテキストは、立体画像内の最大深度値に一致するようシフトされる。3Dコンテンツの更なる他の例は、複数の右眼画像および左眼画像を有する立体コンテンツである。この場合において、左眼画像および右眼画像の一方におけるテキストは、立体画像内の最大深度値に一致するよう連続的にシフトされる。結果として、本開示のシステムおよび方法は、3Dコンテンツと合成されたテキストを生成し、テキストは、3Dコンテンツ内の3D効果を妨げず、視聴者によって視聴される時に、眼精疲労を生み出さない。)

ウ.「According to a further aspect of the present disclosure, a method of displaying text with three-dimensional image content includes receiving three- dimensional image content and text, the three-dimensional image content having a maximum depth value, displaying the three-dimensional image content, and displaying the text at the maximum depth value.」(2頁28行?32行)
(仮訳:本開示のさらなる態様によれば、3次元画像コンテンツとテキストを表示する方法は、3次元画像コンテンツおよびテキストを受信すること、その3次元画像コンテンツが最大深度値を有すること、3次元画像コンテンツを表示すること、最大深度値でテキストを表示することを含む。)

エ.「Furthermore, 3D content (e.g., stereoscopic content or 2D images and associated depth maps) may be provided by a capture device 18 and text files 20 (e.g., subtitle or caption files) may be created from a script and provided to the system by subtitle supervisor.
The scanned film prints, digital film images and/or 3D content as well as the text files may be input to a post-processing device 22, e.g., a computer.
(中略)
Other peripheral devices may include additional storage devices 28 and a printer 30. The printer 30 may be employed for printing a revised version of the film 32, e.g., a stereoscopic version of the film, wherein text has been inserted into a scene or a plurality of scenes using the text insertion techniques described below. Additionally, a digital file 34 of the revised film or video may be generated and provided to a 3D display device so the 3D content and inserted text can be viewed by a viewer. Alternatively, the digital file 34 may be stored on storage device 28.」(6頁20行?7頁10行)
(仮訳:さらに、3Dコンテンツ(例えば、立体コンテンツ又は2D画像および関連深度マップ)はキャプチャ装置18によって提供されてもよく、テキスト・ファイル20(例えば、サブタイトル又はキャプション・ファイル)をスクリプトから作成し、サブタイトル監督者によってシステムに提供されてもよい。
走査されたフィルムプリント、デジタル・フィルム画像および/又は3Dコンテンツ、並びにテキスト・ファイルは、後処理装置22例えば、コンピュータに入力することができる。
(中略)
他の周辺装置は、追加の記憶装置28およびプリンタ30を含んでいてもよい。プリンタ30がフィルム32の改訂バージョン(例えば、以下に説明されるテキスト挿入手法を使用して1つのシーンまたは複数のシーンにテキストが挿入されているフィルムの立体バージョン)を印刷のために用いることができる。更に、改訂されたフィルム又はビデオのデジタルファイル34は生成され、3D表示装置に提供され、そうして3Dコンテンツおよび挿入テキストを視聴者によって視ることができる。あるいは、デジタルファイル34は、記憶装置28に記憶することができる。)

オ.「The present disclosure is directed towards a method for inserting subtitles in the 3D video for 2D+depth and stereo type displays. For 2D+depth displays, the proposed method inserts subtitle text at the same level as the highest depth value in the picture. More specifically, the depth value of the inserted subtitle may be continuously adjusted to match the largest depth value of the depth map. For stereo content, the proposed method adjusts the disparity value of the subtitle in the right image. This produces more visually pleasing subtitles that do not obstruct the 3D effects of the video.」(7頁23行?30行)
(仮訳:本開示は、2D+深度および立体のタイプのディスプレイ用の3Dビデオ中にサブタイトルを挿入する方法に向けられている。2D+深度のディスプレイについては、提案された方法は、ピクチャ内の最高深度値と同じレベルでサブタイトル・テキストを挿入する。より具体的には、挿入されたサブタイトルの深度値は、深度マップの最大深度値に一致するよう連続して調節され得る。立体コンテンツの場合、提案された方法は、右画像内のサブタイトルの視差値を調整する。これは、ビデオの3D効果を妨げない視覚的により快いサブタイトルをもたらす。)

カ.「Referring now to FIG. 7, the present disclosure can also be extended to cover stereoscopic content 82. For stereoscopic content the text in either the left or the right eye image is shifted to match the largest depth value in the stereoscopic image. For example, the text 88 may be fixed in the left eye image 84 but adjusted or varied in the right eye image 86. The variation of the text 90 in the right eye image 86 is proportional to the disparity of the stereo pair. The disparity value is inversely proportional to the depth value.」(10頁14行?20行)
(仮訳:ここで図7を参照すると、本開示は、立体コンテンツ82を包含するように拡張されることが可能である。立体コンテンツの場合、左又は右眼用画像のいずれか一方におけるテキストは、立体画像内の最大深度値に一致するようシフトされる。例えば、テキスト88は、左眼用画像84に固定されるが、右眼用画像86内では調節又は変更することができる。右眼用画像86のテキスト90のばらつきは、立体対の視差に比例する。視差値は、深度値に反比例する。)

キ.「It should be noted that, in accordance with the present disclosure, it is desirable to combine text with 3D content (e.g., stereoscopic content or 2D Images and associated depth maps) such that the text is occasionally or continuously positioned at the maximum depth value of the 3D content. 」(10頁30行?33行)
(仮訳:本開示によれば、テキストが3Dコンテンツの最大深度値に時折、又は連続的であるように、テキストを3Dコンテンツ(例えば、立体コンテンツ又は2D画像および関連深度マップ)と組み合わせることが望ましいことに留意すべきである。)

ク.「For the application of the present disclosure, there are three possible types of content: computer generated content, stereo content and 2D content. For computer generated content, such as used in animation, depth information is available with very limited processing. For stereo content, the right and left image can be used to generate the depth by matching the pixel in the left image to that in the right image. The most complex case is that of 2D content. Most current techniques involve extensive manual processing and hence must be done off-line. For digital cinema applications, the 2D content is converted to stereo pair for playback in digital theaters. Once the stereo pair is acquired, stereo techniques can be used to obtain a depth map. In general for subtitle applications highly accurate and dense depth maps are usually not needed.」(11頁25行?12頁2行)
(仮訳:本開示の適用のために、3個の可能なタイプのコンテンツ、コンピュータ生成されたコンテンツ、立体コンテンツおよび2Dコンテンツがある。アニメーションに使用されるような、コンピュータ生成されたコンテンツの場合、深度情報は非常に限られた処理で利用可能である。立体コンテンツの場合、右画像および左画像は、右画像の画素と左画像の画素をマッチングさせることにより深度を生成するために使用することができる。最も複雑な場合は、2Dコンテンツのことである。最新の技術は、広範囲にわたる手作業処理を伴い、よって、オフラインで行うことが必要である。デジタルシネマのアプリケーションの場合、2Dコンテンツは、ディジタル映画館における再生のために立体対に変換される。立体対が獲得されると、立体手法は、深度マップを得るために使用することができる。一般に、サブタイトルアプリケーションの場合、高度に正確かつ高密度な深度マップは、通常、必要とされない。)

上記記載及び関連する図面並びにこの分野における技術常識を考慮し、刊行物1について検討する。

(a)刊行物1には、上記ア.の「3次元コンテンツとテキストを合成するシステムおよび方法」、上記イ.の「3Dコンテンツの更なる他の例は、複数の右眼画像および左眼画像を有する立体コンテンツである。」、上記ウ.の「3次元画像コンテンツとテキストを表示する方法は、3次元画像コンテンツおよびテキストを受信すること、その3次元画像コンテンツが最大深度値を有すること、3次元画像コンテンツを表示すること、最大深度値でテキストを表示することを含む。」との記載から、3次元画像コンテンツとテキストを合成する方法について記載があるといえる。

(b)上記エ.の記載から、刊行物1の方法は、3Dコンテンツ(3次元画像コンテンツ)にテキストが挿入されているビデオを3D表示装置に提供するものである。

(c)上記ウ.の記載から、刊行物1の方法は、3次元画像コンテンツおよびテキストを受信するものである。
ここで、上記エ.の「テキスト・ファイル20(例えば、サブタイトル又はキャプション・ファイル)」との記載から、受信されるテキストは、例えば、サブタイトル又はキャプションである。
また、上記イ.の「3Dコンテンツの更なる他の例は、複数の右眼画像および左眼画像を有する立体コンテンツである。」との記載から、3次元画像コンテンツは、複数の左眼画像および右眼画像を有する立体コンテンツである。
そうすると、上記イ.?エ.の記載から、刊行物1の方法は、3次元画像コンテンツおよびテキスト(例えば、サブタイトルやキャプション)を受信するものであり、3次元画像コンテンツは、複数の左眼画像および右眼画像を有する立体コンテンツである。

(d)上記イ.の「3Dコンテンツの更なる他の例は、複数の右眼画像および左眼画像を有する立体コンテンツである。この場合において、左眼画像および右眼画像の一方におけるテキストは、立体画像内の最大深度値に一致するよう連続的にシフトされる。」、上記カ.の「立体コンテンツの場合、左又は右眼用画像のいずれか一方におけるテキストは、立体画像内の最大深度値に一致するようシフトされる。例えば、テキスト88は、左眼用画像84に固定されるが、右眼用画像86内では調節又は変更することができる。」、上記キ.の「テキストが3Dコンテンツの最大深度値に時折、又は連続的であるように、テキストを3Dコンテンツ(例えば、立体コンテンツ又は2D画像および関連深度マップ)と組み合わせることが望ましい」との記載から、刊行物1の方法は、左眼画像および右眼画像のテキストは、左眼画像内では固定にし、右眼画像内で、立体画像内の最大深度値に一致するよう連続的にシフトされるものである。

そうすると、刊行物1には以下の発明(以下、「刊行物1発明」という。)が開示されている。
なお、a?fについては、説明のために当審にて付したものである。
(以下、「構成a」、・・・、「構成f」という。)
「a 3次元画像コンテンツとテキストを合成する方法であって、
b 3次元画像コンテンツにテキストが挿入されているビデオを3D表示装置に提供するものであり、
c 前記方法は、
d 3次元画像コンテンツおよびテキスト(例えば、サブタイトルやキャプション)を受信するものであり、3次元画像コンテンツは、複数の左眼画像および右眼画像を有する立体コンテンツであり、
e 左眼画像および右眼画像のテキストは、左眼画像内では固定にし、右眼画像内で、立体画像内の最大深度値に一致するよう連続的にシフトされる、
f 前記方法。」

4.本願発明と刊行物1発明との対比と、一致点・相違点の認定
ア.対比
(ア-1)構成Aについて
刊行物1発明の構成aの「3次元画像コンテンツとテキストを合成する方法」は、本願発明の構成Aの「テキストを三次元(3D)画像コンテンツと合成する方法」に相当する。

(ア-2)構成Bについて
刊行物1発明の構成bの「3次元画像コンテンツにテキストが挿入されているビデオ」は、「3次元画像コンテンツとテキストを合成する」ことにより生じる画像である。
したがって、本願発明の構成Bの「結果として生じる画像」に相当する。
そうすると、刊行物1発明の構成bは、本願発明の構成Bに相当する。

(ア-3)構成Cについて
刊行物1発明の構成cは、本願発明の構成Cに相当する。

(ア-4)構成Dについて
(ア-4-1)刊行物1発明の構成dにおける「3次元画像コンテンツは、複数の左眼画像および右眼画像を有する立体コンテンツ」に関して、1組の左眼画像と右眼画像を表示することにより1つの3次元画像が形成されるものであるから、「3次元画像コンテンツは、複数の左眼画像および右眼画像を有する」とは、複数の3次元画像を含むことといえ、刊行物1発明の構成dの「3次元画像コンテンツ」は、本願発明の構成Dの「少なくとも一つの3D画像を含む前記3D画像コンテンツ」に相当する。

(ア-4-2)刊行物1発明の構成dの「テキスト(例えば、サブタイトルやキャプション)」において、サブタイトルやキャプションは、そのときに表示されている画像を説明するためのものであるから、そのときに表示されている画像と関連しているといえるので、本願発明の構成Dの「前記少なくとも一つの3D画像と関連付けられたテキスト」に相当する。

(ア-4-3)上記(ア-4-1)で検討したように、刊行物1発明は、1組の左眼画像と右眼画像を表示することにより1つの3次元画像が形成されるものであるから、構成dの「左眼画像」と「右眼画像」は、それぞれ『左眼用の表示』と『右眼用の表示』であるといえ、本願発明の構成Dの「第1の表示」と「第2の表示」に相当する。

(ア-4-4)そうすると、刊行物1発明の構成dは、本願発明の構成Dに相当する。

(ア-5)構成E、H、Iについて
刊行物1発明の構成eにおいて、右眼画像のテキストの位置は、最大深度値に基づいて、左眼画像におけるテキストの位置に対して、ずらした位置に決定しているといえる。
そして、刊行物1発明の「最大深度値」は、その値に基づいて、テキストの位置を決定するものであるから、本願発明の「視差情報」とは、『テキストの位置を決定するための情報』という点で共通する。
また、上記(ア-4-3)で検討したように、刊行物1発明の「左眼画像」と「右眼画像」は、本願発明の「第1の表示」と「第2の表示」に相当する。

そうすると、刊行物1発明の構成eと、本願発明の構成Hは、「前記第2の表示における位置は、少なくとも部分的には、テキストの位置を決定するための情報に基づいた量だけ、対応する3D画像の第1の表示における位置に対してオフセットされ」ている点で共通する。
しかし、『テキストの位置を決定するための情報』に関して、刊行物1発明の構成eは、「最大深度値」であるのに対し、本願発明の構成Hは、「視差情報」である点で相違する。

さらに、『テキストの位置を決定するための情報』に関して、刊行物1発明は、「最大深度値」であるのに対し、本願発明の構成Hは、「視差情報」である点で相違するため、本願発明の構成Iのような「前記視差情報は視差値の和集合(UD)の最小値である」ものではない。

そして、刊行物1発明は、本願発明の構成Eのような、「前記少なくとも一つの3D画像から視差情報を抽出するステップ」を含むものではない。

(ア-6)構成F、Gについて
刊行物1発明の構成eは、「左眼画像および右眼画像のテキストは、左眼画像内では固定にし、右眼画像内で、立体画像内の最大深度値に一致するよう連続的にシフトされる」ものであるから、左眼画像におけるテキストの位置を決定し、右眼画像におけるテキストの位置を決定しているものといえる。
そして、上記(ア-4-3)で検討したように、刊行物1発明の「左眼画像」と「右眼画像」は、本願発明の「第1の表示」と「第2の表示」に相当する。

したがって、刊行物1発明の構成eは、本願発明の構成F及びGに相当する構成を有しているものである。

(ア-7)構成Jについて
刊行物1発明の構成fは、本願発明の構成Jに相当する。

イ.一致点・相違点
したがって、刊行物1発明と本願発明は、以下の点で一致ないし相違する。

[一致点]
「テキストを三次元(3D)画像コンテンツと合成する方法であって、
結果として生じる画像は3D表示装置により表示可能であり、
前記方法は、
少なくとも一つの3D画像を含む前記3D画像コンテンツおよび前記少なくとも一つの3D画像と関連付けられたテキストの双方を受け取るステップであって、前記少なくとも一つの3D画像は、第1の表示および第2の表示を含む、前記ステップと、
前記第1の表示におけるテキストのための位置を決定するステップと、
前記第2の表示におけるテキストのための位置を決定するステップと、
を含み、
前記第2の表示における位置は、少なくとも部分的には、テキストの位置を決定するための情報に基づいた量だけ、対応する3D画像の第1の表示における位置に対してオフセットされる、
前記方法。」

[相違点]
「テキストの位置を決定するための情報」に関して、
本願発明は、「視差情報」であり、さらに「視差情報は視差値の和集合(UD)の最小値である」のに対し、刊行物1発明は、「最大深度値」であり、
本願発明は、「少なくとも一つの3D画像から視差情報を抽出するステップ」を含むのに対し、刊行物1発明は、そのような抽出するステップを含むものではない点。

5.当審の判断
上記相違点について検討する。

刊行物1発明のテキストは、「最大深度値に一致するよう連続的にシフトされるもの」であるから、『画像ごとの最大深度値にテキストが合成される』ものであるといえる。

当審における拒絶理由に引用された、特開平11-113028号公報(以下、「刊行物2」という。)には、「3次元映像表示装置」として、図面とともに以下の事項が記載されている。

「【0004】立体効果は次のように現れる。すなわち図14に示す、左目像L1, 右目像R1が表示された場合には、スクリーンより奥の位置cに3次元像が見える。左目像L2, 右目像R2が表示された場合には、スクリーン上の位置aに3次元像が見える。左目像L3, 右目像R3が表示された場合には、スクリーンより手前の位置bに3次元像が見える。
【0005】このように、左右眼に与えられる水平方向のずれの差は両眼視差と呼ばれ、このずれの方向に応じて像が後ろや前に奥行きをもって感じられる。」

「【0014】第1の映像信号は3次元映像信号であり、左目用・右目用映像信号がフィールド順次で入力される。この第1の映像信号が立体表示器104へそのまま入力されると、従来と同様に3次元表示される。その表示される像の奥行き情報は、左右眼,スクリーン,左目像,右目像の各位置からそれぞれ数値演算で求められる。」

「【0016】このように奥行き情報最大値取得回路101は、例えば1画面内で最も前面,あるいは適切な時間の過去までさかのぼり現在までに渡って最も前面に表示される像の奥行き情報を得る。第1の映像信号の奥行き情報に対して、1画面内の最大値,あるいは適切な時間の過去までさかのぼって現在までの最大値が得られ、この最大値を視差量制御回路102へ出力する。
【0017】視差量制御回路102は、入力される奥行き情報の最大値( 図2の場合DMAX) を用いて第2の映像信号の奥行き情報に対して、(任意の第2の映像信号の奥行き情報)>(第1の映像信号の奥行き情報の最大値)となるよう第2の映像信号の奥行き情報を制御する。」

上記記載及び関連する図面並びにこの分野における技術常識を考慮し、刊行物2について検討する。

段落0014には、「奥行き情報は、左右眼,スクリーン,左目像,右目像の各位置からそれぞれ数値演算で求められる。」と記載され、段落0004、0005には、左目像と右目像のずれの差(両眼視差)に応じて像が奥行きをもつことが記載されている。
また、図14から、左目像を基準として、右目像との視差量が小さくなればなる(負の値の絶対値が大きい)ほど、像がより手前に見えるものである。

そして、段落0016、0017の記載から、第1の映像信号について、1画面内の奥行き情報の最大値,あるいは適切な時間の過去までさかのぼって現在までの奥行き情報の最大値を得て、第2の映像信号の奥行き情報を制御することが記載されている。ここで、奥行き情報の最大値は、最大深度値に相当する。

そうすると、刊行物2には、第1の映像信号の、1画面内の視差量が最も小さい箇所(最大深度値)、あるいは、一定期間における視差量が最も小さい箇所(最大深度値)を求め、第2の映像信号を制御する3次元映像表示装置が開示されているといえる。

刊行物2に記載された3次元映像表示装置のように、第1の映像信号の、1画面内の視差量が最も小さい箇所(最大深度値)、あるいは、一定期間における視差量が最も小さい箇所(最大深度値)を求め、第2の映像信号を制御することが知られており、3D画像を視る際に、画面ごとにテキストの位置が前後に移動すると、視覚的に疲労をもたらすことを考えると、刊行物1発明において、『画像ごとの最大深度値にテキストが合成される』ことに代えて、全てのフレームの中で視差量が最も小さい箇所(最大深度値)にテキストが合成されるようにすることは、当業者が容易に想到し得るものである。
そして、全てのフレームの中で視差量が最も小さい箇所(最大深度値)にテキストが合成されるようにした場合には、『全てのフレームの中で最も小さい視差量を求め、右眼用の表示は、全てのフレームの中で最も小さい視差量に基づいた量だけ、左眼用の表示に対して、オフセットされる』こととなる。

ここで、本願発明の「視差値の和集合(UD)の最小値」とは、本願明細書の段落0045及び0085の記載から、全ての処理された複数のフレームについての最小の視差値を指すものである。

したがって、『全てのフレームの中で最も小さい視差量を求め、右眼用の表示は、全てのフレームの中で最も小さい視差量に基づいた量だけ、左眼用の表示に対して、オフセットされる』ことは、「視差情報を抽出するステップ」を含み、「前記第2の表示における位置は、少なくとも部分的には、前記視差情報に基づいた量だけ、対応する3D画像の第1の表示における位置に対してオフセットされ」、「視差情報は視差値の和集合(UD)の最小値である」こととなる。

よって、相違点については、当業者が容易になし得るものであり、本願発明に関する作用・効果も、刊行物1発明、刊行物2に記載された技術から、当業者が予測できる範囲のものである。

6.まとめ
以上のとおり、本願の請求項1に係る発明は、刊行物1に記載された発明、刊行物2に記載された技術に基づいて、当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。
したがって、本願は、その余の請求項について論及するまでもなく、拒絶すべきものである。
よって、結論のとおり審決する。
 
審理終結日 2016-08-02 
結審通知日 2016-08-09 
審決日 2016-08-23 
出願番号 特願2012-548923(P2012-548923)
審決分類 P 1 8・ 121- WZ (H04N)
最終処分 不成立  
前審関与審査官 鈴木 明  
特許庁審判長 清水 正一
特許庁審判官 戸次 一夫
渡辺 努
発明の名称 3Dテキストを3Dコンテンツと合成するシステムおよび方法  
代理人 伊東 忠重  
代理人 大貫 進介  
代理人 伊東 忠彦  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ