ポートフォリオを新規に作成して保存 |
|
|
既存のポートフォリオに追加保存 |
|
PDFをダウンロード |
審決分類 |
審判 査定不服 2項進歩性 特許、登録しない(前置又は当審拒絶理由) H04N |
---|---|
管理番号 | 1366693 |
審判番号 | 不服2019-892 |
総通号数 | 251 |
発行国 | 日本国特許庁(JP) |
公報種別 | 特許審決公報 |
発行日 | 2020-11-27 |
種別 | 拒絶査定不服の審決 |
審判請求日 | 2019-01-23 |
確定日 | 2020-10-09 |
事件の表示 | 特願2018-144682「アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム」拒絶査定不服審判事件〔請求項の数(14)〕について、次のとおり審決する。 |
結論 | 本件審判の請求は、成り立たない。 |
理由 |
第1 手続の経緯 本願は、平成30年5月8日に出願した特願2018-89612号の一部を、平成30年8月1日に新たな特許出願としたものであって、その手続の経緯は、以下のとおりである。 平成30年 9月12日付け:拒絶理由通知書 同年11月 6日 :意見書の提出 同年11月28日付け:拒絶査定 平成31年 1月23日 :審判請求書の提出 同年 2月25日付け:拒絶理由通知書(当審) 同年 4月25日 :意見書、手続補正書の提出 第2 本願発明 本願の請求項に係る発明は、平成31年4月25日になされた手続補正(以下、「本件補正」という。)により補正された特許請求の範囲の請求項1?14に記載された事項により特定されるものであるところ、その請求項1に係る発明(以下「本願発明」という。)は、以下のとおりのものである。 なお、本願発明の各構成の符号(A)?(D)は、説明のために当審において付与したものであり、以下、構成A?構成Dと称する。 (本願発明) (A)アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムであって、 (B)一又は複数のコンピュータプロセッサを備え、 (C)前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、 (D1)前記動画を視聴する視聴ユーザから前記動画の配信中に前記動画への装飾オブジェクトの表示を要求する第1表示要求がなされ、 (D2)前記動画の配信中に前記動画の配信をサポートするサポーター又は前記アクターによって前記装飾オブジェクトが選択された場合に、 (D3)前記装飾オブジェクトに設定されている装着位置情報に基づいて定められる前記キャラクタオブジェクトの部位に関連づけて (D4)前記装飾オブジェクトを前記動画に表示させる、 (A)動画配信システム。 第3 当審における拒絶の理由 本件補正前の請求項1?4に係る発明についての平成31年2月25日付けの当審が通知した拒絶理由のうちの理由2は、この出願の請求項1?4に係る発明は、本願の出願日前に日本国内又は外国において、頒布された又は電気通信回線を通じて公衆に利用可能となった以下の引用文献1に記載された発明、引用文献2に記載された技術、及び周知技術(引用文献3)に基づいて、その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから、特許法29条2項の規定により特許を受けることができない、というものである。 引用文献1.特開2015-184689号公報 引用文献2.「ファンと一緒に放送をつくろう! 「AniCast」にユーザーギフティング機能を追加」,[online],2018年4月5日,株式会社エクシヴィ,インターネット<URL: http://www.xvi.co.jp/news/ における、http://www.xvi.co.jp/wp-content/uploads/2018/04/AniCast-PressRelease.pdf> 引用文献3.特開2010-33298号公報 第4 引用文献の記載及び引用発明 1.引用文献1の記載事項 引用文献1(特開2015-184689号公報)には、図面とともに、次の記載がある。下線は説明のために当審にて付したものである。 (1)「【0012】 図1は、一実施形態におけるインタラクティブシステム5の一例を概略的に示す。インタラクティブシステム5は、動画生成出力システム10と、ユーザ端末80と、ユーザ端末81とを備える。 【0013】 動画生成出力システム10は、ユーザ端末80及びユーザ端末81と、ネットワーク9を通じて通信する。ネットワーク9は、インターネット、携帯電話網等を含む。ユーザ端末80及びユーザ端末81は、例えば、スマートフォン等の携帯端末、パーソナルコンピュータ等である。ユーザ90は、ユーザ端末80のユーザである。ユーザ91は、ユーザ端末81のユーザである。 【0014】 動画生成出力システム10は、声優60及び声優61の動作をリアルタイムに検出する。動作とは、顔の表情、顔の動き、手足等の動き等を含む。また、動画生成出力システム10は、声優60及び声優61が発した音声をリアルタイムに取得する。そして、動画生成出力システム10は、検出した声優60及び声優61の動作に応じて動くキャラクタの動画であるキャラクタ動画をリアルタイムに生成するとともに、声優60及び声優61の音声をキャラクタ動画にリアルタイムに合成して、ネットワーク9を通じて配信する。 【0015】 ユーザ端末80及びユーザ端末81は、ネットワーク9を通じて、動画生成出力システム10から動画の配信を受ける。また、ユーザ端末80は、ユーザ90から入力されたテキストメッセージ等のデータを、ネットワーク9を通じて、動画生成出力システム10に送信する。ユーザ端末81は、ユーザ91から入力されたテキストメッセージ等のデータを、ネットワーク9を通じて、動画生成出力システム10に送信する。 【0016】 動画生成出力システム10は、ユーザ端末80及びユーザ端末81の少なくとも一方から取得したテキストメッセージを受信すると、受信したテキストメッセージを表示する。声優60及び声優61は、動画生成出力システム10で表示されたメッセージを見て、メッセージに対して動作及び音声でリアクションを行う。声優60及び声優61が動作及び音声でリアクションを行うと、動画生成出力システム10は、声優60及び声優61が行った動作に応じて動き、声優60及び声優61が発した音声を含むキャラクタ動画を生成して、ネットワーク9を通じて配信する。 【0017】 インタラクティブシステム5によれば、動画生成出力システム10は、ユーザ90やユーザ91が発したメッセージに対して、キャラクタが動作や音声でリアルタイムに反応する、ライブ感のある動画を配信できる。そのため、ユーザ90やユーザ91は、まるでキャラクタと会話しているような感覚でチャットを楽しむことができる。」 (2)「【0018】 図2は、動画生成出力システム10のブロック構成の一例を模式的に示す。動画生成出力システム10は、カメラ20と、カメラ21と、モーションセンサ30と、モーションセンサ31と、カメラ40と、表示装置50と、表示装置51と、動画処理装置100と、動画処理装置200と、サーバ300とを備える。」 (3)「【0023】 動画処理装置100は、顔動き検出部110と、体動き検出部120と、格納部140と、音声取得部150と、カメラ情報取得部160と、動画生成出力部180とを備える。動画生成出力部180は、動画生成部130と、動画出力部170とを備える。顔動き検出部110、体動き検出部120、動画生成部130、音声取得部150、カメラ情報取得部160及び動画出力部170は、例えばMPU等のプロセッサで実現される。格納部140は、ハードディスク等の不揮発性の記録媒体で実現される。」 (4)「【0034】 サーバ300は、動画出力部170が出力したキャラクタ動画を、ネットワーク9を介して、ユーザ端末80及びユーザ端末81に配信する。また、サーバ300は、ネットワーク9を介して、ユーザ端末80及びユーザ端末81からテキストメッセージを取得する。表示装置50は、声優60が見ることができる位置に設けられる。サーバ300は、ユーザ端末80及びユーザ端末81から取得したメッセージを、表示装置50に表示させる。 【0035】 以上に説明した動画処理装置100によれば、声優60が、ユーザ端末80で入力されたメッセージを見てリアクションを行うと、そのリアクションがキャラクタ動画にリアルタイムに反映されてユーザ端末80に配信される。そのため、ユーザ90及びユーザ91は、ライブ感のあるチャットを楽しむことができる。」 (5)「【0056】 上記の説明において、動画処理装置100の動作として説明した処理は、プロセッサがプログラムに従って動画処理装置100が有する各ハードウェア(例えば、ハードディスク、メモリ等)を制御することにより実現される。このように、本実施形態の動画処理装置100に関連して説明した、動画処理装置100の少なくとも一部の処理は、プロセッサがプログラムに従って動作して各ハードウェアを制御することにより、プロセッサ、ハードディスク、メモリ等を含む各ハードウェアとプログラムとが協働して動作することにより実現することができる。すなわち、当該処理を、いわゆるコンピュータによって実現することができる。コンピュータは、上述した処理の実行を制御するプログラムをロードして、読み込んだプログラムに従って動作して、当該処理を実行してよい。コンピュータは、当該プログラムを記憶しているコンピュータ読取可能な記録媒体から当該プログラムをロードすることができる。」 2.引用発明 上記記載から、引用文献1には、次の技術事項が記載されているものと認められる。 (1)上記1(1)によれば、インタラクティブシステム5は、動画生成出力システム10と、ユーザ端末80とを備える。 (2)上記1(2)によれば、動画生成出力システム10は、カメラ20と、モーションセンサ30と、カメラ40と、表示装置50と、動画処理装置100とを備える。また、上記1(3)によれば、動画処理装置100は、プロセッサで実現される。 (3)上記1(5)によれば、動画処理装置100の処理は、プロセッサがプログラムに従って動画処理装置100を制御することにより実現される。 (4)上記1(1)によれば、動画生成出力システム10は、ユーザ端末80と、ネットワーク9を通じて通信する。 (5)上記1(1)によれば、ユーザ90は、ユーザ端末80のユーザである。 (6)上記1(1)によれば、動画生成出力システム10は、声優60の動作に応じて動くキャラクタの動画であるキャラクタ動画を生成するとともに、声優60の音声をキャラクタ動画にリアルタイムに合成して、配信する。また、上記1(4)によれば、引用文献1には、キャラクタ動画をユーザ端末80に配信することが記載されている。 (7)上記1(1)によれば、ユーザ端末80は、ネットワーク9を通じて、動画生成出力システム10から動画の配信を受ける。 (8)上記1(1)によれば、ユーザ端末80は、ユーザ90から入力されたテキストメッセージ等のデータを、動画生成出力システム10に送信する。 (9)上記1(1)によれば、動画生成出力システム10は、ユーザ端末80から取得したテキストメッセージを受信すると、受信したテキストメッセージを表示する。また、上記1(4)によれば、引用文献1には、ユーザ端末80から取得したメッセージを、声優60が見ることができる位置に設けられる表示装置50に表示させることが記載されている。 (10)上記1(1)によれば、画生成出力システム10は、声優60は、表示されたメッセージを見て、メッセージに対して動作及び音声でリアクションを行うと、声優60が行った動作に応じて動き、声優60が発した音声を含むキャラクタ動画を生成して、ネットワーク9を通じて配信する。また、上記1(4)によれば、引用文献1には、声優60が、ユーザ端末80で入力されたメッセージを見てリアクションを行うと、そのリアクションがキャラクタ動画にリアルタイムに反映されてユーザ端末80に配信されることが記載されている。 (11)上記(1)によれば、動画生成出力システム10は、ユーザ90が発したメッセージに対して、キャラクタがリアルタイムに反応する、ライブ感のある動画を配信でき、ユーザ90は、まるでキャラクタと会話しているような感覚でチャットを楽しむことができる。 (12)以上によると、引用文献1には、次の発明(以下「引用発明」という。)が記載されていると認められる。 なお、引用発明の符号(a)?(k)は、説明のために当審において付与したものであり、以下、構成a?構成kと称する。 (引用発明) (a)動画生成出力システム10と、ユーザ端末80と、ユーザ端末81とを備えるインタラクティブシステム5であって、 (b)動画生成出力システム10は、カメラ20と、モーションセンサ30と、カメラ40と、表示装置50と、動画処理装置100とを備え、動画処理装置100は、プロセッサで実現され、 (c)動画処理装置100の処理は、プロセッサがプログラムに従って動画処理装置100を制御することにより実現され、 (d)動画生成出力システム10は、ユーザ端末80と、ネットワーク9を介して通信し、 (e)ユーザ90は、ユーザ端末80のユーザであり、 (f)動画生成出力システム10は、声優60の動作に応じて動くキャラクタの動画であるキャラクタ動画を生成するとともに、声優60の音声をキャラクタ動画にリアルタイムに合成して、キャラクタ動画をユーザ端末80に配信し、 (g)ユーザ端末80は、ネットワーク9を通じて、動画生成出力システム10から動画の配信を受け、 (h)ユーザ端末80は、ユーザ90から入力されたテキストメッセージ等のデータを、動画生成出力システム10に送信し、 (i)動画生成出力システム10は、ユーザ端末80から取得したテキストメッセージを受信すると、受信したテキストメッセージを声優60が見ることができる位置に設けられる表示装置50に表示し、 (j)動画生成出力システム10は、声優60は、表示されたメッセージを見て、メッセージに対して動作及び音声でリアクションを行うと、声優60が行った動作に応じて動き、声優60が発した音声を含むキャラクタ動画を生成して、ネットワーク9を通じてユーザ端末80に配信し、 (k)動画生成出力システム10は、ユーザ90が発したメッセージに対して、キャラクタがリアルタイムに反応する、ライブ感のある動画を配信でき、ユーザ90は、まるでキャラクタと会話しているような感覚でチャットを楽しむことができる (a)インタラクティブシステム5。 3.引用文献2の記載事項 引用文献2(「ファンと一緒に放送をつくろう! 「AniCast」にユーザーギフティング機能を追加」,[online],2018年4月5日,株式会社エクシヴィ,インターネット<URL: http://www.xvi.co.jp/news/ における、http://www.xvi.co.jp/wp-content/uploads/2018/04/AniCast-PressRelease.pdf>)には、図面とともに、次の記載がある。下線は説明のために当審にて付したものである。 (1)「株式会社エクシヴィ(本社:東京都中央区、台上取締役:近藤義仁)は、配信も可能なVRアニメ制作ツール「AniCast」にユーザギフティング機能を追加いたしました。」(第1頁) (2)「ユーザギフティングとは 視聴者の方、配信者の方が創作したギフトがVR空間内に登場します。 配信者は、VR空間内で、手で持つ、動かす、装着する、拡大縮小するなど、多彩な表現を行うことが可能です。」(第1頁) (3)「東雲めぐ での使用例 「東雲めぐ」はユーザーギフティング機能を使って放送内での視聴者の方からのイラスト作品を紹介するだけでなく、作品を装着する#めぐアクセサリー、作品がキャラクターとして登場する人形劇を行っています。」(第2頁) (4)「AniCast「アニキャスト」 「AniCast」は大掛かりな機材やモーションキャプチャースタジオを必要とせず、Oculus RiftとOculus Touchを用いた最小限の構成で、誰でも生き生きと3DCGキャラクターを動かすことができるVRアニメ制作ツールです。SHOWROOMでのギフティングに公式にシステム連動した、バーチャルギフティングも可能です。」(第2頁) (5)「東雲めぐ とは 株式会社シーエスレポーダーズ(本社:新潟県新潟市、代表取締役社長:中山賢一)のアニメVR/ARブランド「Gugenka? from CS-REPORTERS.INC」が2018年にYouTube、SHOWROOMなどで配信する3DCGアニメーション「うたっておんぷっコ♪」の主人公です。」(第2頁) (6)「SHOWROOMとは SHOWROOM株式会社(本社:東京都渋谷区、代表取締役社長:前田祐二)が運営する仮想ライブ空間の中で、無料でだれでもライブ配信&視聴ができるライブ配信プラットフォームです。」(第2頁) 4.引用文献2の技術事項 以上によると、引用文献2には、次の技術事項が記載されていると認められる。 (引用文献2に記載された技術) 3DCGキャラクターをライブ配信するライブ配信プラットフォームにおいて、ユーザギフティング機能を追加して、視聴者が創作したギフトをVR空間内に登場させ、配信者は、VR空間内で、装着するという表現を行い、3DCGアニメーションの主人公がユーザギフティング機能を使って放送内での視聴者からの作品を装着する技術。 第5 対比 本願発明と引用発明とを対比する。 1.構成Aについて 構成fの「声優60」、「動作」、「キャラクタ」、「動画」、「キャラクタ動画」は、それぞれ構成Aの「アクター」、「動き」、「キャラクタオブジェクト」、「アニメーション」、「動画」に相当する。 構成fの「キャラクタ動画」は、「声優60の動作に応じて動くキャラクタの動画」であるから、構成Aの「アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画」に相当する。 よって、引用発明の「インタラクティブシステム5」は、「アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム」である点で、構成Aと一致する。 2.構成Bについて 構成bの動画処理装置100の「プロセッサ」は、構成Bの「コンピュータプロセッサ」に相当する。 よって、引用発明の「インタラクティブシステム5」は、「一又は複数のコンピュータプロセッサ」を備える点で構成Bと一致する。 3.構成Cについて 構成cの「動画処理装置100の処理」は「プログラムに従って前記動画処理装置100を制御する」ものであるから、「コンピュータ読み取り可能な命令を実行する」ものであるといえる。 よって、構成cの動画処理装置100の「プロセッサ」は、「一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行する」点で構成Cと一致する。 4.構成D1について 構成eの「ユーザ90」は「ユーザ端末80のユーザ」であり、構成gの「ユーザ端末80」は「動画生成出力システム10から動画の配信」を受けるものであるから、引用発明の「ユーザ90」は、構成D1の「動画を視聴する視聴ユーザ」に相当する。 構成iの「動画生成出力システム10」は、「受信したテキストメッセージ」を表示装置50に表示すること、及び、構成kの「動画生成出力システム10」は、「ユーザ90が発したメッセージに対して、キャラクタがリアルタイムに反応する、ライブ感のある動画を配信」できることから、構成iの「テキストメッセージを受信する」ことは、「動画の配信中に」なされるものである。 よって、構成hの「テキストメッセージ等のデータ」は、「前記動画を視聴する視聴ユーザから前記動画の配信中に」なされるものである点で、構成D1の「第1表示要求」と共通する。 構成jの「声優60が行った動作に応じて動き、声優60が発した音声を含むキャラクタ動画」は、ユーザ端末80に「表示させる」ものであり、構成kの「キャラクタがリアルタイムに反応する、ライブ感のある動画を配信」及び「まるでキャラクタと会話しているような感覚でチャットを楽しむことができる」ことをもたらすものである。そうすると、構成hの「テキストメッセージ等のデータ」は、リアルタイムに反応する「キャラクタ動画」の表示を要求するものといえる。 よって、構成hの「テキストメッセージ等のデータ」は、リアルタイムに反応する動画の表示を要求する表示要求である点で、構成D1の「前記動画への表示を要求する第1表示要求」と共通する。 以上のことから、引用発明と構成D1とは、「前記動画を視聴する視聴ユーザから前記動画の配信中に前記動画への表示を要求する第1表示要求がなされ」る構成を有している点で共通する。 しかしながら、表示を要求する対象が、本願発明においては、「装飾オブジェクト」であるのに対して、引用発明においては、リアルタイムに反応する「キャラクタ動画」である点で、相違する。 5.構成D4について 構成jの「声優60が行った動作に応じて動き、声優60が発した音声を含むキャラクタ動画」は、ユーザ端末80に表示することから、構成D4の「前記動画」に相当する。 よって、構成jと構成D4とは、「前記動画に表示させる」点で共通する。 しかしながら、上記4で検討したとおり、表示の対象が、本願発明においては、「装飾オブジェクト」であるのに対して、引用発明においては、リアルタイムに反応する「キャラクタ動画」である点で、相違する。 6.構成D2について 上記4で述べたように、構成jの「声優60が行った動作に応じて動き、声優60が発した音声を含むキャラクタ動画」は、ユーザ端末80に「表示させる」ものである。 また、構成jの「声優60が行った動作に応じて動き、声優60が発した音声を含むキャラクタ動画」をユーザ端末80に配信するという処理は、「声優60は、表示されたメッセージを見て、メッセージに対して動作及び音声でリアクションを行う」となされるものである。 さらに、構成kの「動画生成出力システム10」は、「ユーザ90が発したメッセージに対して、キャラクタがリアルタイムに反応する、ライブ感のある動画を配信」できることから、構成jの「声優60は、表示されたメッセージを見て、メッセージに対して動作及び音声でリアクションを行う」ことは、「動画の配信中に」なされるものである。 よって、構成jと構成D2とは、「前記動画に表示させる」という処理を、「前記動画の配信中に前記動画の配信をサポートするサポーター又は前記アクターによって」所定の動作が行われた「場合に」行う点で共通する。 しかしながら、「前記動画の配信中に前記動画の配信をサポートするサポーター又は前記アクターによって」行われる動作が、本願発明においては、「装飾オブジェクトが選択」であるのに対して、引用発明においては、「リアクション」である点で、相違する。 7.構成D3について 上記5で述べたように、構成jと構成D4とは、「前記動画に表示させる」点で共通し、表示の対象が、本願発明においては、「装飾オブジェクト」であるのに対して、引用発明においては、リアルタイムに反応する「キャラクタ動画」である点で、相違するが、さらに、当該相違に伴い、「装飾オブジェクトを動画に表示させる」という処理が、本願発明においては、「前記装飾オブジェクトに設定されている装着位置情報に基づいて定められる前記キャラクタオブジェクトの部位に関連づけて」行われるのに対して、引用発明においては、そのように関連づけて行われない点で、相違する。 8.まとめ 上記1?7の対比を踏まえると、本願発明と引用発明との一致点及び相違点は次のとおりである。 (一致点) アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムであって、 一又は複数のコンピュータプロセッサを備え、 前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、 前記動画を視聴する視聴ユーザから前記動画の配信中に前記動画への表示を要求する第1表示要求がなされ、 前記動画の配信中に前記動画の配信をサポートするサポーター又は前記アクターによって所定の動作が行われた場合に、 前記動画に表示させる 動画配信システム。 (相違点1) 表示を要求する対象が、本願発明においては、「装飾オブジェクト」であるのに対して、引用発明においては、リアルタイムに反応する「キャラクタ動画」である点。 (相違点2) 「前記動画の配信をサポートするサポーター又は前記アクターによって」行われる動作が、本願発明においては、「装飾オブジェクトが選択」であるのに対して、引用発明においては、「リアクション」である点。 (相違点3) 上記相違点1に伴い、「装飾オブジェクトを動画に表示させる」という処理が、本願発明においては、「前記装飾オブジェクトに設定されている装着位置情報に基づいて定められる前記キャラクタオブジェクトの部位に関連づけて」行われるのに対して、引用発明においては、そのように関連づけて行われない点。 第6 判断 以下、上記各相違点について検討する。 1.相違点1について 引用文献2に記載された技術は、3DCGキャラクターをライブ配信するライブ配信プラットフォームにおいて、ユーザギフティング機能を追加して、視聴者が創作したギフトをVR空間内に登場させ、配信者は、VR空間内で、装着するという表現を行い、3DCGアニメーションの主人公がユーザギフティング機能を使って放送内での視聴者からの作品を装着する技術である。 ここで、引用文献2に記載された技術における「ギフト」は、「装着するという表現」に用いられるものであるから、本願発明の「装飾オブジェクト」に相当する。 また、引用文献2に記載された技術における3DCGキャラクターをライブ配信するライブ配信プラットフォームにおいて、ギフトを装着するという表現を行うことは、「ギフト」をライブ配信される動画に表示させることにほかならない。 そうすると、引用文献2に記載された技術は、表示の対象を「装飾オブジェクト」とするものである。 引用発明及び引用文献2に記載された技術は、キャラクタ動画を配信する動画配信システムに関する点で共通するものであるから、引用発明に引用文献2に記載された技術を適用して、引用発明において、引用文献2に記載された技術の「装飾オブジェクト」を、引用発明のリアルタイムに反応する「キャラクタ動画」と同様に、表示の対象とすることは、当業者が容易に想到し得ることである。 よって、引用発明において、相違点1を本願発明のようにすることは、引用文献2に記載された技術を適用して、当業者が容易になし得ることである。 2.相違点2について 引用発明の「声優60」は、本願発明の「アクター」に相当する。 上記1で述べたように、引用文献2に記載された技術における3DCGキャラクターをライブ配信するライブ配信プラットフォームにおいて、ギフトを装着するという表現を行うことは、「ギフト」をライブ配信される動画に表示させることにほかならない。 引用文献2に記載された技術において、「配信者は、VR空間内で、装着するという表現を行い」とは、当該ライブ配信プラットフォームを用いてライブ配信を行う配信者が、「視聴者が創作したギフト」を「キャラクターに装着する」を行うことであることは明らかである。そして、ライブ配信プラットフォームにおいて、配信者が「キャラクターに装着する」とは、配信者が「キャラクターに装着」を行うかあるいは行わないかを判断して、装着を実行するための動作を行うことであるから、「配信者によって装着するギフトが選択された」といえる。 そうすると、引用文献2に記載された技術は、「動画に表示させる」という処理を、「配信者」によって「装飾オブジェクトが選択」された場合に行うものである。 引用発明及び引用文献2に記載された技術は、キャラクタ動画を配信する動画配信システムに関する点で共通するものであり、引用発明の「声優60」及び引用文献2に記載された技術における「配信者」は動画配信を行う者である点で共通するから、引用発明に引用文献2に記載された技術を適用して、引用発明において、「動画に表示させる」という処理を行うために、アクターによって行われる動作を、「装飾オブジェクトが選択」とすることは、当業者が容易に想到し得ることである。 よって、引用発明において、相違点2を本願発明のようにすることは、引用文献2に記載された技術を適用して、当業者が容易になし得ることである。 3.相違点3について 上記1で述べたように、引用発明において、引用文献2に記載された技術の「装飾オブジェクト」を、引用発明のリアルタイムに反応する「キャラクタ動画」と同様に、表示の対象とすることは、当業者が容易に想到し得ることである。 またその際に、オブジェクトに設定されている装着位置情報に基づいて定められる部位にオブジェクトを表示させるという引用文献3(段落0060?0086、図2?5等)に記載の周知技術を採用して、引用発明において、「装飾オブジェクトを動画に表示させる」という処理を、「前記装飾オブジェクトに設定されている装着位置情報に基づいて定められる前記キャラクタオブジェクトの部位に関連づけて」行われるようにすることは、当業者が適宜なし得ることである。 よって、引用発明において、相違点3を本願発明のようにすることは、引用文献2に記載された技術を適用して、当業者が容易になし得ることである。 4.効果等について 本願発明の構成は、上記のように当業者が容易に想到できたものであるところ、本願発明が奏する効果は、その容易想到である構成から当業者が容易に予測しうる範囲内のものであり、同範囲を超える格別顕著なものがあるとは認められない。 5.まとめ 以上のとおりであるから、本願発明は引用発明、引用文献2に記載された技術、及び周知技術に基づいて、当業者が容易に発明をすることができたものである。 第7 むすび 以上のとおり、本願の請求項1に係る発明は、特許法29条2項の規定により特許を受けることができない。 したがって、本願は、その余の請求項について論及するまでもなく、拒絶をすべきものである。 よって、結論のとおり審決する。 |
審理終結日 | 2019-06-25 |
結審通知日 | 2019-07-02 |
審決日 | 2019-07-16 |
出願番号 | 特願2018-144682(P2018-144682) |
審決分類 |
P
1
8・
121-
WZ
(H04N)
|
最終処分 | 不成立 |
前審関与審査官 | 富樫 明 |
特許庁審判長 |
鳥居 稔 |
特許庁審判官 |
藤原 敬利 樫本 剛 |
発明の名称 | アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム |
代理人 | 村越 智史 |