• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 特許、登録しない。 H04N
管理番号 1378246
審判番号 不服2020-12912  
総通号数 263 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2021-11-26 
種別 拒絶査定不服の審決 
審判請求日 2020-09-15 
確定日 2021-09-16 
事件の表示 特願2019-203861「アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム」拒絶査定不服審判事件〔令和 2年3月19日出願公開、特開2020-43578〕について、次のとおり審決する。 
結論 本件審判の請求は、成り立たない。 
理由 第1 手続の経緯
本願は、平成30年5月8日に出願した特願2018-89612号の一部を平成30年8月1日に新たな特許出願(特願2018-144681号)とし、さらにその一部を平成30年10月12日に新たな特許出願(特願2018-193258号)とし、さらにその一部を令和元年11月11日に新たな特許出願としたものであって、その手続の経緯は以下のとおりである。

令和元年11月11日 :上申書の提出
同年12月 3日付け:拒絶理由通知書
令和2年 2月 7日 :意見書、手続補正書の提出
同年 6月 8日付け:拒絶査定
同年 9月15日 :審判請求書、手続補正書の提出
令和3年 1月15日 :上申書の提出

第2 本願発明
本願の請求項1?23に係る発明は、令和2年9月15日になされた手続補正により補正された特許請求の範囲の請求項1?23に記載された事項により特定されるとおりのものであるところ、請求項1に係る発明(以下、「本願発明」という。)は、以下のとおりである。
なお、各構成の符号(A)?(D2)は、説明のために当審で付したものであり、以下、構成A?構成D2と称する。

(A)アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーション及びギフトオブジェクトを含む動画を配信する動画配信システムであって、
(B)一又は複数のコンピュータプロセッサを備え、
(C)前記ギフトオブジェクトには、前記キャラクタオブジェクトと関連づけて前記動画に表示される装飾オブジェクトと、前記装飾オブジェクトとは異なる第1オブジェクトと、が含まれており、
(D)前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
(D1)前記動画を視聴する視聴ユーザから前記動画の配信中に受け付けられた第1表示要求に基づいて前記装飾オブジェクトを前記動画に表示させ、
(D2)前記視聴ユーザからの第2表示要求に基づいて前記第1オブジェクトを前記動画に表示させる、
(A)動画配信システム。

第3 原査定の拒絶の理由
原査定の拒絶の理由のうち、本願発明に係るものは次のとおりである。

本願発明は、その出願前に日本国内又は外国において、頒布された以下の刊行物に記載された発明又は電気通信回線を通じて公衆に利用可能となった発明に基いて、その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。

引用文献1:特開2015-184689号公報
引用文献2:株式会社エクシヴィ、「ファンと一緒に放送をつくろう! 「AniCast」にユーザーギフティング機能を追加」、2018年4月5日、インターネット<URL: http://www.xvi.co.jp/wp-content/uploads/2018/04/AniCast-PressRelease.pdf>
引用文献3:国際公開第2017/159383号

第4 引用文献
1 引用文献1
(1)記載事項
上記引用文献1には、図面とともに次の記載がある。なお、以降の下線は、説明のために当審において付したものである。

ア 「【0012】
図1は、一実施形態におけるインタラクティブシステム5の一例を概略的に示す。インタラクティブシステム5は、動画生成出力システム10と、ユーザ端末80と、ユーザ端末81とを備える。
【0013】
動画生成出力システム10は、ユーザ端末80及びユーザ端末81と、ネットワーク9を通じて通信する。ネットワーク9は、インターネット、携帯電話網等を含む。ユーザ端末80及びユーザ端末81は、例えば、スマートフォン等の携帯端末、パーソナルコンピュータ等である。ユーザ90は、ユーザ端末80のユーザである。ユーザ91は、ユーザ端末81のユーザである。
【0014】
動画生成出力システム10は、声優60及び声優61の動作をリアルタイムに検出する。動作とは、顔の表情、顔の動き、手足等の動き等を含む。また、動画生成出力システム10は、声優60及び声優61が発した音声をリアルタイムに取得する。そして、動画生成出力システム10は、検出した声優60及び声優61の動作に応じて動くキャラクタの動画であるキャラクタ動画をリアルタイムに生成するとともに、声優60及び声優61の音声をキャラクタ動画にリアルタイムに合成して、ネットワーク9を通じて配信する。
【0015】
ユーザ端末80及びユーザ端末81は、ネットワーク9を通じて、動画生成出力システム10から動画の配信を受ける。また、ユーザ端末80は、ユーザ90から入力されたテキストメッセージ等のデータを、ネットワーク9を通じて、動画生成出力システム10に送信する。ユーザ端末81は、ユーザ91から入力されたテキストメッセージ等のデータを、ネットワーク9を通じて、動画生成出力システム10に送信する。
【0016】
動画生成出力システム10は、ユーザ端末80及びユーザ端末81の少なくとも一方から取得したテキストメッセージを受信すると、受信したテキストメッセージを表示する。声優60及び声優61は、動画生成出力システム10で表示されたメッセージを見て、メッセージに対して動作及び音声でリアクションを行う。声優60及び声優61が動作及び音声でリアクションを行うと、動画生成出力システム10は、声優60及び声優61が行った動作に応じて動き、声優60及び声優61が発した音声を含むキャラクタ動画を生成して、ネットワーク9を通じて配信する。
【0017】
インタラクティブシステム5によれば、動画生成出力システム10は、ユーザ90やユーザ91が発したメッセージに対して、キャラクタが動作や音声でリアルタイムに反応する、ライブ感のある動画を配信できる。そのため、ユーザ90やユーザ91は、まるでキャラクタと会話しているような感覚でチャットを楽しむことができる。」

イ 「【0018】
図2は、動画生成出力システム10のブロック構成の一例を模式的に示す。動画生成出力システム10は、カメラ20と、カメラ21と、モーションセンサ30と、モーションセンサ31と、カメラ40と、表示装置50と、表示装置51と、動画処理装置100と、動画処理装置200と、サーバ300とを備える。」

ウ 「【0023】
動画処理装置100は、顔動き検出部110と、体動き検出部120と、格納部140と、音声取得部150と、カメラ情報取得部160と、動画生成出力部180とを備える。動画生成出力部180は、動画生成部130と、動画出力部170とを備える。顔動き検出部110、体動き検出部120、動画生成部130、音声取得部150、カメラ情報取得部160及び動画出力部170は、例えばMPU等のプロセッサで実現される。格納部140は、ハードディスク等の不揮発性の記録媒体で実現される。」

エ 「【0034】
サーバ300は、動画出力部170が出力したキャラクタ動画を、ネットワーク9を介して、ユーザ端末80及びユーザ端末81に配信する。また、サーバ300は、ネットワーク9を介して、ユーザ端末80及びユーザ端末81からテキストメッセージを取得する。表示装置50は、声優60が見ることができる位置に設けられる。サーバ300は、ユーザ端末80及びユーザ端末81から取得したメッセージを、表示装置50に表示させる。
【0035】
以上に説明した動画処理装置100によれば、声優60が、ユーザ端末80で入力されたメッセージを見てリアクションを行うと、そのリアクションがキャラクタ動画にリアルタイムに反映されてユーザ端末80に配信される。そのため、ユーザ90及びユーザ91は、ライブ感のあるチャットを楽しむことができる。」

オ 「【0056】
上記の説明において、動画処理装置100の動作として説明した処理は、プロセッサがプログラムに従って動画処理装置100が有する各ハードウェア(例えば、ハードディスク、メモリ等)を制御することにより実現される。このように、本実施形態の動画処理装置100に関連して説明した、動画処理装置100の少なくとも一部の処理は、プロセッサがプログラムに従って動作して各ハードウェアを制御することにより、プロセッサ、ハードディスク、メモリ等を含む各ハードウェアとプログラムとが協働して動作することにより実現することができる。すなわち、当該処理を、いわゆるコンピュータによって実現することができる。コンピュータは、上述した処理の実行を制御するプログラムをロードして、読み込んだプログラムに従って動作して、当該処理を実行してよい。コンピュータは、当該プログラムを記憶しているコンピュータ読取可能な記録媒体から当該プログラムをロードすることができる。」

(2)引用発明
上記(1)の記載から、引用文献1には、次の技術事項が記載されているものと認められる。

ア 上記(1)ア(【0012】)によれば、インタラクティブシステム5は、動画生成出力システム10と、ユーザ端末80とを備える。

イ 上記(1)イによれば、動画生成出力システム10は、カメラ20と、モーションセンサ30と、カメラ40と、表示装置50と、動画処理装置100とを備える。また、上記(1)ウによれば、動画処理装置100は、プロセッサで実現される。

ウ 上記(1)オによれば、動画処理装置100の処理は、プロセッサがプログラムに従って動画処理装置100を制御することにより実現される。

エ 上記(1)ア(【0013】)によれば、動画生成出力システム10は、ユーザ端末80と、ネットワーク9を通じて通信する。

オ 上記(1)ア(【0013】)によれば、ユーザ90は、ユーザ端末80のユーザである。

カ 上記(1)ア(【0014】)によれば、動画生成出力システム10は、声優60の動作に応じて動くキャラクタの動画であるキャラクタ動画を生成するとともに、声優60の音声をキャラクタ動画にリアルタイムに合成して、配信する。また、上記(1)エ(【0034】)によれば、引用文献1には、キャラクタ動画をユーザ端末80に配信することが記載されている。

キ 上記(1)ア(【0015】)によれば、ユーザ端末80は、ネットワーク9を通じて、動画生成出力システム10から動画の配信を受ける。

ク 上記(1)ア(【0015】)によれば、ユーザ端末80は、ユーザ90から入力されたテキストメッセージ等のデータを、動画生成出力システム10に送信する。

ケ 上記(1)ア(【0016】)によれば、動画生成出力システム10は、ユーザ端末80から取得したテキストメッセージを受信すると、受信したテキストメッセージを表示する。また、上記(1)エ(【0034】)によれば、引用文献1には、ユーザ端末80から取得したメッセージを、声優60が見ることができる位置に設けられる表示装置50に表示させることが記載されている。

コ 上記(1)ア(【0016】)によれば、動画生成出力システム10は、声優60は、表示されたメッセージを見て、メッセージに対して動作及び音声でリアクションを行うと、声優60が行った動作に応じて動き、声優60が発した音声を含むキャラクタ動画を生成して、ネットワーク9を通じて配信する。また、上記(1)エ(【0035】)によれば、引用文献1には、声優60が、ユーザ端末80で入力されたメッセージを見てリアクションを行うと、そのリアクションがキャラクタ動画にリアルタイムに反映されてユーザ端末80に配信されることが記載されている。

サ 上記(1)ア(【0017】)によれば、動画生成出力システム10は、ユーザ90が発したメッセージに対して、キャラクタがリアルタイムに反応する、ライブ感のある動画を配信でき、ユーザ90は、まるでキャラクタと会話しているような感覚でチャットを楽しむことができる。

シ 以上によると、引用文献1には、次の発明(以下「引用発明」という。)が記載されていると認められる。なお、引用発明の符号(a)?(k)は、説明のために当審において付したものであり、以下、構成a?構成kという。

〔引用発明〕
(a)動画生成出力システム10と、ユーザ端末80とを備えるインタラクティブシステム5であって、
(b)動画生成出力システム10は、カメラ20と、モーションセンサ30と、カメラ40と、表示装置50と、動画処理装置100とを備え、動画処理装置100は、プロセッサで実現され、
(c)動画処理装置100の処理は、プロセッサがプログラムに従って動画処理装置100を制御することにより実現され、
(d)動画生成出力システム10は、ユーザ端末80と、ネットワーク9を介して通信し、
(e)ユーザ90は、ユーザ端末80のユーザであり、
(f)動画生成出力システム10は、声優60の動作に応じて動くキャラクタの動画であるキャラクタ動画を生成するとともに、声優60の音声をキャラクタ動画にリアルタイムに合成して、キャラクタ動画をユーザ端末80に配信し、
(g)ユーザ端末80は、ネットワーク9を通じて、動画生成出力システム10から動画の配信を受け、
(h)ユーザ端末80は、ユーザ90から入力されたテキストメッセージ等のデータを、動画生成出力システム10に送信し、
(i)動画生成出力システム10は、ユーザ端末80から取得したテキストメッセージを受信すると、受信したテキストメッセージを声優60が見ることができる位置に設けられる表示装置50に表示し、
(j)動画生成出力システム10は、声優60は、表示されたメッセージを見て、メッセージに対して動作及び音声でリアクションを行うと、そのリアクションがキャラクタ動画にリアルタイムに反映されて、声優60が行った動作に応じて動き、声優60が発した音声を含むキャラクタ動画を生成して、ネットワーク9を通じてユーザ端末80に配信し、
(k)動画生成出力システム10は、ユーザ90が発したメッセージに対して、キャラクタがリアルタイムに反応する、ライブ感のある動画を配信でき、ユーザ90は、まるでキャラクタと会話しているような感覚でチャットを楽しむことができる
(a)インタラクティブシステム5。

2 引用文献2
(1)記載事項
上記引用文献2には、図面とともに次の記載がある。

ア 「株式会社エクシヴィ(本社:東京都中央区、代表取締役社長:近藤義仁)は、配信も可能なVRアニメ制作ツール「AniCast」にユーザーギフティング機能を追加いたしました。」(1頁)

イ 「ユーザーギフティングとは
視聴者の方や、配信者の方が創作したギフトがVR空間内に登場します。
配信者は、VR空間内で、手で持つ、動かす、装着する、拡大縮小するなど、多彩な表現を行うことが可能です。」(1頁)

ウ 「東雲めぐ での使用例
「東雲めぐ」はユーザーギフティング機能を使って放送内での視聴者の方からのイラスト作品を紹介するだけでなく、作品を装着する#めぐアクセサリー、作品がキャラクターとして登場する人形劇を行っています。」(2頁)

エ 「AniCast「アニキャスト」
「AniCast」は大掛かりな機材やモーションキャプチャースタジオを必要とせず、Oculus RiftとOculus Touchを用いた最小限の構成で、誰でも生き生きと3DCGキャラクターを動かすことができるVRアニメ制作ツールです。SHOWROOMでのギフティングに公式にシステム連動した、バーチャルギフティングも可能です。」(2頁)

オ 「東雲めぐ とは
株式会社シーエスレポーターズ(本社:新潟県新潟市、代表取締役社長:中山賢一)のアニメVR/ARブランド「Gugenka^( (R))(原文は「丸囲みのR」) from CS-REPORTERS.INC」が2018年にYouTube、SHOWROOMなどで配信する3DCGアニメーション「うたっておんぷっコ♪」の主人公です。」(2頁)

カ 「SHOWROOMとは
SHOWROOM株式会社(本社:東京都渋谷区、代表取締役社長:前田祐二)が運営する仮想ライブ空間の中で、無料で誰でもライブ配信&視聴ができるライブ配信プラットフォームです。」(2頁)

(2)引用文献2に記載された技術事項
上記(1)によると、引用文献2には、次の技術が記載されていると認められる。

〔引用文献2に記載された技術〕
AniCastにユーザーギフティング機能を追加して、3DCGキャラクターをライブ配信するライブ配信プラットフォームSHOWROOMにおいて、視聴者が創作したギフトをVR空間内に登場させ、配信者は、VR空間内で、装着するという表現を行い、3DCGアニメーションの主人公がユーザーギフティング機能を使って放送内での視聴者からの作品を装着する技術。

3 引用文献3
(1)記載事項
上記引用文献3には、図面とともに次の記載がある。

ア 「[0021] ここで、図2に示す配信動画像再生画面を参照して、動画像配信システム11により提供される動画像配信サービスについて説明する。
[0022] 例えば、視聴者側情報処理装置14および出演者側情報処理装置15の表示部には、図2に示すような配信動画像再生画面16が表示される。
[0023] 配信動画像再生画面16では、その略中央に、配信サーバ13から配信される配信動画像を表示する配信動画像表示領域17が配置されており、配信動画像表示領域17の外側となる領域が外側領域18とされる。
[0024] 配信動画像表示領域17には、例えば、出演者側情報処理装置15から配信サーバ13に送信された動画像、または、その動画像に対して配信サーバ13において表示処理が施された動画像が、配信動画像として表示される。
[0025] 外側領域18には、例えば、配信動画像再生画面16を表示している視聴者側情報処理装置14において配信動画像を視聴している視聴者に対応し、その視聴者の分身として画面上に登場するキャラクタ画像Cが表示される。また、外側領域18には、他の複数の視聴者側情報処理装置14の視聴者に対応する複数のキャラクタ画像も表示されており、それらのキャラクタ画像によって、複数の視聴者による配信動画像の視聴を疑似的に共有体験することができる。
[0026] そして、動画像配信システム11では、視聴者または出演者の操作などに応じて発生するイベントに対応して、視聴者と出演者との間で相互に作用するようなインタラクティブ表示を行うことができる。
[0027] 例えば、視聴者側情報処理装置14の視聴者が、自身のキャラクタ画像Cから、配信動画像表示領域17内の出演者に向かって、アイテムを投げるイベントを発生させる操作を行ったとする。これに従い、配信動画像再生画面16では、アイテム画像Aが、外側領域18に表示されているキャラクタ画像Cの近傍に表れ、配信動画像表示領域17に向かって移動した後、配信動画像表示領域17の動画像に重畳して表示され、出演者まで届くようなインタラクティブ表示が行われる。」

イ 「[0111] これにより、図16に示すように、アイテム表示制御部45は、配信動画像表示領域17の上縁の所定位置までアイテム画像Aが移動するように、アイテム画像Aの表示を制御する。そして、アイテム表示制御部45は、アイテム画像Aが配信動画像表示領域17の上縁の外側の所定位置に到達すると、外側領域18におけるアイテム画像Aを非表示にする。
[0112] また、イベント情報生成部48は、生成したイベント情報を、通信部31を介して配信サーバ13に送信し、配信サーバ13では、イベント情報取得部22がイベント情報を取得して、アイテム表示制御部26に供給する。アイテム表示制御部26は、そのイベント情報に従って、外側領域18においてアイテム画像Aが非表示となるタイミングまで処理を待機し、そのタイミングとなったときにアイテム画像Aが、配信動画像表示領域17の上辺の内側の所定位置から下方に向かって移動するように、アイテム画像Aの表示を制御する。
[0113] このとき、例えば、アイテム画像Aの移動方向に、出演者の手があることが出演者解析部23による解析結果としてアイテム表示制御部26に供給されている場合、アイテム表示制御部26は、その手のひらでアイテム画像Aが停止するように表示を制御することができる。なお、図示するような星形のアイテム画像Aの他、アイテム画像Aの種類に応じて、インタラクティブ表示の効果を変更することができる。例えば、アイテム画像Aがボールである場合、出演者とキャラクタ画像Cとがキャッチボールを行うような効果を演出することができる。」

ウ 「[図2]



エ 「[図16]



(2)引用文献3に記載された技術事項
上記(1)によると、引用文献3には、次の技術が記載されていると認められる。

〔引用文献3に記載された技術〕
動画像配信システムにおいて、視聴者の操作に従い、配信動画像表示領域内の出演者に向かって星形のアイテムを投げるイベントを発生させ、星形のアイテムが出演者まで届くようなインタラクティブ表示が行われる技術。

第5 対比
本願発明と引用発明とを対比する。

1 構成Aについて
構成fの「声優60」、「動作」、「キャラクタ」及び「キャラクタの動画」は、それぞれ構成Aの「アクター」、「動き」、「キャラクタオブジェクト」及び「キャラクタオブジェクトのアニメーション」に相当する。
構成fの「キャラクタ動画」は、「声優60の動作に応じて動くキャラクタの動画」であるから、構成Aの「アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画」に相当する。
構成fの「キャラクタ動画」は、ユーザ端末80に配信されるから、引用発明は、動画を配信する点で構成Aと共通する。
よって、引用発明の構成fを備えた「インタラクティブシステム5」は、「アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム」である点で、構成Aと共通する。
しかしながら、配信される動画が、本願発明においては「ギフトオブジェクト」を含むものであるのに対し、引用発明においては「ギフトオブジェクト」を含むものではない点で、両者は相違する。

2 構成Bについて
構成bの動画処理装置100の「プロセッサ」は、構成Bの「コンピュータプロセッサ」に相当する。
よって、引用発明の「インタラクティブシステム5」は、「一又は複数のコンピュータプロセッサ」を備える点で構成Bと一致する。

3 構成Cについて
上記1のとおり、引用発明において配信される動画は、「ギフトオブジェクト」を含むものではない。
よって、本願発明が「前記ギフトオブジェクトには、前記キャラクタオブジェクトと関連づけて前記動画に表示される装飾オブジェクトと、前記装飾オブジェクトとは異なる第1オブジェクトと、が含まれており、」との構成(構成C)を備えるのに対し、引用発明が当該構成を備えていない点で、両者は相違する。

4 構成Dについて
構成cの「動画処理装置100の処理」は、プロセッサが「プログラムに従って前記動画処理装置100を制御する」ものであるから、「コンピュータ読み取り可能な命令を実行する」ものであるといえる。
よって、引用発明の「インタラクティブシステム5」は、「一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行する」点で構成Dと一致する。

5 構成D1について
構成eの「ユーザ90」は「ユーザ端末80のユーザ」であり、構成gの「ユーザ端末80」は「動画生成出力システム10から動画の配信」を受けるものであるから、引用発明の「ユーザ90」は、構成D1の「動画を視聴する視聴ユーザ」に相当する。
構成iの「動画生成出力システム10」は、「受信したテキストメッセージ」を表示装置50に表示すること、及び、構成kの「動画生成出力システム10」は、「ユーザ90が発したメッセージに対して、キャラクタがリアルタイムに反応する、ライブ感のある動画を配信」できることから、構成iの「ユーザ端末80から取得したテキストメッセージを受信する」ことは、「動画の配信中に」なされるものである。
構成iの「動画生成出力システム10」が「テキストメッセージを受信する」ことは、テキストメッセージの信号を「受け付ける」ことである。
よって、構成hの「テキストメッセージ等のデータ」は、「動画を視聴する視聴ユーザから前記動画の配信中に受け付けられた」ものである点で、構成D1の「第1表示要求」と共通する。

構成jの「声優60は、表示されたメッセージを見て、メッセージに対して動作及び音声でリアクションを行う」ことにより、そのリアクションがリアルタイムに反映されて生成される「声優60が行った動作に応じて動き、声優60が発した音声を含むキャラクタ動画」は、ユーザ端末80に「配信」されるものであり、構成kの「キャラクタがリアルタイムに反応する、ライブ感のある動画を配信」及び「まるでキャラクタと会話しているような感覚でチャットを楽しむことができる」ことをもたらすものである。
そうすると、構成hの「テキストメッセージ等のデータ」は、リアルタイムに反応する「キャラクタ」の「リアクション」を要求するものといえる。

他方、構成D1の「前記装飾オブジェクトを前記動画に表示させ」について、本願明細書には次の開示がある。

(1)本願発明の動画配信システムは、アクターの体及び表情の動きに同期して動くキャラクタオブジェクトのアニメーションを生成する。(【0064】、【0067】)

(2)視聴ユーザから特定の装飾オブジェクトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求された装飾オブジェクトを候補リストに追加する。サポーターが操作するサポータコンピュータには、装飾オブジェクト選択画面が表示される。装飾オブジェクト選択画面は、例えば、候補リストに含まれている複数の装飾オブジェクトの各々を表示する。(【0084】、【0086】)

(3)サポーターは、この装飾オブジェクト選択画面に含まれている装飾オブジェクトのうちの一又は複数を選択することができる。選択された装飾オブジェクトは、これと関連づけられたキャラクタオブジェクトの当該特定部位の動きに付随して動くように、表示画面に表示されてもよい。例えば、カチューシャを装着したキャラクタオブジェクトの頭部が動くと、あたかもカチューシャがキャラクタオブジェクトの頭部に装着されているかのごとく、カチューシャを示す選択装飾オブジェクトもキャラクタオブジェクトの頭部に付随して動く。(【0087】)

(4)装飾オブジェクトの選択画面は、サポータコンピュータに代えて、スタジオルーム内のディスプレイ等に表示されてもよく、この場合、アクターが所望の装飾オブジェクトを選択することができる。(【0093】)

本願発明の上記開示された構成によれば、構成D1の「前記装飾オブジェクトを前記動画に表示させ」とは、装飾オブジェクトを装着した状態でキャラクタオブジェクトが動くように表示させることである。
よって、構成hの「テキストメッセージ等のデータ」は、「キャラクタオブジェクトの動作を前記動画に表示させる」ものである点で構成D1と共通する。

以上のことから、引用発明は、「前記動画を視聴する視聴ユーザから前記動画の配信中に受け付けられた第1表示要求に基づいてキャラクタオブジェクトの動作を前記動画に表示させ」るものである点で構成D1と共通する。

しかしながら、第1表示要求に基づき要求するキャラクタオブジェクトの動作が、本願発明においては、「前記装飾オブジェクト」を装着した状態で動くことであるのに対し、引用発明においては、具体的な内容の特定がない「リアクション」である点で、両者は相違する。

6 構成D2について
上記1及び3のとおり、引用発明において配信される動画は、「ギフトオブジェクト」を含むものではなく、「ギフトオブジェクト」に含まれる「第1オブジェクト」を表示することに関する事項を含むものではない。
よって、本願発明が「前記視聴ユーザからの第2表示要求に基づいて前記第1オブジェクトを前記動画に表示させる、」との構成(構成D2)を備えるのに対し、引用発明が当該構成を備えていない点で、両者は相違する。

7 まとめ
上記1?6の対比をふまえると、本願発明と引用発明との一致点及び相違点は次のとおりである。

〔一致点〕
(A’)アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムであって、
(B)一又は複数のコンピュータプロセッサを備え、
(D)前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
(D1’)前記動画を視聴する視聴ユーザから前記動画の配信中に受け付けられた第1表示要求に基づいてキャラクタオブジェクトの動作を前記動画に表示させる、
(A’)動画配信システム。

(相違点1)
配信される動画が、本願発明においては「ギフトオブジェクト」を含むものであるのに対し、引用発明においては「ギフトオブジェクト」を含むものではない点。

(相違点2)
本願発明が「前記ギフトオブジェクトには、前記キャラクタオブジェクトと関連づけて前記動画に表示される装飾オブジェクトと、前記装飾オブジェクトとは異なる第1オブジェクトと、が含まれており、」との構成(構成C)を備えるのに対し、引用発明が当該構成を備えていない点。

(相違点3)
第1表示要求に基づき要求するキャラクタオブジェクトの動作が、本願発明においては、「前記装飾オブジェクト」を装着した状態で動くことであるのに対し、引用発明においては、具体的な内容の特定がない「リアクション」である点。

(相違点4)
本願発明が「前記視聴ユーザからの第2表示要求に基づいて前記第1オブジェクトを前記動画に表示させる、」との構成(構成D2)を備えるのに対し、引用発明が当該構成を備えていない点。

第6 判断
上記各相違点について、以下検討する。

1 相違点3について
引用文献2に記載された技術は、3DCGキャラクターをライブ配信するライブ配信プラットフォームにおいて、ユーザーギフティング機能を追加して、視聴者が創作したギフトをVR空間内に登場させ、配信者は、VR空間内で、装着するという表現を行い、3DCGアニメーションの主人公がユーザーギフティング機能を使って放送内での視聴者からの作品を装着する技術である。
ここで、引用文献2に記載された技術における「ギフト」は、「装着するという表現」に用いられるものであるから、本願発明の「ギフトオブジェクト」及び「装飾オブジェクト」に相当する。
そして、引用文献2に記載された技術における、3DCGキャラクターのアニメーションをライブ配信するライブ配信プラットフォームにおいて、ギフトを装着するという表現を行うことは、ライブ配信される動画のキャラクタオブジェクトの動作を「装飾オブジェクトを装着した状態で動くこと」とするものである。

引用発明及び引用文献2に記載された技術は、キャラクタ動画を配信する動画配信システムに関する点で共通するものであり、動画配信システムの興趣を増すことは当該技術分野において一般的な課題と認められるから、引用発明を知った上で引用文献2の記載に接した当業者は、興趣を増す一手段として引用文献2に記載のユーザーギフティング機能を引用発明に適用することを動機付けられるといえる。
したがって、引用発明における、要求するキャラクタオブジェクトの動作として、リアルタイムに反応する「リアクション」と同様に、引用文献2に記載された技術の「装飾オブジェクトを装着した状態で動くこと」を対象に加えることは、当業者が容易に想到し得ることである。
よって、引用発明において、引用文献2に記載された技術を適用して相違点3に係る構成を本願発明のようにすることは、当業者が容易になし得ることである。

なお、請求人は、審判請求書の4-1-3において以下のとおり主張している。
「しかしながら、引用文献2の「めぐアクセサリー」を動画の配信中に演者に贈ることは、以下で述べるとおり極めて困難であった。
引用文献2には、「視聴者の方や、配信者の方が捜索した『ギフト』がVR空間内に登場します。」(2頁下から5行目)、「ユーザーギフティングとは視聴者の方や、配信者の方が創作したギフトがVR空間内に登場します。配信者は、VR空間内で、手で持つ、動かす、装着する、拡大縮小するなど、多彩な表現を行うことが可能です。」(第1頁)との記載がある。これらの記載によれば、「めぐアクセサリー」は、視聴者が創作したものであり、また、「手で持つ、動かす、装着する、拡大縮小する」などの多彩な表現を行うことが可能なものである。
このような視聴者が創作した「めぐアクセサリー」が動画の配信中に東雲めぐの演者に贈られたのでは、東雲めぐの演者は、受け取った「めぐアクセサリー」をVR空間のどこにどのように表示するのか、またパフォーマンスにおいてどのように使用するのか等を東雲めぐの演者が動画配信中にリアルタイムに考えなければならないが、「めぐアクセサリー」の多彩さに鑑みれば、リアルタイム配信中にこのような検討を行うことは現実的ではない。だからこそ、引用文献2では、動画配信前に「めぐアクセサリー」の募集を締め切り、入念な準備を行った上で、動画配信を行っているのである。
例えば、引用文献2と同じく東雲めぐが出演する「はぴふりスペシャル?春だよ2018?」の動画(甲2:https://www.youtube.com/watch?v=TQB9CruBFLU&feature=youtu.be)では、ライブ動画配信前に贈られていた付け髭及び多数のカラフルな葉から構成される「めぐアクセサリー」を「インディアンの民族衣装」に見立てたパフォーマンスが行われている(31分近傍)。
このように極めてオリジナリティーが高い「めぐアクセサリー」がライブ配信中に贈られても、これをVR空間のどこに表示させるのがよいか、どのように使ってどのようなパフォーマンスを行うのがよいのかといったことを、演者がすぐに思い浮かべることは極めて難しい。したがって、引用文献2において、ライブ配信中に「めぐアクセサリー」を贈るようにすることはできない。
以上述べたように、引用文献2ではライブ動画配信中に「めぐアクセサリー」を贈ることができないから、仮に引用文献1の発明に引用文献2に記載された技術を適用しても本願発明1の構成には至らない。」

しかしながら、引用文献2には、CGキャラクターへのユーザーギフティングを動画配信中に行うことについての記載はないものの、これを排除する旨の記載もなく、この点は、配信時間の長さ、ギフト装着のための準備、予想されるギフトの数などをふまえて、配信者が適宜決定し得る運用上の取り決め事項といえるから、引用文献2のユーザーギフティング機能において、CGキャラクターが装着するための作品を贈る時期は、配信開始前に限定されているとはいえない。すると、引用発明に上記ユーザーギフティング機能を追加することによって、「前記視聴ユーザから前記動画への装飾オブジェクトの表示を要求する表示要求を受け付け」ることを「前記動画の配信中に」行うという構成を得ることができる。

したがって、請求人の上記主張は採用することができない。

2 相違点4について
引用文献3に記載された技術は、動画像配信システムにおいて、視聴者の操作に従い、配信動画像表示領域内の出演者に向かって星形のアイテムを投げるイベントを発生させ、星形のアイテムが出演者まで届くようなインタラクティブ表示が行われる技術である。

ここで、引用文献3に記載された技術における、配信動画像表示領域内の出演者に向かって星形のアイテムを投げて出演者に届くことは、出演者が視聴者からの星形のアイテムを受け取ることであるから、当該「星形のアイテム」は、視聴者から出演者への「ギフトオブジェクト」といえるものである。また、前記「星形のアイテム」が出演者に向かって投げられるという表現は、引用文献2に記載された技術における「装着するという表現」とは異なるから、当該「星形のアイテム」は、本願発明の「第1オブジェクト」に相当する。
そして、引用文献3に記載された技術における「イベント」は、視聴者の操作に基づくものであるから、引用文献3に記載された技術は、「視聴ユーザからの第2表示要求に基づいて第1オブジェクトを前記動画に表示させる」ものといえる。

引用発明及び引用文献3に記載された技術は、出演者の動画を配信する動画配信システムである点で技術分野が共通するものであり、動画配信システムの興趣を増すことは当該技術分野において一般的な課題と認められるから、引用発明を知った上で引用文献3の記載に接した当業者は、興趣を増す一手段として、引用文献3に記載の、配信動画像表示領域内の出演者に向かって星形のアイテムを投げる機能を引用発明に適用することを動機付けられるといえる。
したがって、引用発明に、視聴者の操作に基づき、配信動画像表示領域内の出演者に向かって、星形のアイテムを投げるイベントを発生させる構成を加えることは、当業者が容易に想到し得ることである。

よって、引用発明において、引用文献3に記載された技術を適用して相違点4に係る構成を本願発明のようにすることは、当業者が容易になし得ることである。

3 相違点1及び相違点2について
上記1及び2において検討したとおり、引用文献2に記載された技術における「ギフト」、及び、引用文献3に記載された技術の「星形のアイテム」は、本願発明の「ギフトオブジェクト」に含まれる「装飾オブジェクト」及び「第1オブジェクト」にそれぞれ相当するから、引用発明に、引用文献2に記載された技術及び引用文献3に記載された技術を適用したものは、「ギフトオブジェクト」を含むものであり、かつ、「前記ギフトオブジェクトには、前記キャラクタオブジェクトと関連づけて前記動画に表示される装飾オブジェクトと、前記装飾オブジェクトとは異なる第1オブジェクトと、が含まれており、」との構成を備えるものとなる。

よって、引用発明において、引用文献2に記載された技術及び引用文献3に記載された技術を適用して相違点1及び相違点2に係る構成を本願発明のようにすることは、当業者が容易になし得ることである。

4 効果等について
本願発明の構成は、上記のように当業者が容易に想到できたものであるところ、本願発明が奏する効果は、その容易想到である構成から当業者が予測しうる範囲内のものであり、同範囲を超える格別顕著なものがあるとは認められない。

5 まとめ
以上のとおりであるから、本願発明は引用発明、引用文献2に記載された技術、及び引用文献3に記載された技術に基づいて、当業者が容易に発明をすることができたものである。

第7 むすび
以上のとおり、本願の特許請求の範囲の請求項1に係る発明は、特許法第29条第2項の規定により特許を受けることができないから、他の請求項に係る発明について検討するまでもなく、本願は拒絶されるべきものである。

よって、結論のとおり審決する。

 
審理終結日 2021-06-29 
結審通知日 2021-07-06 
審決日 2021-07-26 
出願番号 特願2019-203861(P2019-203861)
審決分類 P 1 8・ 121- Z (H04N)
最終処分 不成立  
前審関与審査官 富樫 明  
特許庁審判長 五十嵐 努
特許庁審判官 樫本 剛
川崎 優
発明の名称 アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム  
代理人 村越 智史  
  • この表をプリントする

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ