• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 取り消して特許、登録 G06F
管理番号 1311077
審判番号 不服2015-4107  
総通号数 196 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2016-04-28 
種別 拒絶査定不服の審決 
審判請求日 2015-03-02 
確定日 2016-03-01 
事件の表示 特願2014- 80935「出力制御プログラム、出力制御装置及び出力制御方法」拒絶査定不服審判事件〔平成27年11月12日出願公開、特開2015-201125、請求項の数(7)〕について、次のとおり審決する。 
結論 原査定を取り消す。 本願の発明は、特許すべきものとする。 
理由 第1 手続の経緯
本願は、平成26年4月10日の出願であって、平成26年6月12日付けで拒絶理由が通知され、平成26年8月25日付けで手続補正がされ、平成26年11月26日付けで拒絶査定がされ、これに対し、平成27年3月2日に本件審判請求がなされると同時に手続補正がなされ、その後、当審において平成27年10月30日付けで拒絶理由(以下、「当審拒絶理由」という)が通知され、平成27年12月24日付けで手続補正がされたものである。


第2 本願発明
本願の請求項1-7に係る発明は、平成27年12月24日付けの手続補正で補正された特許請求の範囲の請求項1-7に記載された事項により特定されるものと認められるところ、本願の請求項1に係る発明(以下、「本願発明」という。)は以下のとおりである。

「【請求項1】
シナリオ上のシーンを含むマークアップ言語で記述されたウェブページを表示するブラウザを備えたコンピュータ端末において、マークアップ言語に作用するスクリプト言語を実行する実行手段として機能させるプログラムであって、
前記コンピュータ端末の制御部を、
前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する複数のコンテンツについて、主コンテンツ、副コンテンツを決めるロジックにより、主コンテンツと副コンテンツとを特定する主副特定手段、
前記マークアップ言語に作用するスクリプト言語において、ダッキング時における前記主コンテンツと副コンテンツの出力条件としての音量を、イベントが発生したシーン情報に関連付けられた出力条件に応じて取得する出力条件設定手段、
前記マークアップ言語において、ダッキングを行なうイベントを検知した場合には、前記主副特定手段が、主コンテンツと副コンテンツとを特定し、前記出力条件設定手段を用いて、前記主コンテンツと副コンテンツの音量を取得し、前記主コンテンツと副コンテンツの出力を前記音量に変更し、前記イベントの終了時に、前記音量を戻す出力調整手段
として機能させることを特徴とする出力制御プログラム。」


第3 原査定の理由について
1.原査定の理由の概要
この出願については、平成26年 6月12日付け拒絶理由通知書に記載した理由によって、拒絶をすべきものです。
なお、意見書及び手続補正書の内容を検討しましたが、拒絶理由を覆すに足りる根拠が見いだせません。

備考
・請求項1から7
出願人は意見書において、
引用文献1に記載された発明は、「同時に出力される複数のコンテンツの出力状況を動的に制御するダッキングは考慮されていません。従って、マークアップ言語に作用するスクリプト言語において、ダッキング時における主コンテンツと副コンテンツの出力条件を決定し、マークアップ言語において、ダッキングを行なうイベントを検知した場合には、出力条件に変更し、イベントの終了時に、出力条件を戻す構成については記載も示唆もありません。」引用文献2、引用文献3に記載された発明は、「マークアップ言語であるウェブページを用いることは想定されていません」ので、「引用文献1?6には、本願発明の課題は想定されておらず、当業者であっても、これらの引用文献に基づいて、この課題を解決するための構成を有する本願発明を容易に想到しうるものではないと思料します」旨主張するが、

引用文献1に記載された発明は、マークアップ言語に作用するスクリプト言語を用いて、複数の音声のゲインを決定すること、ゲイン調整された複数の音声をミキシングして出力することが記載されている(以下、引用発明という)。

引用発明のマークアップ言語に作用するスクリプト言語を用いて、複数の音声のゲインを決定し、ゲイン調整された複数の音声をミキシングして出力することを用いて、2つの音声間をクロスフェードすることを実現するようなことは一般的に行われていることである(必要であれば、引用文献7の「2つの音声間のクロスフェード」を参照のこと)。

クロスフェードする場合には、マークアップ言語を再生時に、2つのAudioGainNodeを作成し、2つの音声のいずれか一方を1のソース、他方を2のソースとして接続すること、1のソースの出力条件、2のソースの出力条件をリニアもしくは等パワー曲線で設定すること、クロスフェード再生が必要なイベント(例えば、曲の切り替わり)が発生した場合は、先に設定した出力条件で1のソースと2のソースを出力することは明らかである。

当業者であれば、2つの音声のクロスフェードという音声再生の技術を、周知慣用な技術であるダッキング(必要であれば、引用文献2の段落0003や引用文献3の段落0023、0024、引用文献9を参照のこと)に適用することは、極めて一般的に行うことである(必要であれば、引用文献8の「ダッキング」を参照のこと)。

以上より、当業者であれば、引用発明のマークアップ言語に作用するスクリプト言語を用いて、複数の音声のゲインを決定すること、ゲイン調整された複数の音声をミキシングして出力することから、周知慣用な技術であるダッキングを実現するということは極めて容易に想到し得ることであるといえる。

ここで、ダッキングは、台詞の出力レベルに応じてBGMのレベルを下げるように調整すること、台詞が終わったら元に戻すものである(引用文献2、引用文献3、引用文献9を参照のこと)から、
引用発明からダッキングを実現する場合には、
2つのAudioNodeを作成し、台詞もしくは、BGMの音声をそれぞれソースとしてAudioNodeに接続すること(ここで、台詞、BGMを、本願の請求項1から7に係る発明のように主コンテンツ、副コンテンツと特定することは表現上の差異に過ぎない)、
それぞれのソースについて、ダッキング時の出力条件を決定すること、
シナリオを実行して、ダッキングを行うコードを実行する時(本願の請求項1から7に係る発明のいうダッキングを行うイベントを検知した場合に相当する)は、それぞれのソースについて、先の出力条件で出力すること、
ダッキングが終了すれば出力条件を戻すように構成することは明らかである。

その余の点は、引用文献4から6を参照のこと。

したがって、本願の請求項1から7に係る発明は、引用発明と周知慣用な技術から当業者が適宜なし得るものと認められるので、特許法第29条第2項の規定により特許を受けることができず、出願人の上記主張は認められない。

引用文献等一覧
1.The World Wide Web Consortium(W3C),Web Audio API W3C Working Draft 10 October 2013,[online], 2013年10月10日,6.Mixer Gain structure,[2014年6月12日検索], インターネット<URL:http://www.w3.org/TR/2013/WD-webaudio-20131010/>
2.特開2012-70137号公報
3.特開2009-94796号公報
4.特開2008-3562号公報
5.特開2001-249664号公報
6.特開2008-242740号公報
7.Boris Smus,Web Audio APIの基礎,[online], 2013年10月29日,[2014年11月26日検索], インターネット<URL:http://www.html5rocks.com/ja/tutorials/webaudio/intro/>
8.Microsoft,Microsoft DirectMusicによるクロスフェード ソリューション,[online], 2001年12月10日,[2014年11月26日検索], インターネット<URL:http://msdn.microsoft.com/ja-jp/library/cc351104.aspx>
9.studio sunny side,ゲームの音をきれいに盛りつけるためには/「ダッキング」について(1),[online], 2013年5月14日,[2014年11月26日検索], インターネット<URL:http://d.hatena.ne.jp/studio_sunny_side/20130514/1368535497>


2.原査定の理由の判断
(1) 引用文献の記載事項と、引用発明
引用文献1(The World Wide Web Consortium(W3C),Web Audio API W3C Working Draft )には、1. Introduction(3/54-7/54ページ),6. Mixer Gain structure(35/54-38/54ページ),15. Performance Considerations(50/54-52/54ページ)を参照すると、以下の発明(以下、「引用発明」という。)が記載されている。

「現代のゲーム用音声エンジンに見られる機能と共に、現代のデスクトップ音声制作アプリケーションに見られる、いくつかのミキシング・プロセシング・フィルタリング・タスクの機能を含ませることを目標とした、Web Audio APIであって、
多様な使用例を念頭において設計され、JavaScriptで制御され、最適化されたC++エンジンで実行でき、そして、ブラウザ上で動作可能な、任意の使用例をサポートするものであって、
複数の入力音声信号のゲインを調整して、ミキシング出力することができ、
ハードウェア・スケーラビリティを考慮して、システムは、音声フレーム落ちを起こすことなく、リソースが制限された条件下で、音声処理をするために、優雅な性能劣化(gracefully degrade)をすべきである、Web Audio API。」

(2) 「本願発明」と「引用発明」との対比
本願発明と引用発明とを対比する。
引用発明の「Web Audio API」が、「JavaScriptで制御され、」「ブラウザ上で動作可能な、任意の使用例をサポートする」ことは、「マークアップ言語で記述されたウェブページを表示するブラウザを備えたコンピュータ端末において、マークアップ言語に作用するスクリプト言語を実行する実行手段として機能させるプログラム」であることが明らかであり、「複数の入力音声信号のゲインを調整して、ミキシング出力する」ことは、コンテンツの出力条件としての音量を調整することといえるから、引用発明の「Web Audio API」は、本願発明の「シナリオ上のシーンを含むマークアップ言語で記述されたウェブページを表示するブラウザを備えたコンピュータ端末において、マークアップ言語に作用するスクリプト言語を実行する実行手段として機能させるプログラムであって」、「前記コンピュータ端末の制御部を」、「前記マークアップ言語に作用するスクリプト言語において、ダッキング時における前記主コンテンツと副コンテンツの出力条件としての音量を、イベントが発生したシーン情報に関連付けられた出力条件に応じて取得する出力条件設定手段」、「前記マークアップ言語において、ダッキングを行なうイベントを検知した場合には、前記主副特定手段が、主コンテンツと副コンテンツとを特定し、前記出力条件設定手段を用いて、前記主コンテンツと副コンテンツの音量を取得し、前記主コンテンツと副コンテンツの出力を前記音量に変更し、前記イベントの終了時に、前記音量を戻す出力調整手段として機能させることを特徴とする出力制御プログラム」と、
「マークアップ言語で記述されたウェブページを表示するブラウザを備えたコンピュータ端末において、マークアップ言語に作用するスクリプト言語を実行する実行手段として機能させるプログラムであって」、「前記コンピュータ端末の制御部を」、コンテンツの出力条件としての音量を調整する「出力調整手段として機能させることを特徴とする出力制御プログラム」である点で共通するといえる。

したがって、本願発明と引用発明との一致点・相違点は次のとおりである。

<一致点>
「マークアップ言語で記述されたウェブページを表示するブラウザを備えたコンピュータ端末において、マークアップ言語に作用するスクリプト言語を実行する実行手段として機能させるプログラムであって、
前記コンピュータ端末の制御部を、
コンテンツの出力条件としての音量を調整する、出力調整手段として機能させることを特徴とする出力制御プログラム。」

<相違点1>
本願発明では、「シナリオ上のシーンを含む」マークアップ言語で記述されたウェブページを対象としており、「前記マークアップ言語に作用するスクリプト言語において、ダッキング時における前記主コンテンツと副コンテンツの出力条件としての音量を、イベントが発生したシーン情報に関連付けられた出力条件に応じて取得する出力条件設定手段」を備えるのに対して、引用発明は、「シナリオ上のシーンを含む」マークアップ言語で記述されたウェブページを対象とするものではなく、「前記マークアップ言語に作用するスクリプト言語において、ダッキング時における前記主コンテンツと副コンテンツの出力条件としての音量を、イベントが発生したシーン情報に関連付けられた出力条件に応じて取得する出力条件設定手段」を備えない点。

<相違点2>
本願発明では、「前記コンピュータ端末の制御部を、前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する複数のコンテンツについて、主コンテンツ、副コンテンツを決めるロジックにより、主コンテンツと副コンテンツとを特定する主副特定手段」を備えるのに対して、引用発明は、「前記コンピュータ端末の制御部を、前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する複数のコンテンツについて、主コンテンツ、副コンテンツを決めるロジックにより、主コンテンツと副コンテンツとを特定する主副特定手段」を備えない点。

<相違点3>、
本願発明では、「出力調整手段」は、「前記マークアップ言語において、ダッキングを行なうイベントを検知した場合には、前記主副特定手段が、主コンテンツと副コンテンツとを特定し、前記出力条件設定手段を用いて、前記主コンテンツと副コンテンツの音量を取得し、前記主コンテンツと副コンテンツの出力を前記音量に変更し、前記イベントの終了時に、前記音量を戻す」のに対して、引用発明では、「出力調整手段」は、「前記マークアップ言語において、ダッキングを行なうイベントを検知した場合には、前記主副特定手段が、主コンテンツと副コンテンツとを特定し、前記出力条件設定手段を用いて、前記主コンテンツと副コンテンツの音量を取得し、前記主コンテンツと副コンテンツの出力を前記音量に変更し、前記イベントの終了時に、前記音量を戻す」ものではない点。

(3) 判断
上記<相違点1>について検討する。

引用発明のWeb Audio APIは、「多様な使用例を念頭において設計され、JavaScriptで制御され、・・・ブラウザ上で動作可能な、任意の使用例をサポートするもの」であるものの、引用文献1には、シナリオ上のシーンを含むマークアップ言語で記述されたウェブページを構成するマークアップ言語の再生時に、ダッキングする主コンテンツと副コンテンツの出力条件としての音量を、「イベントが発生したシーン情報に関連付けられた出力条件に応じて」取得することは、記載も示唆もない。

引用文献2(特開2012-70137号公報)には、特に段落【0001】-【0004】、【0026】-【0027】、【0036】-【0041】の記載を参照すると、音声のダッキング合成機能を有する音声処理装置であって、音声処理用LSI1が、ダッキング合成部133を備えることで、台詞に係る音声信号が入力されている間は、台詞に係る音声信号の強度に応じて、BGMに係る音声データの出力ゲインを下げる処理を行う、音声処理装置が記載されている。

引用文献3(特開2009-94796号公報)には、特に段落【0001】、【0023】-【0024】、【0031】、【0037】、【0038】の記載を参照すると、テレビジョン受信器において、番組中にBGMが挿入された場合の動作として、ユーザー音楽の音量を抑制すること(第一の実施の形態)、番組中のBGMの音量を抑制すること(第二の実施の形態)、ユーザー選択によりユーザー音楽又は番組中のBGMいずれかの音量を抑制すること(第三の実施の形態)、さらに番組音声の遅延部を設けること(第四の実施の形態)が記載されている。

引用文献4(特開2008-3562号公報)には、特に【要約】を参照すると、周囲騒音に応じて、出力音声のゲイン調整を行う音声出力装置が記載されている。

引用文献5(特開2001-249664号公報)には、特に段落【0012】の記載を参照すると、携帯電話機のスピーカなどの出力手段の周波数特性が相殺(キャンセル)されて、フラットな特性の音響が出力されるように、出力される楽音信号の特性を調整することが記載されている。

引用文献6(特開2008-242740号公報)には、特に【請求項1】、【請求項6】、段落【0064】-【0065】、【0074】、図8の記載を参照すると、電子メールの文字データに関連付けられた音声データの再生回数に応じて、音声データの再生状態を変えることが記載されている。

引用文献7(Web Audio APIの基礎)には、特に7/13-10/13ページの「2つの音声間のクロスフェード」欄を参照すると、JavaScript用のWeb Audio APIを用いて、複数の音声のゲインを決定して、ミキシングして出力することが記載されている。

引用文献8(Microsoft DirectMusicによるクロスフェード ソリューション)には、特に6/7ページの「ダッキング」の記載を参照すると、ソフトウエアによる音声のクロスフェード処理を利用して、ダイアログ再生中は音楽等のボリュームを下げる「ダッキング」を行うことが記載されている。

引用文献9(studio sunny side,ゲームの音をきれいに盛りつけるためには)には、後から乗せる音を聞き取りやすくするために、バックの音を下げる「ダッキング」が、音声のミックスでは当前に行われる操作である旨の記載がある。

しかし、「シナリオ上のシーンを含むマークアップ言語で記述されたウェブページ」を構成するマークアップ言語の再生時に、ダッキング時における主コンテンツと副コンテンツの出力条件としての音量を、「イベントが発生したシーン情報に関連付けられた出力条件に応じて」取得することは、引用文献1-9には記載も示唆もなく、周知技術ともいえないから、上記相違点1に係る構成は、引用発明及び周知技術に基づいて、容易に想到できたものであるとはいえない。

(4) 小括
したがって、本願発明は、当業者が引用発明及び周知技術に基づいて容易に発明をすることができたとはいえない。
本願の請求項2-5に係る発明は、本願発明をさらに限定したものであり、本願の請求項6-7に係る発明は、本願発明と実質的にカテゴリーのみが相違するものであるので、本願発明と同様に、当業者が引用発明及び周知技術に基づいて容易に発明をすることができたとはいえない。
よって、原査定の理由によっては、本願を拒絶することはできない。


第4 当審拒絶理由について
1.当審拒絶理由の概要
この出願の下記の請求項1-7に係る発明は、その優先日前日本国内又は外国において頒布された下記の刊行物に記載された発明に基づいて、その優先日前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。

記 (引用文献については引用文献一覧参照)
・請求項 1
・引用文献 1-2
・備考
(1) 引用文献1・引用発明
引用文献1(米国特許第8170230号明細書。2012年5月1日。)には、以下の記載がある(下線は当審付与。訳は当審訳。以下同様)。
ア 1欄28?55行
「The process of modifying the properties of multiple audio signals in relation to each other, in relation to other audio signals, or combining audio signals is referred to as mixing. A device for such a purpose is referred to as a mixer or an audio mixer. A particular state of the mixer denoting the relationship of multiple audio signals is typically referred to as a mix.
Masking is a psychoacoustic phenomenon where perception of one audio signal is reduced or prevented because of the presence of another audio signal. Masking can depend both on the intensity of the audio signals relative to each other and the frequencies of the audio signals relative to each other. Thus, an audio signal at a particular frequency and intensity can be masked by another audio signal at the same frequency but higher intensity. For example, a particular narration signal can be mixed with a background music signal. However, when the two signals are mixed, the background music can mask regions of the narration.
One technique for reducing masking is side-chain compression, also referred to as "ducking". In side-chain compression, a primary audio signal is provided as a side-chain input to a compressor. If the intensity of the primary audio signal exceeds a specified threshold intensity the compressor attenuates another secondary signal, typically by an amount proportional to the amount the threshold was exceeded for the duration the signal exceeds the threshold. Side-chain compression is, therefore, generally based only on the overall intensity of the primary signal across all frequencies and without consideration of the audio properties of the secondary signal.」
(訳: 他の音声信号と相互に、あるいは、他の音声信号に関して、複数の音声信号のプロパティを変更したり、音声信号を混合する過程は、ミキシングと呼ばれる。
このような目的のための装置は、ミキサーあるいは音声ミキサーと呼ばれる。複数の音声信号の関係を表すミキサーの特定の状態は、概してミックスと呼ばれる。
マスクキングとは、他の音声信号の存在によって、ある音声信号の認識が減らされたり、妨げられる心理音響現象である。マスキングは、互いに比較しての音声信号の強度と、互いに比較しての音声信号の周波数とに依存し得る。このため、特定の周波数と強度を持つ音声信号が、同一周波数でより強度の強い音声信号によって、マスキングさる得る。例えば、特定のナレーション信号がBGM信号とミキシングされ得る。しかし、2つの信号がミキシングされるとき、BGMがナレーション領域をマスキングし得る。
マスキングを減らす1つの手法は、サイドチェイン圧縮であり、「ダッキング」とも呼ばれる。サイドチェイン圧縮では、主音声信号が、圧縮器のサイド・チェ-ン入力として供給される。主音声信号の強度が指定された強度閾値を超える場合、圧縮器は、概して信号が閾値を超えた量に比例して、その信号が閾値を超えた期間中、他の副信号を減衰させる。サイドチェイン圧縮は、従って、一般に、全周波数にわたる主信号全体の強度のみに基づいており、副信号の音声プロパティは考慮されていない。)

イ 3欄60行?4欄59行
「DETAILED DESCRIPTION
FIG. 1 is a flow chart of an example method 100 for reducing masking. For convenience, the method 100 will be described with respect to a system that will perform the method 100.
The system receives 102 multiple audio signals. Each audio signal has associated audio data. The audio data describes different properties of the audio signal. For example, the audio data can identify properties of the audio signal with respect to time including intensity, frequency, phase, and balance.

・・・(中略)・・・

The system identifies 104 a primary audio signal and a secondary audio signal from the received audio signals. When more than two audio signals are received, two or more audio signals are combined to generate a secondary audio signal to use with the primary audio signal. The primary audio signal is a highest priority audio signal. For example, if a first audio signal is a narration and a second audio signal is background music, the narration can be identified as the highest priority audio signal and the background music as the secondary audio signal.
In some implementations, the audio signals have been previously ordered according to priority or can be presented to the user for manual ranking (e.g., by ordering the corresponding audio tracks). For example, a visual representation of the audio signal of each track can be presented to a user within an interface of the digital audio workstation. The user can then order the tracks.
In some other implementations, the system uses information associated with the audio signals to automatically assign priority to the audio signals. Particular priority values can be designated for types of audio signals. The system can use track metadata, for example, to identify a type of audio signal contained within the track. For example, tracks including audio signals corresponding to vocals can be assigned a higher priority than tracks including audio signals corresponding to instrumentation. Additionally, different types of instrumentation can have different priority levels (e.g., piano can be assigned a higher priority than percussion).
The audio signals are ordered by assigned priority. For example, if the system received four audio signals (e.g., as four separate audio files), the signals are ordered from 1-4. In some implementations, if there are more than two signals, the system pre-mixes all signals other than the primary signal to form a single secondary signal. However, in some other implementations, the system arranges the received audio signals in a hierarchy according to priority and then pre-mixes the audio signals in steps moving through the hierarchy in a bottom-up process.」
(詳細な説明
図1は、マスキングを減らす例示の方法100のフローチャートである。便宜上、方法100を実行するシステムと関連して、方法100が記述される。
システムは、102(当審注:図1中の参照番号「202、203…210」は、それぞれ、「102、103…110」の誤記と認める。)で複数の音声信号を受信する。それぞれの音声信号は、関連する音声データを有する。音声データは、音声信号の異なる特性を記述する。例えば、音声データは、強度、周波数、位相とバランスを含む、時間に関する音声信号の特性を識別する。

・・・(中略)・・・


システムは、ステップ104で、受信した音声信号から、主音声信号と副音声信号とを識別する。2よりも多くの音声信号が受信される場合、2以上の音声信号は、主音声信号と用いるように、副音声信号を作るために混合される。主音声信号は、最も高い優先度の音声信号である。例えば、もし第1の音声信号がナレーションで、第2の音声信号がBGMならば、ナレーションは、最も高い優先度の音声信号として識別され、BGMは副音声信号として識別され得る。
あるインプリメンテーションでは、音声信号は、事前に優先度によって順序付けがされているか、あるいは(例えば、対応する音声トラックを順序づけすることによって)手作業で順位付けするためにユーザに提示される。例えば、デジタル音声ワークステーションのインタフェース中で、各トラックの音声信号のビジュアル化表示を、ユーザに提示できる。それから、ユーザはトラックを順序づけできる。
他のあるインプリメンテーションでは、自動的に音声信号に優先度を割り当てるために、音声信号に関連付けられた情報を用いる。特定の優先度の値を、音声信号のタイプに対して指定できる。システムは、トラックのメタデータを、例えば、トラックに含まれているあるタイプの音声信号を識別するために用いることができる。例えば、ボーカルに対応する音声信号を含むトラックには、楽器に対応する音声信号を含むトラックよりも高い優先度を割り当てられる。さらに、異なるタイプの楽器が、異なる優先度レベルを持ち得る(例えば、ピアノには、打楽器よりも高い優先度を割り当てられる。)。
音声信号は、割り当てられた優先度によって順序づけされる。例えば、もしシステムが(例えば、4つの別個の音声ファイルとして)4つの音声信号を受信した場合、信号は、1?4に順番付けられる。あるインプリメンテーションでは、もし2よりも多くの信号がある場合、システムは、単一の副信号を生成するために、主信号以外の全ての信号を事前に混合する。しかし、他のインプリメンテーションでは、システムは、受信された音声信号を優先度により階層化して並べてから、次にボトムアップ型で階層を移動しながら、音声信号を事前に混合する。)

ウ 10欄57行?11欄36行
「However, when the average perceived intensity of the secondary audio signal is greater than the average perceived intensity of the primary audio signal for a particular bin, the system attenuates the audio data of the secondary audio signal within that bin. For example, the threshold amount can be a minimum difference between the average perceived intensity of the primary audio signal and the secondary audio signal. Alternatively, the threshold amount can be a threshold average perceived intensity floor for the primary audio signal. For example, a threshold floor can be selected such that the audio data is considered silence below the threshold floor. Thus, for a particular bin of the primary audio signal identified as silence, the secondary audio signal is not attenuated even though the average perceived intensity of the corresponding bin in the secondary audio signal is greater.
The audio data of the particular bin in the secondary audio signal can be attenuated such that the average perceived intensity of the bin for the secondary audio signal matches the average perceived intensity of the corresponding bin for the primary audio signal. For example, for a given bin, if the average perceived intensity of the audio data from the secondary audio signal is -10 dB and the average perceived intensity of the audio data from the primary audio signal is -15 dB, the attenuation is performed to reduce the average perceived intensity of the bin from the secondary audio signal to -15 dB.
Alternatively, the attenuation amount can be a specified amount, e.g., -5 dB regardless of the difference between the average perceived intensities. Alternatively, the secondary audio signal can be attenuated such that the average perceived intensity is less than the average perceived intensity of the primary audio signal. In another example, the attenuation of the secondary audio signal can be a function of the average perceived intensity of the secondary audio signal (e.g., proportional to the magnitude of the average perceived intensity, based on the difference between the average perceived intensities).
The system mixes 812 the primary audio signal and the secondary audio signal including any attenuated audio data from bins of the secondary audio signal. For example, the mixer of the digital audio workstation can sum the primary audio signal and the modified secondary audio signal to generate a single mixed audio signal. The mixed audio signal can be output from the mixer for playback, further processing (e.g., as part of a signal processing change), editing in the digital audio workstation, saving as a single file locally or remotely, or transmitting or streaming to another location.」
(訳: しかし、特定のビンの副音声信号の平均知覚強度が、主音声信号の平均知覚強度より大きければ、システムは、そのビンの中で副音声信号の音声データを減衰する。例えば、閾値の量は、主・副音声信号の平均知覚強度の最小差分でもよい。あるいは、閾値の量は、主音声信号の平均知覚強度の下限の閾値でもよい。例えば、音声データが閾値の下限以下では無音と見なせるように、閾値の下限が選択されてもよい。そのため、無音と見なされた主音声信号の特定のビンについては、副音声信号の対応するビンの平均知覚強度の方が大きくても、副音声信号は減衰されない。
副音声信号のビンの平均知覚強度が、主音声信号の対応するビンの平均知覚強度と等しくなるまで、副音声信号の特定のビンの音声データを減衰させることができる。例えば、所定のビンについて、もしも副音声信号の音声データの平均知覚強度が-10dBであり、主音声信号の音声データの平均知覚強度が-15dBならば、副音声信号のビンの平均知覚強度が-15dBになるまで、減衰が行われる。
あるいは、減衰量は、平均知覚強度の間の差の大きさに関わらない特定の量、例えば、-5dBであってよい。あるいは、副音声信号の平均知覚強度が、主音声信号の平均知覚強度より弱くなるように、副音声信号を減衰することができる。他の例では、副音声信号の減衰は、副音声信号の平均知覚強度の関数(例えば、平均知覚強度の間の相違に基づき、平均知覚強度の大きさに正比例する)であり得る。
システムは、ステップ812で、主音声信号と任意の副音声信号のビンからの減衰された音声データを含む副音声信号とを混合する。例えば、デジタル音声ワークステーションのミキサーは、主音声信号と修正された副音声信号とを加算して、単一のミキシングされた音声信号を生成できる。ミキシングされた音声信号は、ミキサーから出力されて、再生されたり、さらなる処理(例えば、信号処理の変更の一部として)、デジタル音声ワークステーションでの編集、ローカル又はリモートで単一ファイルとして保存、あるいは、別の場所へ伝送又はストリーミングできる。)

エ 12欄37?59行
「The term "computer-readable medium" refers to any medium that participates in providing instructions to a processor 1102 for execution. The computer-readable medium 1112 further includes an operating system 1116 (e.g., Mac OS(R), Windows(R), Linux, etc.), a network communication module 1118, a browser 1120 (e.g., Safari(R), Microsoft(R) Internet Explorer, Netscape(R), etc.), a digital audio workstation 1122 , and other applications 1124 .
The operating system 1116 can be multi-user, multiprocessing, multitasking, multithreading, real-time and the like. The operating system 1116 performs basic tasks, including but not limited to: recognizing input from input devices 1110; sending output to display devices 1104; keeping track of files and directories on computer-readable mediums 1112 (e.g., memory or a storage device); controlling peripheral devices (e.g., disk drives, printers, etc.); and managing traffic on the one or more buses 1114. The network communications module 1118 includes various components for establishing and maintaining network connections (e.g., software for implementing communication protocols, such as TCP/IP, HTTP, Ethernet, etc.). The browser 1120 enables the user to search a network (e.g., Internet) for information (e.g., digital media items).」
(用語「コンピュータ可読媒体」は、実行のためにプロセッサ1102にインストラクションを提供する任意の媒体をさす。コンピュータ可読媒体1112は、さらにオペレーティング・システム1116(例えば、Mac OS、 Windows、 Linuxなど)、ネットワーク通信モジュール1118、ブラウザ1120(例えば、Safari、MicrosoftのInternet Explorer、Netscapeなど)、デジタル音声ワークステーション1122及び他のアプリケーション1124を含む。
オペレーティング・システム1116は、マルチユーザ、マルチプロセッシング、マルチタスク、マルチスレッド、リアルタイムなど。オペレーティング・システム1116は基本的タスクを行ない、入力装置1110からの入力の認識; ディスプレイ装置1104への出力送信; コンピュータ可読媒体1112(例えば、メモリ又は記憶装置)上のファイルとディレクトリの追跡; 周辺装置(例えば、ディスク・ドライブ、プリンタなど)の制御; 1つ以上のバス1114上のトラフィック管理、を含むがされに限定されない。ネットワーク通信モジュール1118は、ネットワーク接続(例えば、TCP/IP、HTTP、イーサネットなど)を設立し、維持するための様々な要素を含む。ブラウザ1120は、ユーザが、ネットワーク(例えば、インターネット)で、情報(例えば、デジタル・メディア・アイテム)を検索できるようにする。)

オ 13欄28?44行
「A computer program (also known as a program, software, software application, script, or code) can be written in any form of programming language, including compiled or interpreted languages, and it can be deployed in any form, including as a stand-alone program or as a module, component, subroutine, or other unit suitable for use in a computing environment. A computer program does not necessarily correspond to a file in a file system. A program can be stored in a portion of a file that holds other programs or data (e.g., one or more scripts stored in a markup language document), in a single file dedicated to the program in question, or in multiple coordinated files (e.g., files that store one or more modules, sub-programs, or portions of code). A computer program can be deployed to be executed on one computer or on multiple computers that are located at one site or distributed across multiple sites and interconnected by a communication network.」
(コンピュータ・プログラム(プログラム、ソフトウェア、ソフトウェア・アプリケーション、スクリプト、又はコードとしても知られる)は、任意の形式のプログラム言語で書かれても良く、コンパイル、又はインタープリタ言語を含み、そして、スタンドアロン・プログラムとして、又は、モジュール、コンポーネント、サブルーチン、あるいは他の計算機環境に適した他のユニットを含む、任意の形式で配置できる。コンピュータ・プログラムは、必ずしもファイルシステムにおけるファイルに対応しない。プログラムは、他のプログラムやデータを持ったファイルの一部(例えば、マークアップ言語ドキュメントにストアされた1つ以上のスクリプト)として、又は、当のプログラムだけのための単一ファイルとして、又は、協調する複数のファイル(例えば、1つ以上のモジュール、サブプログラム、コードの一部をストアするファイル)として、ストアできる。コンピュータ・プログラムは、1台のコンピュータ上で、又は、1つのサイト又は複数のサイトに分散され、通信ネットワークにより相互接続された複数のコンピュータ上で、実行されるために、配置できる。)

よって、引用文献1には、次の発明(以下、「引用発明」という。)が開示されているものと認められる。

「マスキングを減らす1つの手法として、「ダッキング」とも呼ばれる、サイドチェイン圧縮では、主音声信号が、圧縮器のサイド・チェ-ン入力として供給され、主音声信号の強度が指定された強度閾値を超える場合、圧縮器は、信号が閾値を超えた量に比例して、その信号が閾値を超えた期間中、他の副信号を減衰させる手法に基づいており、
システムは、ステップ104で、受信した音声信号から、主音声信号と副音声信号とを識別し、主音声信号は、最も高い優先度の音声信号であり、第1の音声信号がナレーションで、第2の音声信号がBGMならば、ナレーションは、最も高い優先度の音声信号として識別され、BGMは副音声信号として識別され、
自動的に音声信号に優先度を割り当てるために、音声信号に関連付けられた情報を用い、特定の優先度の値を、音声信号のタイプに対して指定でき、システムは、トラックのメタデータを、例えば、トラックに含まれているあるタイプの音声信号を識別するために用いることができ、
音声信号は、割り当てられた優先度によって順序づけされ、
特定のビンの副音声信号の平均知覚強度が、主音声信号の平均知覚強度より大きければ、システムは、そのビンの中で副音声信号の音声データを減衰し、
副音声信号のビンの平均知覚強度が、主音声信号の対応するビンの平均知覚強度と等しくなるまで、副音声信号の特定のビンの音声データを減衰させることができ、所定のビンについて、もしも副音声信号の音声データの平均知覚強度が-10dBであり、主音声信号の音声データの平均知覚強度が-15dBならば、副音声信号のビンの平均知覚強度が-15dBになるまで、減衰が行われ、
システムは、ステップ812で、主音声信号と任意の副音声信号のビンからの減衰された音声データを含む副音声信号とを混合し、ミキシングされた音声信号は、ミキサーから出力されるものであって、
システムは、ブラウザ1120を含み、
ブラウザ1120は、ユーザが、インターネットで、デジタル・メディア・アイテムを検索できるようにし、
プログラムは、マークアップ言語ドキュメントにストアされた1つ以上のスクリプトとして、1台のコンピュータ上で、実行されるために、配置できる、
プログラム。」

(2) 対比
ア 本願発明と引用発明とを対比すると、引用発明の「システムは、ブラウザ1120を含み」、「プログラムは、マークアップ言語ドキュメントにストアされた1つ以上のスクリプトとして、1台のコンピュータ上で、実行される」ことは、本願発明の「マークアップ言語で記述されたウェブページを表示するブラウザを備えたコンピュータ端末において、マークアップ言語に作用するスクリプト言語を実行する実行手段として機能させるプログラム」に相当する。

イ 引用発明の「プログラムは、マークアップ言語ドキュメントにストアされた1つ以上のスクリプトとして、1台のコンピュータ上で、実行される」ことで、「主音声信号と任意の副音声信号のビンからの減衰された音声データを含む副音声信号とを混合し、ミキシングされた音声信号は、ミキサーから出力される」ことは、本願発明の「前記コンピュータ端末の制御部を」、「機能させることを特徴とする出力制御プログラム」に相当する。

ウ 引用発明の「プログラムは、マークアップ言語ドキュメントにストアされた1つ以上のスクリプトとして、1台のコンピュータ上で、実行される」ことで、「システムは、ステップ104で、受信した音声信号から、主音声信号と副音声信号とを識別」することは、本願発明の「前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する複数のコンテンツについて、主コンテンツと副コンテンツとを特定する主副特定手段」と、「出力する複数のコンテンツについて、主コンテンツと副コンテンツとを特定する主副特定手段」である点で共通するといえる。

エ 引用発明の「プログラムは、マークアップ言語ドキュメントにストアされた1つ以上のスクリプトとして、1台のコンピュータ上で、実行される」ことで、「マスキングを減らす1つの手法として、「ダッキング」とも呼ばれる、サイドチェイン圧縮」の手法に基づいて、「副音声信号のビンの平均知覚強度が、主音声信号の対応するビンの平均知覚強度と等しくなるまで、副音声信号の特定のビンの音声データを減衰させることができ、所定のビンについて、もしも副音声信号の音声データの平均知覚強度が-10dBであり、主音声信号の音声データの平均知覚強度が-15dBならば、副音声信号のビンの平均知覚強度が-15dBになるまで、減衰が行われ」ることは、本願発明の「前記マークアップ言語に作用するスクリプト言語において、ダッキング時における前記主コンテンツと副コンテンツの出力条件としての音量を取得する出力条件設定手段」に相当する。

オ 引用発明の「プログラムは、マークアップ言語ドキュメントにストアされた1つ以上のスクリプトとして、1台のコンピュータ上で、実行される」ことで、「マスキングを減らす1つの手法として、『ダッキング』とも呼ばれる、サイドチェイン圧縮では、主音声信号が、圧縮器のサイド・チェ-ン入力として供給され、主音声信号の強度が指定された強度閾値を超える場合、圧縮器は、信号が閾値を超えた量に比例して、その信号が閾値を超えた期間中、他の副信号を減衰させる手法」に基づいて、「特定のビンの副音声信号の平均知覚強度が、主音声信号の平均知覚強度より大き」いことを検出すると、「システムは、ステップ104で、受信した音声信号から、主音声信号と副音声信号とを識別」し、「副音声信号のビンの平均知覚強度が、主音声信号の対応するビンの平均知覚強度と等しくなるまで、副音声信号の特定のビンの音声データを減衰させることができ、所定のビンについて、もしも副音声信号の音声データの平均知覚強度が-10dBであり、主音声信号の音声データの平均知覚強度が-15dBならば、副音声信号のビンの平均知覚強度が-15dBになるまで、減衰が行われ」ることは、本願発明の「前記マークアップ言語において、ダッキングを行なうイベントを検知した場合には、前記主副特定手段が、主コンテンツと副コンテンツとを特定し、前記出力条件設定手段を用いて、前記主コンテンツと副コンテンツの音量を取得し、前記主コンテンツと副コンテンツの出力を前記音量に変更し、前記イベントの終了時に、前記音量を戻す出力調整手段」に相当する。

したがって、本願発明と引用発明とは、以下の相違点で相違し、その余の点で一致する。

<相違点>
本願発明は、「前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する複数のコンテンツについて、主コンテンツと副コンテンツとを特定する主副特定手段」を備えるのに対して、引用発明の「ブラウザ1120」については、「ユーザが、インターネットで、デジタル・メディア・アイテムを検索できる」ことは記載があるものの、「前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する複数のコンテンツについて、主コンテンツと副コンテンツとを特定する主副特定手段」は記載がない点。

(3) 当審の判断
<相違点>について
一般に、「マークアップ言語に含まれるスクリプト」として、ウェブページ用のHTML言語に含まれる「JavaScript」を採用することで、ブラウザが取得したウェブページを構成するマークアップ言語の再生時にスクリプトが実行されるようにすることは、引用文献2の「1. Introduction」に「・・・Audio on the web has been fairly primitive up to this point and until very recently has had to be delivered through plugins such as Flash and QuickTime. The introduction of the audio element in HTML5 is very important, allowing for basic streaming audio playback. But, it is not powerful enough to handle more complex audio applications. For sophisticated web-based games or interactive applications, another solution is required. It is a goal of this specification to include the capabilities found in modern game audio engines as well as some of the mixing, processing, and filtering tasks that are found in modern desktop audio production applications.The APIs have been designed with a wide variety of use cases in mind. Ideally, it should be able to support any use case which could reasonably be implemented with an optimized C++ engine controlled via JavaScript and run in a browser.・・・ 」(当審訳:・・・ウェブ上の音声は今までかなり原初的で、つい最近まで FlashやQuickTime プラグイン経由で配信する必要があった。HTML5でのaudio要素の導入は、非常に重要なもので、基本的なストリーミング音声再生が可能になった。しかし、より複雑な音声アプリケーション処理には十分強力でない。洗練されたウェブベースのゲームや、対話型アプリケーションには、別の解決策が必要である。この仕様書は、現代のゲーム用音声エンジンに見られる機能と共に、現代のデスクトップ音声制作アプリケーションに見られる、いくつかのミキシング・プロセシング・フィルタリング・タスクの機能を含ませることが目標である。このAPIは、多様な使用例を念頭において設計された。理想的には、JavaScriptで制御され、最適化されたC++エンジンで実行でき、そして、ブラウザ上で動作可能な、任意の使用例をサポートすべきである。・・・)と記載されるように、周知である。
よって、引用発明において、「マークアップ言語に含まれるスクリプト」として、ウェブページ用の「HTML言語に含まれるJavaScript」を採用することで、ブラウザが取得したウェブページを構成するマークアップ言語の再生時にスクリプトが実行されるようにする周知技術を採用することによって、「前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する複数のコンテンツについて、主コンテンツと副コンテンツとを特定する主副特定手段」を備えるように構成することは、当業者が容易に推考し得ることである。

さらに、本願発明の効果も、引用発明及び周知技術に基づいて、当業者が予測し得る範囲内のものである。

(4) むすび
したがって、本願発明は、引用発明及び周知技術に基づいて、当業者が容易に発明をすることができたものである。


・請求項 2
・引用文献 1-3
・備考
引用文献3の段落[0048]に「In some embodiments, the system can adjust sound based on background noise. For instance, the system can detect nearby noises from microphones attached to a wagering game machine. The system can then dynamically duck sounds based on a determined sound pressure against the microphone. The system can use responsive envelopes to perform the dynamic ducking.」(当審訳:ある実施例では、システムは、背景雑音に基づいて音を調整できる。例えば、システムは、賭博用ゲーム機に取り付けたマイクから周囲の雑音を検出できる。それから、システムは、マイクへの音圧に基づき、動的に音をダッキングできる。システムは,レスポンスの包絡線を、動的なダッキングに用いることができる。)と記載されるように、騒音などに対処するために、周囲環境に基づいて、コンテンツの再生条件を変更することは、周知技術である。
上記周知技術を、引用発明に付加することで、請求項2に係る構成とすることは、当業者が容易に推考し得ることである。

・請求項 3?4
・引用文献 1-3
・備考 引用文献2の「15. Performance Considerations」に「・・・15.3. Hardware Scalability The system should gracefully degrade to allow audio processing under resource constrained conditions without dropping audio frames.・・・」(当審訳:15.3.ハードウェア・スケーラビリティ システムは、音声フレーム落ちを起こすことなく、リソースが制限された条件下で、音声処理をするために、優雅な劣化(gracefully degrade)をすべきである。)と記載されるように、ハードウェアやソフトウェアのリソースの制約などに対処するために、ハードウェア構成やソフトウェア構成に基づいて、コンテンツの再生条件を変更することは、周知技術である。
上記周知技術を、引用発明に付加することで、請求項3、請求項4に係る構成とすることは、当業者が容易に推考し得ることである。

・請求項 5
・引用文献 1-4
・備考 引用文献4の320ページに「遷移後初回時発音 遷移後のブロックに配置されているトラックが[遷移後初回時発音]に設定してあると、ブロック遷移した時(1ループ目)だけ発音します。」と記載されるように、再生の回数や頻度に基づいて、コンテンツの再生条件を変更することは、周知技術である。
上記周知技術を、引用発明に付加することで、請求項5に係る構成とすることは、当業者が容易に推考し得ることである。

・請求項 6?7
・引用文献 1-2
・備考 請求項6?7に係る発明は、請求項1と同様の理由により、引用発明及び周知技術に基づいて、当業者が容易に発明をすることができたものである。

引 用 文 献 一 覧
1.米国特許第8170230号明細書
2.The World Wide Web Consortium(W3C),Web Audio API W3C Working Draft 10 October 2013,[online],2013年10月10日,1. Introduction,6. Mixer Gain structure,15. Performance Considerations,[2015年10月28日検索],インターネット<URL:http://www.w3.org/TR/2013/WD-webaudio-20131010/>
3.米国特許出願公開第2010/317437号明細書
4.内田哉、「CRI ADX2で作るゲームサウンド制作ガイド」、初版、株式会社翔泳社、2013年8月19日、84?89ページ、317?320ページ


2.当審拒絶理由の判断
(1) 引用文献の記載事項と、引用発明
引用文献1(米国特許第8170230号明細書 )には、1欄28?55行、3欄60行?4欄59行、10欄57行?11欄36行、12欄37?59行、13欄28?44行の記載(上記「1.当審拒絶理由の概要」の(1)ア?オの各摘記参照。)を参照すると、次の発明(以下、「引用発明」という。)が開示されているものと認められる。

「マスキングを減らす1つの手法として、「ダッキング」とも呼ばれる、サイドチェイン圧縮では、主音声信号が、圧縮器のサイド・チェ-ン入力として供給され、主音声信号の強度が指定された強度閾値を超える場合、圧縮器は、信号が閾値を超えた量に比例して、その信号が閾値を超えた期間中、他の副信号を減衰させる手法に基づいており、
システムは、ステップ104で、受信した音声信号から、主音声信号と副音声信号とを識別し、主音声信号は、最も高い優先度の音声信号であり、第1の音声信号がナレーションで、第2の音声信号がBGMならば、ナレーションは、最も高い優先度の音声信号として識別され、BGMは副音声信号として識別され、
自動的に音声信号に優先度を割り当てるために、音声信号に関連付けられた情報を用い、特定の優先度の値を、音声信号のタイプに対して指定でき、システムは、トラックのメタデータを、例えば、トラックに含まれているあるタイプの音声信号を識別するために用いることができ、
特定のビンの副音声信号の平均知覚強度が、主音声信号の平均知覚強度より大きければ、システムは、そのビンの中で副音声信号の音声データを減衰し、
副音声信号のビンの平均知覚強度が、主音声信号の対応するビンの平均知覚強度と等しくなるまで、副音声信号の特定のビンの音声データを減衰させることができ、所定のビンについて、もしも副音声信号の音声データの平均知覚強度が-10dBであり、主音声信号の音声データの平均知覚強度が-15dBならば、副音声信号のビンの平均知覚強度が-15dBになるまで、減衰が行われ、あるいは、減衰量は、平均知覚強度の間の差の大きさに関わらない特定の量、例えば、-5dBであってよく、
システムは、ステップ812で、主音声信号と任意の副音声信号のビンからの減衰された音声データを含む副音声信号とを混合し、ミキシングされた音声信号は、ミキサーから出力されるものであって、
システムは、ブラウザ1120を含み、
ブラウザ1120は、ユーザが、インターネットで、デジタル・メディア・アイテムを検索できるようにし、
プログラムは、マークアップ言語ドキュメントにストアされた1つ以上のスクリプトとして、1台のコンピュータ上で、実行されるために、配置できる、
プログラム。」

(2) 「本願発明」と「引用発明」との対比
本願発明と引用発明とを対比する。

ア 引用発明の「システムは、ブラウザ1120を含み」、「プログラムは、マークアップ言語ドキュメントにストアされた1つ以上のスクリプトとして、1台のコンピュータ上で、実行される」ことは、本願発明の「シナリオ上のシーンを含むマークアップ言語で記述されたウェブページを表示するブラウザを備えたコンピュータ端末において、マークアップ言語に作用するスクリプト言語を実行する実行手段として機能させるプログラム」であることと、「マークアップ言語で記述されたウェブページを表示するブラウザを備えたコンピュータ端末において、マークアップ言語に作用するスクリプト言語を実行する実行手段として機能させるプログラム」である点で共通するといえる。

イ 引用発明において「プログラムは、マークアップ言語ドキュメントにストアされた1つ以上のスクリプトとして、1台のコンピュータ上で、実行される」ことで、「主音声信号と任意の副音声信号のビンからの減衰された音声データを含む副音声信号とを混合し、ミキシングされた音声信号は、ミキサーから出力される」ことは、本願発明の「前記コンピュータ端末の制御部を」、「機能させることを特徴とする出力制御プログラム」に相当する。

ウ 引用発明の「プログラムは、マークアップ言語ドキュメントにストアされた1つ以上のスクリプトとして、1台のコンピュータ上で、実行される」ことで、「システムは、ステップ104で、受信した音声信号から、主音声信号と副音声信号とを識別」することは、本願発明の「前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する複数のコンテンツについて、主コンテンツ、副コンテンツを決めるロジックにより、主コンテンツと副コンテンツとを特定する主副特定手段」と、「出力する複数のコンテンツについて、主コンテンツと副コンテンツとを特定する主副特定手段」である点で共通するといえる。

エ 引用発明の「プログラムは、マークアップ言語ドキュメントにストアされた1つ以上のスクリプトとして、1台のコンピュータ上で、実行される」ことで、「マスキングを減らす1つの手法として、「ダッキング」とも呼ばれる、サイドチェイン圧縮」の手法に基づいて、「副音声信号のビンの平均知覚強度が、主音声信号の対応するビンの平均知覚強度と等しくなるまで、副音声信号の特定のビンの音声データを減衰させることができ、所定のビンについて、もしも副音声信号の音声データの平均知覚強度が-10dBであり、主音声信号の音声データの平均知覚強度が-15dBならば、副音声信号のビンの平均知覚強度が-15dBになるまで、減衰が行われ」ることは、本願発明の「前記マークアップ言語に作用するスクリプト言語において、ダッキング時における前記主コンテンツと副コンテンツの出力条件としての音量を、イベントが発生したシーン情報に関連付けられた出力条件に応じて取得する出力条件設定手段」と、「前記マークアップ言語に作用するスクリプト言語において、ダッキング時における前記主コンテンツと副コンテンツの出力条件としての音量を、取得する出力条件設定手段」である点で共通するといえる。

オ 引用発明の「プログラムは、マークアップ言語ドキュメントにストアされた1つ以上のスクリプトとして、1台のコンピュータ上で、実行される」ことで、「マスキングを減らす1つの手法として、『ダッキング』とも呼ばれる、サイドチェイン圧縮では、主音声信号が、圧縮器のサイド・チェ-ン入力として供給され、主音声信号の強度が指定された強度閾値を超える場合、圧縮器は、信号が閾値を超えた量に比例して、その信号が閾値を超えた期間中、他の副信号を減衰させる手法」に基づいて、「特定のビンの副音声信号の平均知覚強度が、主音声信号の平均知覚強度より大き」いことを検出すると、「システムは、ステップ104で、受信した音声信号から、主音声信号と副音声信号とを識別」し、「副音声信号のビンの平均知覚強度が、主音声信号の対応するビンの平均知覚強度と等しくなるまで、副音声信号の特定のビンの音声データを減衰させることができ、所定のビンについて、もしも副音声信号の音声データの平均知覚強度が-10dBであり、主音声信号の音声データの平均知覚強度が-15dBならば、副音声信号のビンの平均知覚強度が-15dBになるまで、減衰が行われ」ることは、本願発明の「前記マークアップ言語において、ダッキングを行なうイベントを検知した場合には、前記主副特定手段が、主コンテンツと副コンテンツとを特定し、前記出力条件設定手段を用いて、前記主コンテンツと副コンテンツの音量を取得し、前記主コンテンツと副コンテンツの出力を前記音量に変更し、前記イベントの終了時に、前記音量を戻す出力調整手段」に相当する。

したがって、本願発明と引用発明との一致点・相違点は次のとおりである。

<一致点>
「マークアップ言語で記述されたウェブページを表示するブラウザを備えたコンピュータ端末において、マークアップ言語に作用するスクリプト言語を実行する実行手段として機能させるプログラムであって、
前記コンピュータ端末の制御部を、
出力する複数のコンテンツについて、主コンテンツと副コンテンツとを特定する主副特定手段、
前記マークアップ言語に作用するスクリプト言語において、ダッキング時における前記主コンテンツと副コンテンツの出力条件としての音量を、取得する出力条件設定手段、
前記マークアップ言語において、ダッキングを行なうイベントを検知した場合には、前記主副特定手段が、主コンテンツと副コンテンツとを特定し、前記出力条件設定手段を用いて、前記主コンテンツと副コンテンツの音量を取得し、前記主コンテンツと副コンテンツの出力を前記音量に変更し、前記イベントの終了時に、前記音量を戻す出力調整手段
として機能させることを特徴とする出力制御プログラム。」

<相違点1>
本願発明では、「主副特定手段」は、「前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に」、出力する複数のコンテンツについて、「主コンテンツ、副コンテンツを決めるロジックにより」、主コンテンツと副コンテンツとを特定するのに対して、引用発明は、「ステップ104で、受信した音声信号から、主音声信号と副音声信号とを識別し、主音声信号は、最も高い優先度の音声信号であり、第1の音声信号がナレーションで、第2の音声信号がBGMならば、ナレーションは、最も高い優先度の音声信号として識別され、BGMは副音声信号として識別され、自動的に音声信号に優先度を割り当てるために、音声信号に関連付けられた情報を用い、特定の優先度の値を、音声信号のタイプに対して指定でき、システムは、トラックのメタデータを、例えば、トラックに含まれているあるタイプの音声信号を識別するために用いることができ」ること、すなわち、音声信号のタイプを識別するメタデータに基づいて、自動的に音声信号に優先度を割り当て、優先度の最も高い音声信号を主音声信号とするものではあるものの、「主副特定手段」は、「前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する複数のコンテンツについて、主コンテンツ、副コンテンツを決めるロジックにより、主コンテンツと副コンテンツとを特定する」ものではない点。

<相違点2>
本願発明では、「出力調整手段」は、「シナリオ上のシーンを含む」マークアップ言語で記述されたウェブページを表示するものであって、ダッキング時における前記主コンテンツと副コンテンツの出力条件としての音量を、「イベントが発生したシーン情報に関連付けられた出力条件に応じて」取得するものであるのに対して、引用発明は主、副音声信号それぞれの強度やその差分に基づいて、音量を調整するものであって、「シナリオ上のシーンを含む」マークアップ言語で記述されたウェブページを表示すること、ダッキング時における前記主コンテンツと副コンテンツの出力条件としての音量を、「イベントが発生したシーン情報に関連付けられた出力条件に応じて」取得するものではない点。

(3) 判断
上記<相違点2>について検討する。

引用文献2(The World Wide Web Consortium(W3C),Web Audio API W3C Working Draft )は、拒絶査定時の「引用文献1」であって(上記第3、2(1)を参照。)、1. Introduction(3/54-7/54ページ),6. Mixer Gain structure(35/54-38/54ページ),15. Performance Considerations(50/54-52/54ページ)を参照すると、「現代のゲーム用音声エンジンに見られる機能と共に、現代のデスクトップ音声制作アプリケーションに見られる、いくつかのミキシング・プロセシング・フィルタリング・タスクの機能を含ませることを目標とした、Web Audio APIであって、
多様な使用例を念頭において設計され、JavaScriptで制御され、最適化されたC++エンジンで実行でき、そして、ブラウザ上で動作可能な、任意の使用例をサポートするものであって、
複数の入力音声信号のゲインを調整して、ミキシング出力することができ、
ハードウェア・スケーラビリティを考慮して、システムは、音声フレーム落ちを起こすことなく、リソースが制限された条件下で、音声処理をするために、優雅な性能劣化(gracefully degrade)をすべきである、Web Audio API。」
が記載されている。

引用文献3(米国特許出願公開第2010/317437号明細書)には、特に段落[0048]の記載を参照すると、騒音などに対処するために、周囲環境に基づいて、コンテンツの再生条件を変更する周知技術が記載されている。

引用文献4(CRI ADX2で作るゲームサウンド制作ガイド)には、320ページの「遷移後初回時発音 遷移後のブロックに配置されているトラックが[遷移後初回時発音]に設定してあると、ブロック遷移した時(1ループ目)だけ発音します。」との記載を参照すると、再生回数や再生頻度に基づいて、コンテンツの再生条件を変更する周知技術が記載されている。
また、引用文献4には、84-89ページの記載を参照すると、音声が再生されている時だけ音声以外の音量が下がるようにする、周知のダッキングを設定することが記載されている。
さらに、引用文献4には、317ページの「ブロック再生の使い方」欄に、「ブロック再生を使うと、例えばゲームの状況が通常シーンからボスシーンに変わった時に、同じ曲が再生されたままリズムトラックだけ激しくなるようにすることができます。」と記載され、シーンの推移に応じて、同じ曲のリズムトラックの激しさだけを変化させることが記載されている。

しかしながら、「シナリオ上のシーンを含むマークアップ言語で記述されたウェブページ」を構成するマークアップ言語の再生時に、ダッキング時における主コンテンツと副コンテンツの出力条件としての音量を、「イベントが発生したシーン情報に関連付けられた出力条件に応じて」取得することは、引用文献2-4には記載も示唆もなく、周知技術ともいえないから、上記相違点2に係る構成は、引用発明及び引用文献2-4記載の技術に基づいて、容易に想到できたものであるとはいえない。

(4)小括
したがって、本願発明は、引用発明及び引用文献2-4記載の技術に基づいて、当業者が容易に発明をすることができたものとはいえなくなった。
本願の請求項2-5に係る発明は、本願発明をさらに限定したものであり、本願の請求項6-7に係る発明は、本願発明と実質的にカテゴリーのみが相違するものであるので、本願発明と同様に、当業者が引用発明及び引用文献2-4記載の技術に基づいて容易に発明をすることができたものとはいえなくなった。
そうすると、もはや、当審で通知した拒絶理由によって本願を拒絶することはできない。


第5 むすび
以上のとおり、原査定の理由によっては、本願を拒絶することはできない。
また、他に本願を拒絶すべき理由を発見しない。
よって、結論のとおり審決する。
 
審決日 2016-02-15 
出願番号 特願2014-80935(P2014-80935)
審決分類 P 1 8・ 121- WY (G06F)
最終処分 成立  
前審関与審査官 海江田 章裕  
特許庁審判長 和田 志郎
特許庁審判官 稲葉 和生
千葉 輝久
発明の名称 出力制御プログラム、出力制御装置及び出力制御方法  
代理人 恩田 誠  
代理人 恩田 博宣  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ