• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 2項進歩性 取り消して特許、登録 G10L
管理番号 1326815
審判番号 不服2015-22029  
総通号数 209 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2017-05-26 
種別 拒絶査定不服の審決 
審判請求日 2015-12-11 
確定日 2017-04-25 
事件の表示 特願2013-547347「高周波数帯域幅拡張のための符号化/復号化装置及びその方法」拒絶査定不服審判事件〔平成24年7月5日国際公開、WO2012/091464、平成26年3月6日国内公表、特表2014-505902、請求項の数(3)〕について、次のとおり審決する。 
結論 原査定を取り消す。 本願の発明は、特許すべきものとする。 
理由 第1 手続の経緯
本願は、2011年(平成23年)12月28日(優先権主張 2010年12月29日 大韓民国、 2011年6月9日 アメリカ合衆国)を国際出願日とする出願であって、平成26年7月1日付けで拒絶理由が通知され、平成27年1月8日付けで手続補正がなされたが、同年7月31日付けで拒絶査定がなされ、これに対して、同年12月11日に拒絶査定不服の審判が請求され、同時に手続補正がなされ、その後、当審において平成28年8月24日付けで拒絶理由(以下、「当審拒絶理由」という。)が通知され、平成29年2月27日付けで手続補正がなされたものである。

第2 当審拒絶理由について
1.当審拒絶理由の概要
本件出願の請求項1に係る発明は、その出願前日本国内または外国において頒布された下記の引用文献1及び2に記載された発明に基いて、その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであり、また、請求項2ないし5に係る発明は、その出願前日本国内または外国において頒布された下記の引用文献1ないし5に記載された発明に基いて、その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。

引用文献1:欧州特許出願公開第2259254号明細書
引用文献2:特開2010-197862号公報
引用文献3:Udar Mittal, et al.、Low Complexity Factorial Pulse Coding of MDCT Coefficients using Approximation of Combinatorial Functions、IEEE International Conference on Acoustics, Speech and Signal Processing, 2007 (ICASSP 2007)、米国、2007.04.発行、Vol.1、pp.I-289 - I-292
引用文献4:特開2009-116371号公報
引用文献5:特開2003-304238号公報

2.当審拒絶理由についての判断
(1)本願発明
本願の請求項1ないし3に係る発明は、平成29年2月27日付けの手続補正による補正後の特許請求の範囲の請求項1ないし3に記載された事項により特定されるものであるところ、請求項1に係る発明(以下、「本願発明」という。)は次のとおりのものである。なお、下線は、審判請求人が補正箇所を明示するために付したものである。

「 【請求項1】
入力信号の特性を参照し、入力信号の符号化モードを決定する段階と、
前記入力信号の低バンド信号から線形予測係数(LPC)を抽出し、抽出された線形予測係数を量子化する段階と、
前記入力信号の符号化モードが、CELP(code excited linear prediction)モードと決定されれば、前記線形予測係数を利用して抽出されたLPC励起信号に対して、CELP符号化を行う段階と、
前記入力信号の低バンド信号のLPC励起信号に対して、CELP符号化が行われれば、前記入力信号の高バンド信号に対して、TD(time domain)拡張符号化を行う段階と、
前記入力信号の符号化モードが、オーディオ符号化モードと決定されれば、前記前記入力信号の低バンド信号から線形予測係数(LPC)を抽出し、抽出された線形予測係数を量子化する段階と、LPC励起信号に対して、オーディオ符号化を行う段階と、
前記入力信号の低バンド信号のLPC励起信号に対して、オーディオ符号化が行われれば、前記入力信号の高バンド信号に対してFD(frequency domain)拡張符号化を行う段階と、を含み、
前記FD拡張符号化を行う段階では、現在フレームがノン-トランジェント(non-transient)フレームに当る場合、前記現在フレームを構成するバンドに対して得られたエネルギーを調節し、調節されたエネルギーを量子化する符号化方法。」

(2)引用発明
引用文献1には、図面とともに次の事項が記載されている。
なお、引用文献1の日本語パテントファミリーである特表2011-514558号公報の対応箇所の記載を併記した。また、それぞれの記載における下線は当審で付与したものである。

ア.「[0005] An object of the present invention is to provide an apparatus for processing an audio signal and method thereof, by which different types of audio signals can be compressed and/or reconstructed in higher efficiency.
[0006] Another object of the present invention is to provide an audio coding scheme suitable for characteristics of an audio signal.」
(【0004】
本発明の目的は、種々のオーディオ信号をより高い効率で圧縮及び復元できるオーディオ信号処理方法及び装置を提供することにある。
【0005】
上記目的を達成するために、本発明は、オーディオ信号の特性に適合するオーディオコーディング方法を提供する。)

イ.「[0020] FIG. 1 is a block diagram of an audio coding apparatus according to one preferred embodiment of the present invention. In particular, FIG. 1 shows a process of classifying an inputted audio signal according to a preset reference and then coding the classified audio signal by selecting an audio coding scheme suitable for the corresponding audio signal.
[0021] Referring to FIG. 1 , an audio coding apparatus according to one preferred embodiment of the present invention includes a signal classifying unit (sound activity detector) 100 classifying an inputted audio signal into a type of a speech signal, a music signal or a mixed signal of speech and music by analyzing a characteristic of the inputted audio signal, a linear prediction modeling unit 110 coding the speech signal of the signal type determined by the signal classifying unit 100, a psychoacoustic model unit 120 coding the music signal, and a mixed signal modeling unit 130 coding the mixed signal of speech and music. And, the audio coding apparatus can further include a switching unit 101 configured to select a coding scheme suitable for the audio signal classified by the signal classifying unit 100. The switching unit 101 is operated using audio signal coding type information (e.g., first type information and second type information, which will be explained in detail with reference to FIG. 2 and Fig. 3 ) generated by the signal classifying unit 100 as a control signal. Moreover, the mixed signal modeling unit 130 can include a linear prediction unit 131, a residual signal extracting unit 132 and a frequency transforming unit 133. In the following description, the respective elements shown in FIG. 1 are explained in detail.」
(【0016】
図1は、本発明の好ましい一実施例によるオーディオ符号化装置を示すブロック図である。詳しくは、図1は、入力されるオーディオ信号を既に設定された基準によって分類し、この分類された各オーディオ信号に好適なオーディオ符号化方式を選択して符号化する過程を示す図である。
【0017】
図1を参照すると、入力されるオーディオ信号の特性を分析して、音声信号、音楽信号、または音声と音楽との混合信号のいずれか一類型に分類する信号分類部(Sound Activity Detector)100と、信号分類部100で決定された信号類型のうち、音声信号を符号化する線形予測モデリング部110と、音楽信号を符号化する心理音響モデリング部120と、音声と音楽との混合信号を符号化する混合信号モデリング部130と、を含む。また、信号分類部100によってオーディオ信号が分類されると、それに好適な符号化方式を選択するためのスイッチング部101をさらに含むことができる。スイッチング部101は、信号分類部100により生成されるオーディオ信号コーディングタイプ情報(例えば、第1タイプ情報及び第2タイプ情報。これについては図2及び図3で詳細に後述する。)を制御信号として動作する。また、混合信号モデリング部130は、線形予測部131、レジデュアル信号抽出部132、周波数変換部133を含むことができる。以下、図1の各部分について詳細に説明する。)

ウ.「[0024] If a signal inputted according to this reference is determined as a speech signal, it is able to code an input signal using a speech coder optimized for the speech signal. According to the present embodiment, the linear prediction modeling unit 100 is used for a coding scheme suitable for a speech signal. The linear prediction modeling unit 100 is provided with various schemes. For instance, ACELP (algebraic code excited linear prediction) coding scheme, AMR (adaptive multi-rate) coding scheme or AMR-WB (adaptive multi-rate wideband) coding scheme is applicable to the linear prediction modeling unit 110.
[0025] The linear prediction modeling unit 110 is able to perform linear prediction coding on an inputted audio signal by frame unit. The linear prediction modeling unit 110 extracts a predictive coefficient per frame and then quantizes the extracted predictive coefficient. For instance, a scheme of extracting a predictive coefficient using 'Levinson-Durbin algorithm' is widely used in general.」
(【0020】
このような基準により、入力される信号が音声信号と分類された場合、音声信号に最適化されている音声符号化器を用いて入力信号を符号化することができ、本実施例では、音声信号に好適な符号化方式として線形予測モデリング部110を使用する。線形予測モデリング部110は、様々な方式が存在し、例えば、ACELP(代数符号励振線形予測、Algebraic Code Excited Linear Prediction)コーディング方式またはAMR(適応マルチレート、Adaptive Multi-Rate)コーディング及びAMR-WB(適応マルチレート広帯域、Adaptive Multi-Rate Wideband)コーディング方式を適用することができる。
【0021】
なお、線形予測モデリング部110は、入力オーディオ信号をフレーム単位で線形予測符号化することができ、一つのフレームごとに予測係数をそれぞれ抽出して量子化することができる。例えば、一般に、「レビンソン-ダービンアルゴリズム」を用いて予測係数を抽出する方式が広く用いられている。)

エ.「[0028] Meanwhile, if an inputted audio signal is classified into a mixed signal, in which speech and music are mixed together, by the signal classifying unit 100, it is able to code an input signal using a coder optimized for the mixed signal. According to the present embodiment, the mixed signal modeling unit 130 is used for a coding scheme suitable for a mixed signal.
[0029] The mixed signal modeling unit 130 is able to perform coding by a mixed scheme resulting from mixing the aforesaid linear prediction modeling scheme and the psychoacoustic modeling scheme together. In particular, the mixed signal modeling unit 130 performs linear prediction coding on an input signal, obtains a residual signal amounting to a difference between a linear prediction result signal and an original signal, and then codes the residual signal by a frequency transform coding scheme.
[0030] For instance, FIG. 1 shows an example that the mixed signal modeling unit 130 includes the linear prediction unit 131, the residual signal extracting unit 132 and the frequency transforming unit 133.
[0031] The linear prediction unit 131 performs linear predictive analysis on an inputted signal and then extracts a linear predictive coefficient indicating a characteristic of the signal. The residual signal extracting unit 132 extracts a residual signal, from which a redundancy component is removed, from the inputted signal using the extracted linear predictive coefficient. Since the redundancy is removed from the residual signal, the corresponding residual signal can have a type of a white noise. The linear prediction unit 131 is able to perform linear prediction coding on an inputted audio signal by frame unit. The linear prediction unit 131 extracts a predictive coefficient per frame and then quantizes the extracted predictive coefficient. For instance, in particular, if an inputted audio signal is constructed with a plurality of frames or there exist a plurality of super frames, each of which has a unit of a plurality of frames, it is able to determine whether to apply a linear prediction modeling scheme per frame. It is possible to apply a different linear prediction modeling scheme per unit frame existing within one super frame or per subframe of a unit frame. This can raise coding efficiency of an audio signal.」
(【0024】
一方、信号分類部100により入力オーディオ信号が音声と音楽との混合信号と分類される場合には、混合信号に最適化されている符号化器を用いて入力信号を符号化することができ、本実施例では、混合信号に好適な符号化方式として混合信号モデリング部130を使用する。
【0025】
混合信号モデリング部130は、前述の線形予測モデリング方式及び心理音響モデリング方式を変形した混合方式でコーディングすることが可能である。すなわち、混合信号モデリング部130は、入力信号を線形予測コーディングした後、線形予測された結果信号と原信号との差であるレジデュアル信号を獲得し、このレジデュアル信号は、周波数変換コーディング方式によってコーディングする。
【0026】
例えば、図1には、混合信号モデリング部130が、線形予測部131、レジデュアル信号抽出部132及び周波数変換部133を含んでなる一例を示す。
【0027】
ここで、線形予測部131は、入力される信号を線形予測分析して、当該信号の特性を表す線形予測係数を抽出し、この抽出された線形予測係数を用いて、レジデュアル信号抽出部132で入力信号から重複成分の除去されたレジデュアル信号を抽出する。このレジデュアル信号は、重複性が除去されたため、白色雑音のような形態を有することができる。また、線形予測部131は、入力オーディオ信号をフレーム単位で線形予測符号化することができ、一つのフレームごとに予測係数をそれぞれ抽出して量子化することができる。すなわち、例えば、入力オーディオ信号が、複数のフレームで構成されているか、または、複数のフレームを一つの単位とするスーパーフレームが複数存在する場合、それぞれのフレーム別に線形予測モデリング方式を適用するか否かを決定することができる。また、一つのスーパーフレーム内に存在する単位フレームごとにまたは単位フレームのサブフレームごとに、それぞれ異なる線形予測モデリング方式を適用することも可能であり、これにより、オーディオ信号のコーディング効率を高めることができる。)

オ.「[0048] First of all, as a preprocessing process of an input signal using the linear prediction modeling unit 110, the psychoacoustic modeling unit 120 and the mixed signal modeling unit 130, a frequency bandwidth extending process and a channel number changing process can be performed.
[0049] For instance, as one embodiment of the frequency band extending process, a bandwidth preprocessing unit ('150' in FIG. 2 ) is able to generate a high frequency component using a low frequency component. As an example of the bandwidth processing unit, it is able to use SBR (spectral band replication) and HBE (high band extension), which are modified and enhanced.」
(【0044】
図1における線形予測モデリング部110、心理音響モデリング部120、混合信号モデリング部130を用いる入力信号の符号化過程の前処理過程として、周波数帯域幅拡張過程及びチャネル数変更過程を含むこともできる。
【0045】
例えば、周波数帯域拡張過程の一実施例として、帯域幅前処理部150(図2)で低周波成分を用いて高周波成分を生成することができ、帯域幅前処理部150の一例に、変形改善されたSBR(スペクトル帯域複製、Spectral Band Replication)とHBE(高域拡張、High Band Extension)を用いることができる。)

カ.「[0056] Referring to FIG. 3 , a bandwidth preprocessing unit 150 for band extension includes a high frequency region removing unit 151, an extension information generating unit 152 and a spatial information inserting unit 153. The high frequency region removing unit 151 receives a downmix signal and spatial information from the downmix channel generating unit 140. The high frequency region removing unit 151 generates a low frequency downmix signal, which results from removing a high frequency signal corresponding to a high frequency region from a frequency signal of the downmix signal, and reconstruction information including a start frequency and end frequency of an extension base signal (described later).」
(【0051】
図3を参照すると、帯域拡張のための帯域幅前処理部150は、高周波領域除去部151、拡張情報生成部152、及び空間情報挿入部153を含む。高周波領域除去部151は、ダウンミックスチャネル生成部140からダウンミックス信号及び空間情報を受信する。高周波領域除去部151は、該ダウンミックス信号の周波数信号のうち、高周波領域に該当する高周波信号を除去した低周波ダウンミックス信号及び拡張基礎信号(後述する)の開始周波数及び終了周波数を含む復元情報を生成する。)

そして、上記アによれば、種々のオーディオ信号をより高い効率で圧縮できるオーディオ信号処理方法を提供すること、及び、オーディオ信号の特性に適合するオーディオコーディング方法を提供することを目的としている。
また、上記イによれば、オーディオ符号化装置は、入力されるオーディオ信号の特性を分析して分類する信号分類部100と、音声信号を符号化する線形予測モデリング部110と、音声と音楽との混合信号を符号化する混合信号モデリング部130と、符号化方式を選択するためのスイッチング部101を含むものである。
また、上記ウによれば、入力されるオーディオ信号が音声信号と分類された場合、音声信号に好適な符号化方式として線形予測モデリング部110を使用する。上記線形予測モデリング部110には、ACELPコーディング方式を適用することができ、線形予測係数を量子化することもできる。
また、上記エによれば、入力オーディオ信号が音声と音楽との混合信号と分類された場合、混合信号に好適な符号化方式として混合信号モデリング部130を使用する。上記混合信号モデリング部130は、入力される信号を線形予測分析して、当該信号の特性を表す線形予測係数を抽出し、この抽出された線形予測係数を用いて線形予測された結果信号と原信号との差であるレジデュアル信号を抽出し、このレジデュアル信号を周波数変換コーディング方式によってコーディングする。また、上記混合信号モデリング部130に含まれる線形予測部131は、線形予測係数を抽出して量子化することができる。
さらに、上記オ及びカによれば、入力信号の符号化過程の前処理過程として、周波数帯域幅拡張過程を含むこともでき、帯域拡張のための帯域幅前処理部150に含まれる高周波領域除去部151は、高周波領域に該当する高周波信号を除去した低周波ダウンミックス信号及び復元情報を生成する。

したがって、上記アないしカの記載事項と図面の記載とを総合勘案すると、引用文献1には、次の発明(以下、「引用発明」という。)が記載されている。
「入力オーディオ信号の特性を分析して分類することと、
前記入力オーディオ信号が音声信号と分類された場合、ACELPコーディング方式を適用するとともに、線形予測係数を量子化することと、
前記入力オーディオ信号が音声と音楽との混合信号と分類された場合、前記入力オーディオ信号から線形予測係数を抽出し、この抽出された線形予測係数を用いて線形予測された結果信号と原信号との差であるレジデュアル信号を抽出し、このレジデュアル信号を周波数変換コーディング方式によってコーディングするとともに、前記線形予測係数を量子化することとを含むとともに、
符号化過程の前処理過程として周波数帯域幅拡張過程を含み、当該周波数帯域幅拡張過程において、高周波信号を除去した低周波ダウンミックス信号及び復元情報を生成するオーディオコーディング方法。」

(3)対比
本願発明と引用発明とを対比する。
(ア)引用発明の「オーディオコーディング方法」は、本願発明の「入力信号」に相当する「入力オーディオ信号」をコーディングすなわち符号化するものであるから、本願発明の「符号化方法」に相当する。
(イ)引用発明においては、「入力オーディオ信号の特性を分析して分類」した結果が、「入力オーディオ信号が音声信号と分類された場合」と「入力オーディオ信号が音声と音楽との混合信号と分類された場合」とで、コーディングの方式を異ならせているから、引用発明における「入力オーディオ信号の特性を分析して分類すること」は、本願発明における「入力信号の特性を参照し、入力信号の符号化モードを決定する」ことに相当する。
(ウ)引用発明において、上記「入力オーディオ信号が音声信号と分類された場合」には、本願発明における「CELP符号化」に相当する「ACELPコーディング方式」が用いられるから、その場合の符号化モードは「CELPモード」ということができる。そして、一般に、CELP符号化は、入力信号から線形予測係数を抽出し、当該線形予測係数を利用して抽出されたLPC励起信号に対して符号化を行うものであるから、引用発明の上記場合においても、入力信号から線形予測係数を抽出し、当該線形予測係数を利用して抽出されたLPC励起信号に対して符号化を行うことは明らかである。ただし、上記線形予測係数の抽出と量子化を行うのは、本願発明においてはCELP符号化が行われる段階よりも前の段階であるのに対して、引用発明においてはCELP符号化が行われる段階である点で相違する。
(エ)引用発明において、上記「入力オーディオ信号が音声と音楽との混合信号と分類された場合」には、本願発明における「オーディオ符号化」に相当する「周波数変換コーディング方式」が用いられるから、その場合の符号化モードは「オーディオ符号化モード」ということができる。そして、引用発明において、上記「周波数変換コーディング方式」によってコーディングされる「レジデュアル信号」は、線形予測係数を用いて線形予測された結果信号と原信号との差であるから、本願発明における「LPC励起信号」に相当する。ただし、上記線形予測係数の抽出と量子化を行うのは、本願発明においてはオーディオ符号化が行われる段階よりも前の段階であるのに対して、引用発明においてはオーディオ符号化が行われる段階である点で相違する。
(オ)引用発明は、符号化過程の前処理過程として、高周波信号を除去する周波数帯域幅拡張過程を含んでいることからみて、引用発明における上記「入力オーディオ信号が音声信号と分類された場合」及び上記「入力オーディオ信号が音声と音楽との混合信号と分類された場合」で処理される信号は、入力オーディオ信号から高周波信号が除去された信号であるから、本願発明における「入力信号の低バンド信号」に相当する。また、上記周波数帯域幅拡張過程において「復元情報を生成すること」は、本願発明において「入力信号の高バンド信号」に対して「拡張符号化を行う」ことに相当する。ただし、引用発明においては、TD拡張符号化とFD拡張符号化の選択までは行っておらず、したがって、FD拡張符号化における処理内容についても何ら特定されていない。

したがって、上記(ア)ないし(オ)を総合すると、本願発明と引用発明とは、
「入力信号の特性を参照し、入力信号の符号化モードを決定する段階と、
前記入力信号の符号化モードが、CELP(code excited linear prediction)モードと決定されれば、LPC励起信号に対して、CELP符号化を行う段階と、
前記入力信号の符号化モードが、オーディオ符号化モードと決定されれば、LPC励起信号に対して、オーディオ符号化を行う段階と、
を含み、
前記LPC励起信号は前記入力信号の低バンド信号から抽出された線形予測係数(LPC)を利用して抽出され、上記線形予測係数を量子化する、符号化方法。」
である点で一致し、以下の点で相違する。
<相違点1>
本願発明においては、CELP符号化又はオーディオ符号化が行われる段階よりも前の段階において線形予測係数(LPC)を抽出し、抽出された線形予測係数を量子化するのに対して、引用発明においては、CELP符号化を行う段階とオーディオ符号化を行う段階のそれぞれの段階において線形予測係数を抽出し、抽出された線形予測係数を量子化する点。
<相違点2>
本願発明においては、「前記入力信号の低バンド信号のLPC励起信号に対して、CELP符号化が行われれば、前記入力信号の高バンド信号に対して、TD(time domain)拡張符号化を行う段階」及び「前記入力信号の低バンド信号のLPC励起信号に対して、オーディオ符号化が行われれば、前記入力信号の高バンド信号に対してFD(frequency domain)拡張符号化を行う段階」を含んでいるのに対して、引用発明においては、入力信号の高バンド信号に対して拡張符号化を行ってはいるものの、TD拡張符号化とFD拡張符号化を選択して行ってはいない点。
<相違点3>
さらに、本願発明においては、「前記FD拡張符号化を行う段階では、現在フレームがノン-トランジェント(non-transient)フレームに当る場合、前記現在フレームを構成するバンドに対して得られたエネルギーを調節し、調節されたエネルギーを量子化する」のに対して、引用発明においては、FD拡張符号化について何ら特定されていない点。

(4)判断
まず相違点3について検討する。
引用文献2には、音声や音楽・オーディオなどの信号を広帯域に帯域拡張する場合、人工的ではない自然な音に聞こえるようにするためには、入力信号に含まれる帯域拡張したい信号(目的信号)に応じて、帯域を拡張する処理方法を適宜変化させる必要があること、及び、上記目的信号が音声である場合は音声向けに線形予測分析を行った上で帯域を拡張し、上記目的信号が音楽・オーディオである場合は音楽・オーディオ向けに周波数領域変換を行った上で帯域を拡張することが記載されており(段落【0001】-【0002】参照。)、上述の線形予測分析を行った上での帯域拡張はTD(time domain)での拡張ということができ、周波数領域変換を行った上での帯域拡張はFD(frequency domain)での拡張ということができる。しかしながら、引用文献2には、周波数領域変換を行った上での帯域拡張(FDでの拡張)を行う際に、「現在フレームがノン-トランジェントフレームに当る場合、前記現在フレームを構成するバンドに対して得られたエネルギーを調節し、調節されたエネルギーを量子化する」ことまでは、記載も示唆もされていない。
したがって、本願発明は、引用発明及び引用文献2に記載された技術事項に基いて、当業者が容易に発明をすることができたものであるということはできない。

また、引用文献3には、周波数ドメインの符号化にFPCを用いることが記載されており(「2. ENCODING OF MDCT COEFFICIENTS」の欄参照。)、引用文献4には、FD符号化において帯域拡張符号化を行うことが記載されており(段落【0018】参照。)、引用文献5には、トーン成分を分離して符号化することが記載されている(段落【0066】ないし【0072】参照。)が、いずれの文献にも、FDでの拡張を行う際に、「現在フレームがノン-トランジェントフレームに当る場合、前記現在フレームを構成するバンドに対して得られたエネルギーを調節し、調節されたエネルギーを量子化する」ことは記載されていない。
したがって、引用文献3ないし5の記載事項を参酌しても、本願発明は、引用発明及び引用文献2に記載された技術事項に基いて、当業者が容易に発明をすることができたものであるということはできない。

なお、原査定の理由で引用された国際公開第2010/003564号、国際公開第2009/093466号、特開2008-219887号公報、特開平8-263098号公報にも、FDでの拡張を行う際に、「現在フレームがノン-トランジェントフレームに当る場合、前記現在フレームを構成するバンドに対して得られたエネルギーを調節し、調節されたエネルギーを量子化する」ことは記載されていない。

(5)まとめ
以上のとおりであるから、本願発明は、当審拒絶理由で引用された引用文献1ないし5に記載された発明に基づいて、当業者が容易に発明をすることができたものであるとはいえない。
また、本願の請求項2及び3に係る発明は、本願発明をさらに限定したものであるので、本願発明と同様に、引用文献1ないし5に記載された発明に基づいて、当業者が容易に発明をすることができたものであるとはいえない。
よって、当審拒絶理由によっては、本願を拒絶することはできない。

第3 原査定の理由について
原査定の理由は、平成27年1月8日付けの手続補正による補正後の特許請求の範囲の請求項9ないし13とそれらを引用する請求項14に係る発明は、特許法第29条第2項の規定により特許を受けることができないというものである。
これに対して、平成27年12月11日付けの手続補正によって、上記請求項9ないし13とそれらを引用する請求項14は削除された。
よって、原査定の理由によっては、本願を拒絶することはできない。

第4 むすび
以上のとおり、当審で通知した拒絶理由、及び、原査定の理由によっては、本願を拒絶することはできない。
また、他に本願を拒絶すべき理由を発見しない。
よって、結論のとおり審決する。
 
審決日 2017-04-10 
出願番号 特願2013-547347(P2013-547347)
審決分類 P 1 8・ 121- WY (G10L)
最終処分 成立  
前審関与審査官 五貫 昭一金田 孝之  
特許庁審判長 森川 幸俊
特許庁審判官 酒井 朋広
國分 直樹
発明の名称 高周波数帯域幅拡張のための符号化/復号化装置及びその方法  
代理人 伊東 忠重  
代理人 大貫 進介  
代理人 伊東 忠彦  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ