• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 5項独立特許用件 特許、登録しない。 G06F
審判 査定不服 2項進歩性 特許、登録しない。 G06F
管理番号 1175472
審判番号 不服2004-16976  
総通号数 101 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2008-05-30 
種別 拒絶査定不服の審決 
審判請求日 2004-08-13 
確定日 2008-03-31 
事件の表示 平成10年特許願第300695号「キャッシュ・メモリ」拒絶査定不服審判事件〔平成11年 7月30日出願公開、特開平11-203199〕について、次のとおり審決する。 
結論 本件審判の請求は、成り立たない。 
理由 1.手続の経緯
本件審判請求に係る特許出願は、平成10年10月22日の出願(パリ条約による優先権主張1997年10月22日、米国)であって、平成12年10月13日付けで手続補正がなされ、平成15年11月27日付けで拒絶の理由が通知され、それに対して平成16年3月2日付けで手続補正がなされたものの、同年5月13日付けで拒絶査定がなされ、これに対し同年8月13日に審判請求がなされるとともに、同日付けで手続補正がなされたものである。

2.平成16年8月13日付けの手続補正についての補正却下の決定

[補正却下の決定の結論]
平成16年8月13日付けの手続補正を却下する。

[理由]
(1)平成16年8月13日付けの手続補正(以下、「本件補正」という。)
本件補正により、特許請求の範囲の請求項5は、

「仮想タグと仮想索引とを有する仮想アドレスをキャッシュによって受信するステップと、
第1のベクトルを変換索引バッファによって発生するステップであって、前記第1のベクトルは複数のビット位置を有し、前記第1のベクトル内の各ビット位置は前記変換索引バッファ内の位置に対して1対1の対応を有するとともに前記変換索引バッファ内の前記対応する位置が前記仮想タグに対する一致を含むか否かを示す、ステップと、
第1のメモリ構造によって、前記仮想索引によって決まる少なくとも1つの位置から少なくとも1つの第2のベクトルを検索するステップであって、前記第2のベクトルの各々内の各ビット位置は、前記変換索引バッファ内の位置に対し1対1の対応を有するとともに前記変換索引バッファ内の前記対応する位置が特定の物理的タグを含むか否かを示す、ステップと、
デジタル比較器によって、前記第1のベクトルと前記第2のベクトルとを比較するステップと、
前記比較結果を利用して、物理的アドレスによって参照されるデータを格納する第2のメモリ構造からデータを選択するステップと、
を備えて成る、キャッシュ内のデータにアクセスする方法。」

と補正された。

(2)補正内容の検討
本件補正は、請求項5に記載した発明を特定するために必要な事項である「第2のメモリ構造」について「物理的アドレスによって参照されるデータを格納する」という限定を付加するものであって、特許法第17条の2第4項第2号の「特許請求の範囲の減縮」を目的とするものに該当する。
そこで、本件補正後の前記請求項5に記載された発明(以下、「本件補正発明」という。)が特許出願の際独立して特許を受けることができるものであるか(特許法第17条の2第5項において準用する同法第126条第5項に規定された要件を満たすか)について以下に検討する。

(3)引用例に記載の発明
原査定の拒絶の理由に引用された米国特許第5133058号明細書(以下、「引用例」という。)には、図面と共に次の事項が記載されている。

(A)「In any case, each line of such a cache memory may come from any particular page of main memory so that lines lying adjacent each other in cache memory may have entirely different virtual page addresses. The virtual page address, a series of high order bits of the address, is usually stored as part of a tag field which in addition to the page address includes protection and control information such as whether the information is read or write protected and whether the information is valid. In a particular system, such a tag field may require approximately sixteen bits to represent the tag information.
A system uses the low order bits of the virtual address (the offset) to select the line in which information is stored in such a cache memory. Once the line is selected, the system determines whether the required information is in the cache memory (whether there is a hit) by looking for the correct virtual page address in the tag field of that line. If the page address in the tag field at the desired line in the cache memory matches the desired page address, then there is a hit; and the information in the cache memory may be used without the necessity of going to main memory.」(第1欄43行乃至65行)
(訳:いずれにせよ、そうしたキャッシュメモリのそれぞれの行は主メモリのいずれか特定のページからくるかもしれないので、キャッシュメモリ中の隣り合った行は全く異なった仮想ページアドレスを持つかもしれない。通常、仮想ページアドレス、仮想アドレスの高位側の連続するビット、が、そのページアドレスに加えて情報が読み書きに対し保護されているか否か及び情報が有効であるか否かを示す保護及び制御情報を含むタグアドレスフィールドの部分として格納される。あるシステムでは、そうしたタグ情報を表現するために、タグフィールドがおよそ16ビット必要である。
システムは、仮想アドレスの低位側のビット(オフセット)を、そうしたキャッシュメモリにおいて情報が格納される行を選択するために用いる。ひとたび行が選択されれば、システムは、そのラインのタグフィールドの中の適切な仮想ページアドレスを探すことによって、要求された情報がキャッシュメモリ内にあるか否か(ヒットしているか否か)を決定する。もし、キャッシュメモリの要望された行のタグフィールド中のページアドレスが要望されたページアドレスであれば、ヒットしており、主メモリに行く必要がなく、キャッシュメモリ中の情報を用いることができる。)

(B)「The virtual address is first used to address the cache memory (data or instruction cache) to first determine whether the information is available in the particular cache memory (whether a cache hit or a cache miss occurs). 」(第2欄19行乃至23行)
(訳:情報があるキャッシュメモリから利用できるかどうか(キャッシュヒットが生じたかキャッシュミスが生じたか)を最初に決めるために、キャッシュメモリ(データ又は命令キャッシュ)をアドレスするために最初に仮想アドレスが用いられる。)

(C)「To obviate this problem, certain computer systems have provided a buffer memory often called a translation look-aside buffer for storing both the virtual and comparable physical addresses of information recently utilized by the computer.」(第2欄32行乃至36行)
(訳:この問題を予防するために、コンピュータが最近用いた情報の仮想アドレスと対応する物理アドレスの両方を格納するトランスレーション・ルックアサイド・バッファと多くの場合呼ばれるバッファメモリを提供するコンピュータシステムがある。)

(D)「FIG. 3 illustrates a caching system 30 devised in accordance with the present invention which substantially reduces the problems of the above- described system. The system 30 illustrated in FIG. 3 includes a central processing unit 12, a main memory 14, an instruction cache memory 16, and a data cache memory 18 all as illustrated in FIG. 1. Associated with the instruction cache memory 16 is a translation look-aside buffer 32. Associated with the data cache memory 18 is a second translation look-aside buffer 33. 」(第6欄8行乃至17行)
(訳:第3図に、上述したシステムにおける問題を大幅に減少させた本発明に従って工夫されたキャッシングシステム30が描かれている。第3図に描かれたシステム30は、第1図に描かれたものと全てが同様である、中央処理ユニット12、主メモリ14、命令キャッシュメモリ16、及び、データキャッシュメモリを含む。トランスレーション・ルックアサイド・バッファ32は、命令キャッシュメモリ16に関連させられている。第2のトランスレーション・ルックアサイド・バッファ33は、データキャッシュメモリ18に関連させられている。)

(E)「By allowing only information from two pages of main memory to reside in a cache memory at one time, only two bits need be used to designate, in the tag address space of the cache memory, the virtual page from which the information came. This eliminates approximately sixteen bits from each line of the cache memory. This is possible because each one of the two bits represents one or the other of two lines in the associated translation look-aside buffer 32. The two bits then act as an index into the translation look-aside buffer which provides the full virtual page address.」(第6欄56行乃至66行)
(訳:主メモリの二つのページからの情報のみが一度にキャッシュメモリに存在することを許されることにより、その情報の出所である仮想ページを示すために、キャッシュメモリのタグアドレス空間において二つのビットだけが用いられる必要がある。このことで、キャッシュメモリのそれぞれの行から概ね16ビットが削減される。このことは、この二つのビットのそれぞれが、関連させられたトランスレーション・ルックアサイド・バッファ32中の二つの行の一方及び他方を表現していることによって可能とされている。したがって、この二つのビットは、完全な仮想ページアドレスを供給するトランスレーション・ルックアサイド・バッファに対するインデックスとして振舞う。)

(F)「Instead of the full tag address field, the index field in the cache memory 16 used for illustration herein holds a one or a zero in each of the two bits indicating the virtual addresses of the particular pages of main memory 14 stored in the cache memory. For example, if a one appears in the first position, this indicates the page in the upper of the two lines held in the associated translation look-aside buffer 32; if the second position holds a one, then the lower of the two lines in the translation look-aside buffer 32 is indicated. If neither bit position holds a one, this may be used to indicate that the information in that line of the cache memory is invalid and is not to be used. If more pages from main memory are allowed to be stored in the cache memory at one time, then more bits more are required in the index field of the cache line.
If a 1 appears in any bit position of the index field in the cache memory, the system looks to the translation look-aside buffer 32 to provide a match of the virtual page address. Assuming a match exists, the physical page address and the protection and control information for the addressed line of the cache memory 16 is provided. In the illustration of FIG. 4, the cache memories 16 and 18 are restricted to only two pages of main memory. The upper line of the translation look-aside buffer 32 provides the page address for all lines of one of the two pages which may at any one time be stored in the cache memory 16 while the lower line provides the page address for all lines of the other of the two pages which may be stored in the cache memory 16.
As in prior art systems, a check for a hit in the cache memory 16 is made by matching the lower order line address bits of the address sought with the line addresses in the cache memory to select the proper line. The index field at the matched line indicates the appropriate tag address field including the virtual page address, and the translation look-aside buffer 32 provides a match signal on the one of the two match lines which holds the appropriate page address. This match signal and the signal from the appropriate line of the cache memory 16 are provided to select either an AND gate 40 or an AND gate 42. The selected AND gate 40 or 42 provides an output to an OR gate 44 signifying that there is both a virtual page address match and a index field match at the selected line address so that the information may be utilized. On the other hand, if neither line of the exemplary translation look-aside buffer 32 holds a matching page address, there is no match; and the central processing unit 12 must go to the main memory for the required information.
As in prior art systems, the translation look-aside buffer 32 stores both the virtual and comparable physical page addresses of information in the cache memory. 」(第7欄13行乃至65行)
(訳:ここで描かれたもので用いられるキャッシュメモリ16のインデックスフィールドは、完全なタグアドレスフィールドに替えて、そのキャッシュメモリに格納されているメインメモリの特定のページの仮想アドレスを示す、それぞれが1か0を示す二つのビットを保持する。例えば、第1の位置が1である場合、このことは関連するトランスレーション・ルックアサイド・バッファ32の二つの行のうちの上のほうのページを示す。もし、第2の位置が1を保持していれば、そのトランスレーション・ルックアサイド・バッファ32の二つの行のうちの下方が示されている。もし、いずれのビット位置も1を保持していなければ、キャッシュメモリのその行の中の情報は無効であって用いることができないことが示される。もし、一度にキャッシュメモリに主メモリからのさらなるページが格納されることが許容されるのであれば、キャッシュ行のインデックスフィールド中にさらなるビットが必要とされる。
もし、キャッシュメモリのインデックスフィールドのいずれかのビット位置に1が生じたら、システムは、対応する仮想ページアドレスを供給するためにトランスレーション・ルックアサイド・バッファ32を頼る。対応するものが存在すると仮定すると、その物理ページアドレスとキャッシュメモリ16のアドレスされた行についての保護および制御情報が供給される。第4図の描画では、キャッシュメモリ16と18は主メモリのただ二つのページに制限される。トランスレーション・ルックアサイド・バッファ32の上方の行は、一度にキャッシュメモリ16に格納されうる二つのページの一方に属する全ての行のページアドレスを供給し、その一方で、下方の行は、キャッシュメモリ16に格納されうる二つのページの他方に属する全ての行のページアドレスを供給する。
先行技術のシステムと同様に、キャッシュメモリ16におけるヒットの判定は、適切な行を選択するために、探しだされたアドレスのより低位の行アドレスビットとキャッシュメモリの行アドレスとが合致するものを探すことによってなされる。合致した行のインデックスフィールドは、仮想ページアドレスを含む適切なタグアドレスフィールドを示す。そして、トランスレーション・ルックアサイド・バッファ32は、二つの合致線のうちの適切なページアドレスを格納する一方に合致信号を供給する。この合致信号とキャッシュメモリ16の適切な行からの信号とがANDゲート40又はANDゲート42のいずれかを選択するために供給される。仮想ページアドレスが合致し、かつ、情報を用いることができるようにインデックスフィールドが選択されたラインアドレスと合致することを示すように、選択されたANDゲート40又は42は、ORゲート44に対する出力を供給する。他方、模範的なトランスレーション・ルックアサイド・バッファ32のいずれの行も合致するページアドレスを格納していない場合、合致はなく、中央処理ユニット12は要求された情報をとりにメインメモリへ行かなければならない。
先行技術のシステムと同様に、トランスレーション・ルックアサイド・バッファ32は、キャッシュメモリ中の情報の仮想及び対応する物理アドレスの両方を格納する。)

(B)によれば、キャッシュヒットの判定は仮想アドレスで行われる。つまり、キャッシュ装置は仮想アドレスを受信するものである。そして、(A)によれば、その仮想アドレスの高位側のビットがタグとなる仮想ページアドレスであり、低位側ビットが、キャッシュメモリの行を選択するためのオフセットとなるものである。

(E)(F)及び第4図によれば、複数の合致線がトランスレーション・ルックアサイド・バッファ(以下、「TLB」という。)の複数の行に対応して設けられているものである。そして、(F)の「トランスレーション・ルックアサイド・バッファ32は、二つの合致線のうちの適切なページアドレスを格納する一方に合致信号を供給する」との記載によれば、TLBは、複数の合致線のうち、受信した仮想アドレスの仮想ページアドレスに合致する仮想ページアドレスを格納する行に対応する合致信号を供給するものである。

第4図の図中番号16で示されたキャッシュメモリの下に記載されたINDEX、DATAとは、キャッシュメモリがインデックスを格納する部分(同「インデックス格納部」)とデータを格納する部分(同「データ格納部」)からなることを示している。
そして、(E)(F)によれば、キャッシュメモリのインデックスフィールド、すなわち上述したインデックス格納部は、TLBの各行を表現する、すなわち、TLBに対するインデックスとなっている、複数のビットを保持するものである。
さらに、(F)(A)の記載からみて、このインデックスが、仮想アドレスのオフセットによってキャッシュメモリから選択され、かつ、このインデックスの各ビットがキャッシュメモリに格納された主メモリのページに対応するページアドレスを供給するTLBの行を示すことがわかる。

(F)及び第4図によれば、ANDゲート40及びANDゲート42からなる論理回路により各合致線に供給された合致信号と前記インデックスの各々のビットとが、ヒット判定を行うべく、AND演算されるものである。また、(A)(D)によれば、ヒットした場合にキャッシュメモリの情報、つまり、上述したデータ格納部の中の上記したオフセットで選択される行のデータが、(D)に示された中央処理ユニット12によってアクセスされて用いられるものである。

してみると、引用例には、

タグとなる仮想ページアドレスとオフセットとを有する仮想アドレスをキャッシュによって受信するステップと、
合致信号をTLBにより供給するステップであって、前記合致信号は複数の合致線に供給され、この各合致線は前記TLBの行に対応するとともに、前記TLBの前記行が前記タグとなる仮想ページアドレスと合致しているか否かを示す、ステップと、
キャッシュメモリのインデックス格納部から、前記オフセットによりTLBに対するインデックスを選択するステップであって、前記インデックスの各々のビットは、前記TLBの行を表現するとともに、前記TLB内の行がキャッシュメモリに格納されたページの仮想ページアドレスを供給するか否かを示す、ステップと、
論理回路によって、各合致線に供給された合致信号と前記インデックスの各々のビットとのAND演算するステップと、
このAND演算の結果を利用して、キャッシュヒットの判定を行い、キャッシュヒットの場合にキャッシュメモリのデータ格納部のオフセットで選択されるデータを用いるステップと、
を含む、キャッシュメモリ内のデータにアクセスする方法

の発明(以下「引用発明」という。)が記載されているものと認められる。

(4)本件補正発明と引用発明との対比
本件補正発明と引用発明とを対比する。

引用発明の「タグとなる仮想ページアドレス」、「キャッシュメモリ」、「TLB」、「TLBの行」、「キャッシュメモリのインデックス格納部」、「キャッシュメモリのデータ格納部」は、それぞれ本件補正発明の「仮想タグ」、「キャッシュ」、「変換索引バッファ」、「変換索引バッファ内の位置」、「第1のメモリ構造」、「第2のメモリ構造」に相当する。

引用発明の「合致信号」は、変換索引バッファ内の位置が仮想タグと合致しているか否かを示すものであり、変換索引バッファ内の位置が仮想タグに対する一致を含むか否かを示す、本件補正発明の「第1のベクトル」に相当する。
そして、引用発明の「複数の合致線」は、変換索引バッファ内の位置に対応しており、変換索引バッファ内の位置に1対1の対応を有する、本件補正発明の「複数のビット位置」に相当する。

引用発明の「オフセット」は、第1のメモリ構造から「TLBに対するインデックス」を「選択」する処理で用いられるアドレスであり、本件補正発明の「仮想索引」に相当する。そして引用発明のこの「選択」する処理は、その選択にあたって「検索」する処理でもある。
また、このインデックスの各々のビットがTLBの行、すなわちTLBの位置、を表現する以上は、この各々のビットはTLBの各々の位置に1対1に対応している。
そして、引用発明の「TLBに対するインデックス」は、第1のメモリ構造から検索され、ビットからなる情報、すなわちビットベクトルであり、さらに各ビットがTLBの各々の位置に対応する点において、本件補正発明の「第2のベクトル」と共通する。

引用発明の「論理回路」によるビット毎のAND演算は、一致しているビットを抽出する演算であるので、本件発明の「比較する」演算に相当するものであって、引用発明の「論理回路」は、本願発明の「デジタル比較器」に相当する。
そして、引用発明の「キャッシュヒットの場合にキャッシュメモリのデータ格納部のオフセットで選択されるデータを用いる」ことは、比較の結果を利用したキャッシュヒット時の第2のメモリ構造のデータをアクセスする処理である点で、本件補正発明の「第2のメモリ構造からデータを選択する」ことと共通するものである。

してみると、両者は、

仮想タグと仮想索引とを有する仮想アドレスをキャッシュによって受信するステップと、
第1のベクトルを変換索引バッファによって発生するステップであって、前記第1のベクトルは複数のビット位置を有し、前記第1のベクトル内の各ビット位置は前記変換索引バッファ内の位置に対して1対1の対応を有するとともに前記変換索引バッファ内の前記対応する位置が前記仮想タグに対する一致を含むか否かを示す、ステップと、
第1のメモリ構造によって、前記仮想索引によって決まる少なくとも1つの位置から少なくとも1つの第2のベクトルを検索するステップであって、前記第2のベクトルの各々内の各ビット位置は、前記変換索引バッファ内の位置に対し1対1の対応を有する、ステップと、
デジタル比較器によって、前記第1のベクトルと前記第2のベクトルとを比較するステップと、
前記比較結果を利用して、キャッシュヒット時の第2のメモリ構造のデータをアクセスする処理を行うステップと、
を備えて成る、キャッシュ内のデータにアクセスする方法

である点で一致し、次の(ア)(イ)の2点で相違する。

(相違点)
(ア)第1のメモリ構造によって検索されて第1のベクトルと比較される第2のベクトルは、本件補正発明においては変換索引バッファ内の位置が「特定の物理的タグを含むか否か」を示すのに対し、引用発明においては変換索引バッファ内の位置がキャッシュメモリに格納されたページの仮想ページアドレスを供給するか否かを示す点。

(イ)比較結果を利用した第2のメモリ構造のデータをアクセスする処理において、本件補正発明においては「物理的アドレスによって参照される」データを第2のメモリ構造から「選択」するのに対し、引用発明においてはオフセットで選択されるデータを、キャッシュヒットの場合に用いる点。

(5)相違点の判断
上記相違点について検討する。
(i)相違点(ア)について
引用発明のTLBの行がキャッシュメモリに格納されたページの仮想ページアドレスを供給するものである以上、引用発明のTLBにはその仮想ページアドレスと、それに対応する物理ページアドレスの両方が格納され、仮想アドレスを格納することを示せば物理アドレスを格納することも示されたことになるものである。つまり、変換索引バッファ内の位置であるTLBの行が仮想ページアドレスとともに対応する物理ページアドレスを格納することは技術常識であって、こうした技術常識は、引用例の上記(C)(F)の記載にも示されるところである。
してみると、引用発明において、第1のメモリ構造によって検索されて第1のベクトルと比較される「TLBに対するインデックス」の役割、つまり変換索引バッファ内の位置が仮想ページアドレスを供給するか否かを示すとの役割、について、上記した技術常識に即して言い換え、「TLBに対するインデックス」である第2のベクトルは変換索引バッファ内の位置が特定の物理的タグを含むか否かを示すとすることに、格別の創意は必要なく、この相違点は格別のものでない。

(ii)相違点(イ)について
長尾他編、岩波情報科学辞典、1990年5月25日、岩波書店、727乃至728頁の「マッピング方式(キャッシュの)」の説明の記載にあるように、キャッシュメモリを索引するアドレスの下位ビットが同じである複数のキャッシュ位置を有し、ヒット判定とともにその複数のキャッシュ位置からの複数のデータの一を選択する制御を行うキャッシュメモリ、いわゆるセットアソシアティブ方式のキャッシュメモリは周知技術であり、かつ、この方式のキャッシャメモリのヒット率がこのような複数のキャッシュ位置を有さないキャッシャメモリに比べて高いことも当業者に広く知られたことである。また、キャッシュメモリの行を選択する低位側ビット(上記2.(3)の(A)を参照)である引用発明の「オフセット」も含め、上述したキャッシュメモリを索引するアドレスの下位ビットは、仮想アドレスから物理アドレスへの変換にあたって変換されないので、仮想アドレスであるとともに物理アドレスであるといえる。
そして、キャッシュメモリを用いた技術である以上、引用発明においてキャッシャメモリのヒット率の向上は自明な課題である。
してみると、引用発明において、ヒット率を向上するために周知技術であるセットアソシアティブ方式を採用して、物理的アドレスによって参照されるデータを第2のメモリ構造から選択するように構成することは、当業者が容易に為し得たものである。

以上のとおり、相違点(ア)(イ)はいずれも格別のものでなく、また、これらの相違点を総合的に勘案しても、奏される効果は、審判請求書の7頁18行乃至8頁16行で主張された効果も含め、当業者が当然に予測できる範囲内のものである。

(6)むすび
したがって、本件補正発明は、引用例記載の発明及び周知技術に基づいて当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許出願の際独立して特許を受けることができないものであるので、本件補正は、特許法第17条の2第5項で準用する同法第126条第5項の規定に違反するものであり、特許法第159条第1項の規定において読み替えて準用する特許法第53条第1項の規定により却下されるべきものである。

3.本願発明について
(1)本願発明の認定
平成16年8月13日付けの手続補正は上記2.のとおり却下されたので、本件審判請求に係る特許出願の請求項5に係る発明(以下「本願発明」という。)は、平成12年10月13日付けの手続補正書の特許請求の範囲の請求項5に記載された事項により特定される、以下のとおりのものである。

「仮想タグと仮想索引とを有する仮想アドレスをキャッシュによって受信するステップと、
第1のベクトルを変換索引バッファによって発生するステップであって、前記第1のベクトルは複数のビット位置を有し、前記第1のベクトル内の各ビット位置は前記変換索引バッファ内の位置に対して1対1の対応を有するとともに前記変換索引バッファ内の前記対応する位置が前記仮想タグに対する一致を含むか否かを示す、ステップと、
第1のメモリ構造によって、前記仮想索引によって決まる少なくとも1つの位置から少なくとも1つの第2のベクトルを検索するステップであって、前記第2のベクトルの各々内の各ビット位置は、前記変換索引バッファ内の位置に対し1対1の対応を有するとともに前記変換索引バッファ内の前記対応する位置が特定の物理的タグを含むか否かを示す、ステップと、
デジタル比較器によって、前記第1のベクトルと前記第2のベクトルとを比較するステップと、
前記比較結果を利用して、第2のメモリ構造からデータを選択するステップと、
を備えて成る、キャッシュ内のデータにアクセスする方法。」

(2)引用発明
原査定の拒絶の理由に引用された引用例、及び引用例に記載された発明(上記「引用発明」)その他の記載事項は、上記した「2.(3)」に記載に記載したとおりである。

(3)本願発明と引用発明との対比・判断
本願発明は、前記「2.」で検討した本件補正発明から発明特定事項である「第2のメモリ構造」の限定事項である「物理的アドレスによって参照されるデータを格納する」という構成を省いたものである。
そうすると、本願発明の発明特定事項を全て含み、さらに当該限定事項である構成要件を付加したものに相当する本件補正発明が、上記した「2.(4)」及び「2.(5)」において示したとおり引用例記載の発明及び周知技術に基づいて当業者が容易に発明をすることができたものであるから、本願発明も、同様の理由により、引用例記載の発明及び周知技術に基づいて当業者が容易に発明をすることができたものである。

(4)むすび
以上のとおり、本願発明は、引用例記載の発明及び周知技術に基づいて当業者が容易に発明をすることができたものであるから、特許法第29条第2項の規定により特許を受けることができない。

よって、結論のとおり審決する。
 
審理終結日 2007-11-05 
結審通知日 2007-11-06 
審決日 2007-11-19 
出願番号 特願平10-300695
審決分類 P 1 8・ 121- Z (G06F)
P 1 8・ 575- Z (G06F)
最終処分 不成立  
前審関与審査官 清木 泰  
特許庁審判長 井関 守三
特許庁審判官 桑江 晃
相崎 裕恒
発明の名称 キャッシュ・メモリ  
代理人 松島 鉄男  
代理人 奥山 尚一  
代理人 有原 幸一  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ