• ポートフォリオ機能


ポートフォリオを新規に作成して保存
既存のポートフォリオに追加保存

  • この表をプリントする
PDF PDFをダウンロード
審決分類 審判 査定不服 特17条の2、3項新規事項追加の補正 特許、登録しない。 G06F
審判 査定不服 2項進歩性 特許、登録しない。 G06F
管理番号 1359191
審判番号 不服2018-14390  
総通号数 243 
発行国 日本国特許庁(JP) 
公報種別 特許審決公報 
発行日 2020-03-27 
種別 拒絶査定不服の審決 
審判請求日 2018-10-31 
確定日 2020-01-22 
事件の表示 特願2016-154389「粒子相互作用を計算するための並行計算アーキテクチャ」拒絶査定不服審判事件〔平成28年12月22日出願公開,特開2016-219044〕について,次のとおり審決する。 
結論 本件審判の請求は,成り立たない。 
理由 第1.手続の経緯
本願は,2006年8月18日(パリ条約による優先権主張外国庁受理2005年8月18日,2006年1月4日,2006年4月19日 アメリカ合衆国)を国際出願日とする特願2008-527193号の一部を,特許法44条1項の規定により,平成24年1月27日に新たな特許出願としたものである特願2012-015530号の一部を,同法44条1項の規定により,平成26年4月2日に新たな特許出願としたものである特願2014-076105号の一部を,同法44条1項の規定により,平成28年8月5日に新たな特許出願としたものであって,
平成28年8月5日付けで審査請求がなされ,平成29年7月31日付けで審査官により拒絶理由が通知され,これに対して平成30年2月2日付けで意見書が提出されると共に手続補正がなされたが,平成30年6月22日付けで審査官により拒絶査定がなされ(謄本送達平成30年7月3日),これに対して平成30年10月31日付けで審判請求がなされると共に手続補正がなされ,平成31年1月29日付けで審査官により特許法164条3項の規定に基づく報告がなされ,平成31年3月4日付けで上申書の提出があったものである。

第2.平成30年10月31日付けの手続補正の却下の決定

[補正却下の決定の結論]

平成30年10月31日付け手続補正を却下する。

[理由]

1.補正の内容
平成30年10月31日付けの手続補正(以下,「本件手続補正」という)により,平成30年2月2日付けの手続補正により補正された特許請求の範囲,
「 【請求項1】
粒子相互作用を計算するための計算装置であって,
前記計算装置は複数の計算ノードと第1通信システムとを備え,
前記第1通信システムと前記計算ノードとは並行処理システムを集合的に定義し,
前記第1通信システムは複数の前記計算ノードを相互接続する複数のリンクを有し,
複数の前記計算ノードはシミュレーション体積の幾何学的分割に応じて配置され,
複数の前記計算ノードは第1計算ノードと第2計算ノードを含み,前記第1計算ノードと前記第2計算ノードの各々は記憶装置,複数の処理サブシステム,および第2通信システムを備え,
前記記憶装置は粒子データを記憶し,前記粒子データは幾何学的分割された前記シミュレーション体積の領域における複数の粒子に関連付けられ,
前記処理サブシステムの各々は互いに異なる計算タスクを実行し,
前記処理サブシステムの各々は処理装置を備え,前記第2通信システムは複数の前記処理サブシステムと前記記憶装置とを相互接続し,
前記第1計算ノードの内部にある複数の前記処理サブシステムは,前記第1計算ノードの内部の前記粒子相互作用の計算を分散方式で調整し,
前記第2計算ノードの内部にある複数の前記処理サブシステムは,前記第2計算ノードの内部の前記粒子相互作用の計算を分散方式で調整する,
計算装置。
【請求項2】
前記粒子データは粒子速度データを含む,
請求項1記載の計算装置。
【請求項3】
前記粒子データは,前記粒子のタイプを示すデータを含む,
請求項1記載の計算装置。
【請求項4】
前記粒子データは,前記粒子の電荷を示すデータを含む,
請求項1記載の計算装置。
【請求項5】
複数の前記処理サブシステムは,
ミッドレンジ力の計算を実行する第1サブシステムと,
近距離相互作用の計算を実行する第2サブシステムと
を含む,請求項4記載の計算装置。
【請求項6】
複数の前記処理サブシステムはFFTサブシステムを含む,
請求項1記載の計算装置。
【請求項7】
複数の前記処理サブシステムは,畳み込み操作を用いてポテンシャルエネルギーを計算するように構成されるサブシステムを備える,
請求項1記載の計算装置。
【請求項8】
複数の前記処理サブシステムは,
複数の粒子相互作用モジュールからなる1つの行と,
複数の粒子相互作用モジュールからなる1つのパイプラインとを備え,
前記行は前記パイプラインに対して平行であり,
第1行のうちの複数の粒子相互作用モジュールは直列接続され,
前記パイプラインのうちの複数の粒子相互作用モジュールは直列接続され,
第1行の複数の粒子相互作用モジュールは,複数の粒子を受け取るとともに,各々の粒子と,第1行の複数の粒子相互作用モジュールの記憶装置に記憶された粒子との相互作用を計算し,
第2行の複数の粒子相互作用モジュールは,複数の粒子を受け取るとともに,各々の粒子と,第2行の複数の粒子相互作用モジュールの記憶装置に記憶された粒子との相互作用を計算する,
請求項1記載の計算装置。
【請求項9】
複数の前記処理サブシステムは第1サブシステムを備え,前記第1サブシステムは,粒子力データを入手するとともに,更新された粒子位置と粒子速度とを生成すべく粒子力データを用いて足し合わせを実行するように構成される,
請求項1記載の計算装置。
【請求項10】
複数の前記処理サブシステムは,更新された粒子位置と粒子速度とを,複数の前記第2サブシステムにマルチキャストするように構成される第1サブシステムを備える,
請求項1記載の計算装置。
【請求項11】
複数の前記処理サブシステムは,各時間ステップにおいて振り付けをするように構成される第1サブシステムを備える,
請求項1記載の計算装置。
【請求項12】
複数の前記処理サブシステムは第1サブシステムを備え,前記第1サブシステムは第1計算要素と,前記第1計算要素に対して平行な第2計算要素とを備え,
前記第1計算要素と前記第2計算要素とは,前記並行処理システムに対する追加並行処理システムを規定する,
請求項1記載の計算装置。
【請求項13】
前記第1サブシステムは第1サブシステム処理装置,第1サブシステムキャッシュ,および第1サブシステム記憶装置を備え,
前記第1サブシステム処理装置は,前記第1サブシステムキャッシュにデータ通信するとともに,前記第1サブシステム記憶装置にデータ通信する,
請求項12記載の計算装置。
【請求項14】
前記計算装置はさらに,通信インターフェイスと遠隔アクセスユニットとを備え,
前記遠隔アクセスユニットは,前記第1サブシステム記憶装置と前記通信インターフェイスとにデータ通信し,
前記遠隔アクセスユニットは,前記第1サブシステム記憶装置の直接記憶アクセスに接続することによって,前記第1サブシステム処理装置に介入せずに記憶アクセスを許容するように構成される,
請求項13記載の計算装置。
【請求項15】
前記第1サブシステム記憶装置はさらに,粒子に関連付けられた計算結果を,直接メモリアクセスを介して累積するように構成される,
請求項13記載の計算装置。
【請求項16】
前記第1サブシステム記憶装置はさらに,特定粒子に関連付けられた計算結果を,直接メモリアクセスを介して,他の計算ノードに提供するように構成される,
請求項13記載の計算装置。
【請求項17】
前記計算装置はさらに,前記第1サブシステム記憶装置にデータ通信するジオメトリ・コアを備える,
請求項13記載の計算装置。
【請求項18】
前記計算装置はさらに,前記第1サブシステム記憶装置にデータ通信するコプロセッサを備え,
前記コプロセッサは,プリミティブ操作子として,内積を実行する操作子を含むように実現される,
請求項13記載の計算装置。
【請求項19】
前記第1計算ノードの前記第2通信システムは,第1リング・ステーションと第2リング・ステーションとを備え,
前記第1リング・ステーションは前記第2リング・ステーションから離間した要素であり,
前記第1計算ノードの前記第2通信システムは,粒子データを前記第1計算ノードから前記第2計算ノードに渡すように構成され,
前記第1計算ノードから前記第2計算ノードへの渡し経路において,前記粒子データは前記第1リング・ステーションと前記第2リング・ステーションとを通過し,
前記計算装置はさらに第3計算ノードを備え,前記第1通信システムは前記第3計算ノードを前記第1計算ノードと前記第2計算ノードとに接続し,
前記第1計算ノードから前記第2計算ノードへの渡し経路において,前記粒子データは前記第3計算ノードを通過する,
請求項1記載の計算装置。
【請求項20】
前記第1計算ノードの前記第1通信システムと前記第2通信システムとは,任意の処理サブシステムの介入なしで前記第1計算ノードから前記第2計算ノードへ前記粒子データを渡すときに,前記第1計算ノードの複数の前記処理サブシステムをバイパスするように構成される,
請求項1記載の計算装置。
【請求項21】
前記計算ノードの各々は,
計算に粒子データを必要とする少なくとも1つの他の計算ノードに前記粒子データを送り,
少なくとも1つの他の計算ノードから送られた粒子データを受け取り,
受け取った粒子データを使用して計算を実行することで第1結果を出力し,
前記第1結果を少なくとも1つの他の計算ノードに送り,
少なくとも1つの他の計算ノードから送られる前記第1結果を受け取り,そして
受け取った前記第1結果を使用してさらに計算を実行することで第2結果を出力するように構成されている,
請求項1記載の計算装置。
【請求項22】
前記粒子データは粒子位置データを含む,
請求項21記載の計算装置。
【請求項23】
前記第1結果は粒子力データを含む,
請求項21記載の計算装置。
【請求項24】
前記第2結果は粒子位置データを含む,
請求項21記載の計算装置。
【請求項25】
前記第1計算ノードの前記第2通信システムは,複数の前記処理サブシステムと,前記第1計算ノードの記憶装置との間でパケットに基づくメッセージを交換するように構成され,
前記第1計算ノードの前記第2通信システムは,複数の前記処理サブシステムと,前記第1計算ノードと前記第2計算ノードの記憶装置との間でパケットに基づくメッセージを交換するように構成される,
請求項1記載の計算装置。
【請求項26】
前記第1計算ノードの前記第2通信システムは,複数の他の計算ノードの通信サブシステムに用いられるグローバルアドレス空間を使うように構成され,
前記グローバルアドレス空間のアドレスは第1位置と第2位置とを有し,
前記第1位置は,通信のパケットが指向されるノードを同定し,
前記第2位置は,前記パケットが指向されるノード内部の構成要素を同定する,
請求項1記載の計算装置。
【請求項27】
前記第2通信システムの各々は複数のリングステーションを備え,前記リングステーションの各々は,前記リングステーションに到着する複数のパケットを扱うルールを表とともに特定するように構成される,
請求項1記載の計算装置。
【請求項28】
前記第2通信システムの各々は,パケット内のデータタイプに基づきパケットをマルチキャストするように構成される,
請求項1記載の計算装置。
【請求項29】
前記第2通信システムの各々は,パケット内のデータタイプを示す情報でパケットをタグ付けし,前記パケットを一群の目的地に分配するように構成され,
前記目的地の各々は前記データタイプによって決定される,
請求項1記載の計算装置。
【請求項30】
前記第2通信システムの各々は,前記粒子データを分配するための近傍を構成する記憶装置を備える,
請求項1記載の計算装置。
【請求項31】
前記第2通信システムは,前記第1計算ノードの処理サブシステムと,前記第2計算ノードの処理サブシステムとの間の接続の少なくとも一部を提供し,
前記処理サブシステムは,空間的位置にそれぞれ関連付けられているデータ要素の対毎の計算を実行する回路を備える,
請求項1記載の計算装置。
【請求項32】
少なくとも一つの前記処理サブシステムは,一般的な計算を行うようにプログラム可能である,
請求項1記載の計算装置。
【請求項33】
少なくとも一つの前記処理サブシステムは,複数の独立にプログラム可能な処理装置を備える,
請求項1記載の計算装置。
【請求項34】
前記第1通信システムは複数の第1インターフェイスユニットを含み,
前記第1インターフェイスユニットの各々は,複数の前記処理サブシステムのうちの1つの処理サブシステムにリンクされ,
前記第2通信システムはさらに,少なくとも1つの他の処理ノードのリング・ステーションに接続するための少なくとも1つのリング・ステーションを備える,
請求項1記載の計算装置。
【請求項35】
複数の前記処理サブシステムのうちの1つの処理サブシステムは,粒子シミュレーションシステム内の粒子の対を含む計算を行うように構成される,
請求項1記載の計算装置。
【請求項36】
複数の前記処理サブシステムのうちの1つの処理サブシステムは,粒子シミュレーションシステム内の粒子およびグリッド位置を含む計算を行うように構成される,
請求項1記載の計算装置。
【請求項37】
前記第2通信システムは,前記記憶装置と,複数の前記処理サブシステムと,複数の他の計算ノードの対応する処理サブシステムとの間の接続の少なくとも一部を提供し,
前記計算ノードの各々の前記処理サブシステムは,空間的位置にそれぞれ関連付けられているデータ要素の対毎の計算を実行する回路を備え,
第1計算ノードと第2計算ノードとを含む複数の前記計算ノードは,前記第1通信システムの複数のリンクによって相互接続され,
複数の前記計算ノードは,シミュレーション体積の幾何学的分割に応じて配置され,
前記記憶装置の各々は粒子データを記憶し,前記粒子データは幾何学的分割された前記シミュレーション体積の領域における複数の粒子に関連付けられ,
幾何学的分割された前記シミュレーション体積の領域は,前記記憶装置が構成要素である前記計算ノードに対応する,
請求項31記載の計算装置。
【請求項38】
前記処理サブシステムは,
粒子同士の対毎の計算を実行するように適合された専用回路を有するミッドレンジ・システムと,
距離-力の計算用に構成されるFFTサブシステムと
を備える,請求項1記載の計算装置。
【請求項39】
前記処理サブシステムは第1サブシステムと第2サブシステムとを備え,
前記第1サブシステムは,計算の第1タイプもしくは空間的スケール用のハードウェア要素を有し,
前記第2サブシステムは,計算の第2タイプもしくは空間的スケール用のハードウェア要素を有する,
請求項1記載の計算装置。
【請求項40】
前記処理サブシステムは第1サブシステムと第2サブシステムとを備え,
前記第1サブシステムは,ミッドレンジ力計算の一部である対毎の粒子同士の相互作用を含む計算用のハードウェア要素を有し,
前記第2サブシステムは,結合力計算の一部である近距離相互作用の計算を実行する,
請求項1記載の計算装置。」(以下,上記引用の請求項各項を,「補正前の請求項」という)は,
「 【請求項1】
粒子相互作用を計算するための第1並行処理システムと複数の前記第2並行処理システムとを有する計算装置であって,
前記第1並行処理システムは複数の計算ノードと第1通信システムとを備え,前記第1通信システムと複数の前記計算ノードとは前記第1並行処理システムを集合的に定義し,前記第1通信システムは複数の前記計算ノードを相互接続する複数のリンクを有し,
複数の前記計算ノードはシミュレーション体積の幾何学的分割に応じて配置され,前記計算ノードの各々が複数の第2並行処理システムのうちの1つであり,
複数の前記計算ノードは第1計算ノードと第2計算ノードを含み,前記第1計算ノードが対応する第1幾何学的分割内の粒子の前記粒子相互作用に関して実行する計算と,前記第2計算ノードが対応する第2幾何学的分割内の粒子の前記粒子相互作用に関して実行する計算とは,並行して実行され,
前記第1計算ノードと前記第2計算ノードの各々は記憶装置,第1処理サブシステムと第2処理サブシステムとを含む複数の処理サブシステム,および第2通信システムを備え,
前記第1計算ノードの前記記憶装置は第1幾何学的分割内の粒子の粒子データを記憶し,前記粒子データは幾何学的分割された前記シミュレーション体積の領域における複数の粒子に関連付けられ,
前記第2計算ノードの前記記憶装置は第2幾何学的分割内の粒子の粒子データを記憶し,前記粒子データは幾何学的分割された前記シミュレーション体積の領域における複数の粒子に関連付けられ,
前記処理サブシステムの各々は互いに異なる種類の計算タスクを実行し,
前記処理サブシステムの各々は処理装置を備え,前記第2通信システムは複数の前記処理サブシステムと前記記憶装置とを相互接続し,
前記第1計算ノードの前記第1処理サブシステムが前記第1幾何学的分割内の複数の粒子対について実行する第1計算タスクと,前記第1計算ノードの前記第2処理サブシステムが前記第1幾何学的分割内の他の粒子対について実行する第2計算タスクとは,互いに異なる種類のタスクでありつつも並行して実行されることによって,前記第1計算ノードの内部にある複数の前記処理サブシステムは,前記第1計算ノードの内部の前記粒子相互作用の計算を分散方式で調整し,
前記第2計算ノードの前記第1処理サブシステムが前記第2幾何学的分割内の複数の粒子対について実行する第1計算タスクと,前記第2計算ノードの前記第2処理サブシステムが前記第2幾何学的分割内の他の粒子対について実行する第2計算タスクとは,互いに異なる種類のタスクでありつつも並行して実行されることによって,前記第2計算ノードの内部にある複数の前記処理サブシステムは,前記第2計算ノードの内部の前記粒子相互作用の計算を分散方式で調整する,
計算装置。
【請求項2】
前記粒子データは粒子速度データを含む,
請求項1記載の計算装置。
【請求項3】
前記粒子データは,前記粒子のタイプを示すデータを含む,
請求項1記載の計算装置。
【請求項4】
前記粒子データは,前記粒子の電荷を示すデータを含む,
請求項1記載の計算装置。
【請求項5】
複数の前記処理サブシステムは,
ミッドレンジ力の計算を実行する第1処理サブシステムと,
近距離相互作用の計算を実行する第2処理サブシステムと
を含む,請求項4記載の計算装置。
【請求項6】
複数の前記処理サブシステムはFFTサブシステムを含む,
請求項1記載の計算装置。
【請求項7】
複数の前記処理サブシステムは,畳み込み操作を用いてポテンシャルエネルギーを計算するように構成される処理サブシステムを備える,
請求項1記載の計算装置。
【請求項8】
複数の前記処理サブシステムは,
複数の粒子相互作用モジュールからなる1つの行と,
複数の粒子相互作用モジュールからなる1つのパイプラインとを備え,
前記行は前記パイプラインに対して平行であり,
第1行のうちの複数の粒子相互作用モジュールは直列接続され,
前記パイプラインのうちの複数の粒子相互作用モジュールは直列接続され,
第1行の複数の粒子相互作用モジュールは,複数の粒子を受け取るとともに,各々の粒子と,第1行の複数の粒子相互作用モジュールの記憶装置に記憶された粒子との相互作用を計算し,
第2行の複数の粒子相互作用モジュールは,複数の粒子を受け取るとともに,各々の粒子と,第2行の複数の粒子相互作用モジュールの記憶装置に記憶された粒子との相互作用を計算する,
請求項1記載の計算装置。
【請求項9】
前記第1処理サブシステムは,粒子力データを入手するとともに,更新された粒子位置と粒子速度とを生成すべく粒子力データを用いて足し合わせを実行するように構成される,
請求項1記載の計算装置。
【請求項10】
複数の前記処理サブシステムは,更新された粒子位置と粒子速度とを,複数の前記第2処理サブシステムにマルチキャストするように構成される前記第1処理サブシステムを備える,
請求項1記載の計算装置。
【請求項11】
複数の前記処理サブシステムは,各時間ステップにおいて振り付けをするように構成される第1処理サブシステムを備える,
請求項1記載の計算装置。
【請求項12】
前記第1処理サブシステムは第1計算要素と,前記第1計算要素に対して並行な第2計算要素とを備え,
前記第1計算要素と前記第2計算要素とは,前記第1並行処理システムに対する追加並行処理システムとしての前記第2並行処理システムを規定する,
請求項1記載の計算装置。
【請求項13】
前記第1処理サブシステムは前記処理装置としての第1サブシステム処理装置,第1サブシステムキャッシュ,および第1サブシステム記憶装置を備え,
前記第1サブシステム処理装置は,前記第1サブシステムキャッシュにデータ通信するとともに,前記第1サブシステム記憶装置にデータ通信する,
請求項12記載の計算装置。
【請求項14】
前記計算装置はさらに,通信インターフェイスと遠隔アクセスユニットとを備え,
前記遠隔アクセスユニットは,前記第1サブシステム記憶装置と前記通信インターフェイスとにデータ通信し,
前記遠隔アクセスユニットは,前記第1サブシステム記憶装置の直接記憶アクセスに接続することによって,前記第1サブシステム処理装置に介入せずに記憶アクセスを許容するように構成される,
請求項13記載の計算装置。
【請求項15】
前記第1サブシステム記憶装置はさらに,粒子に関連付けられた計算結果を,直接メモリアクセスを介して累積するように構成される,
請求項13記載の計算装置。
【請求項16】
前記第1サブシステム記憶装置はさらに,特定粒子に関連付けられた計算結果を,直接メモリアクセスを介して,他の計算ノードに提供するように構成される,
請求項13記載の計算装置。
【請求項17】
前記計算装置はさらに,前記第1サブシステム記憶装置にデータ通信するジオメトリ・コアを備える,
請求項13記載の計算装置。
【請求項18】
前記計算装置はさらに,前記第1サブシステム記憶装置にデータ通信するコプロセッサを備え,
前記コプロセッサは,プリミティブ操作子として,内積を実行する操作子を含むように実現される,
請求項13記載の計算装置。
【請求項19】
前記第1計算ノードの前記第2通信システムは,第1リング・ステーションと第2リング・ステーションとを備え,
前記第1リング・ステーションは前記第2リング・ステーションから離間した要素であり,
前記第1計算ノードの前記第2通信システムは,粒子データを前記第1計算ノードから前記第2計算ノードに渡すように構成され,
前記第1計算ノードから前記第2計算ノードへの渡し経路において,前記粒子データは前記第1リング・ステーションと前記第2リング・ステーションとを通過し,
前記計算装置はさらに第3計算ノードを備え,前記第1通信システムは前記第3計算ノードを前記第1計算ノードと前記第2計算ノードとに接続し,
前記第1計算ノードから前記第2計算ノードへの渡し経路において,前記粒子データは前記第3計算ノードを通過する,
請求項1記載の計算装置。
【請求項20】
前記第1計算ノードの前記第1通信システムと前記第2通信システムとは,任意の処理サブシステムの介入なしで前記第1計算ノードから前記第2計算ノードへ前記粒子データを渡すときに,前記第1計算ノードの複数の前記処理サブシステムをバイパスするように構成される,
請求項1記載の計算装置。
【請求項21】
前記計算ノードの各々は,
計算に粒子データを必要とする少なくとも1つの他の計算ノードに前記粒子データを送り,
少なくとも1つの他の計算ノードから送られた粒子データを受け取り,
受け取った粒子データを使用して計算を実行することで第1結果を出力し,
前記第1結果を少なくとも1つの他の計算ノードに送り,
少なくとも1つの他の計算ノードから送られる前記第1結果を受け取り,そして
受け取った前記第1結果を使用してさらに計算を実行することで第2結果を出力するように構成されている,
請求項1記載の計算装置。
【請求項22】
前記粒子データは粒子位置データを含む,
請求項21記載の計算装置。
【請求項23】
前記第1結果は粒子力データを含む,
請求項21記載の計算装置。
【請求項24】
前記第2結果は粒子位置データを含む,
請求項21記載の計算装置。
【請求項25】
前記第1計算ノードの前記第2通信システムは,複数の前記処理サブシステムと,前記第1計算ノードの記憶装置との間でパケットに基づくメッセージを交換するように構成され,
前記第1計算ノードの前記第2通信システムは,複数の前記処理サブシステムと,前記第1計算ノードと前記第2計算ノードの記憶装置との間でパケットに基づくメッセージを交換するように構成される,
請求項1記載の計算装置。
【請求項26】
前記第1計算ノードの前記第2通信システムは,複数の他の計算ノードの通信サブシステムに用いられるグローバルアドレス空間を使うように構成され,
前記グローバルアドレス空間のアドレスは第1位置と第2位置とを有し,
前記第1位置は,通信のパケットが指向されるノードを同定し,
前記第2位置は,前記パケットが指向されるノード内部の構成要素を同定する,
請求項1記載の計算装置。
【請求項27】
前記第2通信システムの各々は複数のリング・ステーションを備え,前記リング・ステーションの各々は,前記リング・ステーションに到着する複数のパケットを扱うルールを表とともに特定するように構成される,
請求項1記載の計算装置。
【請求項28】
前記第2通信システムの各々は,パケット内のデータタイプに基づきパケットをマルチキャストするように構成される,
請求項1記載の計算装置。
【請求項29】
前記第2通信システムの各々は,パケット内のデータタイプを示す情報でパケットをタグ付けし,前記パケットを一群の目的地に分配するように構成され,
前記目的地の各々は前記データタイプによって決定される,
請求項1記載の計算装置。
【請求項30】
前記第2通信システムの各々は,前記粒子データを分配するための近傍を構成する記憶装置を備える,
請求項1記載の計算装置。
【請求項31】
前記第2通信システムは,前記第1計算ノードの処理サブシステムと,前記第2計算ノードの処理サブシステムとの間の接続の少なくとも一部を提供し,
前記処理サブシステムは,空間的位置にそれぞれ関連付けられているデータ要素の対毎の計算を実行する回路を備える,
請求項1記載の計算装置。
【請求項32】
少なくとも一つの前記処理サブシステムは,一般的な計算を行うようにプログラム可能である,
請求項1記載の計算装置。
【請求項33】
少なくとも一つの前記処理サブシステムは,複数の独立にプログラム可能な処理装置を備える,
請求項1記載の計算装置。
【請求項34】
前記第1通信システムは複数の第1インターフェイスユニットを含み,
前記第1インターフェイスユニットの各々は,複数の前記処理サブシステムのうちの1つの処理サブシステムにリンクされ,
前記第2通信システムはさらに,少なくとも1つの他の処理ノードのリング・ステーションに接続するための少なくとも1つのリング・ステーションを備える,
請求項1記載の計算装置。
【請求項35】
複数の前記処理サブシステムのうちの1つの処理サブシステムは,粒子シミュレーションシステム内の粒子の対を含む計算を行うように構成される,
請求項1記載の計算装置。
【請求項36】
複数の前記処理サブシステムのうちの1つの処理サブシステムは,粒子シミュレーションシステム内の粒子およびグリッド位置を含む計算を行うように構成される,
請求項1記載の計算装置。
【請求項37】
前記第2通信システムは,前記記憶装置と,複数の前記処理サブシステムと,複数の他の計算ノードの対応する処理サブシステムとの間の接続の少なくとも一部を提供し,
前記計算ノードの各々の前記処理サブシステムは,空間的位置にそれぞれ関連付けられているデータ要素の対毎の計算を実行する回路を備え,
幾何学的分割された前記シミュレーション体積の領域は,前記記憶装置が構成要素である前記計算ノードに対応する,
請求項31記載の計算装置。
【請求項38】
複数の前記処理サブシステムは,
粒子同士の対毎の計算を実行するように適合された専用回路を有するミッドレンジ・システムと,
距離-力の計算用に構成されるFFTサブシステムと
を備える,請求項1記載の計算装置。
【請求項39】
前記第1処理サブシステムは,計算の第1タイプもしくは空間的スケール用のハードウェア要素を有し,
前記第2処理サブシステムは,計算の第2タイプもしくは空間的スケール用のハードウェア要素を有する,
請求項1記載の計算装置。
【請求項40】
前記第1処理サブシステムは,ミッドレンジ力計算の一部である対毎の粒子同士の相互作用を含む計算用のハードウェア要素を有し,
前記第2処理サブシステムは,結合力計算の一部である近距離相互作用の計算を実行する,
請求項1記載の計算装置。」(以下,上記引用の請求項各項を,「補正後の請求項」という)に補正された。

2.補正の適否
(1)新規事項
ア.本件手続補正が,特許法17条の2第3項の規定を満たすものであるか否か,即ち,本件手続補正が,願書に最初に添付された明細書,特許請求の範囲,及び,図面(以下,これを「当初明細書等」という)に記載した事項の範囲内でなされたものであるかについて,以下に検討する。

イ.補正後の請求項1に,
「第1並行処理システムと複数の前記第2並行処理システムとを有する計算装置」(以下,これを「引用記載1」という),
「第1並行処理システムは複数の計算ノードと第1通信システムとを備え」(以下,これを「引用記載2」という),
「第1通信システムと複数の前記計算ノードとは前記第1並行処理システムを集合的に定義し」(以下,これを「引用記載3」という),
「前記計算ノードの各々が複数の第2並行処理システムのうちの1つであり」(以下,これを「引用記載4」という),
「前記第1計算ノードと前記第2計算ノードの各々は記憶装置,第1処理サブシステムと第2処理サブシステムとを含む複数の処理サブシステム,および第2通信システムを備え」(以下,これを「引用記載5」という),
「前記第1計算ノードの前記記憶装置は第1幾何学的分割内の粒子の粒子データを記憶し」(以下,これを「引用記載6」という),
「前記第2計算ノードの前記記憶装置は第2幾何学的分割内の粒子の粒子データを記憶し」(以下,これを「引用記載7」という),
「前記第1計算ノードの前記第1処理サブシステムが前記第1幾何学的分割内の複数の粒子対について実行する第1計算タスクと,前記第1計算ノードの前記第2処理サブシステムが前記第1幾何学的分割内の他の粒子対について実行する第2計算タスクとは,互いに異なる種類のタスクでありつつも並行して実行されることによって,前記第1計算ノードの内部にある複数の前記処理サブシステムは,前記第1計算ノードの内部の前記粒子相互作用の計算を分散方式で調整し」(以下,これを「引用記載8」という),
「前記第2計算ノードの前記第1処理サブシステムが前記第2幾何学的分割内の複数の粒子対について実行する第1計算タスクと,前記第2計算ノードの前記第2処理サブシステムが前記第2幾何学的分割内の他の粒子対について実行する第2計算タスクとは,互いに異なる種類のタスクでありつつも並行して実行されることによって,前記第2計算ノードの内部にある複数の前記処理サブシステムは,前記第2計算ノードの内部の前記粒子相互作用の計算を分散方式で調整する」(以下,これを「引用記載9」という),
という記載が存在しているが,上記引用の,引用記載1?引用記載9は,いずれも,当初明細書等には存在しないものである。
そこで,次に,引用記載1?引用記載9が,当初明細書等から読み取れるかについて,以下に検討する。

ウ.引用記載1について,
当初明細書等には,
「【0005】
本発明の一観点によれば,一般に,並列処理システムは,粒子相互作用を計算することを目的としている。システムは,シミュレーション体積の幾何学的パーティション分割に応じて配列された複数の計算ノードを備える。ノードのそれぞれは,シミュレーション体積の1領域内の粒子に対する粒子データ用の記憶装置を備える。システムは,さらに,計算ノードを相互接続するリンクを含む通信システムも含む。ノードのそれぞれは,プロセッサ・サブシステムを含み,分散方式で計算ノードを一緒にまとめたプロセッサ・サブシステムは,粒子相互作用の計算を調整する。」
「【0017】
第1の結果は,粒子力データを含む。
第2の結果は,粒子位置データを含む。
他の態様では,一般に,並列処理システムで使用する処理ノードは,サブシステムのグループを含む。サブシステムのこのグループは,プロセッサ・サブシステム,計算サブシステム,およびメモリ・サブシステムを含む。システムは,さらに,複数のサブシステムからなるグループに含まれるいくつかのサブシステムをリンクし,ノードのサブシステムと処理システムの他の処理ノードのサブシステムとの間にリンクの少なくとも一部を形成する通信サブシステムも含む。計算サブシステムは,空間的位置にそれぞれ関連付けられているデータ要素の間の対毎の計算を実行する回路を備える。」
という記載が存在し,上記に引用した,段落【0005】,及び,段落【0017】に記載の「並列処理システム」は,補正前の請求項1に記載された「並列処理システム」を指すものであると解される。
しかしながら,上記に引用した当初明細書等の記載内容からは,当初明細書等に記載されている「並列処理システム」が,「第1並列処理システム」と,「第2処理システム」から成るといった構成を読み取ることはできず,上記引用記載以外の当初明細書等の記載内容を検討しても,当初明細書等に記載された構成の何れかが,「第1処理システム」に相当し,或いは,「第2処理システム」に相当するといった内容を読み取ることはできない。
審判請求人は,平成30年10月31日付けの審判請求書(以下,これを「審判請求書」という)において,
「具体的には,請求項1に係る発明の計算装置が,2段階の並列計算を行っていることを明確にしました。具体的には,第1段階は複数の計算ノードが並列計算する第1並行処理システムであり,第2段階は計算ノードの各々において,複数の処理サブシステムが並列計算する第2並行処理システムです。第1並行処理システムでは,計算ノードの各々に対応する粒子データが,シミュレーション体積のどの領域に位置するかで並列計算が分散され,第2並行処理システムでは,計算ノード内において互いに異なる種類の計算タスクが行われて並列計算が分散されます。
すなわち第2並行処理システムの処理サブシステム同士は,互いに異なる種類の計算タスクを実行することを明確化しました。補正の根拠は,本願の発明の詳細な説明の段落0313です。
[0313]
「並列実装の他の態様は,異なるハードウェア要素をさまざまな種類または空間的スケールの計算専用とすることを伴う。例えば,ハードウェア要素は,ミッドレンジ計算ステップ3834の一部である対毎の粒子相互作用を伴う計算(または遠隔力計算3836の一部をなす粒子-グリッド計算),および結合力計算3832の一部であるような近距離相互作用の計算専用に割り当てられる。それに加えて,力累算ステップ3838は,数値累算機能を組み込んだメモリ・システムを使用する。上で導入された多重ノード・アーキテクチャでは,それぞれのノードは,さまざまな種類の計算用のそのような専用ハードウェア要素を備える。」
そして本願請求項1の計算装置において,第1並行処理システムでは,粒子が空間内のどこに位置するかに基づいて計算ノードに粒子を割り当てており,計算ノード間で並行処理を分散していますが,第2並行処理システムとしての計算ノード内では,計算タスクの種類が互いに異なることで,別の分散様式で並行処理が実行されます。すなわち1つの計算ノード内では,第1計算タスク(たとえば遠隔力計算)で扱う粒子対と,第2計算タスク(たとえば近距離相互作用)が扱う粒子対とは異なっており,粒子間の関係に基づいて計算が分散されます。また,このように互いに異なる種類の計算タスクを実行するべく,「処理サブシステムの各々は処理装置を備え」ています。」
と主張すると共に,平成31年3月4日付けの上申書(以下,これを「上申書」という)において,
「前置報告書では,新請求項1は旧請求項1の発明特定事項を限定的に減縮するものとは認められないとの指摘です。しかし,新請求項1では,旧請求項1の発明特定事項である「計算ノード」の計算態様が,「第2並行処理システム」であると特定の態様に限定していますので,新請求項1を含む本件補正は限定的減縮を目的とするものと思料します。
すなわち旧請求項1では,「計算ノード」に特別な構造を必要としておりませんでした。旧請求項1によれば,「計算ノード」が行うのは計算だけであり,「計算ノード」自身の並行処理システムを含むことまでは規定していませんでした。
一方,新請求項1によると,複数の並行処理システムがあります。第1並行処理システムは,旧請求項1でも記載されていた「並行処理システム」です。
新請求項1において,「粒子相互作用を計算するための第1並行処理システムと複数の前記第2並行処理システムとを備える計算装置」との記載(第1分説と呼びます)は,複数の第2並行処理システムを規定します。ただし,第1分説の記載のみから,第2並行処理システムが何を行うか,あるいは第2並行処理システムがどこに存在するかを知ることはできません。そのためには,新請求項1の「前記計算ノードの各々が複数の第2並行処理システムのうちの1つであり」(第8分説と呼びます)との記載が必要です。
この第8分説は,「前記第1並行処理システムは複数の計算ノードと第1通信システムとを備え」(第3分説と呼びます)との記載における「計算ノード」の各々が,第1分説の第2並行処理システムであることを明らかにしています。 第3分説には「複数の計算ノード」が記載されていますので,複数の第2並行処理システムも規定する必要があり,実際に第1分説で規定されています。
このように,新請求項1は再帰的な計算システムを列挙しています。すなわち再帰的な計算システムには先ず,複数の計算ノードを有する並行処理システム(第1並行処理システム)が1つ存在します。この第1並行処理システムは旧請求項1に記載されていた「並行処理システム」と同じです。そして新請求項1では,各計算ノード自体が,別の並行処理システム(第2並行処理システム)であると限定しています。次の参考図1で,新請求項1の概要を説明できます。」等主張している。
しかしながら,上記において指摘したとおり,当初明細書等からは,「第1並列処理システム」,及び,「第2並列処理システム」が,当初明細書等に記載のどの構成要素に対応するものであるか,或いは,当初明細書等において,「第1並列処理システム」,及び,「第2並列処理システム」をどのように定義しているかといったことは,一切読み取れず,審判請求書において引用している段落【0313】に記載された内容からも,そのことを読み取ることはできない。
そして,上申書における「参考図1」,及び,「参考図2」に開示されている「第1並列処理システム」,及び,「第2並列処理システム」に関する説明は,何れも,当初明細書等に記載の内容に基づくものではないので,採用することができない。
以上に検討したとおりであるから,引用記載1は,新規事項である。

ウ.引用記載2?引用記載8について
補正前の請求項1に記載の,
「計算装置は複数の計算ノードと第1通信システムを備え」,
という記載と,引用記載1,及び,引用記載2とから,補正後の請求項1に係る発明は,
“第1並列処理システムと,第2並列処理システムの両方が,複数の計算ノードと第1通信システムを備える”
という態様と,
“第1並列処理システムのみが,複数の計算ノードと第1通信システムを備える”
という態様を含むものであると解されるが,いずれの態様についても,当初明細書等の記載内容からは読み取ることができない。
引用記載3から,引用記載2と同様の検討を加えると,補正後の請求項1に係る発明は,
“第1通信システムと複数の前記計算ノードとは,第1並行処理システム,及び,第2並列処理システムとの両方を集合的に定義する”
態様(以下,これを「態様1」という)と,
“第1通信システムと複数の前記計算ノードとは,第1並行処理システムのみを集合的に定義する”
態様(以下,これを「態様2」という)を含むものであると解されるが,何れの態様についても,当初明細書等の記載内容からは読み取ることができない。
(なお,上記検討のとおり,態様1,態様2共に,当初明細書等の記載内容から読み取ることができないが,仮に,態様1を採用した場合,引用記載4は,「第2並列処理システム」を,「計算ノード」のみで定義している記載とも解されるので,矛盾することになる。)
上記において検討した事項を踏まえると,引用記載4について,補正後の請求項1に係る発明は,少なくとも,
“計算ノード=第2並列処理システムであり,当該第2並列処理システムが複数存在する”
という態様を含むものであると解されるが,上記において検討したとおり,当初明細書等には,「第2並列処理システム」について何ら定義されていないので,引用記載4についても,当初明細書等の記載内容から読み取ることはできない。
引用記載6に含まれる「第1幾何学的分割内」,引用記載7に含まれる「第2幾何学的分割内」は,当初明細書等に記載されておらず,また,当初明細書等の記載内容からは,当初明細書等に記載された何が,「第1幾何学的分割内」,及び,「第2幾何学的分割内」に相当するのかを読み取ることができず,さらに,当該「第1幾何学的分割内」,及び,「第2幾何学的分割内」が,どのようなものを指し示すかが,当業者にとって自明の事項とも認められない。
引用記載5,引用記載8,及び,引用記載9について,当初明細書等の段落【0005】には,“計算ノードが,プロセッサ・サブシステムを有する”ことが,また,同段落【0013】?段落【0015】に,「処理サブシステム」についての言及があるものの,引用記載5,引用記載8,及び,引用記載9中の「第1処理サブシステム」,「第2処理サブシステム」について,当初明細書等には何ら定義されておらず,当該「第1処理サブシステム」,及び,「第2処理サブシステム」が,それぞれ,当初明細書等の記載内容における何に相当するものであるか,当初明細書等の記載内容からは読み取ることができない。

エ.以上,ア.?ウ.において検討したとおりであるから,引用記載1?引用記載9は,当初明細書等に記載されておらず,当初明細書等の記載内容から読み取ることもできないので,本件手続補正は,当初明細書等の記載の範囲内でなされたものではない。

3.補正却下むすび
したがって,本件手続補正は,特許法17条の2第3項の規定に違反するので,同法159条1項において読み替えて準用する同法53条1項の規定により却下すべきものである。

よって,補正却下の決定の結論のとおり決定する。

第3.本願発明について
平成30年10月31日付けの手続補正は,上記のとおり却下されたので,本願の請求項1に係る発明(以下,これを「本願発明」という)は,平成30年2月2日付けの手続補正により補正された特許請求の範囲の請求項1に記載された,上記「第2.平成30年10月31日付けの手続補正の却下の決定」の「1.補正の内容」において,補正前の請求項1として引用した,次のとおりのものである。

「粒子相互作用を計算するための計算装置であって,
前記計算装置は複数の計算ノードと第1通信システムとを備え,
前記第1通信システムと前記計算ノードとは並行処理システムを集合的に定義し,
前記第1通信システムは複数の前記計算ノードを相互接続する複数のリンクを有し,
複数の前記計算ノードはシミュレーション体積の幾何学的分割に応じて配置され,
複数の前記計算ノードは第1計算ノードと第2計算ノードを含み,前記第1計算ノードと前記第2計算ノードの各々は記憶装置,複数の処理サブシステム,および第2通信システムを備え,
前記記憶装置は粒子データを記憶し,前記粒子データは幾何学的分割された前記シミュレーション体積の領域における複数の粒子に関連付けられ,
前記処理サブシステムの各々は互いに異なる計算タスクを実行し,
前記処理サブシステムの各々は処理装置を備え,前記第2通信システムは複数の前記処理サブシステムと前記記憶装置とを相互接続し,
前記第1計算ノードの内部にある複数の前記処理サブシステムは,前記第1計算ノードの内部の前記粒子相互作用の計算を分散方式で調整し,
前記第2計算ノードの内部にある複数の前記処理サブシステムは,前記第2計算ノードの内部の前記粒子相互作用の計算を分散方式で調整する,
計算装置。」

第4.原審拒絶査定の拒絶の理由
原査定の拒絶の理由は,
“この出願の請求項1に係る発明は,本願の優先権主張の日前に頒布された又は電気通信回線を通じて公衆に利用可能となった下記の引用文献1に記載された発明及び引用文献2?引用文献4に記載された事項に基づいて,その出願前にその発明の属する技術の分野における通常の知識を有する者が容易に発明をすることができたものであるから,特許法29条2項の規定により特許を受けることができない”,
というものである。
<引用文献>
1.特開平03-204758号公報
2.五明則人,大規模並列システムにおける動的負荷分散のシミュレーションによる性能評価,シミュレーション,日本,(株)日鉄技術情報センター,1997年 9月15日,第16巻,第3号,pp.55-63
3.特開平09-185592号公報
4.特開2004-038642号公報(周知技術を示す文献)

第5.引用刊行物に記載の事項
1.原査定の拒絶の理由(以下,これを「原審拒絶理由」という)に引用文献1として引用された,特開平03-204758号公報(1991年9月6日公開)には,関連する図面と共に,次の事項が記載されている。

A.「〔課題を解決するための手段〕
第1図は,本発明の構成を示すブロック図である。
図は粒子運動シミュレーション処理方式の構成であって,所与の3次元空間の粒子データについて,所定の運動シミュレーションを実行する場合に,該空間をN個の小空間に分割して,各該小空間を所与のカットオフ距離を各辺の長さとする立方体のセルに分割し,N個のクラスタ10を設け,クラスタ10間を通信手段11で接続し,各クラスタ10は,共有メモリ12と,複数の処理エレメント(PE)13を有し,それぞれ各該小空間を分担して,該分担する小空間の該セルと,当該小空間に隣接する該セルとの,所与の粒子データを共有メモリ12に保持し,PE13は,クラスタ10ごとに共有メモリ12に保持する該データに関する所定の処理を,該セル単位に分担して並列に実行し,該処理の結果の,他の該小空間へ移動する該粒子と,前記小空間に隣接するセルの粒子とに関する新データを,通信手段11によって所要のクラスタ10へ送信し,及び受信する該新データにより各共有メモリ12上のデータを更新し,該処理から該データの更新までを,所与の回数繰り返し実行する。」(3頁左上欄1行?右上欄3行<なお,下線は当審にて,説明の都合上,付加したものである。以下,同じ。>)

B.「〔実施例〕
第1図において,各PE13はベクトル演算機構を有する処理装置とし,各クラスタ10は例えば8台のPE13を共有バス14によって,適当なアクセス速度の共有メモリ12に接続した構成とし,同じ構成のクラスタ10を例えば16台(即ちN=16)設けて,♯0?♯15クラスタとする。
各クラスタ10は例えば各通信制御部16において通信手段11に接続し,ネットワーク制御部15により通信制御部16間の情報転送を行うように構成する。ネットワーク制御部15には,所要のクラスタ間における情報転送を効率よく処理できる適当な通信網を使用することができるが,例えば公知のハイパーキューブ(超立方体)ネットワークを使用すれば,ブロッキングによる待ち無しに,任意のクラスタ間の情報伝送を効率よく処理することができる。前記のように16台のクラスタ10を設ける場合のハイパーキューブネットワークは,第3図に示す様に,図に黒塗り正方形で示す各クラスタ(の接続する通信制御部16)からそれぞれ4個のクラスタへ直通の通信路を設けた4次元超立方体のネットワークとなる。
以上のシステムによって処理するシミュレーションの対象を,例えば100Å^(3)の立方体空間に含まれる分子である10^(4)個の粒子とし,10Åがカットオフ距離であるとすると,この空間を一辺10Åの立方体に分割して10^(3)個のセルとする。従って各セルには平均10個の粒子が存在する。」(3頁左下欄1行?右下欄8行)

C.「次に処理ステップ22で,担当する小空間の全粒子について,各粒子とカットオフ距離以内にある粒子との距離ベクトルから,粒子間の相互作用を所与のポテンシャル関数に基づいて計算し,その結果当該粒子が移動する位置の新座標を求める計算を実行する。」
(4頁右上欄11行?16行)

D.「各クラスタ10では各PE13が,共有メモリ12にある担当小空間のデータから,それぞれが未処理のセルを順次取り出して以上の処理を並列に実行し,適当に時間刻みの同期を取りながら処理を進める。」(4頁左下欄15行?19行)

E.「



2.原審拒絶理由に引用文献2として引用された,「五明則人,大規模並列システムにおける動的負荷分散のシミュレーションによる性能評価,シミュレーション,日本,(株)日鉄技術情報センター,2007年 8月21日(受入日)<1997年9月15日刊行>,第16巻,第3号,pp.55-63」には,関連する図面と共に,次の事項が記載されている。

F.「1.はじめに
負荷分散は,マルチプロセッサシステム(並列システム)において,プロセッサ資源を有効に利用するための重要な技術である.量子計算,分子シミュレーション,流体計算,構造解析など,高速計算を必要とする応用は非常に多く,大規模並列システムの普及により,複数の計算処理を高速に実行するための負荷分散の技術は,今後ますます重要になってくると考えられる.負荷分散を効果的に行うには,システムを構成する各ノード(プロセッサとメモリから構成され,相互結合の対象となる単位)の負荷の時間平均をあらかじめ均衡させる静的負荷分散だけでなく,システム内の動的な負荷の変動に対応して負荷を分散させる動的負荷分散が必要である.動的負荷分散を実施するには,負荷情報をノード間で交換し,互いに他のノードの負荷を把握しなければならない.しかしながら,極めて多数のノードから構成される大規模並列システムにおいては,各ノードが他のすべてのノードの状態を把握することは現実的に不可能である.そのため,従来の分散システムとは異なる負荷分散方針が必要となる.また,システムの規模が拡大しても,それに応じた性能が得られる規模適応性(スケーラビリティ)が望まれる.
大規模並列システムに適応するための基本的な方式として,システムを構成するノード群を複数のグループ(これをドメインと呼ぶ)に分割して管理する方式がある.この場合,ドメイン内およびドメイン間での情報収集およびプロセス移送を考えることにより,従来の分散システムより,多様なスケジューリング方針が想定される.本論文では,筆者らが提案するドメイン分割に関連した方針を含め,大規模並列システムのための大域的なスケジューリング方針(負荷分散方針)について分類・整理を行うとともに,それらの性能をシミュレータを用いて評価する.とくに,性能評価については,ドメインの構成法に関して重点的に行った結果を報告する.また,本論文では,プロセス移送や情報収集のオーバヘッド,さらには,通信リンクの輻輳による遅延を考慮した,現実のシステムに近いモデルでのシミュレーションを実施した.開発したシミュレータは,現実の多様な大規模並列システムに関するさまざまなパラメータを柔軟に設定できるようになっており,大規模並列システム上での負荷分散方針の決定に際して,性能評価に広く利用できるものと期待される.」(55頁左欄1行?56頁左欄9行)

3.原査定の備考において,周知文献として提示された,特開2004-038642号公報(2004年2月5日公開)には,関連する図面と共に,次の事項が記載されている。

G.「【0025】
この実施の形態に係るマルチプロセッサ1Aは,従来同様,図14に示す様に,例えば1チップのLSIとして構成され,メインプロセッサ(第1のプロセッサ)としてのCPU3Aと,サブプロセッサ(第2のプロセッサ)としてのコプロセッサ5Aと,CPU3A・コプロセッサ5A間のデータ通信用の共有メモリを構成するメモリデバイス(記憶手段)7Aと,コプロセッサ5Aにより実行されるプログラムが保存されたROM11と,CPU3Aのメモリアクセス速度を高速化するためのキャッシュ(Cache)9とを備えて主構成される。このマルチプロセッサ1Aでも,従来同様,CPU3Aがマスター,コプロセッサ5Aがスレーブとなる非対称なアーキテクチャが採用される。
【0026】
ここで,メインプロセッサとは,サブプロセッサが実行すべき処理をサブプロセッサに指示するプロセッサである。サブプロセッサとは,その指示された処理を実行し完了したときにメインプロセッサに完了を通知し又はその指示された処理を完了できなかったときにはメインプロセッサに未完了を通知するプロセッサである。サブプロセッサは基本的にはメインプロセッサに対し処理を実行するように指示しない。」

H.「【0045】
次に,図6及び図7を用いて上記マルチプロセッサ1Aの動作を説明する。図6はマルチプロセッサ1Aの作動時のCPU3Aの動作を説明するフローチャートであり,図7はマルチプロセッサ1Aの作動時のコプロセッサ5Aの動作を説明するフローチャートである。ここでは,コプロセッサ5Aにより一例として2048点のFFTの係数を演算させ,CPU3Aによりその上位128点の係数が読み出される場合で説明する。」

第6.引用刊行物に記載の発明
1.上記Aの「図は粒子運動シミュレーション処理方式の構成であって」という記載,及び,同じく,上記Aの「該空間をN個の小空間に分割して,各該小空間を所与のカットオフ距離を各辺の長さとする立方体のセルに分割し,N個のクラスタ10を設け,クラスタ10間を通信手段11で接続し,各クラスタ10は,共有メモリ12と,複数の処理エレメント(PE)13を有」するという記載から,引用文献1においては,
“粒子運動シミュレーション処理装置であって,
前記処理装置は,N個のクラスタと通信手段を備える”ものであることが読み取れる。

2.上記1.において引用した上記Aの記載内容,及び,上記Aの「PE13は,クラスタ10ごとに共有メモリ12に保持する該データに関する所定の処理を,該セル単位に分担して並列に実行し」という記載から,引用文献1においては,
“N個のクラスタと通信手段は,並列処理システムを構成するものである”ことは,明らかである。

3.上記1.において引用した上記Aの記載内容,上記Bの「各クラスタ10は例えば各通信制御部16において通信手段11に接続し,ネットワーク制御部15により通信制御部16間の情報転送を行うように構成する」という記載,及び,上記Eに引用の第1図に開示された事項から,引用文献1においては,
“通信手段は,N個のクラスタを相互に接続するための複数の通信制御部を有する”ものであることが読み取れる。

4.上記1.において引用した上記Aの記載内容において,「所与の3次元空間の粒子データについて,所与の運動のシミュレーションを実行する」のであるから,引用文献1に記載の「所与の3次元空間」が,「シミュレーション空間」であることは,明らかである。
したがって,上記1.において引用した上記Aの記載内容から,
引用文献1においては,
“シミュレーション空間をN個の小空間に分割して,各該小空間を所与のカットオフ距離を各辺の長さとする立方体のセルに分割し,N個のクラスタを設ける”ものであることが読み取れる。

5.上記1.において引用した上記Aの記載内容と,上記Eに引用の第1図に開示された事項から,引用文献1においては,
“N個のクラスタのそれぞれは,共有メモリと,複数の処理エレメントと,前記共有メモリと前記複数の処理エレメントとを接続するネットワークを有する”ものであることが読み取れる。

6.上記4.において引用した上記Aの記載内容,上記Aの「それぞれ各該小空間を分担して,該分担する小空間の該セルと,当該小空間に隣接する該セルとの,所与の粒子データを共有メモリ12に保持し」 という記載,及び,上記Bの「以上のシステムによって処理するシミュレーションの対象を,例えば100Å^(3)の立方体空間に含まれる分子である10^(4)個の粒子とし,10Åがカットオフ距離であるとすると,この空間を一辺10Åの立方体に分割して10^(3)個のセルとする。従って各セルには平均10個の粒子が存在する」という記載から,引用文献1においては,
“共有メモリは粒子データを保持し,前記粒子データは,シミュレーション空間を所与のカットオフ距離を各辺の長さとする立方体分割したセルに関連するものであって,前記セルは,複数の粒子を含むものである”ことが読み取れる。

7.上記Dの「各クラスタ10では各PE13が,共有メモリ12にある担当小空間のデータから,それぞれが未処理のセルを順次取り出して以上の処理を並列に実行し」という記載において,「未処理のセルを順次取り出」すということは,“各PEの内の1つが,共有メモリから,未処理のセルを一つ取り出すと,次のPEは,共有メモリ上の取り出された前記未処理のセルの次に共有メモリ上に存在する未処理のセルを取り出して実行する”事になるので,それぞれのPEは,異なる「未処理のセル」を,「並列に実行」することになるといえ,即ち,引用文献1においては,各「PE」は,“データの異なる処理を並列に実行する”ものであるといえる。
そうすると,上記に引用のDの記載内容と,上記Cの「各粒子とカットオフ距離以内にある粒子との距離ベクトルから,粒子間の相互作用を所与のポテンシャル関数に基づいて計算し」という記載,上記2.において引用した上記Aの記載内容,上記5.において検討した事項,及び,上記Eに引用の第1図に開示された事項から,引用文献1においては,
“処理エレメントの各々は,それぞれ異なる未処理のデータを並列に計算処理を実行し,
ネットワークは,前記処理エレメントと,共有メモリとを相互に接続する”ものであることが読み取れる。

8.上記6.において引用した上記Aの記載内容,及び,上記7.において引用した上記A,上記C,及び,上記Dの記載内容から,引用文献1においては,
“個々のクラスタ内部にある,複数の処理エレメントは,それぞれ,異なる未処理のデータを取り出して,前記クラスタ内部のセル間の相互作用を計算する”ものであることが読み取れる。

9.以上,上記1.?8.において検討した事項から,引用文献1には,次の発明(以下,これを「引用発明」という)が記載されているものと認める。

「粒子運動シミュレーション処理装置であって,
前記処理装置は,N個のクラスタと通信手段を備え,
前記N個のクラスタと前記通信手段は,並列処理システムを構成し,
前記通信手段は,前記N個のクラスタを相互に接続するための複数の通信制御部を有し,
シミュレーション空間をN個の小空間に分割して,各該小空間を所与のカットオフ距離を各辺の長さとする立方体のセルに分割し,前記N個のクラスタを設け,
前記N個のクラスタのそれぞれは,共有メモリと,複数の処理エレメントと,前記共有メモリと前記複数の処理エレメントとを接続するネットワークを有し,
前記共有メモリは粒子データを保持し,前記粒子データは,前記セルに関連するものであって,前記セルは,複数の粒子を含むものであり,
前記処理エレメントの各々は,それぞれ異なる未処理のデータを並列に計算処理を実行し,
前記ネットワークは,前記処理エレメントと,前記共有メモリとを相互に接続し,
個々の前記クラスタ内部にある,前記複数の処理エレメントは,それぞれ,異なる未処理のデータを取り出して,前記クラスタ内部の前記セル間の相互作用を計算する,処理装置。」

第7.本願発明と引用発明との対比
1.引用発明における「粒子運動シミュレーション」は,「セル間の相互作用を計算する」ものであり,引用発明における「セル」は,「粒子データ」と関連するものであるから,
引用発明においても「粒子」の「相互作用」を計算していることは明らかである。
したがって,
引用発明における「粒子運動シミュレーション処理装置」が,
本願発明における「粒子相互作用を計算するための計算装置」に相当する。

2.引用発明において,「クラスタ」は,「N個」,即ち,「複数」存在し,当該「クラスタ」と,「通信手段」とで,「処理装置」を構成するものであるから,
引用発明における「N個のクラスタ」,「通信手段」が,それぞれ,
本願発明における「複数の計算ノード」,「第1通信システム」に相当するので,
引用発明における「処理装置は,N個のクラスタと通信手段を備え」が,
本願発明における「計算装置は複数の計算ノードと第1通信システムとを備え」に相当する。

3.引用発明において,“N個のクラスタと通信手段は,並列処理システムを構成する”ということは,“複数のクラスタと,通信手段を,一種の集合と見なして,それによって並列処理システムを定義する”ことに他ならないので,
引用発明における「N個のクラスタと前記通信手段は,並列処理システムを構成し」が,
本願発明における「第1通信システムと前記計算ノードとは並行処理システムを集合的に定義し」に相当する。

4.引用発明において,「通信手段」が有する「複数の通信制御部」は,「クラスタ」間の接続に用いられるものであるから,本願発明における「リンク」に相当するので,
引用発明における「通信手段は,前記N個のクラスタを相互に接続するための複数の通信制御部を有し」が,
本願発明における「第1通信システムは複数の前記計算ノードを相互接続する複数のリンクを有し」に相当する。

5.引用発明において,「シミュレーション空間をN個の小空間に分割して,各該小空間を所与のカットオフ距離を各辺の長さとする立方体のセルに分割し,前記N個のクラスタを設け」るということは,“シミュレーション空間を,N個の空間に幾何学的に分割して,N個の各空間に対して,クラスタを割り当てる”ことに他ならないので,
この引用発明における上記構成を上位概念化した,
“シミュレーション空間を,N個の空間に幾何学的に分割して,N個の各空間に対して,クラスタを割り当てる”ということが,
本願発明における「複数の前記計算ノードはシミュレーション体積の幾何学的分割に応じて配置され」ることに一致する。

6.引用発明において,「N個のクラスタ」のそれぞれが,「複数の処理エレメント」と,「共有メモリ」と,それらを相互に接続するための「ネットワーク」を有しており,該「N個のクラスタ」のうちの1つを「第1クラスタ」,他の1つを「第2クラスタ」と呼称し得ることは明らかであるから,
引用発明における「第1クラスタ」,「第2クラスタ」,「共有メモリ」,「複数の処理エレメント」,及び,「ネットワーク」が,それぞれ,
本願発明における「第1計算ノード」,「第2計算ノード」,「記憶装置」,「複数の処理サブシステム」,及び,「第2通信システム」に相当するので,
引用発明における「N個のクラスタのそれぞれは,共有メモリと,複数の処理エレメントと,前記共有メモリと前記複数の処理エレメントとを接続するネットワークを有し」が,
本願発明における「複数の前記計算ノードは第1計算ノードと第2計算ノードを含み,前記第1計算ノードと前記第2計算ノードの各々は記憶装置,複数の処理サブシステム,および第2通信システムを備え」に相当する。

7.引用発明において,「粒子データ」は,「セルに関連するもの」であり,当該「セル」は,「複数の粒子を含むもの」であるから,引用発明においては,「粒子データ」は,「複数の粒子」に関連するものであるといえ,当該「セル」は,上記5.において検討した事項を踏まえると,“シミュレーション空間を,N個の空間に幾何学的に分割し”たものに含まれるものであるから,
したがって,
引用発明における「共有メモリは粒子データを保持し,前記粒子データは,前記セルに関連するものであって,前記セルは,複数の粒子を含むものであり」が,
本願発明における「記憶装置は粒子データを記憶し,前記粒子データは幾何学的分割された前記シミュレーション体積の領域における複数の粒子に関連付けられ」に相当する。

8.引用発明における「計算処理」が,本願発明における「計算タスク」に相当し,本願発明において,「異なる計算タスク」は,“データの異なる計算タスク”を含むものであるから,
引用発明において,「処理エレメント」が,それぞれ,異なるデータについて,「計算処理」を行うことが,
本願発明における「異なる計算タスクを実行する」ことに相当する。
したがって,
引用発明における「処理エレメントの各々は,それぞれ異なる未処理のデータを並列に計算処理を実行し」が,
本願発明における「処理サブシステムの各々は互いに異なる計算タスクを実行し」に相当する。

9.引用発明における「ネットワークは,前記処理エレメントと,前記共有メモリとを相互に接続し」と,
本願発明における「処理サブシステムの各々は処理装置を備え,前記第2通信システムは複数の前記処理サブシステムと前記記憶装置とを相互接続し」とは,
“第2通信システムは複数の処理サブシステムと記憶装置とを相互接続”する点で共通する。

10.以上,1.?9.において検討した事項から,本願発明と,引用発明との一致点,及び,相違点は,次のとおりである。

[一致点]
粒子相互作用を計算するための計算装置であって,
前記計算装置は複数の計算ノードと第1通信システムとを備え,
前記第1通信システムと前記計算ノードとは並行処理システムを集合的に定義し,
前記第1通信システムは複数の前記計算ノードを相互接続する複数のリンクを有し,
複数の前記計算ノードはシミュレーション体積の幾何学的分割に応じて配置され,
複数の前記計算ノードは第1計算ノードと第2計算ノードを含み,前記第1計算ノードと前記第2計算ノードの各々は記憶装置,複数の処理サブシステム,および第2通信システムを備え,
前記記憶装置は粒子データを記憶し,前記粒子データは幾何学的分割された前記シミュレーション体積の領域における複数の粒子に関連付けられ,
前記処理サブシステムの各々は互いに異なる計算タスクを実行し,
前記第2通信システムは複数の前記処理サブシステムと前記記憶装置とを相互接続する,計算装置。

[相違点1]
本願発明においては,「処理サブシステムの各々は処理装置を備え」るものであるのに対して,
引用発明においては,「処理エレメント」が,更に,「処理装置」を備えるかについては,特に言及されていない点。

[相違点2]
本願発明においては,
「第1計算ノードの内部にある複数の前記処理サブシステムは,前記第1計算ノードの内部の前記粒子相互作用の計算を分散方式で調整し,
前記第2計算ノードの内部にある複数の前記処理サブシステムは,前記第2計算ノードの内部の前記粒子相互作用の計算を分散方式で調整する」ものであるのに対して,
引用発明においては,「クラスタ」内で,処理を「分散方式で調整する」ことに関して,特に言及されていない点。

第8.相違点についての当審の判断
1.[相違点1]について
主となるプロセッサ(本願発明における「処理サブシステム」に相当)に加え,従となるコプロセッサ等(本願発明における「処理装置」に相当)を設ける構成については,上記G,及び,上記Hに引用した,周知文献の記載にもあるとおり,当該技術分野においては,本願の原出願の第1国出願前に,当業者には周知の技術事項であり,引用発明においても,処理エレメントが,更に,処理装置を有するよう構成することは,当業者が適宜なし得る事項である。
よって,[相違点1]は,格別のものではない。

2.[相違点2]について
複数の演算装置より構成されるシステムを用いて粒子相互作用のシミュレーションを行う際に,当該シミュレーションに係る演算等の処理を,当該複数の演算装置において,負荷分散によって処理することは,上記Fに引用した,引用文献2の記載にもあるとおり,本願の原出願の第1国出願前に,当業者には周知の技術事項であり,引用発明においても,各「クラスタ」内の「処理エレメント」において,粒子相互作用の計算を,負荷分散,即ち,分散方式で調整するよう構成することは,当業者が適宜なし得る事項である。
よって,[相違点2]は,格別のものではない。

3.以上,上記1.,及び,2.において検討したとおり,[相違点1],及び,[相違点2]は,格別のものではなく,そして,本願発明の構成によってもたらされる効果も,当業者であれば当然に予測可能なものに過ぎず格別なものとは認められない。

第9.むすび
したがって,本願発明は,引用発明,引用文献2,及び,周知文献に記載の技術事項に基づいて当業者が容易に発明をすることができたものであるので,特許法29条2項の規定により特許を受けることができない。

よって,結論のとおり審決する。
 
別掲
 
審理終結日 2019-08-15 
結審通知日 2019-08-20 
審決日 2019-09-09 
出願番号 特願2016-154389(P2016-154389)
審決分類 P 1 8・ 121- Z (G06F)
P 1 8・ 561- Z (G06F)
最終処分 不成立  
前審関与審査官 漆原 孝治  
特許庁審判長 辻本 泰隆
特許庁審判官 田中 秀人
石井 茂和
発明の名称 粒子相互作用を計算するための並行計算アーキテクチャ  
代理人 恩田 誠  
代理人 恩田 博宣  
代理人 本田 淳  

プライバシーポリシー   セキュリティーポリシー   運営会社概要   サービスに関しての問い合わせ