説明

Fターム[5B005PP26]の内容

階層構造のメモリシステム (9,317) | 一致制御 (671) | バススヌーピング (99)

Fターム[5B005PP26]に分類される特許

61 - 80 / 99


【課題】マルチプロセッサ・システムにおけるマルチプル・キャッシュのためのデータ・コヒーレンス情報を保持するスヌープフィルタのエントリ除去によるキャッシュラインのインバリデーションの防止。
【解決手段】スヌープフィルタが、マルチプロセッサ・システムのマルチプル・キャッシュのためのデータ・コヒーレンス情報を保持する。排他的所有権のスヌープフィルタだけが、プロセッサにより排他的に所有されるエントリを記憶する。コヒーレンス・エンジンは、前記エントリが排他状態で出力される場合に前記スヌープフィルタからエントリが除去されるように、前記スヌープフィルタ中の前記エントリをアップデートする。データ・コヒーレンスを確実にするために、前記コヒーレンス・エンジンは、読出リクエストを書込リクエストから分離するシーケンス・ルールをインプリメントする。 (もっと読む)


【課題】複数のノード間での通信方法を開示する。
【解決手段】各ノードは、複数のプロセッサおよび相互接続チップセットを含み、第1のノード内のプロセッサからデータ要求を発行し、拡張ポート(またはスケーラビリティポート)を通してこのデータ要求を他のノードに渡す。また、データ要求に応答してメモリのアクセスを開始し、各ノード内の各プロセッサのプロセッサキャッシュをスヌープする。従って、該要求を発行するプロセッサを持つノード内の(あるいは別のノードの)プロセッサキャッシュまたはメモリ内のデータの格納場所を識別する。さらに、ルータシステムにて2つの直接結合されたノード間でデータを要求する方法と、相互接続システム内の3またはそれ以上のノード間でのデータ要求方法と、相互接続システム内のクロスケースの解消方法と、ノードを直接またはプロトコルエンジンを通して結合するための相互接続システムも開示する。 (もっと読む)


【課題】多数のプロセッサが任意のメモリに対して等しく高い性能でアクセス可能であり、キャッシュの整合性を保つためのハードウェア物量が小さく、かつプロセッサのエンハンスによるキャッシュ容量の増加に容易に対応可能な共有メモリ型並列計算機を提供する。
【解決手段】下位アドレスによってメモリがインタリーブされた、プロセッサが任意のメモリに対して等しく高い性能でアクセス可能な対称型マルチプロセッサ型計算機において、プロセッサをグループ化し、グループ間ではスヌープを間引き、すべてのリクエストをスヌープするのはグループ内に限ることによりスヌープリクエストを削減する。グループ間でスヌープを間引く手段としては、アドレス範囲によるスヌープ対象の限定と、ディレクトリを併用する。グループ内では、バックサイドでスヌープリクエストの転送を行うことでフロントサイドの負荷を減らす。 (もっと読む)


【課題】 データの部分が、低速メイン・メモリに格納され、1つ又は複数のプロッセサと該メイン・メモリとの間の高速メモリに転送されるキャッシングを提供すること。
【解決手段】 データの部分が、低速メイン・メモリに格納され、1つ又は複数のプロッセサと該メイン・メモリとの間の高速メモリに転送されるキャッシングである。キャッシュは、個々のキャッシュ・システムが、他の関連したキャッシュ・システムに通信するか又はこうしたキャッシュ・システムに問い合わせを行い、所定のキャッシュ位置におけるデータの修正又は取得時に、或いはその前に、該キャッシュ・システムが所定のキャッシュ位置のコピーを含むかどうかを判断するというものである。キャッシュは、特定の記憶位置に格納されたデータを置き換えることができる時点を判断するための備えをさらに含む。 (もっと読む)


【課題】マルチプロセッサシステムにおいて、コヒーレンシの保障と処理速度の向上を両立させる。
【解決手段】複数のセルC1〜Cnは、リクエストセルCRと、ホームセルCHと、オーナーセルCOとを含む。ホームセルCHのメインメモリ5に記憶された対象データの最新版は、オーナーセルCOのキャッシュメモリ7に格納されている。リクエストセルCRは、その対象データに対するリードリクエストをホームセルCHに発行する。ホームセルCHは、そのリードリクエストに応答して、スヌープリクエストをオーナーセルCOに発行する。オーナーセルCOは、そのスヌープリクエストに応答して最新データをリクエストセルCRに直接送信する。ホームセルCHは、オーナーセルCOからのリプライライトバックをリクエストセルCRからのリクエストライトバックよりも後に受信した場合、そのリプライライトバックを破棄する。 (もっと読む)


【課題】CPUがキャッシュ・メモリ上のデータを破棄する処理を行っている時間を短縮できる半導体集積回路を、提供する。
【解決手段】バス・スヌープ機能を有するCPU15とCPUバスにより接続され、CPU15が利用するRAMとメモリバスにより接続されて使用される,CPU15によって直接的に書込が指示されたデータではないデータをRAMへ書き込む処理を実行可能な半導体集積回路に、RAM上の記憶領域の指定を伴う,処理の開始指示が与えられたときに、RAMの,指定されている記憶領域上の各データが書き換えられたことをCPU15に認識させるための制御処理を、CPUバスに対して実行するCPUバス制御回路20を設けておく。
(もっと読む)


【課題】改良されたキャッシュ整合データ処理システム、キャッシュ・システム、およびキャッシュ整合データ処理システムにおけるデータ処理の方法を提供する。
【解決手段】キャッシュ整合データ処理システムは、少なくとも第1および第2の整合ドメインを含む。データ処理システムの第1の整合ドメイン内の第1のキャッシュ・メモリ内において、アドレス・タグおよび整合状態フィールドに関連した記憶位置にメモリ・ブロックが保持される。メモリ・ブロックに関連したアドレスが割り当てられたホーム・システム・メモリが第1の整合ドメイン内にあるかどうかが判断される。もしなければ、整合状態フィールドは、アドレス・タグは有効であることと、記憶位置は有効なデータを含まないことと、第1の整合ドメインはホーム・システム・メモリを含まないことと、状態の形成に従ってメモリ・ブロックが第1の整合ドメインの外部にキャッシュされることとを示す整合状態に設定される。 (もっと読む)


【課題】 キャッシュ・ライン置換を改善することによって、コンピュータ・システムの性能を高める方法及び装置を提供する。
【解決手段】 上位レベル・キャッシュに保持されたキャッシュ・ラインのアドレス指定を順番に行い、それらのアドレスを用いて下位レベル・キャッシュのスヌープ読み出しを行う巡回スヌープ・シーケンサを有するコンピュータ・システムである。上位レベル・キャッシュに保持された特定のキャッシュ・ラインが下位レベル・キャッシュに保持されていない場合には、新しいキャッシュ・ラインが上位レベル・キャッシュにロードされなければならないときに、特定のキャッシュ・ラインが上位レベル・キャッシュ内のエビクション候補として識別される。 (もっと読む)


【課題】マルチプロセッサシステムにおいて、ブロードキャストスヌープ方式ではスヌープ結果の集計がボトルネックとなり、ディレクトリ方式では他ノードにキャッシュされているケースでレイテンシが遅くなる。
【解決手段】スヌープとキャッシュコピータグの情報を使ってメモリアクセスレイテンシの短縮を図る。自ノードのキャッシュコピータグの情報を使って可能な場合にはスヌープ結果の集計処理を省略することでメモリアクセスレイテンシの短縮を図る。また、キャッシュリプレース時のキャッシュコピータグの更新にメモリの位置情報を利用することで、自ノードから再アクセスされた場合にコピータグにヒットする確率を上げる。 (もっと読む)


【課題】マルチプロセッサ構成の演算処理装置において、シングルプロセッサとして利用した場合に、キャッシュヒット率の低下を回避する。
【解決手段】キャッシュアクセス伝達手段132はCPU110からローカルキャッシュアクセスアドレス入力手段161を介して取得したアクセスアドレスを、リモートキャッシュアクセスアドレス出力手段164を介して共有アドレスバス81に出力する。キャッシュアクセス制御手段231は共有アドレスバス81からリモートキャッシュアクセスアドレス入力手段265を介して取得したアクセスアドレスを用いて、キャッシュメモリ221へのアクセスを行う。すなわち、プロセッサ100のCPU110から出力されたアクセスアドレスは、キャッシュアクセス伝達手段132から出力され、キャッシュアクセス制御手段231によって取得されて、プロセッサ200のキャッシュメモリ221へのアクセスに利用可能となる。 (もっと読む)


【課題】キャッシュ・コヒーレント・データ処理システムでのデータ処理の方法とを提供する。
【解決手段】データ処理システムは、I/Oコントローラを有する第1処理ノードとメモリ用のメモリ・コントローラを含む第2処理ノードとを少なくとも含む。メモリ・コントローラは、第1および第2アドレスをそれぞれ対象とするパイプライン式第1および第2DMA書込みオペレーションをI/Oコントローラから順番に受け取る。第2DMA書込みオペレーションに応答して、第2アドレスに関連するドメイン標識の状態を確立し、第1処理ノードを含むオペレーション範囲を示す。メモリ・コントローラが、第2アドレスを指定し、第1処理ノードを除外する範囲を有するデータ・アクセス要求を受け取ったことに応答して、第2アドレスに関連するドメイン標識の状態に基づいて、第1処理ノードを含む範囲で強制的にデータ・アクセス要求を再発行させる。 (もっと読む)


【課題】 キャッシュメモリのライトバック処理、無効化処理またはこれらの両方を効率よく行う。
【解決手段】 本発明の一態様としての情報処理装置は、CPUと、タスク又はプロセスを識別するタスクID又はプロセスIDを格納するレジスタと、前記CPUより指定されたメモリアドレスに対応するキャッシュラインにデータを記録するキャッシュメモリであって、前記キャッシュラインを管理するタグの一部に前記レジスタ内のタスクID又はプロセスIDを前記キャッシュラインのオーナーIDとして書き込むキャッシュメモリと、を備え、前記CPUは、前記レジスタ内のタスクID又はプロセスIDと同一のオーナーIDをもつキャッシュラインについてのみライトバック処理や無効化処理といった特定の操作を行うこと指示する記述を含むキャッシュ制御命令を実行することを特徴とする。 (もっと読む)


【課題】スヌープ操作を管理するデータ処理装置を提供する。
【解決手段】データ処理装置が、共有メモリ内のデータをアクセスするデータ処理操作を行って多数の処理を実行する複数の処理ユニットを含む。各処理ユニットは、データのサブセットを記憶し、その処理ユニットによりアクセスされるキャッシュを有する。
データ処理装置はスヌープ・ベースのキャッシュ・コヒーレンシー・プロトコルを採用し、各処理ユニットによってアクセスされるデータが最新であることを保証する。各処理ユニットは、スヌープ制御データを識別するように、処理ユニットに関連するストレージ・エレメントを有する。
前記処理ユニットのうちの一つがキャッシュ・コヒーレンシー・プロトコルを考慮してスヌープ操作が要求されていると判断したときに、その処理ユニットは複数の処理ユニットのうちのいずれがスヌープ操作の対象とされているのかを判断するために、関連するストレージ・エレメント内のスヌープ制御データを参照する。 (もっと読む)


マルチプロセッサシステムにおいて、与えられたプロセッサのバンクされたキャッシュへのアクセスは、共有データアクセスが共有データを保持するための指定された1つ以上のバンクへ指示され、および/または非共有データアクセスが非共有データを保持するための指定された1つ以上のバンクへ指示されるように制御される。非共有データバンクは非共有データの保持のために排他的に指定され、その結果、共有データアクセスはそのバンクへの非共有アクセスと干渉しない。さらに、共有データバンクは共有データの保持のために排他的に指定され、1つ以上のバンクが共有および非共有データの両方を保持するために指定されてもよい。アクセス制御回路は、アクセスと関連して共有の指示信号を受け取ることに基づいて、それぞれのバンクへ共有および非共有アクセスを指示する。さらに、1つ以上の実施例では、アクセス制御回路はバンク構成信号に応答する1つ以上のバンク指定を再構成する。 (もっと読む)


【課題】 データ処理システム内のメモリ・ブロックを初期設定するプロセッサ、データ処理システム、および方法を提供することにある。
【解決手段】 初期設定すべきターゲット・メモリ・ブロックを示す関連プロセッサ・コアからの初期設定動作を受信したことに応答して、キャッシュ・メモリはターゲット・メモリ・ブロックのコヒーレンス状態を決定する。ターゲット・メモリ・ブロックがキャッシュ・メモリに対するデータ無効コヒーレンス状態を有するという判断に応答して、キャッシュ・メモリは、ターゲット・メモリ・ブロックを示す対応する初期設定要求を相互接続上で発行する。初期設定要求に応答して、ターゲット・メモリ・ブロックはデータ処理システムのメモリ内で初期設定値に初期設定される。したがって、ターゲット・メモリ・ブロックは、キャッシュ・メモリによりターゲット・メモリ・ブロックの有効なコピーを保持せずに初期設定することができる。 (もっと読む)


【課題】ノードの処理状態にしたがって主記憶アクセスの先行を許しマルチプロセッサシステムの性能を向上させる。
【解決手段】データ読み出しアクセスを全ノードで同期して選択し順序付けするだけでなく、データ書き戻し完了通知も全ノードで同期して選択し順序付けすることで、全ノードで観測されるデータ読み出しの順序とデータ書き戻しの完了順序を一意にする。
各ノードにおいて、順序付けされたデータ読み出しアクセスと順序付けされたデータ書き戻し完了通知の対象アドレスを比較し、データ書き戻しの完了に追い越される同一アドレスのデータ読み出しを検出することで、データ読み出しとデータ書き戻しの順序を決定する。このとき、データ書き戻しの完了に追い越された同一アドレスのデータ読み出しアクセスを送信したノードへデータの読み直しを促すコヒーレンシ応答を送信することで、データのコヒーレンシを維持する。 (もっと読む)


【課題】リトライとすべき先行トランザクションが、スヌープの結果リトライできないケースがある。スヌープ結果を待ってからリトライ判定を行うと、レイテンシが伸び、パイプラインが可変長になるため論理が複雑化する。
【解決手段】要求発行時にリトライ判定を受けたトランザクションを発行中のトランザクションと区別し、沈み込み保護対象のトランザクションがリトライ判定中のトランザクションと二度続けてアドレス競合した場合に、これを発行することで沈み込みを解消する。 (もっと読む)


【課題】キャッシュ・コヒーレント・データ処理システムの提供。
【解決手段】メモリ・アクセス・リクエストをマスタが受けると、キャッシュ階層の上位レベル・キャッシュの第1キャッシュ・ディレクトリをアクセスする。ターゲット・アドレスが有効アドレス・タグおよび第1無効コヒーレンシ状態を有するエントリと関連付けられていることに対応して、即座に相互接続ファブリック上にターゲット・アドレスを指定するリクエストを送出する。ターゲット・アドレスが第一キャッシュディレクトリにおいて第2無効コヒーレンシ状態を有するエントリと関連付けられていることに応答して、キャッシュ・コヒーレンシの下位レベル・キャッシュの第2キャッシュ・ディレクトリにおいてターゲット・アドレスと関連付けられたコヒーレンシ状態を決定した後、相互接続ファブリック上にターゲット・アドレスを指定するリクエストを送出する。 (もっと読む)


【課題】キャッシュ・コヒーレントな多重プロセッサ・システムにおいて、共用バスを使う低効率のスヌープ要求システムに替わる効率の良い簡単なスヌープ方法及び装置を提供する。
【解決手段】複数のプロセッシング・ユニットを有するマルチプロセッサ・コンピューティング環境においてキャッシュ・コヒーレンシをサポートするための方法及び装置であって、各プロセッシング・ユニットは、それに付随するするローカル・キャッシュ・メモリを有する。スヌープ・フィルタ・デバイスは、各々の処理ユニットに関連付けられており、ストリーム・レジスタ・セット及び関連するストリーム・レジスタ対比ロジックの使用に基づいてフィルタリング方法を実行する少なくとも一つのスヌープ・フィルタ基本要素を含む。どの時点においても、複数のストリーム・レジスタ・セットのうち、少なくとも一つのストリーム・レジスタ・セットはアクチブであり、少なくとも一つのストリーム・セットは履歴と標識される。さらに、スヌープ・フィルタ・ブロックは、キャッシュ・ラップ検知ロジックと動作可能に結合され、これにより、キャッシュ・ラップ状態が検知されると、アクチブなストリーム・レジスタ・セットの内容は履歴ストリーム・レジスタ・セットに移し替えられ、少なくとも一つのアクチブなストリーム・レジスタ・セットの内容がリセットされる。各フィルタ基本要素は、ストリーム・レジスタ対比ロジックを実行し、受信したスヌープ要求をプロセッサに転送するかあるいは廃棄するかを判断する。 (もっと読む)


【課題】 本発明は、アドレススヌープ方法及びマルチプロセッサシステムに関し、多数のI/Oブロックをプロセッサブロックから独立させてマルチプロセッサシステムに容易に実装可能とすると共に、マルチプロセッサシステムの性能の上限の低下(レイテンシの増加)を防止可能とすることを目的とする。
【解決手段】 複数のプロセッサと複数のメモリからなるプロセッサブロックが複数個アドレス結合装置を介して複数のI/Oブロックと接続された構成のマルチプロセッサシステムにおけるアドレススヌープ方法において、任意の1つのプロセッサブロックからアクセスリクエストが発生したときに、前記アクセスリクエストに対して応答するか否かを判断するアドレススヌープ処理を、各I/Oブロックに代わって前記アドレス結合装置において行うように構成する。 (もっと読む)


61 - 80 / 99