説明

Fターム[5B005PP26]の内容

階層構造のメモリシステム (9,317) | 一致制御 (671) | バススヌーピング (99)

Fターム[5B005PP26]に分類される特許

21 - 40 / 99


【課題】不必要なトランザクションを防止できるキャッシュ一貫性管理装置を提供する。
【解決手段】キャッシュ一貫性管理装置は、複数のプロセッサの間から発生されるピンポンマイグレーションシーケンスをモニタリングするピンポンモニタリング部110、モニタリング結果に応じてピンポンマイグレーションシーケンスの連続発生回数をカウントするカウンティング部130、カウント結果を基にしてマイグレーションリクエストを非マイグラトーリシェアリング方式のリクエストに変更するリクエスト変更部150を含む。 (もっと読む)


【課題】キャッシュラインの転送時の消費電力を低減したマルチプロセッサを提供する。
【解決手段】メインメモリ2と、その記憶データを一時記憶するL1キャッシュメモリ11a〜11dを備える複数のプロセッサユニット1a〜1dと、L1キャッシュメモリ11a〜11dのコヒーレンシを管理するCMU3とを備え、CMU3は、L1キャッシュメモリに格納されたキャッシュラインのタグを格納するL1タグキャッシュ33a〜33dと、プロセッサユニット1a〜1dからのリフィル要求に応じてインターベンション転送を行うCMUコントローラ31と、インターベンション転送を監視することによって、転送先別に転送元を予測するPIU32とを有し、CMUコントローラ31は、PIU32の予測結果が得られた後は、予測された転送元に対応するタグキャッシュのみを活性化して、リフィル要求に対応するキャッシュラインがキャッシュされているかを判別する。 (もっと読む)


【課題】 トラフィックを低減させることが可能なレイテンシ短縮システム、レイテンシ短縮方法、および、レイテンシ短縮プログラムを提供する。
【解決手段】 本発明のレイテンシ短縮システムは、複数のノードを含み、該ノードは、共有メモリと、記憶手段と、登録手段と、送信手段とを備える。登録手段は、複数の発行元から共有メモリの同一アドレスに対して同時にリクエストが発行された場合に、該リクエストを発行した発行元を特定する制御情報を記憶手段に登録する。送信手段は、同時に発行されたリクエストのうち、最初に発行されたリクエストに対して当該リクエストの発行元にデータを返信するとき、当該発行元を制御情報に基づいて決定する。 (もっと読む)


メモリアクセスの順序を強制するための効率的な技法が、説明される。メモリアクセス要求は、メモリバリアコマンドを生成するように構成されていないデバイスから受信される。サロゲートバリアは、メモリアクセス要求に応じて生成される。メモリアクセス要求は、読取り要求とすることができる。メモリ書込み要求の場合には、サロゲートバリアは、書込み要求が処理される前に生成される。サロゲートバリアはまた、読取り要求と同じアドレスに対する先行する書込み要求を条件としてメモリ読取り要求に応じて生成されることも可能である。コヒーレンシは、あたかもメモリバリアコマンドがメモリバリアコマンドを生成しないデバイスから受信されたかのように、階層的メモリシステムの内部で強制される。
(もっと読む)


【課題】複数のノード間での通信方法を開示する。
【解決手段】各ノードは、複数のプロセッサおよび相互接続チップセットを含み、第1のノード内のプロセッサからデータ要求を発行し、拡張ポート(またはスケーラビリティポート)を通してこのデータ要求を他のノードに渡す。また、データ要求に応答してメモリのアクセスを開始し、各ノード内の各プロセッサのプロセッサキャッシュをスヌープする。従って、該要求を発行するプロセッサを持つノード内の(あるいは別のノードの)プロセッサキャッシュまたはメモリ内のデータの格納場所を識別する。さらに、ルータシステムにて2つの直接結合されたノード間でデータを要求する方法と、相互接続システム内の3またはそれ以上のノード間でのデータ要求方法と、相互接続システム内のクロスケースの解消方法と、ノードを直接またはプロトコルエンジンを通して結合するための相互接続システムも開示する。 (もっと読む)


【課題】ローカルスヌープで処理できるケースを追加し、記憶装置へのアクセスを高速化
すること。
【解決手段】ローカルスヌープ制御部32は、キャッシュミスケースであってもリクエストの宛先がローカルの記憶装置である場合には、宛先アドレスをアドレスロック制御部33に登録してアドレスをロックし、メモリアクセス処理部36にメモリアクセスを実行させる。グローバルスヌープ制御部34は、ブロードキャストされたアクセス要求のうち、宛先がローカルの記憶装置であるものについてロック制御を行なう。 (もっと読む)


【解決手段】 ハードウェア属性がトランザクション実行をサポートするためのメモリモデルを提供する方法および装置を説明する。読出監視属性、書込監視属性、または、バッファリング属性をロードする監視試験処理等、ハードウェア属性のロードが発生すると、ハードウェア属性が失われたことを損失フィールドが示している場合には、エラーが発行される。また、アドレスの依存関係およびアクセスの種類の依存関係に基づき、属性アクセス処理についてはブロックおよび転送等の依存関係処理が行なわれる。この結果、メモリモデルでは、属性が失われている場合、および、属性を試験する場合には、別の処理が可能となり、制限される。
(もっと読む)


【課題】メモリに格納されたデータを使用して処理動作を実行する方法を提供すること。
【解決手段】この方法は、ローカルメモリに格納された第1データがデータキャッシュに格納された第2データに対して相対的にコヒーレントであるかどうかを判定するように構成されたスヌープ要求であって、バス上のデータキャッシュを識別する宛先情報と、データキャッシュ内で第2データが配置される場所を識別するキャッシュラインアドレスとを含むスヌープ要求を生成するステップと、スヌープ要求の、バスを介しての第2プロセッサへの送信ステップと、スヌープ要求からキャッシュラインアドレスの抽出ステップと、第2データがコヒーレントであるかの判定ステップと、完了情報を含む完了メッセージを生成するステップと、完了メッセージの、バスを介しての第1プロセッサへの送信ステップとを含む。 (もっと読む)


【課題】 ベクトルストア命令実行時におけるバウンダリ生成と後続のスカラロード命令の発行制御を高速化し、かつハードウェア量を削減することを目的とする。
【解決手段】 本発明のバウンダリ実行制御システムは、キャッシュと、キャッシュに対してスヌープ処理を行うスヌープ処理回路と、バウンダリチェック回路とを備える。バウンダリチェック回路は、複数のデータを並行して格納する命令であるベクトルストア命令の実行時に、更新するアドレスの最小値および最大値の少なくともいずれか一方をバウンダリとして記憶するとともに、最小値と最大値との排他的論理和演算の結果からマスクを生成し、キャッシュに対するスカラロード命令の発行要求時に、バウンダリとマスクとに基づいて、スヌープ処理の完了を待たずにスカラロード命令の発行を許可するか否かを判定する。 (もっと読む)


【課題】TLBの機能をキャッシュメモリ上で実現して、回路量の削減を図り、かつエイリアスの問題を解消する仮想アドレスキャッシュメモリを提供する。
【解決手段】仮想アドレスキャッシュメモリ12は、プロセスの仮想アドレスの所定の上位ビットの仮想ページタグを含むエントリデータを保持し、プロセッサからの仮想ページタグが一致するとヒット信号を出力するTLB仮想ページメモリ21と、仮想ページタグとページオフセットをキャッシュインデックスとしてキャッシュデータを保持するデータメモリ23と、キャッシュインデックスに対応してデータメモリ23に記憶されたキャッシュデータのキャッシュステートを保持するキャッシュステートメモリ24と、を有する。 (もっと読む)


【課題】キャッシュメモリ装置及びその制御方法における処理性能を向上させること。
【解決手段】キャッシュメモリ装置10は、データをキャッシュライン11で記憶する1次キャッシュメモリ1を備えている。また、1次キャッシュメモリ1のラインサイズは、2次キャッシュメモリ2のラインサイズよりも大きくなるように構成されている。さらに、1次キャッシュメモリ1のキャッシュライン11は、データを記憶する複数のデータエントリ部11aと、データエントリ部11aに対応して、データが有効又は無効であること示す複数の有効ビット部11bと、キャッシュライン11のアドレスを記憶するアドレスエントリ部11cと、を含んでいる。 (もっと読む)


【課題】プロセッサのキャッシュ階層からのラインの追い出しを必要とせずに、領域コヒーレンス配列(RCA)から追い出されたラインを正確に追跡する方法およびシステムを提供する。
【解決手段】RCAは、領域アドレス・タグ、領域コヒーレンス状態に関するビットのセット、およびプロセッサによりキャッシュされている領域ラインの数を追跡するライン・カウントから成る、領域エントリを含んだセット・アソシアティブ配列である。領域がRCAから追い出され、追い出された領域からのラインがまだプロセッサのキャッシュにある(すなわち、領域のライン・カウントが非ゼロ)と、RCAライン・カウントが、対応するRVHカウントに追加される。RVHカウントは、その後の、RCAからすでに追い出された領域のプロセッサ・キャッシュ追い出し/無効化に続いて、領域ライン・カウントの値だけデクリメントされる。 (もっと読む)


【解決手段】
1つの実施形態においては、プロセッサ(10)はデータキャッシュ(18)及びロード/ストアユニット(LSU)(20)を備えている。LSU(20)はキュー(24)及び制御ユニット(26)を備えており、キュー(24)内の各エントリは、データキャッシュ(18)にアクセスしたがリタイヤしなかった異なるロードに割り当てられている。制御ユニット(26)はデータキャッシュ(18)の内容が変化したときにキュー(24)において示される各ロードのデータキャッシュヒット状態を更新するように構成されている。スヌープインデックスが第1のエントリ内にストアされているロードインデックスに一致することと、第1のロードのデータキャッシュヒット状態がヒットを示していることと、データキャッシュ(18)がスヌープ動作に対するスヌープヒットを検出していることと、スヌープ動作がヒットであるデータキャッシュ(18)の第1のウエイに第1のエントリ内にストアされているロードウエイが一致することとに応答して、制御ユニット(26)がキュー(24)の第1のエントリ内の第1のロードに対するスヌープヒットを検出するように構成されている。 (もっと読む)


【課題】1つのキャッシュレベルまたはスヌープフィルタにおけるキャッシュラインを退避させると、キャッシュ階層を維持するためにキャッシュ階層の他のレベルにおける対応するキャッシュラインが退避させられることになる。スヌープフィルタがこのような要求を多数送信すると、有効メモリレイテンシを増大させうる相互接続帯域幅を消費し、それと共に有用なキャッシュエントリを除去する。
【解決手段】キャッシュエージェントからペンディングの容量退避の表示を受信する段階と、ペンディングの容量退避に対応付けられたキャッシュラインに対し、キャッシュエージェントからインバリデーションライトバックトランザクションが送られる可能性があるかどうかを決定する段階と、そうであれば、キャッシュラインに対応付けられたスヌープフィルタエントリをスヌープフィルタからステージング領域に移動させる段階と、を備える。 (もっと読む)


不定形なキャッシングを有する方法、チップマルチプロセッサタイル、およびチップマルチプロセッサを開示する。初期プロセッシングコア404は、データストレージからデータブロックを取得してよい。初期プロセッシングコア404に隣接する初期不定形キャッシュバンク410は、初期データブロックコピー422を格納してよい。ホームバンクディレクトリ424は、初期データブロックコピー422を登録してよい。 (もっと読む)


【課題】本発明の目的は、スヌープ処理を制御することで、並列処理のプログラムを効率良くデバッグするための機能を備えた情報処理装置を提供することにある。
【解決手段】スヌープ処理を制御するスヌープコントローラ(60)で中央処理装置からのスヌープ要求の受理を設定可能な構成とし、スヌープ要求の受理によりデバッグコントローラ(90)が複数の中央処理装置(10、20、30、40)を停止可能にするように構成する。 (もっと読む)


【課題】一つのノード内にキャッシュ状態を管理するディレクトリを複数設けると共に、コヒーレンシを保障することである。
【解決手段】第一のプロセッサと、メモリと、第一のディレクトリと、第二のディレクトリと、第一のディレクトリ制御部と、第二のディレクトリ制御部とを具備するレイテンシ短縮方式によって解決することができる。メモリは、自ノードに所属する第一のプロセッサと、他ノードに所属する第二のプロセッサとに共有される。第一のディレクトリは、自ノードのキャッシュ状態を管理する。第二のディレクトリは、他ノードのキャッシュ状態を管理する。第一のディレクトリ制御部は、自ノード内で発行されるリクエストを処理し、第一のディレクトリを索引する。第二のディレクトリ制御部は、他ノードから発行されるリクエストを処理し、第二のディレクトリを索引すると共に、コヒーレンシを保障するための所定の制御を行う。 (もっと読む)


【課題】メインメモリとキャッシュメモリを有するプロセッサとをそなえた複数のノードで構成される情報処理装置において、メモリアクセスのレイテンシを短縮するとともに、スヌープ処理のスループットを改善することを目的とする。
【解決手段】複数のノードSB0,SB1のうち少なくとも1つのシステムコントローラ50−1が、自ノードSB0のメインメモリ30,31に存在する主データであって当該主データに対応するキャッシュデータが自ノードSB0以外の複数のノードSB1のキャッシュメモリ14a〜17a,14b〜17b内に存在しない主データに関する特定情報を保持する保持部57−1をそなえている。 (もっと読む)


【課題】キャッシュコヒーレンシを保証すると共に、システムの処理効率の悪化を防ぐ。
【解決手段】各CPUは、ライトバック型キャッシュを有する。リード管理部92は、CPUからメインメモリ86に対するリードリクエストを受信した際に、要求されるアドレスのデータが他のCPUによりリードされていないことを条件に、リードを許可する。キャッシュラインアドレス情報保持部94は、CPUによりデータのリードが実行されている際に、このデータが当該CPUに出力されるまでそのアドレスを保持する。ペンディング指示部96は、キャッシュラインアドレス情報保持部94に保持されたアドレスのデータが当該プロセッサへ出力されることに同期して、データのリードに関連するリクエストの発行を一時停止させるペンディング指示を該CPU以外のCPUに行う。 (もっと読む)


【課題】システムアドレス空間の領域毎のスヌープ要求アクセス頻度に応じた、スヌープ要求のフィルタリング。
【解決手段】アドレスデコーダのエントリに割り当てられた、アドレス空間上の領域をスヌープフィルタのエントリに対応させ、スヌープ要求のアクセス頻度に応じて、エントリに割り当てられるアドレス範囲を任意に決定する。アドレス範囲を任意に設定できることから、スヌープ要求の頻度に応じた、アドレス管理の粒度を決定することが可能となる。又、システムアドレス空間中の分割ブロック単位毎にスヌープフィルタの1エントリを対応させるため、アドレスデコーダ内でのアドレス比較のみで、コマンドの受信者の特定とスヌープフィルタのエントリの特定が同時に可能となる。これにより、スヌープフィルタ分の比較器の数を削減でき、その分の比較回路を単純化でき、回路規模の縮小が可能となる。 (もっと読む)


21 - 40 / 99