説明

Fターム[5B005PP03]の内容

階層構造のメモリシステム (9,317) | 一致制御 (671) | 下位のメモリの一致制御 (259) | コピーバック方式 (218)

Fターム[5B005PP03]に分類される特許

41 - 60 / 218


【課題】 命令実行部からのレベル1キャッシュアクセスのレイテンシを増大させることなく、バストラフィックを抑えてコヒーレンシを保証しようとする場合、ハードウェア量が大きくなるという問題点があった。
【解決手段】 第1の記憶手段のインデックスアドレスを含む論理アドレスを、このインデックスアドレスを含む第2の記憶手段の物理アドレスに変換する論理物理アドレス変換TLBと、ウェイ番号を含むロードリクエストを送信するリクエスト出力部と、受信したロードリクエストに基づいて、第2の記憶手段の領域と第1の記憶手段の領域との関連状態を記憶する対応状態記憶部と、受信したストアリクエストに含まれるタグと対応状態記憶部に記憶されている内容とに基づいて、無効化指示を送信する無効化指示部とを有する。 (もっと読む)


【課題】複数のノード間での通信方法を開示する。
【解決手段】各ノードは、複数のプロセッサおよび相互接続チップセットを含み、第1のノード内のプロセッサからデータ要求を発行し、拡張ポート(またはスケーラビリティポート)を通してこのデータ要求を他のノードに渡す。また、データ要求に応答してメモリのアクセスを開始し、各ノード内の各プロセッサのプロセッサキャッシュをスヌープする。従って、該要求を発行するプロセッサを持つノード内の(あるいは別のノードの)プロセッサキャッシュまたはメモリ内のデータの格納場所を識別する。さらに、ルータシステムにて2つの直接結合されたノード間でデータを要求する方法と、相互接続システム内の3またはそれ以上のノード間でのデータ要求方法と、相互接続システム内のクロスケースの解消方法と、ノードを直接またはプロトコルエンジンを通して結合するための相互接続システムも開示する。 (もっと読む)


【課題】メンバーディスクの性能を高め、消費電力を減少させること。
【解決手段】キャッシュおよびディスク管理方法が提供される。キャッシュおよびディスク管理方法は、キャッシュに格納された全ての有効なデータの一部である特定データに対して削除命令を複数のメンバーディスクに送信する。結局、全ての有効なデータまたは特定データがキャッシュにのみ存在し、複数のメンバーディスクでは削除される。したがって、複数のメンバーディスクはより多い空間を確保し、内部的なコピーオーバーヘッドを軽減させることができ、特に、ソリッドステートディスクは優れる性能を達成することができる。 (もっと読む)


本発明の記憶制御装置は、パージメッセージの通信量を低減することができ、記憶制御装置の処理性能を高めることができる。各マイクロプロセッサは、共有メモリ内の制御情報を更新するたびにパージメッセージを作成して保存しておく。一連の更新処理が完了した後で、保存されたパージメッセージを各マイクロプロセッサに送信する。制御情報には、その性質に応じた属性が設定される。その属性に応じてキャッシュ制御及びパージ制御が実行される。
(もっと読む)


【課題】キャッシュコヒーレンシ保証の際の不必要なキャッシュクリアの回数を抑制して、計算機の性能の向上を図り得る、マルチプロセッサ計算機、キャッシュ整合性の保証方法、及びプログラムを提供する。
【解決手段】メインメモリ4と、プロセッサ10−1〜Nと、キャッシュメモリ2−1〜Nとを備えるマルチプロセッサ計算機11において、メインメモリ4は、情報を資源10−1〜Mとして記憶し、各プロセッサは、一のプロセッサがある資源に対して排他的制御によってアクセスするときに、アクセス対象の資源を最後に更新したプロセッサを特定する情報を用い、アクセス対象の資源が最後に更新された時刻t1と、アクセス対象の資源を最後に更新したプロセッサのキャッシュメモリがクリアされた最新の時刻t2と、一のプロセッサのキャッシュメモリがクリアされた最新の時刻t3との関係に基づいて、キャッシュメモリをクリアする。 (もっと読む)


【課題】キャッシュメモリを有効に利用することができるキャッシュメモリ制御回路およびキャッシュメモリ管理方法を提供すること
【解決手段】本発明にかかるキャッシュメモリ制御回路は、セットアソシアティブ方式によって、メインメモリ71に記憶されるデータをキャッシュメモリに記憶するキャッシュメモリ制御回路である。キャッシュメモリに記憶するデータのメインメモリ71上のアドレスを示すアドレス情報を含み、セットアドレスのそれぞれに対応するエントリと、メインメモリ上のアドレス値であって、セットアドレス以外の値のいずれかに応じて、エントリ内をさらに区分してアドレス情報を格納するか否かを示し、エントリのそれぞれに対応するフラグを格納するキャッシュ情報格納部を備える。 (もっと読む)


【課題】情報処理装置について、装置構成を複雑化させることなく、動作の高速化と高信頼性を実現する。
【解決手段】本発明の一例である情報処理装置1は、プロセッサ2と、プロセッサ2に使用される不揮発性メモリ3と、プロセッサ2から不揮発性メモリ3への書き込みが発生した場合に、書き込み位置の重複回数を抑えるために当該書き込み位置がずれるように書き込みアドレスを発生させるアドレス発生手段16と、書き込みの新しさを表わす順序情報19を発生させる順序発生手段17と、アドレス発生手段16によって発生された書き込みアドレスに対して、順序発生手段17によって発生された順序情報19を対応付けて、書き込み情報21を記憶する書き込み制御手段18とを具備する。 (もっと読む)


【課題】分散キャッシュシステムの目標性能が達成されるように、複数の計算ノード間のキャッシュコンシステンシを自動的に制御すること。
【解決手段】複数の計算ノードは、ブロック単位でデータキャッシュを行う。各計算ノードは、コピーブロックとメタ情報が格納される記憶装置と、キャッシュ制御部と、転送量算出部とを備える。メタ情報は、コピーブロックのステータスとアクセス履歴情報とを含む。第1計算ノードは、第1ブロックに対するライトアクセスを受け取る。転送量算出部は、第1コピーブロックに関連付けられたメタ情報に含まれるアクセス履歴情報を参照して、計算ノード間で将来発生する第1コピーブロックの転送量を算出する。キャッシュ制御部は、目標性能と算出された転送量に基づいて、コンシステンシを緩和するか否かを決定する。コンシステンシを緩和する場合、第1コピーブロックをキャッシュしている他の計算ノードにおいて、第1コピーブロックのステータスは変更されない。 (もっと読む)


【課題】 共有メモリを介したマルチプロセッサシステムは、マルチプロセッサシステムでないシステムのアプリケーションを用いてプロセッサ間通信を行えない場合がある。
【解決手段】 第1のキャッシュメモリを備えた第1のプロセッサと第2のキャッシュメモリを備えた第2のプロセッサとの間で共有メモリを介してデータを送受信するプロセッサ間通信方法であって、第1のプロセッサは、第2のプロセッサとの間で転送するデータを共有メモリに記憶する転送データ領域を、第1のキャッシュメモリのキャッシュラインの1ラインを全て満たす領域Aと、満たさない領域Bとに分類し、第1のキャッシュメモリのキャッシュラインとアライメントがとれている共有メモリの分割データ領域に、領域Bのデータをコピーし、第2のプロセッサは、領域Aのデータと分割データ領域のデータを第1のプロセッサからのデータとして処理する。 (もっと読む)


【課題】ベクトルプロセッサ用のライトバック方式のキャッシュメモリにおいて、ライトアロケート方式と非ライトアロケート方式とを動的に切り替えること。
【解決手段】ベクトル計算機システムは、複数のストアリクエストを含むベクトルストア命令を発行するベクトルプロセッサと、ベクトルプロセッサとメインメモリとの間に設けられたライトバック方式のキャッシュメモリと、そのキャッシュメモリがライトアロケート方式で動作するか非ライトアロケート方式で動作するかを指定するアロケート制御信号を生成するライトアロケート決定部と、を備える。ベクトルプロセッサがベクトルストア命令を発行した時、ライトアロケート決定部は、複数のストアリクエストの対象アドレスのパターンである書き込みパターンに基づいてアロケート制御信号を生成する。キャッシュメモリは、ライトアロケート方式と非ライトアロケート方式のうちアロケート制御信号で指定される一方に従って、各々のストアリクエストを処理する。 (もっと読む)


【課題】キャッシュメモリ装置及びその制御方法における処理性能を向上させること。
【解決手段】キャッシュメモリ装置10は、データをキャッシュライン11で記憶する1次キャッシュメモリ1を備えている。また、1次キャッシュメモリ1のラインサイズは、2次キャッシュメモリ2のラインサイズよりも大きくなるように構成されている。さらに、1次キャッシュメモリ1のキャッシュライン11は、データを記憶する複数のデータエントリ部11aと、データエントリ部11aに対応して、データが有効又は無効であること示す複数の有効ビット部11bと、キャッシュライン11のアドレスを記憶するアドレスエントリ部11cと、を含んでいる。 (もっと読む)


【課題】複数の種類の記憶デバイスを備えても、キャッシュメモリから複数の種類の記憶デバイスへのライト処理が停滞しないストレージサブシステムを提供する。
【解決手段】HDDおよびSSDに、キャッシュメモリからのライトデータの書込み性能に優劣があっても、書込み性能が低いSSDに対するキャッシュメモリ13A,13BをHDDに対するキャッシュメモリ12A,12Bから区別して設けた。 (もっと読む)


【課題】コヒーレンス制御にディレクトリ方式を採用する情報処理装置において、キャッシュの無効化処理の完了を保証する仕組みを提供する。
【解決手段】各プロセッサ1は、キャッシュと、共有メモリ4とキャッシュのデータの一貫性の処理完了保証を要求されたタイミングで、各バンク3へ自己のプロセッサに返信される識別子を、ネットワーク2を介して各バンク3へ送信し、識別子が各バンク3から返信されることを確認するフェンス制御手段と、を備え、各バンク3は、メモリ本体33にデータが書き込まれた領域に応じて、キャッシュが保持するデータを無効化する無効化要求を発行するディレクトリ32と、無効化要求と識別子とをキューイングし、キューイングされた順番に、無効化要求と識別子とのいずれかをプロセッサ・メモリ間ネットワーク2を介して送信する無効化要求キュー31と、を備える。 (もっと読む)


【解決手段】
トランザクションのメモリシステムにおけるトランザクションを実行するためのシステム及び方法が開示される。システムは、共有メモリに結合される複数のプロセッサの1つのプロセッサを含み、プロセッサは、複数のプロセッサの実行に関するアトミックなトランザクションとしての、共有メモリへの複数のメモリアクセス動作を含むコードのセクションを実行するように構成される。実施形態によると、プロセッサは、許可されていない命令の任意のセットを複数のメモリアクセス動作が含むかどうかを決定するように構成されてよく、セットは、バーチャル化されたコンピューティング環境内で自然コンピューティング環境内におけるのと異なるように動作する1つ以上の命令を含む。メモリアクセス動作が、許可されていない命令のそれである場合には、プロセッサはトランザクションを中断する。 (もっと読む)


【解決手段】
1つの実施形態においては、プロセッサ(10)はデータキャッシュ(18)及びロード/ストアユニット(LSU)(20)を備えている。LSU(20)はキュー(24)及び制御ユニット(26)を備えており、キュー(24)内の各エントリは、データキャッシュ(18)にアクセスしたがリタイヤしなかった異なるロードに割り当てられている。制御ユニット(26)はデータキャッシュ(18)の内容が変化したときにキュー(24)において示される各ロードのデータキャッシュヒット状態を更新するように構成されている。スヌープインデックスが第1のエントリ内にストアされているロードインデックスに一致することと、第1のロードのデータキャッシュヒット状態がヒットを示していることと、データキャッシュ(18)がスヌープ動作に対するスヌープヒットを検出していることと、スヌープ動作がヒットであるデータキャッシュ(18)の第1のウエイに第1のエントリ内にストアされているロードウエイが一致することとに応答して、制御ユニット(26)がキュー(24)の第1のエントリ内の第1のロードに対するスヌープヒットを検出するように構成されている。 (もっと読む)


【解決手段】
プローブ命令を選択的に送信すると共にネットワークトラフィックを低減するためのシステム及び方法。ディレクトリエントリは、特定のコヒーレントトランザクションに対するプローブ命令及び応答トラフィックをフィルタリングするために維持される。ディレクトリエントリを専用のディレクトリ記憶装置に記憶させるよりもむしろ、ディレクトリエントリは、L3キャッシュのような共有キャッシュメモリサブシステムの指定されたロケーションに記憶されてよい。ディレクトリエントリは共有キャッシュメモリサブシステム内に記憶されて、排他的な修正された状態、所有された状態、共有された状態、共有1状態、又は無効なコヒーレンシ状態でキャッシュされるであろうライン(又はブロック)の表示を提供する。特定のラインに対するディレクトリエントリの不在は、そのラインがコンピュータシステム内のどこにもキャッシュされていないことを暗示することができる。 (もっと読む)


【課題】 キャッシュ・コヒーレンシーの維持管理を改善することを目的とする。
【解決手段】 一実施例では、キャッシュ・コヒーレンシー・プロトコルの制御を維持管理する際に役立つディレクトリを含む。ディレクトリは、相互接続を介して複数のキャッシング・エージェントに結合され、キャッシュ・ラインに関連するエントリを格納するように構成されてもよい。ディレクトリはまた、ディレクトリが同時スヌープ要求を送信できる前の時間遅延を決定するロジックを含む。他の実施例も記載される。 (もっと読む)


【課題】1つのキャッシュレベルまたはスヌープフィルタにおけるキャッシュラインを退避させると、キャッシュ階層を維持するためにキャッシュ階層の他のレベルにおける対応するキャッシュラインが退避させられることになる。スヌープフィルタがこのような要求を多数送信すると、有効メモリレイテンシを増大させうる相互接続帯域幅を消費し、それと共に有用なキャッシュエントリを除去する。
【解決手段】キャッシュエージェントからペンディングの容量退避の表示を受信する段階と、ペンディングの容量退避に対応付けられたキャッシュラインに対し、キャッシュエージェントからインバリデーションライトバックトランザクションが送られる可能性があるかどうかを決定する段階と、そうであれば、キャッシュラインに対応付けられたスヌープフィルタエントリをスヌープフィルタからステージング領域に移動させる段階と、を備える。 (もっと読む)


【課題】クライアント端末の定められたメモリ領域を超える更新情報が生成された場合にも、安定して稼動することを可能とするネットワークブートシステムを提供する。
【解決手段】クライアント端末は、ストレージ装置から読み出した共通領域の情報のうち、自身の動作によって更新された更新情報を自身のメモリ領域に記憶し、記憶された更新情報が、定められたクライアントキャッシュ領域の範囲を超える場合、ストレージ装置に更新情報を書き込み、更新情報がメモリ領域に記憶されているか、ストレージ装置に記憶されているかを示す管理情報を自身の管理領域に記憶し、更新情報を読み出す際、管理領域に記憶された管理情報に基づいて、メモリ領域またはストレージ装置に記憶された更新情報を読み出す。 (もっと読む)


【課題】ゼロクリア処理に要する時間を短縮する。
【解決手段】メモリ領域上のゼロクリア対象の領域及びサイズを含むメモリクリア要求を発行するプロセッサと、メモリクリア要求をバスを介してプロセッサから受け取り、このメモリクリア要求に基づいてゼロクリア対象の領域に対するゼロクリア処理を実施するするとともに、メモリクリア要求に対応するメモリクリア完了通知を前記プロセッサへバスを介して送信するメモリクリア回路とを含むメモリクリア機構である。 (もっと読む)


41 - 60 / 218