説明

Fターム[5B005JJ11]の内容

階層構造のメモリシステム (9,317) | 目的、効果 (1,912) | 高速化 (1,154)

Fターム[5B005JJ11]の下位に属するFターム

Fターム[5B005JJ11]に分類される特許

121 - 140 / 245


【課題】処理装置による処理対象の所定のデータに対する読み出しのアクセス時間を短縮させることのできるデータ先読み装置を提供する。
【解決手段】データ先読み装置は、データ記憶手段における処理対象のデータが記憶されている記憶領域のアドレス範囲情報を記憶するアドレス範囲情報記憶手段と、データ記憶手段から先読みされるデータを保持するデータ保持手段と、アドレス範囲情報記憶手段に記憶されているアドレス範囲情報を基にデータ記憶手段からデータを先読みするとともに、該先読みしたデータをデータ保持手段に書き込む制御手段と、処理対象のデータをリード要求する処理装置から出力される当該所定のデータにかかわるアドレス情報を基にデータ保持手段からデータを読み出し、該読み出したデータを前記処理装置に向けて出力するデータ読み出し手段と、を備える。 (もっと読む)


【課題】システムの実施形態は、グラフィック描画演算を含むコンピュータシステムのアドレス変換性能を向上する。
【解決手段】仮想ページ変換を容易にするシステム。本システムの実施形態は、処理装置と、フロントエンドユニットと、アドレス変換ロジックを含む。処理装置は現在のデータブロックのデータを処理するように構成される。フロントエンドユニットは処理装置に結合される。フロントエンドユニットは電子メモリ装置内の現在のデータブロックにアクセスして、処理のためにプロセッサに現在のデータブロックを送るように構成される。アドレス変換ロジックはフロントエンドユニットと電子メモリ装置に結合される。アドレス変換ロジックは、現在のデータブロックの仮想アドレスに基づいて予測仮想アドレスに対する仮想アドレス変換を先取りするように構成される。 (もっと読む)


【課題】スヌープ要求の削減を図り、発生するトラフィックの増加やアクセスレイテンシーを最小限に抑えること。
【解決手段】他ノードからスヌープ要求が到来した際、ノード制御装置はスヌープフィルタによって、所望のラインがあるプロセッサキャッシュへスヌープ要求を送信する。スヌープフィルタは、パーティションの構成を示すパーティションビットマップを有しており、スヌープフィルタがアドレスヒットしなかった場合、パーティションビットマップを参照してそのパーティション内にマルチキャストを行う。これより、アドレスヒットしなかった場合でも、パーティションによりその領域のみをマルチキャストするため、大幅なスヌープ要求の削減が可能となる。 (もっと読む)


【課題】
2個以上のノードを有するコンピュータシステムにおいて、複数ノード間の伝送路内や、同一ノード内のスヌープの個数を削減し、トラフィックの増加を抑える機構を提供する。
【解決手段】
2個以上のノードを有するマルチプロセッサコンピュータシステムにおいて、キャッシュコヒーレンスを保つために、あるノードから異なるノードへスヌープを送信する際に、一度Read要求やスヌープ要求によりアクセスされたキャッシュラインのアドレスを、ノードコントローラ内のスヌープフィルタが記憶しておくことで、2回目以降のアクセスの際に、スヌープフィルタの情報を用いて無駄なスヌープを削減し、システム内のトラフィックの増加を抑える。 (もっと読む)


【課題】
一つのノードにキャッシュメモリを備えるプロセッサを有し、複数ノードで構成されるマルチプロセッサシステムにおいて、余分なスヌープの発生を防ぎ、システム内のトラフィックの増加を防ぐ。
【解決手段】
メインメモリへのラインのリード要求と、キャッシュメモリから追い出され、メインメモリへラインがライトバックされたことをトリガとして、スヌープフィルタに当該キャッシュラインアドレスと各キャッシュメモリのキャッシュ状態を登録し、その後、リクエストをスヌープフィルタが受信した際、スヌープフィルタに登録した情報を比較して、キャッシュラインを所有していないキャッシュメモリに対してはスヌープをフィルタリングする機構を持つ。 (もっと読む)


【課題】SRAMと置き換え可能とし、使い勝手のよい半導体記憶装置を提供する。
【解決手段】第1と第2メモリ回路と制御回路とを有する。上記第1と第2メモリ回路は、複数のダイナミック型メモリセルより構成された同じアドレス空間を持ち、同じデータを記憶するようにされた記憶部を備え、それぞれが独立して書き込み/読み出しが可能とされる。前記制御回路は、第1状態では、前記第1のメモリ回路に対してリフレッシュ動作を行い、前記第2のメモリ回路に対して書き込み/読み出し動作を行い、第2状態では、前記第2のメモリ回路に対してリフレッシュ動作を行い、前記 第1のメモリ回路に対して書き込み/読み出し動作を行う。前記制御回路は、前記第1状態と前記第2状態の切り替えの周期を変化させることが可能である。 (もっと読む)


【課題】アプリケーションプログラムに、仮想記憶システム上の物理メモリの割り振りを制御させる。
【解決手段】アプリケーションがフォーカスを有するとき、オペレーティングシステムは、指定されたコードまたはデータが物理メモリに存在することを保証する。アプリケーションがフォーカスをなくしたとき、コードまたはデータが関連するページは、開放される。アプリケーションがフォーカスを回復したとき、オペレーティングシステムは、アプリケーションが実行を開始する前に、物理メモリ内にそのページを再ロードする。オペレーティングシステムは、必要に応じて、ソフトページロックを上書きすることができるようになる。その他のAPIは、ロックを使用せずに、アプリケーションに、物理メモリへのアクセスについて高優先度を有すべきコードまたはデータを指定させる。 (もっと読む)


【課題】構成が比較的簡単で、連続アクセスに対しスループットを比較的高くする。
【解決手段】分流路71に供給されるパケットを、その行先アドレスに応じ順次分岐転送させて選択的にタグ行アレイ72の1つのタグ行へ供給し、キャッシュヒット/キャッシュミスヒットを判定させるとともにページアドレスを決定させ、キャッシュヒット/キャッシュミスヒットに応じ分岐ノード77で分流路20側又は入出力インターフェイス81側へ分岐転送させ、分流路20に供給されるパケットを、その行先アドレスに応じ選択的に記憶行アレイ上の1つの記憶行の一部の記憶データを読み出させてリードデータパケットを生成させ、これを、合流路40及び合流ノード82を介し入出力インターフェイス81へ転送させる。 (もっと読む)


【課題】メモリのアクセスに関するメモリ階層の数を削減することができ、メモリアクセスの最適化を容易に実現する。
【解決手段】本発明の一例である統合メモリ管理装置2は、キャッシュメモリ3をアクセスするための第1論理アドレスを第1物理アドレスに変換しプロセッサ1に備えられる第1アドレス変換手段7と、メインメモリ4をアクセスするための第2論理アドレスを第2物理アドレスに変換しプロセッサ1に備えられる第2アドレス変換手段9と、第1アドレス変換手段7によって第1論理アドレスが第1物理アドレスに変換された場合に、第1物理アドレスに基づいてキャッシュメモリ3に対するアクセスを制御し、第2アドレス変換手段9によって第2論理アドレスが第2物理アドレスに変換された場合に、第2物理アドレスに基づいてメインメモリ4に対するアクセスを制御しプロセッサ1に備えられるキャッシュコントローラ8とを具備する。 (もっと読む)


【課題】処理中のプログラムへのアクセスの高速化が望まれている。
【解決手段】メインメモリ20には、プログラムを分割したキャッシュブロック42を格納する。各キャッシュブロック42の他のキャッシュブロック42への分岐位置には、分岐先のキャッシュブロック42のロード等の処理を行う分岐解決ルーチンを起動する命令を埋め込む。ローカルメモリ16にはキャッシュブロック42単位でロードを行い、格納領域の区画である第1バンク30a〜第nバンク30nに順次格納する。ローカルメモリ16内でのアドレス管理、キャッシュブロックのコピー32の破棄時の処理等はアドレス変換テーブル34、バンク間参照テーブル38、世代番号テーブル39を参照して行う。 (もっと読む)


【課題】処理中のプログラムへのアクセスの高速化が望まれている。
【解決手段】メインメモリ20には、プログラムを分割したキャッシュブロック42を格納する。各キャッシュブロック42の他のキャッシュブロック42への分岐位置には、分岐先のキャッシュブロック42のロード等の処理を行う分岐解決ルーチンを起動する命令を埋め込む。ローカルメモリ16にはキャッシュブロック42単位でロードを行い、格納領域の区画である第1バンク30a〜第nバンク30nに順次格納する。ローカルメモリ16内でのアドレス管理、キャッシュブロックのコピー32の破棄時の処理等はアドレス変換テーブル34、バンク間参照テーブル38、世代番号テーブル39を参照して行う。 (もっと読む)


【解決課題】ストレージシステムのライト性能の低下を抑制する。
【解決手段】フラッシュメモリと、キャッシュメモリと、フラッシュメモリのデータの読み出し、書き込み及び消去と、キャッシュメモリのデータの読み出し及び書き込みを制御し、フラッシュメモリ内に不良なブロックが発生したことを検出するコントローラと、データのライト処理を要求するコマンドを発行するホスト計算機とを含むストレージシステムにおいて、コントローラは、フラッシュメモリ内に不良ブロックが発生したことを検出すると、フラッシュメモリに格納された所定のデータをキャッシュメモリに移動し、その移動したデータを更新するためのコマンドをホスト計算機から受信しても、そのコマンドに基づくデータをフラッシュメモリへ書き込むことを禁止する。 (もっと読む)


【課題】各業務毎に分割されたパーティション110を提供するストレージ装置における負荷増大時のボトルネックの解消。
【解決手段】ストレージ装置100は、各キャッシュセグメント103に対するアクセス負荷を監視し、該アクセス負荷に応じて、未割り当てのキャッシュメモリ102容量と、当該キャッシュセグメントに対する割り当て容量を調整するキャッシュセグメント割り当て制御部201と、キャッシュメモリの増設を検知し、通知するキャッシュメモリ増設監視部204と、を備える。また、ストレージ装置100は、論理ディスク割り当て制御部202及び物理ディスク増設監視部205を備え、アクセス負荷の高い論理ディスクの検出時は、論理ディスクを新しく生成したストレージプールに移動し、負荷を平準化する動作を行う。 (もっと読む)


【課題】並列処理用のマルチプロセッサにおいて、価格性能比を改善し、高まりつつある半導体集積度にスケーラブルな性能向上を達成する。
【解決手段】CPUと、スタティックスケジューリング時に転送されるデータを格納する第1メモリと、を備える複数のプロセッシングエレメントと、前記各プロセッシングエレメントによって共有される集中共有メモリと、を備えるマルチプロセッサであって、前記各プロセシングエレメントは、前記CPU及び前記ネットワークインタフェースに直接接続され、将来実行すべき命令を前記集中共有メモリから先読みするアジャスタブルプリフェッチ命令キャッシュをさらに備え、前記アジャスタブルプリフェッチ命令キャッシュは、将来実行される命令列を事前読み出しできるエリアとして複数のウェイを使用し、通常のキャッシュエリアとして複数のウェイを使用することを特徴とするマルチプロセッサ。 (もっと読む)


【課題】複数のプロセッサ、キャッシュメモリ及び共有メモリを有したマルチプロセッサシステムで画像処理を行うときに、ハードウェア規模の増大を防ぎ、効率よくキャッシュメモリおよび共有メモリの整合性を管理できるメモリ管理システムを提供することである。
【解決手段】複数のプロセッサ101〜105と、複数のプロセッサ101〜105からアクセス可能な共有メモリ131と、を具備し、複数のプロセッサの各々のプロセッサは、指定領域の破棄と書戻しをプログラムから命令できるキャッシュメモリ111〜115を備え、各々のプロセッサ上で動作するプログラムは、処理単位となるプログラムの実行直前で、キャッシュメモリの入力データ領域を破棄命令にて破棄し、処理単位となるプログラムの実行直後で、キャッシュメモリの出力データ領域を書戻し命令にて共有メモリに書戻す。 (もっと読む)


プロセッサ内でのアドレス変換性能は、メモリの中の異なるページの間の境界クロシングの原因となるアドレスを識別し、両方のメモリページと関連するアドレス変換情報をリンクすることによって改善される。プロセッサの1つの態様によれば、プロセッサは、第1及び第2のメモリページの間のページ境界をクロスするメモリ領域へのアクセスを認識するように構成される回路を備える。回路は、また、第1及び第2のメモリページと関連するアドレス変換情報をリンクするように構成される。このように、同一のメモリ領域へのその後のアクセスに応答して、第1及び第2のメモリページと関連するアドレス変換情報は、1つのアドレス変換に基づいて検索可能である。
(もっと読む)


【課題】本発明は短時間にライトフラッシュ処理が可能な磁気ディスク装置の提供。
【解決手段】磁気ディスク(9)と、フラッシュメモリ(30)と、ホストシステムから供給されたライトコマンドとデータを記憶するバッファメモリ(4)と、バッファメモリ(4)に記憶されたライトコマンドを磁気ディスク(9)への書込み処理時間に基づいて第1コマンド群と第2コマンド群とに分類し、第1コマンド群のライトコマンドに係るデータを磁気ディスク(9)に書込み、第2コマンド群のライトコマンドとデータをフラッシュメモリ(30)に書込むフラッシュ手段とを具備する。 (もっと読む)


【課題】プロセッサに対するタスクの切り替えに伴うローカルメモリのアクセスに要するオーバーヘッドを低減する。
【解決手段】第2プロセッサ(SPU)によりタスクの割り当てが制御される第1のプロセッサ(DRP1,DRP2)は命令用ローカルメモリとしてのバッファメモリ(CFGBUF)とデータ用ローカルメモリとしてのデータメモリ(LMA)とを備える。第2プロセッサは直前に実行されたタスクと次に実行するタスクの候補とのローカルメモリ内情報の入れ替えオーバーヘッドを考慮して計算されるコストを判断して、次に実行するタスクを決める。これによれば、タスク切り替えにおいて、タスク切り替えのコストが少ないタスクへの切り替えが優先され、全体の処理時間を短縮することが可能になる。 (もっと読む)


【課題】キャッシュの階層を追って段階的にスヌープを行うときの処理時間を短縮することのできるキャッシュスヌープ制御装置およびキャッシュスヌープ処理方法を提供する。
【解決手段】キャッシュスヌープ制御装置1は、有効ビット生成部11が、それぞれの階層のキャッシュメモリの各インデックスの各ウェイに対応して、そのウェイに有効なデータが存在しているかどうかを示す有効ビットを生成し、排他ビット生成部12が、n次から2次までの階層のキャッシュメモリの各インデックスの各ウェイが、その階層よりも下位階層のキャッシュメモリに対して排他的な内容を保持しているかどうかを示す排他ビットを生成し、スヌープ実行制御部13が、有効ビットアレイ14に格納された有効ビットの情報および排他ビットアレイ15に格納された排他ビットの情報にもとづいて、各階層のキャッシュメモリのスヌープ動作の実行を制御する。 (もっと読む)


【解決課題】実際のデータを削除することなくデータの管理情報を削除するだけであっても、不要なデータが格納された記憶領域を認識して、当該記憶領域をホスト装置が有効に利用することができる記憶制御技術を提供する。
【解決手段】ホスト200のファイルシステムがデータの管理情報を削除した場合、制御回路100はホストからのコマンドを受けて、データの削除の対象となった、プールボリュームのページの全エリアに「0」を書き込む。制御回路は全エリアに「0」が書かれたページを検出して、仮想ボリューム10への割り当てから解放する。 (もっと読む)


121 - 140 / 245