Cache-Partitionierung im Kontext von Co-Scheduling
dc.contributor.author | Weidendorfer, Josef | |
dc.contributor.author | Trinitis, Carsten | |
dc.contributor.author | Rückerl, Sebastian | |
dc.contributor.author | Klemm, Michael | |
dc.date.accessioned | 2020-03-11T00:06:19Z | |
dc.date.available | 2020-03-11T00:06:19Z | |
dc.date.issued | 2017 | |
dc.description.abstract | Neuere Mehrkern-Architekturen, die allen Rechenkernen einen gemeinsam nutzbaren Cache zur Verfügung stellen, besitzen die Fähigkeit, diesen Cache dynamisch zwischen den Kernen aufzuteilen. Die Partitionierbarkeit ist dafür gedacht, sogenannten Cloud-Anbietern zu erlauben, einzelne Kerne an Kunden zu vermieten, ohne dass deren Rechenlasten sich gegenseitig beeinflussen oder Seitenkanäle zum Abgreifen von Daten entstehen. Cache-Partitionierung lässt sich aber auch gewinnbringend dafür einsetzen, mehrere Anwendungen aus dem Hochleistungsrechnen so auf Mehrkern-Architekturen ablaufen zu lassen, dass sie sich gegenseitig auf der gemeinsam nutzbaren Cache-Ebene nicht stören und dynamisch eine jeweils passende Cache-Größe zur eigenen Verfügung haben. In diesem Beitrag werden erste Ergebnisse zur Cache-Partitionierung mittels Cache Allocation Technology CAT) und deren Auswirkungen auf Co-Scheduling-Strategien im Hochleistungsrechnen vorgestellt. | de |
dc.identifier.pissn | 0177-0454 | |
dc.identifier.uri | https://dl.gi.de/handle/20.500.12116/31935 | |
dc.language.iso | de | |
dc.publisher | Gesellschaft für Informatik e.V., Fachgruppe PARS | |
dc.relation.ispartof | PARS-Mitteilungen: Vol. 34, Nr. 1 | |
dc.title | Cache-Partitionierung im Kontext von Co-Scheduling | de |
dc.type | Text/Journal Article | |
gi.citation.endPage | 125 | |
gi.citation.publisherPlace | Berlin | |
gi.citation.startPage | 114 |
Dateien
Originalbündel
1 - 1 von 1
Lade...
- Name:
- PARS-2017_paper_10.pdf
- Größe:
- 903.75 KB
- Format:
- Adobe Portable Document Format