Logo des Repositoriums
 

Cache-Partitionierung im Kontext von Co-Scheduling

dc.contributor.authorWeidendorfer, Josef
dc.contributor.authorTrinitis, Carsten
dc.contributor.authorRückerl, Sebastian
dc.contributor.authorKlemm, Michael
dc.date.accessioned2020-03-11T00:06:19Z
dc.date.available2020-03-11T00:06:19Z
dc.date.issued2017
dc.description.abstractNeuere Mehrkern-Architekturen, die allen Rechenkernen einen gemeinsam nutzbaren Cache zur Verfügung stellen, besitzen die Fähigkeit, diesen Cache dynamisch zwischen den Kernen aufzuteilen. Die Partitionierbarkeit ist dafür gedacht, sogenannten Cloud-Anbietern zu erlauben, einzelne Kerne an Kunden zu vermieten, ohne dass deren Rechenlasten sich gegenseitig beeinflussen oder Seitenkanäle zum Abgreifen von Daten entstehen. Cache-Partitionierung lässt sich aber auch gewinnbringend dafür einsetzen, mehrere Anwendungen aus dem Hochleistungsrechnen so auf Mehrkern-Architekturen ablaufen zu lassen, dass sie sich gegenseitig auf der gemeinsam nutzbaren Cache-Ebene nicht stören und dynamisch eine jeweils passende Cache-Größe zur eigenen Verfügung haben. In diesem Beitrag werden erste Ergebnisse zur Cache-Partitionierung mittels Cache Allocation Technology CAT) und deren Auswirkungen auf Co-Scheduling-Strategien im Hochleistungsrechnen vorgestellt.de
dc.identifier.pissn0177-0454
dc.identifier.urihttps://dl.gi.de/handle/20.500.12116/31935
dc.language.isode
dc.publisherGesellschaft für Informatik e.V., Fachgruppe PARS
dc.relation.ispartofPARS-Mitteilungen: Vol. 34, Nr. 1
dc.titleCache-Partitionierung im Kontext von Co-Schedulingde
dc.typeText/Journal Article
gi.citation.endPage125
gi.citation.publisherPlaceBerlin
gi.citation.startPage114

Dateien

Originalbündel
1 - 1 von 1
Lade...
Vorschaubild
Name:
PARS-2017_paper_10.pdf
Größe:
903.75 KB
Format:
Adobe Portable Document Format