Die meisten modernen Webseiten speichern ihre Daten in Datenbanken. Anfragen an diese Datenbanken sind jedoch relativ langsam, weshalb die meisten Seiten Cache-Server installiert haben, mit denen gängige Anfragen schneller prozessiert werden können. Große Seiten wie Google oder Facebook benötigen bis zu 1.000 Server allein für dieses Caching.
Weniger Kosten, weniger Energie, weniger Cache-Server
Auf der International Conference on Very Large Databases haben Forscher vom Computer Science and Artificial Intelligence Laboratory (CSAIL) des MIT ein neues System vorgestellt, mit dem dieses Problem gelöst werden könnte. Sie schlagen vor, statt des üblichen Random-Access Memory (RAM), Flash Memory zum Caching zu nutzen
RAM ist sehr schnell, aber auch sehr teuer und energieintensiv. Flash benötigt hingegen nur den Bruchteil der Energiemenge wie RAM und kostet nur etwa ein Zehntel in der Anschaffung. Es verfügt außerdem über eine 100-mal höhere Aufzeichnungsdichte, was bedeutet, das mehr Daten auf weniger physischem Raum gespeichert werden können.
Warum hat man das bisher nicht so gemacht?
Der große Nachteil von Flash gegenüber RAM ist die niedrigere Geschwindigkeit: DRAM (dynamic RAM) ist rund 10.000 mal schneller. Flash sei jedoch – mit den nötigen Anpassungen – schnell genug, so Arvind, einer der Autoren des Forschungspapiers. Für den Nutzer sei es nämlich kaum relevant, ob eine Anfrage in 0,0002 oder 0,0004 Sekunden prozessiert werde.
Die Masse der Anfragen sei das größere Probleme. Das haben Arvind und seine Ko-Autoren Shuotao Xu und Sang-Woo Jun mit dem neuen System namens BlueCache gelöst. BlueCache nutzt dazu die Technik des „Pipelining“, bei der Befehle wie auf einer Art Art „Fließband“ zerlegt und dann parallel durchgeführt werden. BlueCache ist damit noch immer langsamer als DRAM, aber weitaus schneller als Magnetfestplatten, die in vielen Datenzentren noch immer üblich sind.