Im einfachsten Fall ist die "neue RAM-Booster-Technologie" ein normales Swapfile oder eine Swappartition im EMMC/UFS/NAND Speicher. Etwas ausgefeilter wäre z.B. die Verwendung des Linux-Features zswap.
Letzteres ist übrigens eine großartige Sache. Hier werden Pages, die normalerweise im Swap landen würden, komprimiert, und im RAM gehalten, quasi als Caching-Strategie.
Dabei kann der Kompressionsalgorithmus (lz4, lzo, zstd, gzip/deflate, xz), das Kompressionslevel, wie viel RAM reserviert werden soll, die Allokationsstrategie (2, 3 oder bis zu n komprimierte Pages in einer physikalischen), oder generell gesprochen, der Tradeoff zwischen Kompressionseffizienz u. CPU Overhead frei eingestellt werden.
Bei Speicherdruck wird zswap nach dem LRU Prinzip geleert - Inhalte, die am wenigsten oft genutzt werden, werden also als erstes in den normalen Swap Speicher übertragen. zwap ist sehr effizient und hat im Vergleich zu normalen Swap Strategien eine viel niedrigere Latenz - auch wenn sich dieser auf einer schnellen NVMe SSD befindet.
Bei mir macht es den Unterschied zwischen einem problemlos verwendbaren System und extremem thrashing, wenn webkit-gtk, Chrome, qtwebengine oder LibreOffice ein Update bekommen, und im Hintergrund neu kompiliert werden.
32GiB RAM + 32GiB Swap ohne zswap sind hierfür einfach zu wenig. Bei speicherhungrigen Anwendungen und Spielen kann es das Auslagern auf den Festspeicher auch komplett verhindern.
Nur so als Beispiel:
Mein System verwendet bis zu 33% vom RAM als zswap, kann so bis zu 3 Pages in einer komprimierten unterbringen, erreicht dies auch fast durchgehend, obwohl zstd bei mir auf Geschwindigkeit, anstatt gute Kompression getuned ist. Effektiv stehen mir so (32-10,67) + (10,67*3) = ca. 53.3GiB RAM ohne merklichen Leistungsverlust zur Verfügung.
Die Technologie gibt es schon ziemlich lange, und im Prinzip sollte das jedes halbwegs moderne Android Smartphone können.