Serverová část laboratoře je vybavena devíti nodovvým Hadoop clusterem na platformě Hortonworks (HDP). Zde je možné provádět výpočty nad velkým množstvím dat v řádech desítek až stovek TB. K dispozici je vedle distribuovaného úložiště HDFS např. nástroj Apache Spark pro ultra rychlé výpočty v operační paměti, sloupcová databáze HBase, výpočetní engine Hive a další nástroje (např.: Sqoop, Kafka, Zeppelin, Shark). V laboratoři je možné provádět analýzy velkého množství dat ze zařízení IoT či technologií precizního zemědělství, výzkum satelitních dat z dálkového průzkumu země, výzkum machine learning a deep learning algoritmů pro big data, ale i řadu dalších výpočtů.