Der Warmwasserboiler war knapp ein Vierteljahrhundert in einer Arztpraxis installiert. Foto: https://www.ifs-ev.org/
Schadenkette in einer Arztpraxis: An einem undichten 10-Liter-Speicher in einem Behandlungsraum tritt Wasser aus. Der Boiler befindet sich in einem Unterschrank, in dem auch eine Abwasserleitung installiert ist.
Entlang dieser gelangt das austretende Wasser durch die Bodendurchführung in die darunter liegende Praxis des Ärztehauses, wo sich der Schaden fortsetzt. Aufgabe des IFS war es, die Ursache für die Undichtigkeit an dem Warmwasserspeicher zu finden. Sie lag an einer Dichtung zwischen dem Innenbehälter und dem darin eingesteckten Flansch mit dem Heizelement und der Anode.
Das Heizelement (Pfeil) ist zur Hälfte mit Korrosionsprodukten, zur Hälfte mit „Kesselstein“ belegt, und die Anode ist praktisch nicht mehr vorhanden (kleines Bild). Foto: https://www.ifs-ev.org/
Wie auf dem Bild links zu sehen, sind die Komponenten des Speichers nicht in bestem Zustand: Das Heizelement ist zur Hälfte mit braunen Korrosionsprodukten und zur Hälfte mit Ablagerungen von Wasserinhaltsstoffen sogenanntem Kesselstein bedeckt. Die Anode ist praktisch nicht mehr vorhanden. Wo sie sein sollte, befinden sich nur noch Korrosionsprodukte. Dabei stand auf dem Typenschild des Boilers „Anode alle 2 Jahre warten“.
Die rissige, poröse Dichtung hat zwischen Innenbehälter und Flansch gesessen. Foto: https://www.ifs-ev.org/
Das war ganz offensichtlich nicht geschehen, wie der Gutachter nicht nur an deren spärlichen Resten, sondern auch an der Dichtung sehen konnte, die zwischen dem Innenbehälter und dem Flansch mit dem Heizelement und der Anode gesessen hatte. Sie war vollkommen porös und rissig und nicht mehr in der Lage, ihre Funktion zu erfüllen.
Eine Dichtigkeitsprüfung im Labor bestätigte dies: 5,6 Liter Wasser pro Stunde traten an dieser Stelle aus.
Bei der Wartung hätte die Dichtung entfernt werden müssen, und sicher hätte kein Monteur versucht, sie wieder einzusetzen. Vielmehr sah es so aus, als wäre der Warmwasserspeicher in seinen fast 25 Dienstjahren nie gewartet worden.
Ein Gastbeitrag des Institutes für Schadenverhütung und Schadenforschung der öffentlichen Versicherer, IFS e.V. Weitere Informationen unter www.ifs-ev.org/
Die Eigentümerin hat die Lichtschächte ertüchtigen und höher setzen lassen. Wasser soll ihr nicht mehr in den Keller laufen. Foto: https://www.ifs-ev.org/
Mittlerweile ist es leider fast schon Routine: Im Sommer kommt es in Süddeutschland zu schadenträchtigen Starkregenereignissen, die Bäche zu Flüssen werden lassen und ganze Stadtteile unter Wasser setzen.
In diesem Schadensfall war das Wohnhaus zwar weit weg von fließenden Gewässern, doch eine kleine Böschung in der Nachbarschaft reichte, dass sich nach heftigen Niederschlägen das Wasser angestaute und schließlich den Keller bis zur Geschossdecke flutete.
Die nicht verankerten Heizöltanks im Keller des Hauses schwammen auf, und das auslaufende Heizöl kontaminierte die Gebäudesubstanz.
Bodenanker verhindern das Aufschwimmen von Heizöltanks. Foto: https://www.ifs-ev.org/
Die Eigentümerin hat die Lichtschächte ertüchtigen und höher setzen lassen. Wasser soll ihr nicht mehr in den Keller laufen.
Nachdem Wasser und Schlamm wieder draußen waren, wurde erst einmal der Putz abgeschlagen. Danach lag jedoch immer noch ein penetranter Heizölgeruch in der Luft.
Durch eine umfassende Beprobung konnte ein IFS-Gutachter die belasteten Bauteile ermitteln und ein Sanierungskonzept erarbeiten. Teilweise mussten tragende Ziegelwände vollständig abgebrochen werden. Schließlich war die Bausubstanz frei von Heizölgeruch.
Bodenanker verhindern das Aufschwimmen von Heizöltanks.
Die Eigentümerin war sich sicher, so etwas will Sie nicht mehr erleben. Sie ließ daher die Lichtschächte erhöhen und abdichten und wird die neuen Heizöltanks mit Hilfe von Bodenankern fixieren. (Sc)
Ein Gastbeitrag des Institutes für Schadenverhütung und Schadenforschung der öffentlichen Versicherer, IFS e.V. Weitere Informationen unter www.ifs-ev.org/
Die Hebeanlage ist in einem Schacht im Keller installiert. Foto: https://www.ifs-ev.org/
Etwa ein Jahr nach dem Einzug in ein neu gebautes Einfamilienhaus bemerkten die Bewohner aufsteigende Feuchtigkeit an den Wänden. Die Suche nach der Ursache führte zur der Hebeanlage, die sich in einem Schacht im Keller befand. Als der Pumpenschacht geöffnet wurde, zeigte sich, dass er vollgelaufen war.
Weil die Abdichtung des Schachts nicht bis zur Oberkante des Fußbodens reichte, konnte Wasser in den Fußbodenaufbau eindringen und sich über das Kellergeschoss verteilen. Aber warum war der Schacht überhaupt geflutet? Eine Ursachensuche erfolgte an der Schadenstelle und im IFS-Labor:
Bei der Prüfung der Hebeanlage im IFS lief diese einwandfrei. Allerdings fand der Gutachter eine Undichtigkeit an der Verbindung zwischen der Rückschlagklappe der Anlage und der Guss-Gehäuseplatte, auf der sie montiert war. Ablagerungen zeigten, dass an dieser Stelle über einen längeren Zeitraum Wasser ausgetreten war. Der Schaden war folgendermaßen entstanden: Aus der undichten Verbindung drang Wasser vom Sammelbehälter der Hebeanlage in den Schacht.
Die Anlage besteht unter anderem aus dem gelben Sammelbehälter sowie aus der Pumpe (1) und der Rückschlagklappe (2), die auf einer Guss-Gehäuseplatte montiert sind. Foto: https://www.ifs-ev.org/
Mit jedem Anspringen der Pumpe wurde der Sammelbehälter entleert; die Rückschlagklappe verhinderte, dass es wieder in den Sammelbehälter und von dort in die Abwasserleitungen gelangen konnte. Aus Sicht der Anlage gab es kein Problem der Sammelbehälter war leer, und der darin installierte Schwimmschalter löste keinen Alarm aus. Allerdings füllte sich der Pumpenschacht allmählich.
Die Verbindung zwischen Gehäuseplatte und Rückschlagklappe ist undicht, wie Ablagerungen an der Dichtfläche verraten. Foto: https://www.ifs-ev.org/
Mehrere Faktoren haben zu diesem Schaden geführt: zum einen die undichte Verbindung zwischen Rückschlagklappe und Gehäuse. Sie ist bei der Herstellung entstanden und ein klarer Produktfehler. Zum anderen gab es mehrere planerische Mängel. Der Schacht war nicht bis ganz oben abgedichtet. Nur darum konnte das Wasser direkt in den Fußbodenaufbau gelangen. Auch wäre eine Alarmeinrichtung, die Wasser im Pumpenschacht detektiert, sinnvoll gewesen ein Störfall wurde bei der Planung nicht berücksichtigt.
Nicht zuletzt wurden die Betreiberpflichten verletzt, die sowohl in der Betriebsanleitung der Hebeanlage als auch in der Norm (DIN EN 12056-4) formuliert sind: Die Anlage hätte monatlich inspiziert werden müssen. Tatsächlich wurde nicht einmal eine Wartung durchgeführt. Nach dem Einzug der Bewohner in das neue Einfamilienhaus wurde der Pumpenschacht verschlossen und die Anlage sich selbst überlassen.
Ein Gastbeitrag des Institutes für Schadenverhütung und Schadenforschung der öffentlichen Versicherer, IFS e.V. Weitere Informationen unter www.ifs-ev.org/
Die getrennte Abwasserleitung aus dem zweiten Schadenbeispiel. Foto: https://www.ifs-ev.org/
Wenn Abwasserleitungen nicht fachgerecht befestigt werden, entstehen früher oder später Leckagen – in der Regel in einem nicht einsehbaren Bereich…
Die Trink- und Abwasserinstallationen im dritten Stockwerk eines Bürogebäudes waren fast auf den Tag genau ein Jahr alt, als ein umfangreicher Schaden bemerkt wurde: Um die Gemeinschaftsküche herum und im Stockwerk darunter gab es eine großflächige Durchfeuchtung.
Auf der Suche nach der Quelle stieß man auf eine getrennte Rohrverbindung im Spülenunterschrank. Hier hatte der Installateur zwei Formstücke auf kreative Weise verbunden. Die Komponenten sind auf dem Bild unten zu sehen: Der 87,5°-Bogen (1) und der 45°-Bogen (2) stammen vom selben Hersteller, aber aus unterschiedlichen Systemen; ihre Durchmesser unterscheiden sich um 6 mm. Um zwischen solchen Komponenten eine kraftschlüssige Verbindung herzustellen, bietet der Hersteller passende Übergangsverbinder an.
Links: Der Spannverbinder (3) konnte die Rohrbögen (1+2) nicht kraftschlüssig verbinden. Rechts: Die Abwasserleitung wurde mit einer Schelle an der Trinkwasserleitung befestigt. Foto: https://www.ifs-ev.org/
Der Installateur entschied sich aber, stattdessen einfach einen Spannverbinder zu verwenden. Außerdem befestigte er die Abwasserleitung nicht an der Wand, sondern über Rohrschellen an der parallel verlaufenden, „fliegend“ verlegten Trinkwasserleitung. Bei jeder Benutzung kam darum Bewegung in die Trink- und die Abwasserleitung.
Die Verbindung zwischen den beiden Rohrbögen hat sich wahrscheinlich schon kurz nach der Inbetriebnahme vollständig getrennt. Eine kraftschlüssige Verbindung hat es von Anfang an nicht gegeben.
Bewusste Fehlentscheidung oder mangelnde Fachkenntnisse?
Ein Problem von Leitungswasserschäden ist, dass sie häufig in verdeckten Bereichen entstehen und darum erst bemerkt werden, wenn die Auswirkungen bereits ein großes Ausmaß angenommen haben. Bei Leckagen an Abwasserleitungen geht mit der Durchfeuchtung oft auch eine Kontamination mit Keimen einher, die die Sanierung erschwert. Sorgfalt bei der Installation ist also unerlässlich.
Wenn Leitungen, wie im geschilderten Fall, nicht befestigt werden, liegt kein schlichtes Versehen vor, sondern eine bewusste Fehlentscheidung oder mangelnde Fachkenntnis. Ein Einzelfall ist dies keineswegs. Im IFS häufen sich zurzeit Schäden durch nicht oder nicht ausreichend befestigte Abwasserleitungen.
In einem anderen Fall zeigte sich ein gravierender Installationsfehler nach zwölf Jahren: Im Keller des betroffenen Vereinsheims wurde Schimmel im Bereich des Herren-WCs festgestellt. Die Suche nach der Ursache führte zu einer getrennten Abwasserleitung an einem Pissoir. Beim Öffnen der Wand kam eine getrennte Steckverbindung zwischen dem 90°-Bogen, an den die Keramik angeschlossen war, und dem Übergang zur horizontal verlaufenden Sammelleitung zum Vorschein (Titelbild). Die Sammelleitung hatte keine Befestigungspunkte; sie ließ sich mehrere Zentimeter nach oben und unten bewegen und rutschte einfach von dem 90°-Bogen ab. Der Schadeneintritt war auch in diesem Fall programmiert. (is)
Ein Gastbeitrag des Institutes für Schadenverhütung und Schadenforschung der öffentlichen Versicherer, IFS e.V. Weitere Informationen unter www.ifs-ev.org/
Ärger um das Badezimmer steht nicht gerade im Vordergrund der Immobilien-Rechtsfälle. Aber dennoch gibt es auch in diesem Bereich immer wieder Streitigkeiten, die vor den Schranken des Gerichts landen.
Das kann vom Schimmelbefall in den Nasszellen bis zu schlecht ausgeführten Fugen zwischen den Fliesen reichen. Der Infodienst Recht und Steuern der LBS stellt in seiner Extra-Ausgabe einige solcher Fälle vor.
Kleinreparaturklausel – Dichtung am Abflussrohr der Toilette
Ein Wohnungseigentümer und sein Mieter stritten darum, ob die Reparatur der Dichtung am Abflussrohr der Toilette unter die Kleinreparaturklausel fällt. Das heißt, ob der Mieter dafür aufkommen muss oder nicht.
Das Amtsgericht Berlin-Mitte (Aktenzeichen 15 C 256/19) befand, ein Mieter wirke nicht unmittelbar auf die Dichtung am Abflussrohr ein und habe damit auch keine Möglichkeit, den Verschleiß durch schonenden Umgang zu reduzieren. Deswegen handle es sich hier nicht um eine Kleinreparatur im Sinne des Gesetzes.
Lockere Duschabtrennung – Wer zahlt?
Mit dem regelmäßigen Gebrauch einer Duschabtrennung durch die Mieter ist von Seiten des Vermieters zu rechnen. Schließlich duscht jeder Bewohner in der Regel einmal täglich.
Kommt es wegen einer Lockerung dieser Abtrennung zu Schäden an der Badewanne, so liegt nach Meinung des Amtsgerichts Saarbrücken (Aktenzeichen 36 C 306/12) keine schuldhafte Verletzung der Wohnungssubstanz vor und der Mieter muss keinen Schadenersatz leisten.
Mieter baute Badezimmer um – ohne zu Fragen – Kündigung
Manche Mieter neigen dazu, die Dinge selbst in die Hand zu nehmen, wenn sie mit etwas unzufrieden sind. So baute ein nicht fachkundiger Mann ohne Zustimmung des Eigentümers eine Badewanne und einen Boiler ein, verlegte zu dem Zweck Wasserleitungen und brachte Fliesen an der Wand an.
Das war eine nicht unerhebliche Verletzung der vertraglichen Pflichten, befand das Amtsgericht Berlin-Kreuzberg (Aktenzeichen 13 C 285/18). Eine ordentliche Kündigung sei deswegen gerechtfertigt.
Badezimmermodernisierung durch Mieter Fall 2
Eine etwas andere Fallkonstellation lag bei einer Entscheidung des Landgerichts Berlin (Aktenzeichen 64 S 31/23) vor. Der ursprüngliche Eigentümer hatte es dem Mieter gestattet, das Badezimmer in Eigenregie zu modernisieren. Etwa zwei Jahrzehnte später nahm der Mieter eine erneute Modernisierung vor.
Die neue Vermieterin, die es inzwischen gab, sprach deswegen (und wegen einiger anderer Gründe) die Kündigung aus. Doch sie scheiterte damit, denn der Mieter sei berechtigt gewesen, die von ihm selbst eingebrachten Einbauten zu entfernen und durch eine neue Badezimmerausstattung zu ersetzen.
Badezimmer wie Arbeitszimmer – steuerlich Absetzbar?
Manchmal wird das Bad auch zum Thema einer steuerrechtlichen Debatte. Ein Steuerberater nutzte für seine Tätigkeit ausschließlich das häusliche Arbeitszimmer. Als er das Badezimmer grundlegend renovierte, machte er einen 8-Prozent-Anteil der Kosten geltend, was der entsprechenden Fläche des Arbeitszimmers an der Gesamtfläche der Immobilie entsprach. Der Fiskus lehnte ab, das Finanzgericht hingegen stimmte zu. Das Arbeitszimmer sei Teil des Betriebsvermögens und durch den Umbau sei der Wert des gesamten Wohnhauses erhöht worden.
Dies sah der Bundesfinanzhof (Aktenzeichen VIII R 16/15) anders, da die Kosten nicht im häuslichen Arbeitszimmer selbst, sondern im Badezimmer und damit in einem Raum angefallen sind, der ausschließlich oder mehr als nur in untergeordnetem Umfang privaten Wohnzwecken dient.
Gaststättenerlaubnis und behindertengerechte Toiletten
Eine Gaststättenerlaubnis darf nicht in jedem Fall verweigert werden, weil in dem Objekt entgegen landesrechtlicher Vorschriften behindertengerechte Toilettenfehlen. Die von Gastwirten zu erfüllenden Vorgaben sind bundeseinheitlich durch das Gaststättengesetz geregelt.
Eine Verschärfung auf Landesebene hinsichtlich der Ausstattung darf nach Ansicht des Verwaltungsgerichts Berlin (Aktenzeichen 4 K 169.15) nur für solche Gaststätten vorgenommen werden, für die nach dem Jahr 2002 Baugenehmigungen erteilt wurden.
WC-Sitz mit spezieller Nano-Beschichtung – Rückgabe möglich?
Auch im Bad kommt die technische Innovation zum Tragen. Ein Kunde bestellte sich einen WC-Sitz mit spezieller Nano-Beschichtung, die Wasser und Schmutz abweisen sollte. Als er ihn wieder zurückgeben wollte, wurde dies abgelehnt, weil es sich um einen Hygieneartikel handle und die Bestellung kundenspezifisch gewesen sei (Nano-Beschichtung als individuelle Zuwahl).
Das Landgericht Düsseldorf (Aktenzeichen 12 O 357/15) gestattete die Rückgabe, da beide Ablehnungsgründe der Firma nicht zuträfen und daher das Verbraucherwiderrufsrecht nicht ausgeschlossen war.
Stehend duschen in der Badewanne – Schimmel
Es kann einen Verstoß gegen den Mietvertrag darstellen, im Stehen zu duschen. Eine Mietpartei hatte genau das getan und regelmäßig stehend in der Badewanne geduscht, obwohl dieser Raum nur bis zu einer geringen Höhe gefliest war. Weil es zudem nur einen Luftabzug und kein Fenster gab, bildete sich Schimmel.
Das hätten die Mieter bedenken müssen, urteilte das Landgericht Köln (Aktenzeichen 1 S 32/15). Deswegen mussten sie für die Beseitigung des Schimmels aufkommen.
Und wieder die Silikonfuge
Ist die Fuge zwischen der Duschwanne und der angrenzenden Wand undicht, sollten Immobilieneigentümer schnellstens dagegen einschreiten. Denn wenn es deswegen zu einem Wasserschaden kommt, dann muss die Wohngebäudeversicherung keine Leistungen erbringen.
Der Bundesgerichtshof (Aktenzeichen IV ZR 236/20) stellte fest, es handle sich hier nicht um einen vertragsgemäßen Nässeschaden.
Siphon undicht – Ist das ein Rohrbruch?
Bei einem „Rohrbruch“ handelt es sich schon dem Wortlaut nach um einen sogenannten Sachsubstanzschaden. Ist hingegen ein Rohr lediglich undicht, ohne dass die Substanz betroffen wäre, tritt kein Versicherungsfall wegen „Rohrbruchs“ ein.
Mit diesem Argument lehnte das Landgericht Hanau (Aktenzeichen 9 O 1398/23, nicht rechtskräftig) die Leistung an einen Versicherten ab. Außerdem wurde in dem Urteil klargestellt, dass ein Siphon nur ein Geruchsverschluss ist und kein Rohr der Abwasserleitung.
Effiziente Immobilienbewirtschaftung statt Dreifachverwaltung: Die Überschneidung von Aufgaben führt zu fehlerhafter oder gar keiner Bearbeitung und verursachen zusätzliche Kosten. Foto: Wohnungswirtschaft heute Gerd Warda
Die Strukturen im Immobilien-Management haben sich im Laufe der Zeit enorm verändert, sind komplex geworden und überschneiden sich sogar. Das bleibt nicht ohne Folgen für das operative Geschäft.
Wo nicht klar abgegrenzt wird, kann es zu doppelter, fehlerhafter oder gar keiner Bearbeitung kommen – und damit zu programmierten Konflikten mit der Kundschaft. Nicht zuletzt durch unnötige Mehrkosten. Wie kann man diese Gemengelage an Problemen in den Griff bekommen? Sollten die gewachsenen Strukturen grundsätzlich überdacht und neu geordnet werden? Und wie könnte das im Einzelnen aussehen?
Auf Einladung von Rueckerconsult diskutierten fünf Expertinnen und Experten im Rahmen der Online-Panel-Reihe „Asset und Property Management konkret“, ob die Trennung von Facility-, Property- und Assetmanagement noch zeitgemäß sei: Dominik Barton, CEO der Barton Group, Carolin Brandt, Managing Director of Asset Management bei HIH Real Estate, Jürgen Hau, Geschäftsführer der INDUSTRIA Immobilien, Thomas Junkersfeld, Geschäftsführer von B&L Property Management, sowie Marc Mockwitz, Geschäftsführender Gesellschafter von Cloudbrixx.
Asset Manager – der unbekannte Job
„Einst hieß der heutige Facility Manager schlicht ‚Hausmeister‘, der Property Manager war der Immobilien-, Haus- oder Liegenschaftsverwalter“, erinnert sich Thomas Junkersfeld, Geschäftsführer von B&L Property Management. „Als sich Anfang der 90er Jahre ein junger Mann bei mir als ‚Asset Manager‘ vorstellte, musste ich erst einmal recherchieren, was das genau ist.“
Bis dahin sei ihm der Begriff vollkommen unbekannt gewesen. Die Arbeitsfelder waren klar definiert, so dass kaum Überschneidungen in den Aufgabenbereichen gab. „In den vergangenen drei Jahrzehnten hat sich die Welt mit ihren Vehikeln, Regularien und technologischen Entwicklungen jedoch so rasant verändert, dass auch die Immobilienbewirtschaftung ganz anders funktioniert.“
Häufig verschwänden Daten auf dem Weg vom Facility Manager zum Property Manager, so dass sie den Asset Manager gar nicht mehr erreichten, Carolin Brandt. Foto: HIH Real Estate
Für Carolin Brandt, Managing Director of Asset Management bei der HIH Real Estate, erläutert die derzeitige Situation: „Trotz Fachkräftemangels erlauben wir uns eine Vielzahl von Kontroll- und Überlappungsthemen, sodass es auf der Wertschöpfungskettenebene zu wenig Menschen gibt, die sich tatsächlich verantwortlich fühlen. Auf der Kostenseite wiederum müssen wir überlegen, ob und an welcher Stelle eine gewisse Abschichtung und Konsolidierung sinnvoll ist.“
Brandts Beispiel: Es sei problematisch, wenn etwa ein Vollservice-Facility-Dienstleister von einem technischen Property Manager kontrolliert werde, der wiederum vom Asset Manager überwacht werde.
In der Immobilienwirtschaft muss man viele Fakten und Daten zunächst mühselig zusammentragen, um eine Informationsgrundlage zu schaffen, klagt Dominik Barton. Foto: Barton Group
Die Barton Group hat sich dazu entschieden, alle drei Ebenen intern abzudecken – ein Ansatz, der historisch gewachsen ist. Ihrem CEO, Dominik Barton, in dritter Generation verantwortlich für das Geschäft, geht es darum, die gesamtheitliche Immobiliendienstleistung abzubilden.
Als institutioneller Asset Manager mit Schwerpunkt Wohnen in Deutschland, benötige man den Zugriff auf sämtliche relevanten Daten, ist Barton überzeugt. Um effizienter an der Qualität der Objekte arbeiten zu können, habe man eine eigene IT aufgebaut, die alle Bereiche abdeckt. „Der Hausmeister ist die Visitenkarte des Asset Managers. Also müssen wir genau wissen, was vor Ort wie läuft, um gegebenenfalls gegensteuern zu können“, sagt Barton.
Warum Standards scheitern…
Bereits vorhandene Standards, die Rechte und Rollenkonzepte definieren, sind aus Sicht der Expertenrunde auch deshalb nicht zielführend bei der Abgrenzung von etwa Facility- und Propertymanagement, weil sie individuell interpretiert würden. Und so entstünden Überschneidungen oder Unterlassungen. Die Konsequenz daraus: Entweder wird eine Aufgabe doppelt gezahlt oder gar nicht erledigt – eine Maximalkatastrophe.
Wie sich die mangelnde Standardisierung der Rollenverteilung auf Digitalisierung und Softwarelösungen auswirkt, schilderte Marc Mockwitz, Geschäftsführender Gesellschafter von Cloudbrixx. Im Vertrieb und der Beratung hat er täglich mit zahlreichen Kunden – vom Corporate Real Estate Owner, über KVGs und Family Offices bis zum Property Manager – zu tun, die Portfolios mit unterschiedlichen Assetklassen bewirtschaften. Hinzu kommen die vielfältigen Lebenszyklen im Immobilienmanagement.
Die unterschiedlichen Anforderungen der unterschiedlichen Protagonisten machen es schwierig, Workflows und Prozesse zu standardisieren, erklärt Marc Mockwitz Foto: Cloudbrixx
„Faktisch machen zwar alle das Gleiche: Sie entwickeln, bewirtschaften und managen Portfolios. Tatsächlich macht es aber jeder Kunde dann doch ein wenig anders. Mal gibt es interne Property- bzw. Facility Manager, mal externe, mal eine Mischung aus beidem“, erklärt Mockwitz.
„Die unterschiedlichen Anforderungen der unterschiedlichen Protagonisten machen es schwierig, Workflows und Prozesse zu standardisieren. Daher müssen die Softwarelösungen hochgradig konfigurierbar sein, welches Softwareentwicklung aufwendig und teuer macht und Onboardingzeiten verlängert. In der Praxis erleben wir, dass Kunden nur ungern von geliebten Prozessen Abschied nehmen und sich auf Standards einlassen.“
Die Überschneidung von Aufgaben führt zu fehlerhafter oder gar keiner Bearbeitung
Carolin Brandt sieht darüber hinaus grundsätzliche Schwierigkeiten, die mit der Digitalisierung einhergehen: Einen Datentransport von A bis Z gäbe es nur selten. Vielmehr würden Datenbrüche dazu führen, dass Automatismen nicht funktionierten und damit durchgängige Qualität nicht zu sichern sei.
Häufig verschwänden Daten auf dem Weg vom Facility Manager zum Property Manager, so dass sie den Asset Manager gar nicht mehr erreichten. „Ich habe den Eindruck, jeder kämpft für sich allein. Wir sollten unternehmensübergreifend in der Lage sein, so verzahnt zusammenzuarbeiten, dass wir in einem Stück produzieren“, so Brandt.
„Ich wünsche mir, dass wir uns einfach als Branche verstehen, die als Einheit in der Gemeinschaft leistungsstark ist. Wenn jeder seine Stärken einbringen und sie in einem digitalen Prozess verbinden könnte, wären wir sehr erfolgreich.“
Transparenz unerwünscht?
Ursächliche Probleme erkennen die Diskutanten darin, dass häufig vollkommene Transparenz gar nicht gewünscht werde, denn so könnten mangelnde Kenntnisse und nicht vorhandene Daten besser versteckt werden. Etwa, wenn die Dokumentation des technischen Gebäudemanagements nicht vollständig sei und man nicht wisse, welche Anlagen überhaupt verbaut sind.
„Die Implementierung technisch durchgängiger Prozesse wird ausgebremst. Einerseits weil Daten und System dafür häufig schlichtweg fehlen, andererseits weil Intransparenz schlecht oder nicht durchgeführte Leistungen verschleiert“, bemängelt Marc Mockwitz.
Die Misere beginnt aus Sicht von Dominik Barton allerdings schon beim Ankauf einer Immobilie. In London bekäme man sämtliche Daten zur Immobilie, während man hierzulande froh sein könne, wenn die Mieterliste stimme. „In der Immobilienwirtschaft muss man viele Fakten und Daten zunächst mühselig zusammentragen, um eine Informationsgrundlage zu schaffen. Da müssen wir ansetzen und unsere Erwartungshaltung stärker in den Vordergrund stellen.“ Schließlich funktioniere das in der Automobilindustrie auch. „Da kann das Facility Management exakt sagen, wo welche Maschine wie läuft, und wann sie gewartet wurde.“
Es gibt Tätigkeiten und Leistungen, die einer klareren Zuordnung bedürfen, sagt Thomas Junkersfeld Foto: B&L Gruppe
Aussitzen oder handeln?
Wie kann man Überschneidungen verhindern, qualitativ hochwertige Arbeit leisten, Kosten sparen und Kommunikationswege verschlanken? Alle Protagonisten halten es für wünschenswert, sogenannte Leistungsverzeichnisse aufzuräumen und effizientere Bearbeitungsprozesse für die Immobilie, aber auch in Zusammenhang mit der Mieterkommunikation zu etablieren. Thomas Junkersfeld sagt: „Es gibt Tätigkeiten und Leistungen, die einer klareren Zuordnung bedürfen. Ich bin sicher, dass so mancher sogar froh wäre, Aufgaben abgeben zu können.“
Alles, was mit wiederkehrendem Aufwand verbunden ist, wird durch Digitalisierung und KI abgedeckt sein, meint Jürgen Hau. Foto: INDUSTRIA Immobilien
Digitalisierung und Künstliche Intelligenz (KI) gehören zur Zukunft, können aber dem Menschen die Verantwortung nicht abnehmen. Es mangele zurzeit weniger an technischem Fortschritt als vielmehr an Mitarbeitenden, die Entscheidungen treffen, Risiken abwägen und Innovationen voranbringen können.
Jürgen Hau, Geschäftsführer der INDUSTRIA Immobilien geht davon aus, dass sich das Rollenbild in den kommenden fünf bis acht Jahren verändern wird. „Die Dreiteilung wird es weiterhin geben, aber mit geändertem Aufgabenbild“, so Hau. „Alles, was mit wiederkehrendem Aufwand verbunden ist, wird durch Digitalisierung und KI abgedeckt sein. Dafür kann man sich mehr auf die Wertentwicklung der Immobilie, die Koordination der eingebundenen Dienstleister sowie die Kommunikation mit Mietern und Eigentümern konzentrieren.“
Wer über Digitalisierung spricht, darf nicht nur an Bandbreite denken – er muss auch an Sicherheit denken. Der Glasfaserausbau in Deutschland ist unstrittig das notwendige Rückgrat jeder modernen Infrastruktur. Doch ebenso entscheidend ist der Schutz dieser digitalen Adern vor Ausfällen, Angriffen und struktureller Intransparenz.
Der Fachverband Rundfunk- und Breitband-Kommunikation (FRK) bringt es auf den Punkt: Digitalisierung gelingt nur im Einklang mit marktwirtschaftlicher Vernunft, nicht mit Subventionskeulen oder Technologiedogmen. Der neue Bundesdigitalminister Karsten Wildberger steht vor der Aufgabe, bürokratische Hürden zu beseitigen und dem Prinzip „Markt vor Staat“ zur Durchsetzung zu verhelfen. Es geht nicht nur darum, Glasfaser zu verlegen – es geht darum, klug und effizient anzuschließen, Kooperationen zu ermöglichen und funktionierende Hybridnetze nicht blind zu überbauen.
Doch das ist nur die halbe Wahrheit. Digitale Infrastruktur ist nur so wertvoll, wie sie verlässlich ist. Und hier zeigt sich eine massive Sicherheitslücke: In Rechenzentren wird bis zu 40 % des Energiebedarfs für Kühlung verbraucht, und moderne KI-Anwendungen erhöhen diesen Bedarf drastisch. Der technologische Fortschritt erzeugt paradoxerweise ein neues Risiko – den Energiehunger der Digitalisierung. Lösungen wie Direct Liquid Cooling zeigen, dass Innovation auch nachhaltig sein kann – wenn man sie politisch und wirtschaftlich unterstützt.
Parallel offenbart eine Umfrage des TÜV-Verbands in Kooperation mit dem BSI eine gefährliche Schieflage im Bewusstsein deutscher Unternehmen: Viele halten ihre Cybersicherheit für ausreichend, unterschätzen aber die reale Bedrohungslage. Die schleppende Umsetzung der NIS-2-Richtlinie verschärft diese Situation. Gerade in der Wohnungswirtschaft, wo Daten über Immobilien, Mieter und technische Anlagen zentrale Betriebsmittel sind, ist der Schutz digitaler Systeme existenziell.
Die digitale Transformation der Branche wird zudem durch mangelnde Standardisierung, individuelle Prozesse und fehlende Schnittstellen gehemmt – wie Stimmen aus der Praxis eindrucksvoll belegen. Die Konsequenz: Ineffiziente Workflows, Datenverluste und verzögerte Entscheidungen. Digitalisierung heißt nicht nur Software einführen, sondern Prozesse neu denken – gemeinsam, nicht isoliert.
Die Lösung ist klar: Glasfaser bis in jedes Gebäude, Standardisierung mit Augenmaß und eine Cybersicherheitsstrategie, die auch kleine und mittlere Unternehmen erreicht. Die Wohnungswirtschaft darf nicht Zaungast der Digitalisierung sein – sie muss Akteur und Treiber werden.
Juni 2025 – Wohnungswirtschaft digital. Ausgabe 42 – mit vielen neuen Anregungen.
Klicken Sie mal rein.
Bleiben Sie zuversichtlich, virenfrei und nachhaltig.
Wartungsarbeiten im Rechenzentrum. Bildrechte: Prior1
Wie Flüssigkeitskühlung Rechenzentren effizienter, nachhaltiger und zukunftsfähig macht – eine technische und strategische Analyse
Rechenzentren verschlingen weltweit 1,3 % des globalen Stromverbrauchs (1), ein großer Teil davon für die Kühlung. Moderne KI-Anwendungen verstärken dieses Problem dramatisch: Sie erzeugen bis zu fünfmal mehr Abwärme als herkömmliche Server und bringen traditionelle Luftkühlsysteme an ihre Grenzen. Direct Liquid Cooling (DLC) verspricht hier Energieeinsparungen von bis zu 40 % gegenüber herkömmlicher Luftkühlung (2) und entwickelt sich vom Nischensegment zum kritischen Erfolgsfaktor. Die Frage ist nicht mehr ob, sondern wann und wie Unternehmen den Sprung wagen.
In den Serverräumen der digitalen Welt tobt ein unsichtbarer Kampf gegen die Physik. Jeder Prozessor, jede GPU und jeder Speicherbaustein wandelt elektrische Energie in Wärme um – und diese Wärme muss kontinuierlich abgeführt werden, um Ausfälle zu vermeiden. Die Zahlen sind ernüchternd: 40 % des Energieverbrauchs eines Rechenzentrums entfallen auf die Kühlung (3). Während die IT-Welt über effiziente Prozessoren und optimierte Software diskutiert, verschlingt die Klimatisierung unbemerkt Unmengen an Strom.
Eine AFCOM-Studie aus dem Jahr 2024 offenbart das Ausmaß der Herausforderung: 35 % der Rechenzentren mit Luftkühlung stoßen bereits an thermische Grenzen (4), während moderne KI-Anwendungen Rack-Dichten von bis zu 100 kW erfordern – Tendenz steigend. Zum Vergleich: Herkömmliche Server-Racks kommen mit 5-15 kW aus. (5) Diese Entwicklung zwingt die Branche zum Umdenken.
Die Dimension des Problems:
Globaler Stromverbrauch: Rechenzentren verbrauchen bereits jetzt 1,3 % der weltweiten Elektrizität
KI-Energiehunger: Eine ChatGPT-Anfrage verbraucht zehnmal mehr Energie als eine Google-Suche (6)
Kühlungsanteil: In manchen Rechenzentren erreicht der Kühlungsaufwand sogar schon 50 % des Gesamtverbrauchs (7)
Der Markt reagiert auf diese Herausforderung mit der Entwicklung und Bereitstellung entsprechender Lösungen, was eine beeindruckende Dynamik mit sich bringen wird. Von 5,65 Milliarden US-Dollar im Jahr 2024 soll der globale Direct Liquid Cooling-Markt auf 48,42 Milliarden US-Dollar bis 2034 wachsen – eine jährliche Wachstumsrate von 23,96 % (8). Allein das Direct-to-Chip-Segment – bei dem Kühlplatten direkt auf einzelne Prozessoren montiert werden – wird von 1,85 Milliarden auf 11,89 Milliarden US-Dollar ansteigen (9). Diese Zahlen spiegeln nicht nur Marktchancen wider, sondern zeigen eine technologische Notwendigkeit.
Technologie im Detail: Wenn Physik auf Innovation trifft
Flüssigkeiten transportieren Wärme 1.000-mal effizienter als Luft – diese physikalische Grundwahrheit treibt die DLC-Revolution an. Während Luft eine Wärmekapazität von etwa 1 kJ/(kg·K) besitzt, erreicht Wasser 4,18 kJ/(kg·K). Doch der entscheidende Vorteil liegt in der Wärmeleitfähigkeit: Wasser leitet Wärme fast 25-mal besser als Luft.
Herkömmliche Luftkühlung funktioniert nach dem Prinzip der Konvektion: Warme Luft steigt auf, wird durch Klimaanlagen gekühlt und zirkuliert zurück zu den Servern. Bei niedrigen Leistungsdichten funktioniert dieses System ausreichend. Doch sobald Rack-Dichten 20-30 kW überschreiten, stößt die Luftkühlung langsam an physikalische Grenzen, auch wenn versucht wird, dem mit technischen Maßnahmen noch etwas entgegenzuwirken. Der Luftstrom kann nicht genügend Wärme aufnehmen und transportieren.
Direct-to-Chip: Kühlung an der Quelle
Direct-to-Chip Liquid Cooling revolutioniert dieses Prinzip durch direkten Kontakt mit den Wärmequellen. Die Technologie funktioniert über präzise gefertigte Kühlkörper mit internen Kanälen, die direkt auf CPUs und GPUs montiert werden. Eine Flüssigkeit, meist besonders behandeltes Wasser, zirkuliert in geschlossenen Kreisläufen durch diese Kühlplatten und führt die Wärme zu Coolant Distribution Units (CDUs) ab.
Der Prozess im Detail: Die Flüssigkeit strömt, je nach verwendetem Kühlkonzept, Kühlmedium und Systemarchitektur mit einer Temperatur von ca. 20-60° C in die Kühlkörper innerhalb der Server ein, nimmt die Prozessorwärme auf und verlässt diese mit ca. 10 K höherer Temperatur wieder. In der CDU wird sie von einem Primärkühlkreislauf wieder auf die Eingangstemperatur gekühlt. Das Resultat: 70-80 % der Wärme werden direkt über Flüssigkühlung abgeführt. Die verbleibenden 20-30 % entfallen auf periphere Komponenten, die weiterhin luftgekühlt werden können.
Technologievarianten im Überblick
1) Direct-to-Chip Single-Phase: Die gängigste Variante verwendet Flüssigkeiten, die während des gesamten Kühlkreislaufs flüssig bleiben. Sie ist robust, wartungsarm und für die meisten Anwendungen ausreichend.
2) Direct-to-Chip Two-Phase: Hier verdampft die Kühlflüssigkeit direkt am Hotspot und kondensiert später wieder. Diese Methode ermöglicht extrem hohe Kühlleistungen für Anwendungen über 1.000W pro Chip.
3) Immersionskühlung: Komplette Server werden in nicht-leitende Flüssigkeiten getaucht. Während diese Methode die höchste Effizienz bietet, erfordert sie spezielle Systeme und ist aufwändiger zu realisieren.
Effizienzgewinne in der Praxis: Messbare Erfolge
Die Power Usage Effectiveness (PUE) galt lange als Goldstandard für Datacenter-Effizienz. Ein PUE-Wert von 1,0 würde bedeuten, dass ausschließlich IT-Equipment Strom verbraucht – praktisch unerreichbar. Moderne luftgekühlte Rechenzentren erreichen meist PUE-Werte zwischen 1,4 und 1,6. Direct Liquid Cooling kann diese Werte auf 1,03 bis 1,1 senken (10).
Praxisbeispiele: Pioniere der Flüssigkühlung
Fall 1: OVHcloud und Data4 – Europäische Vorreiter
Die Partnerschaft zwischen dem französischen Cloud-Anbieter OVHcloud und dem Rechenzentrumsanbieter Data4 in Marcoussis zeigt exemplarisch, wie Direct Liquid Cooling in der Praxis funktioniert. Durch die Integration wassergekühlter Server-Racks direkt in den Kaltwasserkreislauf des Rechenzentrums konnte der Stromverbrauch für die Kühlung um 25 % gegenüber Luftkühlung gesenkt werden. Die Implementierung erfolgte ohne Betriebsunterbrechung durch modulare Hot-Swap-fähige Systeme (11).
Fall 2: Lawrence Livermore National Laboratory – Supercomputing-Pionier
Das LLNL betreibt einige der leistungsstärksten Supercomputer der Welt und setzt dabei auf Immersionskühlung. Der Emmy-Supercomputer konnte durch die Umstellung die Rack-Leistungsdichte vervierfachen – von 23,5 kW auf 96 kW pro Rack. Gleichzeitig reduzierte sich der Platzbedarf um 60 % und die Geräuschentwicklung auf unter 45 dB (12).
Fall 3: HPE und die Top500-Revolution
HPE gilt als Technologieführer mit seiner 100 % lüfterlosen Systemarchitektur. Diese wird bereits in drei der leistungsstärksten Systeme der Top500-Liste eingesetzt. HPEs DLC-Systeme umfassen ein umfassendes Kühldesign, das alle wesentlichen Serverkomponenten (CPU, GPU, Speicher, Netzwerk) abdeckt und eine skalierbare Kühlung für große Rechenzentren ermöglicht (13).
Fall 4: Sabey Data Centers – Retrofit-Erfolg
Sabey Data Centers implementierte 2024 ein Single-Phase-Direct-to-Chip-System in einem bestehenden Rechenzentrum und konnte dadurch den Stromverbrauch um 13,5 % senken. Dies ermöglichte eine höhere Rack-Dichte und eine effizientere Nutzung der Rechenzentrumsfläche (14).
Herausforderungen und Hindernisse
Die größte Barriere für den schnellen Durchbruch von Direct Liquid Cooling ist der Investitionsaufwand. Direct Liquid Cooling-Systeme sind in der Anschaffung 30-50 % teurer als Luftkühlsysteme (15) und erfordern spezialisierte CDUs. Bestehende Rechenzentren müssen oft umfangreich umgerüstet werden: Neue Rohrleitungen, verstärkte Böden für das zusätzliche Gewicht und angepasste Stromverteilung.
Wartung und Personalqualifikation
Zudem erfordert die Wartung spezialisierte Kompetenzen. Das IT-Personal ist oft nicht mit flüssigkeitsbasierten Systemen vertraut. Typische Wartungsaufgaben umfassen: Regelmäßige Kontrolle des Kühlmittelfüllstands, Überwachung der Wasserqualität und pH-Werte, Inspektion auf Leckagen und Korrosion, sowie Funktionsprüfung der Pumpen und Sensoren. Moderne Systeme bieten zwar weitgehende Automatisierung, aber die Verantwortung für die Systeme erfordert geschultes Personal.
Leckage-Risiken: Mythos und Realität
Der „Flüssigkeit + Elektronik = Katastrophe“-Mythos hält sich hartnäckig, entspricht aber nicht der modernen Realität. Direct Liquid Cooling-Systeme verwenden speziell behandeltes Wasser oder Flüssigkeiten, die bei Kontakt mit elektronischen Komponenten Schäden minimieren oder verhindern. Moderne Systeme verfügen außerdem über mehrfache Sicherheitsmechanismen:
Lecksensoren: Optische und elektrische Sensoren erkennen kleinste Flüssigkeitsmengen
Drucküberwachung: Kontinuierliche Überwachung des Systemdrucks
Automatische Abschaltung: Bei Anomalien werden betroffene Bereiche isoliert
Redundante Dichtungen: Mehrfach abgedichtete Verbindungen mit unterschiedlichen Materialien
Regulatorischer Rückenwind
Während die Technologie ihre Vorteile in der Praxis beweist, schaffen Gesetzgeber zusätzliche Anreize für die DLC-Adoption. Besonders in Europa entstehen regulatorische Rahmenbedingungen, die Direct Liquid zu einer interessanten Alternative machen. Deutschland nimmt bei der Regulierung eine Vorreiterrolle ein.
Das Energieeffizienzgesetz (EnEfG) schreibt ab Juli 2026 PUE-Werte von ≤ 1,2 für neue Rechenzentren vor – ein Ziel, das ohne Flüssigkühlung kaum erreichbar ist. Bestehende Rechenzentren müssen ab 2027 einen PUE von ≤ 1,5 und ab 2030 ≤ 1,3 erreichen.
Zusätzlich führt das Gesetz eine Abwärmenutzungspflicht ein: Neue Rechenzentren müssen ab Juli 2026 mindestens 10 %, ab 2028 sogar 20 % der Abwärme nutzen. Direct Liquid Cooling-Systeme erleichtern diese Anforderung erheblich, da sie höhere Vorlauftemperaturen liefern.
EU-weite Initiativen und F-Gase-Verordnung
Die überarbeitete F-Gase-Verordnung der EU verschärft die Regulierung fluorierter Treibhausgase, die in vielen herkömmlichen Kältemaschinen eingesetzt werden.
Das Ziel: drastische Reduktion bis 2030 und vollständiges Verbot bis 2050. Da DLC-Systeme, bei hohen Systemtemperaturen ohne zusätzliche Kältemaschinen auskommen, sofern die Wärme nicht ohnehin weiterverwendet wird, profitieren sie direkt von dieser Entwicklung. Länder wie Finnland und Norwegen haben bereits Vorschriften zur Integration von Rechenzentrumsabwärme in städtische Wärmenetze eingeführt – ein Trend, der sich europaweit verstärkt (16).
Zukunftstechnologien: Die nächste Generation der Kühlung
Die Entwicklung steht nicht still: Forscher und Hersteller arbeiten an der nächsten Generation von Kühltechnologien, die noch effizienter und vielseitiger werden sollen. Dabei zeichnen sich mehrere vielversprechende Ansätze ab, die das Potenzial haben, die Branche erneut zu transformieren:
Zwei-Phasen-Kühlung der nächsten Generation: Systeme wie Supermicros DLC-2 nutzen verdampfende Flüssigkeiten für deutlich höhere Effizienz. Diese Technologie verspricht erhebliche Energieeinsparungen und niedrigere Gesamtbetriebskosten gegenüber herkömmlichen Methoden. (17)
Mikrokonvektive Kühlung: JetCools innovative Technologie verwendet Arrays kleiner Flüssigkeitsstrahlen, die präzise auf Hotspots gerichtet sind. Dies ermöglicht die Kühlung auch extrem leistungsstarker Chips für anspruchsvollste Anwendungen (18).
KI-optimierte Kühlsysteme: Intelligente Algorithmen überwachen kontinuierlich Temperaturen, Durchflussraten und Systemleistung, um die Effizienz in Echtzeit zu optimieren. Diese Systeme können Ausfälle vorhersagen und präventive Wartung einleiten.
Materialinnovationen und Nachhaltigkeit
Parallel zu den Systemverbesserungen verändern neue Materialien die Grundlagen der Flüssigkühlung. Diese Entwicklungen zielen darauf ab, Direct Liquid Cooling-Systeme langlebiger, umweltfreundlicher und wartungsärmer zu gestalten.
Korrosionsfreie Hochleistungspolymere: Anbieter wie GF Piping Systems setzen auf thermoplastische Rohrsysteme, die leichter, langlebiger und korrosionsfrei sind. Sie bieten innovative Verbindungstechnologien für schnellere und sicherere Installation (19).
Optimierte Wasser-Glykol-Mischungen: Hersteller entwickeln spezialisierte Kühlmittel wie Castrol ON Direct Liquid Cooling PG 25 für Direct-to-Chip-Systeme. Diese Propylenglykol-Formulierung bietet verbesserten Korrosions- und bakteriellen Wachstumsschutz für längere Wartungsintervalle (20).
Integration in Cloud- und Edge-Computing
Hyperscaler wie Google, Microsoft und Meta setzen auf flüssigkeitsgekühlte Racks und standardisierte Stromverteilungs- und Kühlungsarchitekturen für maximale Effizienz. Google berichtet von einer Vervierfachung der Compute-Dichte durch Direct Liquid Cooling bei gleichbleibender Zuverlässigkeit (21). Im Edge-Computing ermöglicht Direct Liquid Cooling kompakte, hochdichte Installationen in städtischen Umgebungen, wo Platz und Geräuschentwicklung kritische Faktoren sind.
Marktausblick: Der Wendepunkt naht
Der Direct Liquid Cooling-Markt entwickelt sich regional sehr unterschiedlich, geprägt von verschiedenen Treibern und Prioritäten. Nordamerika führt mit rund 40 % Anteil am globalen Markt (22), getrieben durch Hyperscaler wie Google und Meta. Europa fokussiert stark auf ESG-Ziele mit einem prognostizierten Marktvolumen von 8,88 Milliarden US-Dollar bis 2034 (23). Asia-Pacific zeigt das schnellste Wachstum (CAGR: 21,8 %), angetrieben durch KI-Investitionen in China und Indien (24).
Strategische Handlungsempfehlungen für Entscheidungsträger
Die Entscheidung für Direct Liquid Cooling ist komplex und erfordert eine durchdachte Herangehensweise. Während die technischen Vorteile klar belegt sind, hängt der Erfolg einer DLC-Implementierung maßgeblich von der richtigen Strategie und dem passenden Zeitplan ab. Die folgenden Empfehlungen helfen dabei, typische Fallstricke zu vermeiden.
Kurzfristige Maßnahmen (0-12 Monate)
Assessment und Planung: Führen Sie eine umfassende Bewertung Ihrer aktuellen Kühlinfrastruktur durch. Identifizieren Sie Bereiche mit hoher Rack-Dichte oder geplanten Kapazitätserweiterungen als Kandidaten für Direct Liquid Cooling. Eine Grundregel: Ab 15 kW pro Rack wird Direct Liquid Cooling wirtschaftlich interessant.
Pilotprojekte initiieren: Beginnen Sie mit einem begrenzten Pilotbereich – idealerweise 5-10 Racks mit KI- oder HPC-Workloads. Dies minimiert das Risiko und liefert wertvolle Erfahrungen ohne Vollumstellung der gesamten Infrastruktur.
Lieferantenauswahl: Evaluieren Sie mindestens drei Anbieter basierend auf technischer Reife, Referenzen und Service-Qualität. Achten Sie besonders auf lokale Wartungskompetenzen und Ersatzteilversorgung.
Mittelfristige Strategie (1-3 Jahre)
Hybride Implementierung: Setzen Sie auf einen schrittweisen Ansatz mit 70-75 % Liquid Cooling für High-Density-Bereiche und behalten Sie Luftkühlung für Standard-IT bei. Dies reduziert die Komplexität und Kosten bei maximaler Effizienzsteigerung.
Personalentwicklung: Investieren Sie in spezialisierte Schulungen für Ihr Wartungspersonal. Die Kosten amortisieren sich schnell durch reduzierten externen Service-Bedarf.
Infrastruktur-Modernisierung: Planen Sie notwendige Gebäudeanpassungen: verstärkte Böden für das zusätzliche Gewicht der Kühlinfrastruktur, erweiterte Rohrleitungen und angepasste Stromverteilung. Bei Neubauten sollte die Direct Liquid Cooling-Readiness von Anfang an mitgeplant werden.
Langfristige Positionierung (3-10 Jahre)
Vollintegration in die IT-Strategie: Direct Liquid Cooling wird zur Grundvoraussetzung für KI-Workloads und Edge-Computing. Planen Sie Ihre Technologie-Roadmap entsprechend und berücksichtigen Sie DLC bei allen Kapazitätserweiterungen.
Nachhaltigkeitsstrategie: Nutzen Sie DLC als Enabler für Wärmerückgewinnung und reduzierten Energieverbrauch. Die höheren Vorlauftemperaturen von DLC-Systemen eignen sich ideal zur Wärmerückgewinnung. Gleichzeitig wird Energieeffizienz zunehmend zu einem Compliance- und Wettbewerbsfaktor.
Branchenspezifische Anwendungen und Potenziale
Direct Liquid Cooling entfaltet sein Potenzial je nach Branche unterschiedlich stark. Während einige Sektoren von den Effizienzgewinnen profitieren, sind andere auf die höhere Leistungsdichte angewiesen, um überhaupt wettbewerbsfähig zu bleiben.
Finanzdienstleistungen: Hochfrequenzhandel und Compliance: Im Finanzsektor, wo Millisekunden über Millionen entscheiden, ermöglicht Direct Liquid Cooling höhere Prozessortaktraten ohne Thermal Throttling (automatische Leistungsreduktion bei Überhitzung). Hochfrequenz-Handelssysteme profitieren von stabileren Performance-Profilen und reduzierter Latenz-Variabilität durch konstante Betriebstemperaturen.
Forschung und Wissenschaft: Universitäten und Forschungseinrichtungen können mit Direct Liquid Cooling deutlich mehr Rechenleistung pro Quadratmeter realisieren. Das Emmy-Beispiel zeigt: Eine Vervierfachung der Rack-Dichte bei 60 % weniger Platzbedarf ermöglicht größere Cluster in bestehenden Gebäuden.
Cloud-Provider: Hyperscaler wie Google berichten von einer Vervierfachung der Compute-Dichte durch Direct Liquid Cooling. Dies ist besonders in teuren urbanen Lagen entscheidend, wo Grundstückspreise die Wirtschaftlichkeit bestimmen.
Gaming und Content Creation: High-End-Gaming-Server und Content-Rendering-Farmen können mit Direct Liquid Cooling kontinuierlich im „Boost“-Modus laufen, ohne durch thermische Limits gedrosselt zu werden. Dies erhöht die nutzbare Performance um 15-25 %.
Umweltauswirkungen und Nachhaltigkeitsaspekte
Lifecycle-Analysen zeigen: DLC-Systeme reduzieren die CO₂-Emissionen von Rechenzentren erheblich. Die Einsparungen ergeben sich sowohl aus dem geringeren Energieverbrauch als auch aus verbesserten Möglichkeiten zur Wärmerückgewinnung. Ein Großteil der Abwärme kann potenziell für Fernwärme genutzt werden. Zudem benötigen DLC-Systeme mit hohen Systemtemperaturen weniger Wasser als herkömmliche Systeme, welche bei hohen Außentemperaturen oft zusätzlich Verdunstungskühlung nutzen – eine wichtige Verbesserung angesichts zunehmender Wasserknappheit in vielen Regionen.
Technische Risiken und Mitigation-Strategien
Trotz aller Vorteile bringt Direct Liquid Cooling spezifische technische Herausforderungen mit sich, die eine professionelle Herangehensweise erfordern. Die wichtigsten Risikofaktoren lassen sich jedoch durch bewährte Strategien erfolgreich minimieren.
Korrosion und Materialverträglichkeit – Langzeittests zeigen: Korrosion tritt hauptsächlich bei unsachgemäßer Wasserqualität oder inkompatiblen Metallkombinationen auf. Moderne DLC-Systeme verwenden korrosionsresistente Materialien und Additive, die das Risiko minimieren. Regelmäßige Wasseranalysen (alle 3-6 Monate) sind dennoch essenziell.
Ausfallsicherheit und Redundanz – Kritische Systeme erfordern redundante Kühlkreisläufe. Die Regel: N+1-Redundanz für CDUs und Rückkühlung, sowie doppelte Rohrleitungsführung und Hydraulik für mission-critical Anwendungen. Dies erhöht die Investitionskosten um 20-30 %, gewährleistet aber sehr hohe Verfügbarkeiten (25) des Kühlsystems.
Lebensdauer und Wartungszyklen – DLC-Komponenten haben eine unterschiedliche Lebensdauer: Cold Plates halten 10-15 Jahre, CDUs 7-10 Jahre, Rohrleitungen 15-20 Jahre. Eine strukturierte Wartungsplanung ist entscheidend für langfristige Effizienz.
Zukunftsszenarien: Rechenzentren 2030+
Die Weichenstellungen der kommenden Jahre werden die Rechenzentrumslandschaft fundamental prägen. Während sich die Branche einig ist, dass sich etwas ändern muss, zeichnen sich verschiedene mögliche Entwicklungspfade ab – mit unterschiedlichen Auswirkungen auf Technologie, Investitionen und Wettbewerbsfähigkeit.
Szenario 1: DLC als Standard
In diesem wahrscheinlichsten Szenario werden bis 2030 über 70 % der neuen Rechenzentren über 1 MW mit DLC ausgestattet sein. Luftkühlung bleibt nur noch für kleinere Edge-Installationen und Legacy-Systeme relevant. PUE-Werte unter 1,05 werden zum Standard.
Szenario 2: Immersionskühlung-Durchbruch
Wenn Immersionskühlung ihre aktuellen Nachteile (komplexe Wartung, spezialisierte Hardware) überwindet, könnte sie Direct-to-Chip teilweise ablösen.
Szenario 3: Hybrid-Cloud-Integration
Intelligente Workload-Verteilung basierend auf Kühlungseffizienz: Compute-intensive Tasks wandern automatisch zu den effizientesten Rechenzentren. DLC-Rechenzentren werden zu bevorzugten Knoten in globalen Cloud-Netzwerken.
Die stille Revolution ist in vollem Gange
Direct Liquid Cooling steht am Wendepunkt vom Spezialbereich zur Standardtechnologie. Die Kombination aus regulatorischem Druck, explodierenden KI-Anforderungen und drastischen Effizienzgewinnen macht diese Technologie unverzichtbar. Die Frage ist nicht mehr „ob“, sondern „wann“ und „wie“ Unternehmen den Übergang vollziehen.
Die Pioniere haben bereits bewiesen, dass DLC funktioniert. Die Technologie ist ausgereift, die Anbieter etabliert und die Wirtschaftlichkeit belegt. Was bleibt, ist die strategische Entscheidung: Als Vorreiter profitieren oder als Nachzügler reagieren.
Die stille Revolution findet dort statt, wo sie am wenigsten sichtbar ist: In den Kühlsystemen der digitalen Infrastruktur. Doch ihre Auswirkungen sind alles andere als still – sie werden die Effizienz, Nachhaltigkeit und Leistungsfähigkeit der gesamten IT-Branche fundamental verändern.
Die stille Revolution wartet nicht – sie findet jetzt statt, schreibt Tobias von der Heydt, Geschäftsführer bei Prior1. Bildrechte: Prior1
Für Entscheidungsträger bedeutet dies: Die Zeit der Beobachtung ist vorbei. Wer heute die Weichen für Direct Liquid Cooling stellt, positioniert sich für eine Zukunft, in der Rechenzentren nicht nur leistungsfähiger und nachhaltiger, sondern auch wirtschaftlicher werden. Die stille Revolution wartet nicht – sie findet jetzt statt.
Der Wandel der Energiesysteme stellt die Industrie und die Wärmebranche vor große Herausforderungen, insbesondere in hohen Temperatur- und Leistungsbereichen. Großwärmepumpen rücken deshalb als Schlüsseltechnologie immer stärker in den Fokus. Ein neues Großwärmepumpen-Infoportal gibt jetzt erstmals einen umfassenden Überblick zu Produkten und Herstellern und stellt bereits realisierte Projekte vor. https://www.grosswaermepumpen-info.de/
Der Wandel der Energiesysteme stellt die Industrie und die Wärmebranche vor große Herausforderungen, insbesondere in hohen Temperatur- und Leistungsbereichen. Großwärmepumpen rücken deshalb als Schlüsseltechnologie immer stärker in den Fokus. Ein neues Großwärmepumpen-Infoportal gibt jetzt erstmals einen umfassenden Überblick zu Produkten und Herstellern und stellt bereits realisierte Projekte vor.
„Mit dem neuen Infoportal schließen wir eine entscheidende Informationslücke auf dem Weg zu klimaneutralen Wärmenetzen und Industrieprozessen. Damit gehen wir einen wichtigen Schritt zur bundesweiten Energiewende“, so Energieminister Kaweh Mansoori in Wiesbaden. Großwärmepumpen ermöglichen eine zuverlässige Erzeugung von Wärme bis 200°C, in Verbindung mit Dampfkompressoren sogar bis 300°C.
„So hohe Temperaturen werden beispielsweise in der Metallverarbeitung oder in der Chemie-Branche benötigt und werden durch die Verbrennung fossiler Energiequellen erreicht. Großwärmepumpen hingegen nutzen erneuerbare Energiequellen wie zum Beispiel die Umgebungswärme aus Flüssen oder der Luft sowie Abwärme aus Industrieprozessen oder Rechenzentren“, so der Minister.
Ein europaweit einzigartiges Portal
Von der Fraunhofer-Einrichtung für Energieinfrastrukturen und Geotechnologien IEG und der LEA LandesEnergieAgentur Hessen (LEA Hessen) im Auftrag des Hessischen Wirtschaftsministeriums entwickelt, ist es europaweit das erste Portal, das einen umfassenden Überblick über verfügbare Produkte, Hersteller und realisierte Projekte bietet. Die zugrunde liegende Datenbank wurde im Rahmen des Projekt WinPro durch das Bundesministerium für Wirtschaft und Klimaschutz finanziert.
Großwärmepumpen ermöglichen eine zuverlässige Erzeugung von Wärme bis 200°C, in Verbindung mit Dampfkompressoren sogar bis 300°C. „So hohe Temperaturen werden beispielsweise in der Metallverarbeitung oder in der Chemie-Branche benötigt und werden durch die Verbrennung fossiler Energiequellen erreicht. Großwärmepumpen hingegen nutzen erneuerbare Energiequellen wie zum Beispiel die Umgebungswärme aus Flüssen oder der Luft sowie Abwärme aus Industrieprozessen oder Rechenzentren“
Energieminister Kaweh Mansoori
Das Herzstück des Portals bildet eine umfassende Datenbank, die detaillierte Informationen zu am Markt verfügbaren Großwärmepumpen und Herstellern bereitstellt. Vielfältige Filteroptionen – u.a. für Leistungsbereich, Temperaturbereich und Kältemittelkategorie – ermöglichen eine gezielte Produktsuche für kommende Betreiber. Zudem liefert die Datenbank auch Einblicke in geplante und umgesetzte Projekte in Hessen und Deutschland. Ergänzt wird das Angebot durch vertiefende Informationen zu Technologien, Kältemittelauswahl und Verschaltungsvarianten sowie durch einen integrierten Wirkungsgrad-Rechner, der die Effizienz verschiedener Systeme vergleichbar macht.
„Unser Ziel ist es, Planer und Betreiber von Wärmenetzen sowie energieintensive Industrien mit praxisorientierten Lösungen zu unterstützen“, erklärt Julia Woth Abteilungsleiterin für Erneuerbare Energien, Wasserstoff & Mobilität bei der LEA Hessen. „Das Infoportal bietet genau die Transparenz, die notwendig ist, um Großwärmepumpen in Industrieprozessen oder zur Fernwärmeversorgung optimal einzusetzen.“
„Aus unseren Gesprächen mit Kommunen und Unternehmen kennen wir die Fragen aus der Praxis. Wir arbeiten gezielt daran, wirtschaftlich tragfähige Lösungen für Endkunden zu erarbeiten und so die Verbreitung von Großwärmepumpen voranzutreiben“, ergänzt Fabian Ahrendts, der am Fraunhofer IEG das Competence Center für thermische Energieanlagen und Großwärmepumpen leitet. „In die Datenbank fliesen unsere Erfahrungen aus der angewandten Forschung und Entwicklung an Großwärmepumpen sowie aus Umsetzungsprojekten mit der Industrie ein. Unser Ziel ist es, damit Markttransparenz herzustellen und Projekte für die nachhaltige Energieversorgung mit regionaler Wertschöpfung anzustoßen.“
Das Potenzial der Wärmepumpen ist enorm: Langfristig könnten sie den gesamte deutschen Wärmebedarf bis 200 °C decken – das entspricht 75 % des aktuellen deutschen Erdgasverbrauchs und über einem Viertel der nationalen Treibhausgasemissionen (Agora Energiewende & Fraunhofer IEG, 2023). Doch bislang fehlte eine zentrale Anlaufstelle, um passende Lösungen und praktische Anwendungsbeispiele schnell und zuverlässig zu finden. Genau hier setzt das neue Großwärmepumpen-Infoportal an.
Erste Pilot-Projekte in Hessen
Wie Großwärmepumpen erfolgreich eingesetzt werden können, zeigt zum Beispiel ein Projekt an der TU-Darmstadt. Hier ist eine Großwärmepumpe mit rund 550 kW installiert, die Abwärme aus einem Großrechner auf Fernwärmetemperatur bringt und damit Teile des Campus beheizt. „Leistungsfähige Rechenzentren sind für uns als Technische Universität unerlässlich, verursachen aber auch 20 Prozent unseren Gesamtstromverbrauchs. Die dabei entstehende Abwärme durch Wärmepumpen zu nutzen, ist ein wichtiger Beitrag zur Energiewende“, betonte Dr. Martin Lommel, Kanzler der TU Darmstadt.
Neben der Anlage in Darmstadt gibt es weitere Projekte in Hessen, bei denen Großwärmepumpen schon heute zum Einsatz kommen oder wo die Inbetriebnahme noch dieses Jahr geplant ist:
Die Stadtwerke Marburg, die knapp 900 kW Wärmeleistung aus der Abwärme eines Heizkraftwerks nutzen, um fossile Brennstoffe in der Fernwärme zu ersetzen.
Ein Wohngebiet in Frankfurt Sachsenhausen, bei dem Erdwärme seit 2016 im Winter mit Wärmepumpe zum Heizen und im Sommer direkt zum Kühlen verwendet wird.
Ein Rechenzentrum des Betreibers Digital Realty in Frankfurt, dass mit Hilfe einer Großwärmepumpe mit 2.500 kW die Abwärme auf ein zur Beheizung von Büro- und Lagerflächen benötigtes Temperaturniveau anheben will. Die Wärmepumpe soll 2025 in Betrieb gehen.
Diese und weitere Projektbeispiele aus ganz Deutschland sind auch in der Projektdatenbank im Infoportal zu finden. Das Großwärmepumpen Info-Portal ist ab sofort online verfügbar unter: www.grosswaermepumpen-info.de/
Glasfaser-Splitter maximieren die Leistung optischer Netzwerkschaltungen. Fotonachweis: Cathrin Bach/degewo
Berlin bekommt Glasfaser bis in die Wohnung – direkt von degewo: Die degewo netzWerk GmbH bringt gemeinsam mit ihrem Partner Vodafone Glasfaseranschlüsse direkt bis in die Wohnung. Ziel ist es, bis Ende 2029 rund 66.000 weitere Wohneinheiten im Bestand mit moderner Fiber to the Home-Technologie (FTTH) auszustatten – also Glasfaser bis in die Wohnung, nicht nur bis ins Gebäude.
Damit investiert eines der größten kommunalen Wohnungsunternehmen Berlins weiter in die digitale Zukunft der Hauptstadt und schafft stabile, leistungsstarke Internetverbindungen für seine Mieterinnen und Mieter – ideal für Homeoffice, Streaming, Gaming und alle Anforderungen des modernen Wohnens.
Glasfaser für über 75.000 Wohnungen
Bereits heute verfügt degewo über rund 68.000 Wohnungen mit Fiber to the Building-Anschluss (FTTB) und rund 9.300 Wohnungen mit FTTH. Mit dem geplanten Ausbau wird die Zahl der FTTH-versorgten Wohnungen auf über 75.000 steigen. Neubauten erhalten weiterhin ab Baubeginn FTTH inlusive Multimediaschrank in jeder Wohnung.
Die Ausbauoffensive startet im vierten Quartal 2025 in Treptow-Köpenick und wird sukzessive über das gesamte Berliner Stadtgebiet ausgerollt.
Partnerschaft mit Vodafone – Zugang für alle Anbieter
Der Ausbau sowie der Betrieb des Glasfasernetzes erfolgen in Zusammenarbeit mit Vodafone. Das Netz steht im Sinne des Telekommunikationsgesetzes (TKG) diskriminierungsfrei auch anderen Telekommunikationsanbietern zur Verfügung.
Die Kosten für den Ausbau trägt degewo – Mieterinnen und Mieter zahlen ausschließlich für die individuell gebuchten Telekommunikationsprodukte zu marktüblichen Konditionen. Zusätzlich wird ein optionales Grundversorgungspaket für TV angeboten.
Digitale Teilhabe für alle – zukunftssicher und nachhaltig
„Mit dem flächendeckenden Ausbau von FTTH schaffen wir nicht nur eine moderne digitale Infrastruktur für unsere Mieterinnen und Mieter, sondern sichern auch die langfristige Wettbewerbsfähigkeit unseres Wohnungsbestands“, erklärt Christoph Beck, Vorstandsmitglied bei degewo. „Digitale Teilhabe darf kein Luxus sein – sie ist elementarer Bestandteil moderner Daseinsvorsorge.“
Mit über 100 Jahren Erfahrung bringt degewo als kommunales Wohnungsunternehmen zusammen, was zusammengehört: bezahlbaren Wohnraum und das echte Zuhausegefühl. Für über 150.000 Menschen in fast 82.000 Wohnungen schafft das Unternehmen ein Zuhause, das weit über vier Wände hinausgeht. Dabei vereint degewo starke Gemeinschaft mit sozialem Engagement und richtet den Fokus auf Klimaneutralität bis 2045.