28.11.2025

Moderne Gesellschaften funktionieren, weil wir etwas tun, das auf den ersten Blick unvernünftig erscheint: Wir gehen das Risiko ein, zu vertrauen. Der deutsche Soziologe Niklas Luhmann nennt das eine „riskante Vorleistung“. Aber sie erspart uns die lähmende Alternative, alles ständig kontrollieren zu müssen. Vertrauen ist somit eine Grundlage jeder menschlichen Gemeinschaft. Was aber passiert mit unserem Vertrauen, wenn es sich von Menschen auf digitale Systeme verlagert?
Zunächst gilt unser Vertrauen seit Urzeiten denen, die wir kennen, die uns im buchstäblichen Sinne vertraut sind. In historischer Zeit erweiterte sich dieses Vertrauen auf Institutionen: auf Hochschulen, Kirchen und Medien. Diese Ordnung wandelt sich gerade grundlegend. Die Digitalisierung aller Lebensbereiche verschiebt den Ort, an dem Vertrauen entsteht: Zunächst von Institutionen zu Gruppen von Individuen – etwa in den Empfehlungs- und Bewertungssystemen, die heute darüber entscheiden, welchem Produkt, welchem Arzt oder welchem Dienstleister wir uns anvertrauen. Die britische Vertrauensforscherin Rachel Botsman nennt das „distributed trust“: Vertrauen verteilt sich horizontal, nicht mehr vertikal.
Im nächsten Schritt wandert Vertrauen von Menschen zu Systemen. Wir verlassen uns auf Navigationsalgorithmen, auf automatische Risikobewertungen, auf digitale Plausibilitäten. In vielen Lebensbereichen fungieren Algorithmen als neue Vermittler von Sicherheit. Für viele ist es selbstverständlich, selbst existenzielle Entscheidungen wie die Partnersuche in die Hände von Algorithmen zu legen. Doch viele dieser digitalen Vertrauensakte bewegen sich im Bereich geringer Risiken. Wenn Google Maps irrt, verlieren wir Minuten – mehr nicht. Ebenso verhält es sich mit den meisten Bewertungssystemen: Ihr Scheitern ist lästig, aber selten folgenreich. In allen Bereichen aber, in denen Fehler gravierende materielle oder gesellschaftliche Schäden verursachen können, endet die Reichweite solcher Systeme. Je größer das Risiko, desto zwingender wird menschliche Verantwortung. Digitale Systeme können Vorschläge liefern – doch erst die Übernahme der Verantwortung macht ein Ergebnis tragfähig.
Somit kann die Verschiebung von Vertrauen erhebliche Folgen haben. Digitale Systeme erzeugen Verlässlichkeit, aber keine Verantwortung. Sie können berechnen, aber nicht einstehen. Institutionen verlieren damit das Monopol auf Vertrauen, das sie in der analogen Welt besaßen. Die Tagesschau um 20 Uhr steht neben TikTok-Videos. Der Mediziner steht neben KI-gestützter Diagnostik, die schon nicht mehr nur dem Arzt als Werkzeug zur Verfügung steht, sondern über Apps dem Nutzer unmittelbare Ergebnisse liefert. Für die Öffentlichkeit verschwimmen die Kriterien, wer warum Vertrauen verdient.
Dass Vertrauen ohne klare Adressaten fragil ist, hat eine Krise besonders deutlich gemacht: die Finanzkrise 2007/08. Sie war kein rein ökonomisches Problem, sondern auch ein Vertrauensbruch in abstrakte Systeme mit kaum zurechenbarer Verantwortung. Ratingagenturen, Finanzderivate, institutionalisierte Routinen – alles funktionierte, bis nichts mehr funktionierte. Am Ende war es der Staat bzw. die Allgemeinheit, die stabilisieren mussten, bevor Haftung und Aufsicht nachgeschärft wurden. Die Finanzkrise zeigte zudem, wie Komplexität selbst zum Instrument werden kann, Verantwortung zu umgehen. Faule Kredite wurden gebündelt und weitergereicht, bis niemand mehr eindeutig sagen konnte, wer wofür einsteht. Die Reaktion bestand vor allem darin, neue Regeln und Kontrollen zu schaffen – doch zusätzliche Komplexität ersetzt keine Verantwortlichkeit. Im Gegenteil: Sie kann genutzt werden, Verantwortung weiter zu verschieben. Dieses Muster begegnet uns überall dort, wo Vertrauen durch Verfahren ersetzt werden soll, statt durch klare Zuständigkeit.
Vor dem Hintergrund einer solchen Vertrauenskrise ist es naheliegend, mehr Transparenz und Kontrolle einzufordern. Aber führt dieser Reflex wirklich zum Ziel? In der Wissenschaft gibt es Zweifel. Die Philosophin Onora O’Neill hat immer wieder betont, dass Transparenz kein Ersatz für Vertrauen ist. Wer ständig beobachtet wird, höre auf, eigenverantwortlich zu handeln. Das gilt für unsere Kinder im Zweifel ebenso wie für gesellschaftliches Handeln. Entscheidend ist nicht Sichtbarkeit, sondern Rechenschaft – Accountability wie es in der angelsächsischen Forschung heißt. Die deutsche Bildungsforscherin Inka Bormann hat dies eindringlich formuliert: Wo Laien die Qualität nicht selbst beurteilen können – in der Medizin, im Recht, in der Planung – ist Vertrauen notwendig und zugleich verletzlich. Es wird tragfähig, wenn es institutionell gerahmt ist, wenn Verantwortung adressierbar ist, wenn klar ist, wer prüft, wer freigibt, wer einsteht.
Für Ingenieurinnen und Ingenieure ist diese Frage zentral. Moderne Ingenieurarbeit operiert in komplexen, organisationsübergreifenden Systemen: Sensorik, Datenketten, Softwaremodelle, KI-gestützte Auswertungen. Maschinen liefern Plausibilitäten, Programme sichern Konsistenz, automatisierte Vergleiche identifizieren Fehler. Diese Systeme erhöhen die Qualität – aber sie verschieben die Verantwortung. Sie erzeugen Ergebnisse, aber sie stehen nicht dafür ein.
Folgenschwer wird diese Frage dort, wo ingenieurtechnische Entscheidungen unmittelbar in die Lebenswirklichkeit von Menschen eingreifen: im Bauwesen, in der Infrastruktur, in der Vermessung, in sicherheitskritischen Prozessen. Hier tragen digitale Werkzeuge zur Qualität bei – aber sie können Verantwortung nicht übernehmen. Gerade in diesen Hochrisikobereichen braucht es eine Instanz, die Qualifikation prüft, Entscheidungen zuordnet und im Streitfall Verantwortlichkeit herstellt. Wer Verantwortung trägt, muss adressierbar bleiben. Genau hier beginnt die berufspolitische Aufgabe der Ingenieurkammern. Sie sichern, dass Vertrauen nicht im technischen Prozess verschwindet. Sie machen Verantwortung adressierbar – durch Prüfungen, Fortbildungspflichten, Qualifikationsnachweise und geregelte Aufsicht. Sie ordnen berufliche Rollen und sorgen dafür, dass Ingenieurinnen und Ingenieure nicht nur technisch richtig, sondern auch institutionell verlässlich handeln können. In der Praxis heißt das: Ingenieurarbeit bleibt eine Entscheidung unter Unsicherheit. Kein Messwert und kein Modell bieten absolute Sicherheit. Aber Verfahren, Normen und dokumentierte Prüfschritte schaffen einen Rahmen, in dem diese Unsicherheit verantwortet wird. Digitale Systeme beschleunigen Prozesse – doch sie ersetzen nicht das Urteil und die Verantwortlichkeit eines Menschen, der qualifiziert ist und in einem normativen System handelt.
Der Beitrag beruht auf einem Vortrag, den Dr. Bastian Peiffer, Leiter des Referats Marketing und Öffentlichkeitsarbeit der IK-Bau NRW, am 13.11.2025 auf der Fachtagung des DVW NRW in Essen gehalten hat.


