top of page

KI Change Management: Wenn die Technologie das kleinste Problem ist

Die Investitionen in künstliche Intelligenz sind rekordverdächtig: Weltweit fließen Jahr für Jahr 30 bis 40 Milliarden Dollar in KI-Projekte – große Summen, mit großen Erwartungen. Und dennoch: Bei den meisten dieser Investitionen bleibt der messbare geschäftliche Erfolg aus: 95 Prozent aller KI-Pilotprojekte scheitern daran, eine signifikante Geschäftswirkung zu erzielen. 


Das ist keine Frage der Leistungsfähigkeit von Algorithmen oder Rechenleistung. Das ist eine Frage von etwas ganz anderem: von dem Missverständnis darüber, was „Veränderung" im Kontext von KI bedeutet. Während Unternehmen Millionen in die Technologie pumpen, widmen sie dem menschlichen Teil – dem Change selbst – deutlich weniger Aufmerksamkeit.


Das ist wie eine teure Renovierung ohne Plan, wie man darin leben soll.


Technologie ohne Change-Strategie


Viele Unternehmen verfügen inzwischen über eine durchdachte KI-Strategie: Sie wissen, welche Tools sinnvoll sind, wo sich Prozesse beschleunigen lassen und welche Effizienzpotenziale realistisch erscheinen. Was jedoch häufig fehlt, ist eine ebenso klare Vorstellung davon, wie sich die tägliche Arbeit durch diese Technologien tatsächlich verändert – und wie man Menschen auf diesem Weg mitnimmt.


Rund 67 Prozent aller gescheiterten KI-Projekte scheitern nicht an der Technologie selbst, sondern daran, wie sie in Organisationen eingeführt wird. Während eine KI-Strategie die technische Perspektive beantwortet – also die Frage, welche Systeme eingesetzt werden –, richtet sich eine Change-Strategie auf die menschliche Ebene: Wie verändern sich Abläufe? Welche neuen Kompetenzen werden gebraucht? Und wie wird diese Transformation kommuniziert und begleitet? In der Realität existieren diese beiden Ebenen oft nebeneinander, ohne sich wirklich zu berühren.


Die Konsequenz zeigt sich schnell: Leistungsstarke Tools werden eingeführt, ohne dass die zugrunde liegenden Prozesse angepasst werden. Ein Unternehmen implementiert etwa ein KI-System zur Dokumentenverarbeitung – grundsätzlich eine sinnvolle Entscheidung. Doch wenn die anschließenden Abläufe unverändert bleiben und weiterhin manuelle Zwischenschritte erforderlich sind, entsteht kein echter Fortschritt. Die Technologie beschleunigt einzelne Arbeitsschritte, während der Gesamtprozess ineffizient bleibt.


Das Problem liegt also nicht in der KI selbst, sondern in der Art, wie Organisationen mit ihr arbeiten.


Strukturelle Fehler im KI Change Management


Auffällig ist: Die meisten Fehler in KI-Projekten sind keine Einzelfälle. Sie wiederholen sich – branchenübergreifend, unabhängig von Unternehmensgröße oder Budget. Der Grund dafür liegt nicht in mangelndem Wissen, sondern in strukturellen Mustern. Organisationen reagieren auf KI mit Logiken, die aus einer anderen technologischen Ära stammen – und genau daraus entstehen systematische Verzerrungen.


Zu viel Change, zu schnell

Viele KI-Initiativen entstehen nicht aus strategischer Klarheit, sondern aus Druck: Wettbewerber investieren, Medien berichten, intern entsteht das Gefühl, den Anschluss nicht verlieren zu dürfen. Die Reaktion darauf ist oft Aktionismus. Mehrere Tools werden parallel eingeführt, Teams experimentieren gleichzeitig, erste Use Cases werden skaliert, bevor sie wirklich verstanden sind.


Das Problem ist dabei nicht die Geschwindigkeit an sich, sondern die fehlende Sequenzierung. Veränderung wird nicht aufgebaut, sondern überlagert. In der Folge entsteht kein echter Fortschritt, sondern ein Zustand permanenter Umstellung, in dem Mitarbeitende mehr Energie in Orientierung investieren als in tatsächliche Umsetzung.


Unterschätzung des Lernaufwands

Ein zentraler Denkfehler liegt darin, KI wie klassische Software zu behandeln. Während frühere Systeme Prozesse standardisiert und vereinfacht haben, erhöht KI in vielen Fällen die Anforderungen. Ergebnisse sind nicht eindeutig richtig oder falsch, sondern müssen eingeordnet, überprüft und kontextualisiert werden. Genau darin liegt ihr Nutzen – und gleichzeitig ihre Herausforderung.


Organisationen reagieren darauf jedoch oft mit bekannten Mustern: ein Training, ein Workshop, eine Einführung. Was entsteht, ist eine strukturelle Lücke zwischen dem, was technisch möglich wäre, und dem, was im Alltag tatsächlich genutzt wird. Diese Lücke verschwindet nicht von selbst, weil sie kein Wissensproblem ist, sondern ein Kompetenzthema.


Widersprüchliche Steuerungssysteme

Besonders problematisch sind nicht einzelne Fehler, sondern Widersprüche im System. Effizienz wird gefordert, aber die Frage nach dem Workload bleibt unbeantwortet. Eigenverantwortung wird betont, aber Entscheidungsräume werden nicht erweitert. Innovation wird gewünscht, aber Fehler weiterhin sanktioniert.


Diese Inkonsistenzen sind kein Randphänomen, sondern ein strukturelles Problem: Neue Anforderungen treffen auf alte Steuerungslogiken. Für Mitarbeitende entsteht dadurch kein klarer Rahmen, sondern ein Spannungsfeld. Sie passen sich an – aber innerhalb bestehender Muster. Genau deshalb bleibt der tatsächliche Effekt von KI oft hinter den Erwartungen zurück.


Alte Prozesse bleiben die Referenz

Ein besonders hartnäckiger Mechanismus ist die implizite Priorisierung bestehender Abläufe. Prozesse geben Sicherheit, sie regeln Zuständigkeiten und schaffen Verlässlichkeit. Deshalb werden sie selten grundsätzlich infrage gestellt. Stattdessen wird KI in diese Strukturen integriert – auch dann, wenn sie dafür nicht ausgelegt sind.


Das führt zu hybriden Abläufen, in denen neue Technologie und alte Logik nebeneinander existieren. KI übernimmt einzelne Schritte, während der Gesamtprozess unverändert bleibt. Die Folge sind Medienbrüche, doppelte Arbeit und sinkendes Vertrauen. Dass ein Großteil der KI-Projekte genau an dieser fehlenden Integration scheitert, ist daher kein Zufall, sondern systemisch.


Erfolg wird falsch gemessen

Der vielleicht subtilste, aber wirksamste Fehler liegt in den Kennzahlen. Viele Organisationen messen weiterhin das, was sie schon immer gemessen haben: Output, Geschwindigkeit, Menge. Diese Logik stammt aus einer Zeit, in der Produktion der Engpass war.


Mit KI verschiebt sich dieser Engpass jedoch: Inhalte lassen sich nahezu beliebig skalieren, Analysen schneller erstellen, Aufgaben effizienter erledigen. Wenn Output weiterhin die zentrale Kennzahl bleibt, führt das zwangsläufig zu einer Verschiebung der Erwartungen: Mehr wird möglich – also wird mehr erwartet. Effizienzgewinne werden nicht als Entlastung genutzt, sondern in Mehrarbeit übersetzt.


Die Psychologie der stillen Erwartungssteigerung


Die Produktivitätsversprechen rund um KI sind nicht nur Marketing – sie sind gut belegt. Studien zeigen, dass generative KI je nach Anwendungsfall Effizienzgewinne von 20 bis 40 Prozent ermöglichen kann. Auch eine viel zitierte Untersuchung von Stanford University und MIT kommt zu ähnlichen Ergebnissen: Im Kundenservice stieg die Produktivität durch KI-Unterstützung im Schnitt um 14 Prozent – bei weniger erfahrenen Mitarbeitenden sogar deutlich stärker.


Auf den ersten Blick ist das eine klare Erfolgsgeschichte. In der Praxis zeigt sich jedoch ein anderes Bild, denn: Gewonnene Zeit bleibt in Organisationen selten ungenutzt. Sie wird absorbiert – oft schneller, als sie entsteht. Dieses Muster ist aus der Ökonomie bekannt und wird als Rebound-Effekt beschrieben: Effizienzgewinne führen nicht zu weniger Nutzung, sondern zu mehr.


Übertragen auf den Arbeitsalltag bedeutet das: Was schneller geht, wird häufiger gemacht. Und was häufiger gemacht wird, wird irgendwann erwartet. Genau hier beginnt die stille Erwartungssteigerung: Was gestern noch als Effizienzgewinn galt, wird heute zur Selbstverständlichkeit. Eine Analyse ist nicht mehr „schnell erstellt“, sondern einfach rechtzeitig geliefert. Ein Text ist nicht mehr „effizient produziert“, sondern gehört zum Standardoutput. Dieser Übergang passiert selten bewusst, sondern schleichend – und genau darin liegt seine Wirkung.


Forschung und Marktanalysen zeigen, dass dieser Effekt eng mit der Art zusammenhängt, wie Organisationen Leistung messen. In vielen Unternehmen dominieren Output-Kennzahlen: Anzahl bearbeiteter Vorgänge, produzierte Inhalte, abgeschlossene Tasks. Wenn KI dazu führt, dass mehr Output in kürzerer Zeit möglich ist, verschiebt sich automatisch die Benchmark.


Ohne Anpassung dieser Messgrößen entsteht ein struktureller Druck zur Verdichtung von Arbeit. Analysen von Gartner sprechen in diesem Zusammenhang von „Workload Compression“ – einer Entwicklung, bei der Aufgabenmenge und -tempo steigen, ohne dass die Komplexität sinkt.


Dazu kommt ein psychologischer Mechanismus, der im Alltag besonders wirksam ist: Was sichtbar möglich ist, wird als selbstverständlich verfügbar wahrgenommen. Wenn ein Team weiß, dass sich eine Aufgabe mit KI in der Hälfte der Zeit erledigen lässt, wird diese Zeitersparnis implizit eingepreist – auch dann, wenn sie nie offiziell eingefordert wurde.


Für Mitarbeitende entsteht daraus eine paradoxe Situation. Einerseits verfügen sie über Werkzeuge, die ihre Arbeit tatsächlich erleichtern können. Andererseits verlieren sie genau dadurch einen Teil ihrer Argumentationsbasis, um Arbeitslast zu begrenzen. Wer schneller arbeiten kann, gilt schneller als verfügbar. Die Folge ist eine schleichende Normalisierung von höherer Leistung, ohne dass diese je explizit vereinbart wurde.


Genau an diesem Punkt wird verständlich, warum viele Reaktionen auf KI nicht von Begeisterung, sondern von Zurückhaltung geprägt sind. Was auf den ersten Blick wie Widerstand wirkt, ist bei genauerem Hinsehen oft eine logische Konsequenz dieser Dynamik – und damit ein Signal, das man ernst nehmen sollte.


Widerstand verstehen statt ignorieren


Widerstand gegen KI wird in vielen Organisationen reflexartig als Problem eingeordnet – als mangelnde Offenheit oder fehlende Kompetenz. In der Praxis ist er jedoch häufig eine nachvollziehbare, ja rationale Reaktion auf Unsicherheit.

Denn KI verändert nicht nur Werkzeuge, sondern greift tiefer: Sie verschiebt Aufgaben, Verantwortlichkeiten und damit auch das eigene Selbstverständnis im Job.


Studien zeigen seit Jahren, dass technologische Veränderungen genau dort Widerstand erzeugen, wo sie als Bedrohung für die eigene Rolle wahrgenommen werden. Es geht also weniger um die Technologie selbst als um die Frage, was sie für die eigene Position bedeutet. Vor diesem Hintergrund ist Skepsis kein Störfaktor, sondern ein Hinweis darauf, dass zentrale Fragen noch unbeantwortet sind.


Das eigentliche Problem: Vertrauen

Im Kern vieler Widerstände steht eine einfache, oft unausgesprochene Frage: Wird meine Arbeit durch KI weniger – oder mehr?


Diese Unsicherheit ist nicht unbegründet. Wie bereits beschrieben, führen Effizienzgewinne in vielen Fällen nicht zu Entlastung, sondern zu einer Verdichtung von Arbeit. Gleichzeitig bleibt oft unklar, wie sich Rollen langfristig entwickeln. Wird KI zur Unterstützung eingesetzt – oder zur schrittweisen Substitution?


Studien aus der Arbeitspsychologie und Organisationsforschung zeigen, dass genau diese Mischung aus Unklarheit und steigenden Erwartungen ein zentraler Treiber für Widerstand ist. Mitarbeitende reagieren nicht auf die Technologie an sich, sondern auf das wahrgenommene Risiko für ihre eigene Zukunft.


Sicherheit entsteht durch Klarheit, nicht durch Beschwichtigung

Viele Organisationen versuchen, diese Unsicherheit mit beruhigenden Botschaften aufzufangen: „Das ist nur ein Tool“, „Niemand wird ersetzt“, „Im Grunde ändert sich nicht viel“. Diese Kommunikation ist verständlich, aber oft wenig wirksam: Sie blendet aus, dass sich sehr wohl etwas verändert.


Wirksamer ist daher ein anderer Ansatz: Klarheit statt Beschwichtigung. Das bedeutet, offen zu benennen, welche Aufgaben sich verändern, welche Kompetenzen künftig wichtiger werden und welche Rolle Mitarbeitende in diesem neuen Setting spielen. Wer nachvollziehen kann, warum sich etwas verändert und wo der eigene Platz darin ist, entwickelt eher Bereitschaft, diesen Weg mitzugehen.


Die Rolle von Führung: Verstärker oder Blockierer

Eine zentrale Rolle spielt dabei die direkte Führungskraft. Sie ist die Übersetzerin zwischen Strategie und Alltag – und damit entscheidend dafür, wie Veränderung tatsächlich erlebt wird. Untersuchungen zeigen, dass Führungskräfte einen erheblichen Einfluss auf die Veränderungsbereitschaft ihrer Teams haben. Je klarer sie Orientierung geben, Unsicherheiten ansprechen und selbst mit der neuen Technologie umgehen, desto höher ist die Akzeptanz im Team.


Umgekehrt entsteht Widerstand häufig dort, wo Führungskräfte selbst unsicher sind oder widersprüchliche Signale senden: wenn Effizienz gefordert wird, aber keine Klarheit über den Workload besteht, oder wenn neue Tools eingeführt werden, ohne deren Nutzen im konkreten Arbeitskontext zu erklären.

Gerade bei KI orientieren sich Teams stark am Verhalten ihrer Führungskraft. Nicht an Präsentationen, sondern daran, wie im Alltag damit gearbeitet wird.


Widerstand als Ressource

Ein Aspekt, der in vielen Organisationen unterschätzt wird: Widerstand kann wertvoll sein. Mitarbeitende, die kritisch auf KI blicken, bringen oft genau jene Perspektiven ein, die für eine funktionierende Integration entscheidend sind. Sie weisen auf Prozesslücken hin, hinterfragen Ergebnisse und machen Risiken sichtbar, die in der Euphorie leicht übersehen werden.


Studien zeigen, dass Organisationen erfolgreicher sind, wenn sie kritische Stimmen früh einbinden, statt sie zu übergehen. Widerstand wird dann nicht zum Hindernis, sondern zu einer Form von Feedback. Damit verschiebt sich die Perspektive: Weg von der Frage, wie man Widerstand „beseitigt“, hin zu der Frage, was er sichtbar macht – und wie man diese Hinweise produktiv nutzen kann.


Was Change Management bei KI bedeutet – und was nicht


KI lässt sich nicht „einführen“ wie ein neues Tool. Sie verändert nicht nur, womit gearbeitet wird, sondern wie gearbeitet wird. Genau deshalb führt ein reduziertes Verständnis von Change so häufig in die Sackgasse. In vielen Organisationen zeigt sich das sehr konkret: Es wird versucht, möglichst schnell einheitliche Lösungen zu schaffen. Ein Tool wird ausgewählt, ausgerollt und dann idealerweise von allen genutzt.


Was nach Klarheit klingt, übersieht einen entscheidenden Punkt – nämlich, dass unterschiedliche Rollen auch unterschiedliche Anforderungen haben. Nicht jedes Tool passt zu jeder Aufgabe, und nicht jede Aufgabe profitiert im selben Maß von KI.


Ein ähnliches Muster zeigt sich beim Thema Schulung. Auch hier dominiert oft die Logik klassischer IT-Einführungen: einmal erklären, dann läuft es. In der Praxis funktioniert das nicht. Der Umgang mit KI ist kein klar umrissenes Skillset, das man einmal erlernt und dann beherrscht. Er entwickelt sich mit der Anwendung, mit den Fragen, mit den Unsicherheiten, die im Alltag entstehen. Lernen wird damit zu einem fortlaufenden Prozess – nicht zu einem Termin im Kalender.


Beide Ansätze haben etwas gemeinsam: Sie behandeln KI wie ein Werkzeug, das man ergänzt. Was dabei übersehen wird, ist, dass KI in vielen Fällen nicht einfach bestehende Arbeit effizienter macht, sondern sie strukturell verändert.


Genau hier setzt echtes Change Management an: Indem Arbeit bewusst neu gestaltet wird, und zwar auf mehreren Ebenen gleichzeitig. Prozesse müssen überprüft und oft grundlegend überarbeitet werden, weil KI neue Möglichkeiten schafft, aber auch neue Schnittstellen. Rollen verschieben sich, weil Aufgaben anders verteilt werden oder sich Verantwortlichkeiten verändern.


Eine der zentralen Fragen dabei lautet: Wie verändern sich unsere Arbeitsabläufe konkret?


Nicht abstrakt, sondern ganz praktisch, im Alltag: Wer macht was anders als bisher? Welche Schritte entfallen, welche kommen dazu? Und wo entstehen neue Abhängigkeiten? Solange diese Fragen unbeantwortet bleiben, entsteht ein typisches Muster: Die Technologie ist vorhanden, die Nutzung bleibt hinter den Erwartungen zurück – und die Ursachen werden bei den Mitarbeitenden gesucht, nicht im System.


Fünf Ansätze für einen echten Wandel


Die gute Nachricht ist, dass sich erfolgreiche KI-Transformationen erstaunlich klar voneinander unterscheiden lassen. Sie folgen keinen geheimen Methoden, sondern setzen konsequent dort an, wo viele andere Projekte ausweichen – bei Struktur, Klarheit und Führung.


Klarheit über Workload statt bloßer Effizienz

In vielen Unternehmen wird KI primär über Effizienz erzählt: schneller, mehr, günstiger. Was dabei häufig offen bleibt, ist die entscheidende Anschlussfrage – nämlich, was mit der gewonnenen Zeit tatsächlich passiert. Genau hier entsteht ein Vakuum, das sich im Alltag rasch füllt. Nicht durch bewusste Entscheidungen, sondern durch implizite Erwartungen: Wer schneller arbeiten kann, bekommt mehr Aufgaben.


Schritt für Schritt verschiebt sich so das Leistungsniveau, ohne dass es je klar ausgesprochen wurde. Organisationen, die dem aktiv entgegenwirken, tun etwas scheinbar Einfaches – sie benennen explizit, wie Effizienzgewinne genutzt werden sollen. Für Qualität, für Innovation, für strategische Themen oder auch für echte Entlastung. Diese Klarheit ist kein „Soft Factor“, sondern eine zentrale Steuerungsgröße.


Prozess-Redesign statt Tool-Ausrollung

Ein zweiter Hebel liegt in der Reihenfolge der Entscheidungen. Viele Unternehmen starten mit der Tool-Auswahl und versuchen anschließend, diese in bestehende Abläufe einzupassen. Das Ergebnis sind oft hybride Prozesse, die weder effizient noch stabil sind.


Erfolgreiche Organisationen drehen diese Logik um. Sie beginnen bei den Prozessen – konkret und operativ: Wo entstehen heute Reibungsverluste? Wo wird doppelt gearbeitet? Wo gehen Informationen verloren? Erst auf dieser Basis wird entschieden, wo KI sinnvoll eingesetzt werden kann. Wer Prozesse nicht neu denkt, beschleunigt mit KI oft nur bestehende Ineffizienzen.


Rollen aktiv neu definieren

Mit veränderten Prozessen verschieben sich zwangsläufig auch Rollen. Genau hier bleibt es in vielen Organisationen erstaunlich vage. KI generiert Inhalte, analysiert Daten, bereitet Entscheidungen vor – aber wer trägt letztlich die Verantwortung? Wer prüft Ergebnisse? Und wer greift ein, wenn etwas nicht passt?


Ohne klare Antworten entstehen Grauzonen, die im Alltag zu Unsicherheit führen. Erfolgreiche Unternehmen reagieren darauf nicht mit punktuellen Anpassungen, sondern mit einer bewussten Neudefinition von Rollen: weniger reine Ausführung, mehr Bewertung, mehr Kontext, mehr Entscheidungskompetenz.


Messen, was tatsächlich zählt

Ein besonders wirksamer, aber oft unterschätzter Hebel liegt in den Kennzahlen. Solange Unternehmen weiterhin primär Output messen, verstärkt KI automatisch den Druck zur Mehrleistung. Wenn doppelt so viele Inhalte produziert werden können, wird genau das schnell zum neuen Maßstab.


Damit verschiebt sich die Logik von „Effizienzgewinn“ zu „Leistungssteigerung“ – mit allen bekannten Nebenwirkungen. Organisationen, die KI erfolgreich einsetzen, verändern daher bewusst ihre Messsysteme. Sie rücken Wirkung statt Aktivität in den Mittelpunkt: Qualität von Ergebnissen, Beitrag zur Wertschöpfung, strategischer Impact.


Struktur schaffen: Die AI Practice

Damit diese Veränderungen nicht punktuell bleiben, braucht es eine organisatorische Verankerung. Viele erfolgreiche Unternehmen etablieren dafür KI Change Management: Wenn die Technologie das kleinste Problem isteine sogenannte „AI Practice“ oder ein „AI Center of Excellence“. Dahinter steht keine reine IT-Funktion, sondern eine Schnittstelle zwischen Technologie, Fachbereich und Change.


Diese Einheit priorisiert Anwendungsfälle, definiert Standards, begleitet Teams bei der Umsetzung und sorgt dafür, dass Lernen systematisch stattfindet. Ohne eine solche Struktur bleibt KI in vielen Organisationen fragmentiert – einzelne Teams experimentieren, aber es entsteht kein nachhaltiger Effekt. Mit einer klaren Verankerung hingegen entwickelt sich Schritt für Schritt eine organisationale Fähigkeit, mit KI zu arbeiten, statt nur einzelne Tools zu nutzen.


Was diese Hebel verbindet, ist ihre Konsequenz: Sie setzen nicht bei der Technologie an, sondern bei der Art, wie Arbeit organisiert wird. Genau darin liegt ihr größter Hebel – und gleichzeitig ihre größte Herausforderung, denn: Eine organisationale Fähigkeit ist nicht wie ein Produkt, das man fertigstellt. Sie lebt davon, dass sie kontinuierlich entwickelt wird. Und bei KI besonders deshalb, weil die Technologie selbst sich ständig verändert.


KI-Change als kontinuierlicher Prozess


Eine Illusion, die viele Unternehmen teilen: Das Versprechen, dass man irgendwann „fertig" ist. Mit der Implementierung, mit dem Change, mit der Transformation. Man rollt die Tools aus, man führt das Training durch, man etabliert Prozesse – und dann ist es getan. Die neue Normalität beginnt.


Das funktioniert nicht. Nicht bei KI.


Der Grund liegt in der Natur der Technologie selbst: KI entwickelt sich rasant weiter. Autonome KI-Agenten entstehen. Neue Modelle kommen monatlich auf den Markt. Das, was heute State-of-the-art ist, ist morgen veraltet. Die Technologie wird nicht stabil und bleibt dann so – sie wird ständig neu definiert. Ein Unternehmen, das denkt, es könne ein KI-Projekt „abschließen", wird sehr schnell feststellen, dass die Basis, auf der es aufgebaut hat, sich wieder verschoben hat.


Unternehmen, die das verstanden haben, bauen eine Lernkultur auf – nicht als Event, sondern als Grundmechanismus. Das heißt konkret: Sie schaffen Raum für Experimentieren, ohne dass Fehler sanktioniert werden. Sie etablieren regelmäßige Reflexionsprozesse, in denen die Erfahrung mit KI-Tools systematisch ausgetauscht wird. Sie bilden „Change Champions" aus den Fachabteilungen aus, die als glaubwürdige Multiplikatoren fungieren. Sie passen ihre Prozesse und Messsysteme regelmäßig an, weil sie wissen, dass das, was heute funktioniert, morgen optimiert werden kann.


Ja, das ist anstrengend, aber: Wer nicht ständig dem Trend hinterherlaufen will, kommt nicht darum herum, sich unbequeme Fragen zu stellen: Führt dich die Technologie, oder leitest du sie? Welche KI-Anwendungen unterstützen wirklich unseren Purpose? Welche sind bloße Beschäftigung? Welche verdichten Arbeit, ohne echten Mehrwert zu schaffen?


Diese Fragen erfordern Urteilskraft. Sie erfordern auch Mut – den Mut, Technologie nicht einzuführen, nur weil sie vorhanden ist. Den Mut, in einer KI-Euphorie zu sagen: Das passt nicht zu uns. Den Mut, Arbeit anders zu organisieren, statt nur schneller zu machen.


Das ist die Verschiebung, die jetzt passieren muss: Von der Technologie als Treiber hin zur Technologie als Werkzeug. Von der Frage „Wie schnell können wir das implementieren?" zur Frage „Wie gestalten wir eine bessere Arbeitsweise?" Von dem Glauben an das technologische Versprechen hin zu bewusster, kultureller Gestaltung.


Das ist nicht einfacher - aber nachhaltig.


Mit herzlichen Grüßen aus Wien 🙂


 
 
bottom of page