Digitalisierungsprozesse stoßen bei Mitarbeitern oft auf Ablehnung, überfordern und fühlen sich in der Implementierung zunächst kompliziert an. Das liegt entweder daran, dass sie als „ganz einfach“ verkauft werden (was sie nicht sind), oder sie werden von „Herrschaftswissen“ umweht. Oft entsteht dieser Eindruck aber auch, weil Mitarbeitende nicht richtig informiert und zu spät einbezogen werden.
Richtig angegangen, kann die Umstellung deutlich schmerzfreier erfolgen. Am besten ist es, wenn Teilbereiche sukzessive automatisiert und vollständig digitalisiert werden. Bei passender Software kann das fast gleitend geschehen; eine radikale Umstellung zu vieler Kernprozesse auf einmal ist dann nicht nötig. Damit wird auch die Gefahr von funktionalen Lücken oder Systemausfällen drastisch minimiert.
Wer klug ist, nutzt bereits zu Beginn das Potenzial und das Wissen aller Mitarbeiter, um Prozesse zu analysieren und zu hinterfragen. Das Erklären von Ziel und Weg schafft Transparenz und Vertrauen. Richtiges Onboarding fängt weit vor der Umsetzung an – und der eine oder andere Chef kann sicher noch etwas lernen, wenn er einfach mal zuhört. So fühlen sich die Mitarbeitenden ermutigt und ernst genommen.
Kluge Entscheider wählen zudem frühzeitig geeignete „Champions“ in den eigenen Reihen aus, welche die Idee unterstützen und den Umgang mit den Werkzeugen meistern. Wenn man im Zuge der digitalen Automatisierung einen neuen Blickwinkel auf die eigene Arbeit einnimmt, kann das auf allen Ebenen sehr erhellend sein. Der Erfolg stellt sich dann in vielfältigerer Weise ein als erwartet. Dann ist es vielleicht manchmal noch kompliziert, aber kein „Mist“ mehr.
Das mittlere Management steht in Change-Prozessen sprichwörtlich zwischen den Fronten und wird dort aufgerieben. Die Leitung fordert schnelle Ergebnisse, die jedoch wenig kosten dürfen. Die Mitarbeiter wissen oft zu wenig, sind verunsichert, sollen sich aber dennoch aktiv beteiligen. Das mittlere Management hat nun die Aufgabe, diese Gemengelage in robuste Lösungen zu übersetzen. Das kann nicht gut gehen – und geht es oft auch nicht. Ein Grund dafür: Aufgaben und Ziele sind unklar. Mal wird nicht gefragt, mal wird nichts gesagt.
Soll der „Squeeze der Mitte“ vermieden werden, muss das Management über das nötige Wissen verfügen und führen dürfen. Dazu muss es nicht nur die Ziele kennen, sondern auch die Werkzeuge, die zum Einsatz kommen. Zudem muss es in die Lage versetzt werden, flexibel auf die Ergebnisse der Umsetzung zu reagieren. Prozesse müssen laufen!
Leider versteht jemand nicht automatisch alles besser, nur weil sein Gehalt höher ist. Man darf jedoch erwarten, dass Führungskräfte Verantwortung übernehmen, sich Themen zu eigen machen und für sie einstehen. Aber auch Manager brauchen Zeit, um neue Technologien und deren Einsatzmöglichkeiten wirklich zu durchdringen. Die Verantwortung der Leitung ist es, diese Zeiträume zu schaffen, den Support langfristig sicherzustellen und eigene „Champions“ heranzubilden. Dazu braucht es Begleitung und Hilfe. Klassische Berater gehen irgendwann. Kunden sollten daher einen Partner finden, der sie langfristig mit Know-how in allen Transformations- und Change-Schritten begleiten kann – weit über Kick-offs und erste Schulungen hinaus.
Automatisierung und Zeitersparnis werden oft in einem Atemzug genannt. Als würde ein Schalter umgelegt und dann wäre alles schneller, besser, effizienter. Genau das führt oft dazu, dass Erwartungen enttäuscht werden und Ängste Bestätigung finden.
Denn erst einmal bedeutet Automatisierung Arbeit. Vor dem Erfolg steht mindestens die Prozessanalyse mittels „Process Mining“. Oft beginnt unbemerkt ein ganzer Change-Prozess, bei dem kaum ein Stein auf dem anderen bleibt: Manchmal ist der Weg hart, oft konfliktbeladen und selten sofort wirksam.
Aber diese Veränderung der Arbeit und der frische Blick darauf sind genau das, was sich lohnt. Nicht gleich in Euro, aber sofort an Erkenntnis! Das genaue Hinschauen bei Prozessen, das Neu- und Anders-Verstehen ist essenziell, um besser zu werden – auch ganz ohne bereits digital und automatisch zu sein. Es ist die Bedingung für dauerhafte Wettbewerbsfähigkeit. Prozessoptimierung ist ein wesentlicher Schritt zu mehr Produktivität, Effizienz und zur Zufriedenheit aller Prozessbeteiligten. Ob Leistungserbringer oder Kunde, spielt dabei keine Rolle.
Wer also die Zeit investiert, Prozesse sinnvoll zu automatisieren, nachdem sie überprüft und eventuell neu gedacht wurden, gewinnt später an Geschwindigkeit, Genauigkeit und Motivation. Alte Gewohnheiten sind wie ein alter Pulli: bequem, aber wer will damit schon zum Geschäftsessen?
Die Ära der einfachen Chatbots ist vorbei. Wir befinden uns mitten im Sprung zur Agentic AI und kognitiven Automatisierung. Doch während die technologische Entwicklung galoppiert, stehen Unternehmen vor einer Grundsatzentscheidung: Setzen wir auf maximale Flexibilität und radikale Autonomie oder auf kontrollierte, kognitive Prozesssicherheit?
Heute werfen wir einen Experten-Blick auf zwei der spannendsten (und gegensätzlichsten) Lösungen am Markt: das Open-Source-Projekt OpenClaw und die kognitive KI-Lösung EMMA.
1. OpenClaw: Der Autonome Agent im „Vibe Coding“-Stil
OpenClaw (ehemals Clawdbot) ist das aktuelle Enfant Terrible der KI-Szene. Initiiert von Peter Steinberger, geht dieses Tool einen Schritt weiter als ChatGPT & Co: Es übernimmt auf Wunsch die komplette Kontrolle über den Rechner.
Die Vorteile: Grenzenlose Freiheit
Volle Handlungsfähigkeit: OpenClaw ist nicht nur ein Textgenerator, sondern ein KI-Agent. Er bedient Programme, verwaltet Dateien und führt Workflows autonom aus.
Modell-Agnostisch: Sie können wählen, welches LLM (Large Language Model) im Hintergrund die Befehle gibt – ob GPT-4, Claude oder lokale Modelle.
Persistentes Gedächtnis: Dank einer integrierten Datenbank lernt OpenClaw mit der Zeit dazu und behält Kontexte über lange Zeiträume bei.
Open Source & Community: Das Projekt entwickelt sich rasant. Neue „Skills“ werden ständig hinzugefügt.
Die Nachteile: Ein riskantes Spiel
Sicherheitsrisiken: OpenClaw wird oft als „die gefährlichste Software der Welt“ bezeichnet. Da sie vollen Zugriff auf das Betriebssystem hat, können Sicherheitslücken (wie die jüngst diskutierten Codeschmuggel-Lücken) fatale Folgen haben.
Komplexität im Setup: Ohne technisches Verständnis (Kommandozeile, API-Keys) ist OpenClaw kaum zu bändigen.
Kontrollverlust: In einem professionellen Umfeld ist die „Blackbox“-Natur eines autonomen Agenten, der eventuell eigenständig Käufe tätigt oder Daten löscht, ein Albtraum für die Compliance.
2. EMMA: Die kognitive Whitebox-Lösung
Auf der anderen Seite steht EMMA, die kognitive KI-Lösung von Wianco OTT Robotics. EMMA ist als „digitale Mitarbeiterin“ konzipiert, die repetitive Aufgaben so erledigt, wie es ein Mensch tun würde – jedoch mit der Präzision einer Maschine.
Die Vorteile: Stabilität und Sicherheit
On-Premise & DSGVO-konform: EMMA läuft lokal auf Ihrem System. Keine Daten verlassen das Unternehmen, was sie ideal für Verwaltungen und hochsensible Branchen macht.
Echte No-Code-Lösung: Fachbereiche können EMMA ohne IT-Kenntnisse innerhalb von zwei Tagen trainieren. Man zeigt ihr den Prozess am Bildschirm, und sie „versteht“ visuell, was zu tun ist.
Schnittstellen-Unabhängigkeit: EMMA benötigt keine APIs. Sie bedient bestehende Software (Legacy-Systeme) genau wie ein menschlicher Mitarbeiter über die Benutzeroberfläche.
Revisionssicherheit: Als „Whitebox-KI“ dokumentiert EMMA jeden Schritt per Screenshot und Protokoll. Fehlentscheidungen sind jederzeit nachvollziehbar.
Die Nachteile: Die Grenzen der Struktur
Statik: EMMA ist hervorragend in vordefinierten Prozessen. Für spontane, kreative Ad-hoc-Aufgaben, wie sie ein Agent (OpenClaw) bewältigt, ist sie weniger flexibel.
Initialaufwand: Jeder Prozess muss explizit trainiert werden. EMMA „fantasiert“ nicht – was gut für die Sicherheit, aber limitierend für die Spontaneität ist.
Kostenfaktor: Mit Lizenzgebühren im vierstelligen Bereich pro Jahr ist sie eine Investition für Unternehmen, kein Spielzeug für Privatanwender.
Der direkte Vergleich
Feature
OpenClaw
EMMA (Wianco OTT)
Primärer Fokus
Autonome Agenten-Aktionen
Prozessautomatisierung (RPA+)
Sicherheit
Hochriskant (Experimental)
Sehr hoch (On-Premise)
Bedienung
CLI / Progger-Kenntnisse
Visuelles No-Code
Flexibilität
Extrem hoch
Prozessgebunden
Datenschutz
Modellabhängig (oft Cloud)
Lokal (100% DSGVO)
Fazit: Welches Werkzeug für welchen Zweck?
Als Experten-Urteil lässt sich festhalten: OpenClaw ist das perfekte Labor für alle, die die Grenzen der KI-Autonomie austesten wollen. Es ist ideal für Tech-Pioniere und komplexe, sich ständig ändernde Workflows im privaten oder experimentellen Umfeld.
EMMA hingegen ist das Rückgrat für die moderne Business-Automatisierung. Wo Fehler keine Option sind und Datenschutz an erster Stelle steht (Personalwesen, Buchhaltung, öffentliche Verwaltung), ist sie die deutlich reifere und sicherere Wahl. Sie ersetzt nicht das Denken, aber sie befreit Ihre besten Köpfe von der Tyrannei des Repetitiven.
Unser Rat: Starten Sie mit EMMA für Ihre Kernprozesse, um sofortigen ROI und Sicherheit zu gewinnen. Behalten Sie OpenClaw im Auge, um zu verstehen, wohin die Reise der agentenbasierten Zukunft geht.
Software ist oft ein bisschen wie ein unbequemes Familienmitglied. Man hat sich aneinander gewöhnt und sieht ihm oder ihr die Unzulänglichkeiten nach. Jede neue Software ist erstmal großartig oder doof, je nach Blickwinkel. Sicher ist: Jede Umstellung erhöht den Stress der Beteiligten und Betroffenen, von verlorenen Daten und Ausfallzeiten ganz zu schweigen. Sich verändernde Arbeitsumfelder verlangen aber oft angepasste Funktionalität. Software wächst hier mit und wird ersetzt oder sie bekommt ein so radikales Update, dass die Verwender sehr aufwändig Neues lernen müssen. Hier kann der Einsatz einer RPA-Lösung helfen. Meist nahtlos ins laufende System integriert, erweitert sie den Funktionsumfang bestehender Software durch die Auslagerung von Aufgaben an Drittsoftware, die im Hintergrund laufen kann. Viel mehr wird möglich, wenn RPA den Datenaustausch herstellt.
Auch die Sekundarkosten radikaler Systemeinschnitte für Umstellungszeiten und Hardware werden oft unterschätzt. Unternehmen sollten prüfen, ob der Einsatz eines RPA-Systems nicht sinnvoller ist, als Umstellungsrisiken in Kauf zu nehmen.
“Better safe than sorry”
ist ein Oldie, aber höchst relevant. Wenn „irgendeine KI“ besser ist als selbst zu denken, ist es schon zu spät.
Die Trennung von privater Erfahrung und professioneller Anwendung ist wichtiger denn je. Selbst der interne KI-Agent muss kritisch betrachtet werden. Die teils gedankenlose Anwendung von externer Software in Form von KI folgt leider den jahrelang gemachten Erfahrungen der Mitarbeitenden. In Unternehmen grassieren z.B. WhatsApp-Chat-Gruppen, über die wesentliche Inhalte und Daten ausgetauscht werden. Der Authenticator auf dem Privathandy verknüpft jetzt schon private Endgeräte mit Firmenkonten. Alles ganz normal? Nein. Denn Firmenstrukturen und private Strukturen sollten weitestgehend, wenn nicht gar vollständig, getrennt sein. Die Kosten für Firmenhandys sind im Zweifel deutlich geringer als eine Lösegeldforderung bei gehackten Servern. So gesehen ist das auch eine Art Versicherungsbeitrag. Aber gelebter Alltag ist leider, diesen Beitrag sparen zu wollen.
Eine Investition in lokale, firmeneigene IT-Infrastruktur, Personal mit Knowhow oder einen eng verknüpften, lokalen Dienstleister ist immer noch ein sinnvoller Beitrag zur Resilienz und verringerter Abhängigkeit. Und sie wissen dann wirklich ganz genau, wo ihre Daten sind und wer Zugriff hat.
Keine Panik!
IT-Abteilungen reagieren zuweilen mit leichter Paranoia, wenn wir RPA-Lösungen wie z.B.: #EMMA vorstellen. Dabei bieten sie überragende Sicherheit, erheblichen Zeitgewinn bei Implementierung und Nutzung und höchste Zuverlässigkeit.
Professionell und sicher sind so gesehen letztendlich nur Firmen-interne, lokalisierte Lösungen mit eingeschränkter Intelligenz für bestimmte Prozessarchitekturen. Sie sind der Schlüssel zu Datensicherheit in der Automatisierung und korrekten Ergebnissen und Effizienzsteigerung. Dabei sind Gateways zu LLM-KI für spezifische Aufgaben sicher sinnvoll und notwendig, sollten aber nicht den Kern der Lösung darstellen. Bei Prozessautomation sollten Lokalität, Revisionssicherheit und dokumentierte, klare Prozesse im Vordergrund stehen. „Das soll die KI machen“ ist keine nachhaltige Lösung, sondern verlagert nur das Problem in eine ungewisse Prozessarchitektur mit diffusen Ergebnissen.
Own this!
Eine Automatisierung und Digitalisierung sollte immer so sein, dass der Prozess-Owner auch die Prozesse bestimmt und nicht eine Automatik oder ein Preset. Denn sonst werden nicht ganz die gewünschten Funktionen abgebildet, sondern nur die „beliebtesten“. Natürlich: Je feiner die Stellschrauben der manuellen Beeinflussung sind, desto anspruchsvoller die Automatisierung. Aber alles, was gut ist, braucht auch Zeit. Das gilt auch weiterhin. Nur eben weniger als vorher. Also lohnt es immer, sich diese Mühe zu machen. Autopiloten, egal, wie sie heißen, stülpen ungefragt „best practice“-Lösungen in den Arbeitsalltag. Wenn diese Prozesse nicht nachvollzogen werden können, dann können sie auch nicht dokumentiert und auch nicht gepflegt werden. Von rechtlichen und regulatorischen Aspekten mal ganz abgesehen.
Automatisierung selbst denken, Abläufe selbst erstellen und anpassen macht Mühe, aber ergibt auch als einziger Sinn. Sich dabei helfen zu lassen ebenso. Aber man sollte als Process-Owner immer verstanden haben, was im Bauch der Bestie passiert. Sonst frisst sie einen womöglich.
Nicht einfach schlechte Prozesse digitalisieren
Viele Prozesse erhalten erst Aufmerksamkeit, wenn sie nicht funktionieren oder ein System umgestellt wird. Und selbst dann wird ein Ablauf einfach digitalisiert, ohne ihn nochmal genau zu betrachten. Dabei liegt in der Optimierung von Prozessen sehr viel Potenzial, egal, ob Sie nun analog weitergehen oder digitalisiert werden sollen. Die Crux liegt zumeist darin, die Zeit für die Überprüfung zu haben und den inneren Abstand. Denn schließlich sind Process-Owner ja auch stolz auf das, was sie besitzen oder gar selbst geschaffen haben. Je weiter oben auf der Leiter, desto größer der Stolz auf das Eigene und desto stärker können Beharrungskräfte echten Wandel verhindern. Selbstverständlich kann auch jeder andere im Unternehmen Prozessveränderungen aus anderen Gründen hintertreiben.
Daher ist es wichtig, bereits vor Prozessanalyse die Potentiale mit allen Beteiligten zu besprechen und möglichst Konsens herzustellen. Eine vorgeschlagene Lösung dann nicht einfach überzustülpen, sondern wirklich zu integrieren, bringt langfristig Ergebnisse. Oft sollte dieser Schritt durch Coaching oder Workshops begleitet werden, um eine externe, regulierende Kraft zu nutzen. Manchmal führen diese Erkenntnisse auch zu echten Change-Prozessen. Spätestens dann sollten sie begleitet werden.
Ist das freigegeben?
Ein großes Geschwindigkeitsproblem der Digitalisierung liegt in der Freigaben-Kultur oder eben deren Mangel. Unklare Prozess-Bedingungen führen oft dazu, dass vollständig automatisierbare Prozesse unterbrochen werden, um „nochmal draufzuschauen“. Dieser Bottleneck verlangsamt nicht nur die Abläufe, er ist auch gefährlich, wenn Momententscheidungen nicht nachvollziehbar getroffen werden. Und nicht jeder Prozess und Ablauf ist ein Sonderfall, im Gegenteil.
Oft wird er genau dazu gemacht, weil jemand nochmal draufschaut. Zuweilen hat das auch mit der Bedeutungsfindung des Draufschauenden zu tun. Sinnvolle Prozessautomatisierung berücksichtigt den notwendigen Grad an Eingriffen und Individualentscheidungen, indem sie mit den standardisierten Vorgängen die Hauptmenge der Arbeiten übernimmt, um für die wenigen Sonderfälle den Faktor Mensch die nötige Zeit zur schnellen Entscheidung zu schaffen.
Mit dem Brennglas
Der Einstieg in die Prozessdigitalisierung bietet die perfekte Möglichkeit, sich eigene, täglich gelebte Prozesse mal mit der Lupe anzuschauen. Um dann konsequent gemeinsam daran zu arbeiten, dass ein Prozess Ergebnis- und Effizienzorientiert in seine digitale Form übersetzt wird. Denn auch im Digitalen gilt: Ein schlanker Prozess ist ein guter Prozess. Er bietet Übersicht, bessere Fehlerminimierung und Geschwindigkeit. Und RPA-Programme wie #EMMA bieten hier die Möglichkeit, viele übersichtliche Einzelprozesse und funktionale und komplexe Prozessketten zu integrieren. Und auch hier gilt: „Do not over-engineer”. Wenn man den Prozess nicht nachvollziehen kann, ist er per se nicht gut. Denn nur, wenn Prozesse verstanden sind, können sie auch hinterfragt werden.
Verdeckte Prozesse aufspüren
Wenn Mitarbeiter das Unternehmen verlassen oder lange krank sind, werden plötzlich bisher unbemerkte Abläufe unterbrochen und Prozesse teils empfindlich gestört. Nachschub fehlt, Blumen sterben, der Kaffee geht aus, Lieferanten und Kunden beschweren sich. Und das sind die kleinen Probleme (bis auf den Kaffee!)
Wo welche Unterlagen und Informationen liegen, sollte eben nicht auf einem Post-It unter der Schreibtischablage notiert sein oder im Kopf des Mitarbeiters, sondern als Prozess, als Kerninformation zentral dokumentiert sein. Prozessabläufe und Ausnahmen müssen transparent hinterlegt sein. Ein Organigramm funktioniert nur mit konsequenter Prozessdokumentation. Das gilt auch und gerade für kleinere Unternehmen. Das müssen keine aufwändigen Diagramme sein, eine Niederschrift im Server mit klug benannten Dokumenten und einer sinnvollen Ordnerstruktur ist schon ein kleines WIKI.
Leider ist die Wichtigkeit des Prozesses (und damit der Dokumentationsdruck) zuweilen nach der Wahrnehmung von drei Arbeitsebenen gesetzt: Controlling, Legal, C-Level. Dabei geschehen außerhalb dieser Wahrnehmungsbereiche sehr viele Dinge, die in einer Prozesskette enorme Wirkung entfalten können. Stringente Prozessdokumentation wird so auch zu einer Kulturfrage für Unternehmen. Die Digitalisierung und Automatisierung bieten hier echte Chancen zu einem positiven Culture-Change!
Wissen bleibt Macht!
Informationsmanagement ist Teil des Prozessmanagements und sollte daher von der Firmenleitung auf allen Ebenen unterstützt, ermöglicht und eingefordert werden. Nicht nur bei der Frage, wo der leckere Kaffee herkommt, ist Wissen entscheidend.
Es muss Zeit geschaffen werden, Tätigkeiten zu betrachten und zu dokumentieren. Denn die Rationalisierung, also die Steigerung der Effizienz, systematische Verbesserung von Arbeitsabläufen, kommt so oder so. Fachkräftemangel und Dokumentationspflichten, zunehmende Digitalisierung sind besondere Treiber.
Es lohnt sich aber in jedem Fall, alle Prozesse anzuschauen, auch die vermeintlich klaren, einfachen, und sie zu dokumentieren. Denn das bietet Transparenz und Chancen zur kontinuierlichen Verbesserung. Dieses Prinzip kann man lernen und damit beginnen, aktuelle Abläufe zu prüfen, ob sie sinnvoll oder einfach nur „gewachsen“ sind. Bei der Digitalisierung der Geschäftsprozesse ist das unendlich hilfreich. Die Einführung von digitalen Assistenten wie #EMMA bietet hier eine ideale Möglichkeit, sich Stück für Stück zu rationelleren und effizienteren Modellen durchzuarbeiten und die Prozesstransparenz zu erhöhen. Sonst geht irgendwann das Wissen um die Kaffee-Quelle verloren und das muss natürlich verhindert werden!
Automatisierung und individuelle Betreuung von Kontakten.
Automatisierung trifft oft auf Widerstände mit dem Argument, dass dann eine individuelle Kundenbetreuung nicht mehr möglich ist, wenn „alles immer gleichläuft“. Sehr schnell wird die Ausnahme zur Norm erhoben und so behauptet, der gleiche Standard sei schlecht. Das Gegenteil ist der Fall, denn eine sinnvolle Entlastung durch Automatisierung führt dazu, dass die entscheidende Zeit zur individuellen Betreuung wieder entsteht.
Standard-Kern-Prozesse verhindern per se nicht, dass man alternative Lösungen im Unternehmen ermöglicht. Diese sollten immer vorhanden und gedacht sein. Denn die Abweichung von der Norm geschieht im Umgang mit Menschen unausweichlich.
Die Kernprozesse zu automatisieren, bedeutet große Entlastung. Stammdaten, Werte, Tabellen, Preise und Konditionen können bereits digital eingeben werden oder werden von Software eingelesen. Bestellungen und Versand werden automatisiert, ebenso wie Standard-Anschreiben etc.
Wer Sonderfälle effizient behandeln will, braucht Entlastung der Mitarbeiter durch digitale Assistenz. Und Strukturen, die das Vorsehen, Entscheider, die das aktiv vorleben, aber eben auch weitestgehend klug automatisierte Standardprozesse. Die gibt’s oft nicht im Katalog, sondern die müssen aus der gelebten Best Practice heraus in etwas Neues, effizientes überführt werden. Dann funktioniert es auch mit der Individualität bei weitestgehender Standardisierung.
Kundenbindung mit System
Jede Automatisierungslösung sollte an ein bestehendes CRM-System angebunden werden, damit alle Vorgänge und Kunden und Lieferanten eingepflegt sind. Das spart Zeit und verringert die Fehlerquote.
Wenn Systeme keine Schnittstellen untereinander aufweisen, kann eine Automatisierungs-Software wie #EMMA helfen. Sie kann auf verschiedenste Systeme zugreifen und formatunabhängig Daten austauschfähig machen. So können alle Systeme automatisch auf dem neuesten Stand sein.
Wenn alle Daten des Unternehmens und des Kunden verknüpft und verfügbar sind, wird Qualität fühlbar. Dort, wo der Kontakt ein Problem hat, kann dann ein Mensch mit Agilität und Empathie nun sein Problem lösen und individuelle Lösungen finden. Vielleicht sogar am Telefon mit echter, menschlicher Interaktion. Wer dann natürlich den Kundenkontakt auch einem Chatbot überlässt, könnte je nach Klientel über das Effizienzziel hinausgeschossen sein. Wenn der Unternehmensfokus auf vollständiger Standarisierung und Effizienz liegt, kann die Kundenfluktuation entsprechend sein und die Kostenrechnung zeigt dann, ob die ständige Akquise günstiger ist als die Bestandskundenpflege und die individuelle Betreuung im Einzelfall.
Daten und Abläufe digitalisieren, um Zeit für den Mensch-Mensch-Kontakt zu haben.
Wir von CCF AG haben mit viel Spaß und Intensität den Grundstein für die Automatisierung digitaler Prozesse gelegt. Unter Trainer @Richard Loch und unser CTO Carsten Recker waren dazu zwei volle Tage vor Ort.
Die Teilnehmer konnten die vielen Möglichkeiten von EMMA sehen und erleben. Dabei haben wir viel positives Feedback und Informationen zur den Abläufen mitgenommen. So sind Schulungen immer geben und nehmen.
Es geht dabei auch nie um die reine Funktion, sondern auch immer um den Sinn der Maßnahme und tiefes Prozessverständnis. Dann gelingt Automatisierung.
Unser Konzept ist es, jede Schulung so flexibel zu gestalten, dass wir unsere Teilnehmer dort abholen, wo sie stehen und spontane Fragen und konkrete Wünsche intensiv mit einbeziehen. Das Team von nova:med war so engagiert und proaktiv, dass wir viele Funktionen und Arbeitsweisen bereits konkret besprechen konnten. Das hast viel Spaß gemacht und war ein sehr effizienter Beginn für eine Effizienz-Software. Vielen Dank dafür!
Wir begleiten auch weiterhin die nova:med auf ihrem Weg und sind kompetenter Ansprechpartner und zuverlässiger Support über den Kick-Off hinaus. Wir freuen uns auf die Ergebnisse und erste Erfolge!
Danke nochmal an die Kollegen von nova:med für die aktive Teilnahme und das echte Engagement und die tolle Vorbereitung. Es hat wirklich Spaß gemacht und wir kommen gerne zum Deep-Dive wieder!
RPA (Robotic Process Automation) verspricht, wiederkehrende Aufgaben effizient und fehlerfrei zu erledigen. Doch bevor ein Bot programmiert wird, muss klar sein, was der Bot eigentlich tun soll – und ob der Prozess technisch dafür geeignet ist. Genau hier kommt die Prozessanalyse ins Spiel. Sie bildet die Grundlage jeder erfolgreichen Automatisierung.
Warum Prozessanalyse so wichtig ist
Viele Prozesse laufen seit Jahren “einfach so”. Mitarbeitende wissen aus Erfahrung, wo Daten liegen, welche Schritte nötig sind oder wann man eingreifen muss. Ein Bot hat dieses Erfahrungswissen nicht – er braucht klare, strukturierte Regeln. Die Prozessanalyse macht implizites Wissen explizit:
Sie zeigt auf, welche Arbeitsschritte genau stattfinden,
welche Systeme und Datenquellen beteiligt sind,
und wo potenzielle Fehlerquellen oder Ausnahmen auftreten.
Nur so kann entschieden werden, ob sich der Prozess für RPA eignet – und wie man ihn gegebenenfalls anpassen muss.
Wie Sie Ihren Prozess ideal beschreiben
Damit wir den Automatisierungsgrad eines Prozesses bewerten können, hilft eine möglichst präzise Beschreibung. Folgende Leitfragen haben sich in der Praxis bewährt:
1. Wo kommen die Daten her?
Aus welcher Quelle stammen die Informationen? (z. B. E-Mail, PDF, Excel, ERP-System, CRM, Webportal …)
Werden sie manuell erfasst oder automatisch erzeugt?
Gibt es ein einheitliches Format oder sind die Daten unstrukturiert (z. B. freie Texte, Scans)?
Müssen Daten aus mehreren Quellen zusammengeführt werden?
Beispiel: Eine Mitarbeiterin erhält täglich Bestellungen per E-Mail, öffnet die PDF-Anhänge und trägt die Inhalte manuell in ein ERP-System ein.
2. In welcher Form liegen die Daten vor?
Sind die Daten strukturiert (z. B. CSV, Datenbank, Formularfelder) oder unstrukturiert (z. B. Fließtext, eingescanntes Dokument)?
Gibt es Varianten oder Ausnahmen im Aufbau (z. B. unterschiedliche Layouts von Lieferanten)?
Müssen die Daten validiert oder bereinigt werden, bevor sie weiterverarbeitet werden können?
Beispiel: Bestelldaten liegen in einer Excel-Datei mit festen Spalten vor – ideal für RPA. Wenn jede Datei anders aussieht, ist zunächst eine Standardisierung sinnvoll.
3. Was passiert mit den Daten? (Prozessablauf)
Welche Schritte führt der Mensch aktuell aus? (z. B. öffnen, prüfen, kopieren, eintragen, weiterleiten …)
Welche Regeln entscheiden über den Ablauf? (z. B. “Wenn Betrag > 5.000 €, Freigabe erforderlich.”)
Gibt es Schleifen, Verzweigungen oder manuelle Prüfungen?
Wie wird mit Fehlern oder fehlenden Daten umgegangen?
Tipp: Dokumentieren Sie den Ablauf Schritt für Schritt, z. B. in einem einfachen Flowchart oder in Tabellenform.
4. Wohin gehen die Daten? (Zielsysteme)
In welchem System oder Format werden die Ergebnisse gespeichert?
Müssen Daten an andere Abteilungen, Systeme oder externe Partner übermittelt werden?
Gibt es Rückmeldungen oder Statusinformationen, die zurückfließen?
Beispiel: Nach der Erfassung werden Bestellungen im ERP verbucht und gleichzeitig eine E-Mail-Bestätigung an den Kunden gesendet.
5. Wie häufig läuft der Prozess ab und wie hoch ist das Volumen?
Wie oft wird der Prozess ausgeführt (täglich, wöchentlich, monatlich)?
Wie viele Datensätze oder Vorgänge fallen pro Durchlauf an?
Wie viel Zeit benötigt der manuelle Ablauf aktuell?
Diese Angaben helfen, den wirtschaftlichen Nutzen (ROI) der Automatisierung abzuschätzen.
Wie wir auf Basis Ihrer Beschreibung vorgehen
Nach Ihrer Prozessbeschreibung führen wir eine strukturierte Analyse durch:
Automatisierbarkeit: Technische Machbarkeit und Stabilität.
Komplexität: Anzahl der Schritte, Varianten, Systeme und Ausnahmen.
Wirtschaftlichkeit: Zeitersparnis, Skalierbarkeit und Investitionsaufwand.
Empfehlung: Ob und wie der Prozess automatisiert werden kann.
Sie erhalten eine klare Einschätzung – kein Marketingversprechen, sondern eine fundierte technische Bewertung.
Eine erfolgreiche RPA-Einführung beginnt nicht mit einem Bot, sondern mit einem verständlichen Prozess. Je besser der Ablauf beschrieben und dokumentiert ist, desto zielgerichteter kann eine Automatisierung entwickelt werden.
Was ist No‑Code‑Automatisierung? Automatisierung ohne Programmierkenntnisse: Workflows werden per Drag‑and‑drop visuell modelliert und konfiguriert.
Was sind No‑Code‑Anwendungen? Tools/Plattformen, mit denen Apps, Workflows oder Integrationen ohne Code erstellt werden.
Was ist Low Code und No‑Code? No‑Code: ganz ohne Coding. Low‑Code: minimale Skripte möglich, dafür flexibler. Beide beschleunigen Umsetzung und entlasten IT.
Was ist ein Beispiel für eine No‑Code‑KI? OCR-basierte Dokumentenerkennung, automatische Klassifikation von E‑Mails/Tickets, Textzusammenfassungen oder Formular‑Extraktion per vorkonfigurierter KI‑Bausteine.
Wie funktioniert No‑Code‑Automatisierung? Auslöser (Trigger) + Aktionen (Actions) + Bedingungen. Die Plattform führt die definierten Schritte serverseitig aus und protokolliert Ergebnisse.
Welche Vorteile hat No‑Code? Schnelle Umsetzung, geringe Einstiegshürden, niedrige Kosten, leichtere Wartung, mehr Eigenständigkeit in Fachabteilungen.
Wann lohnt sich No‑Code? Bei klaren, standardisierbaren Abläufen mit verfügbaren Schnittstellen/Connectoren, insbesondere für Fachbereiche mit begrenzten Entwicklerressourcen.
Beispiele für No‑Code‑Automatisierungen E‑Mail‑Marketing, Angebotserstellung aus Formularen, CRM/ERP‑Sync, Terminbestätigungen, Ticketanlage, Berichte/Benachrichtigungen, Datei‑Routings.
Wie sicher ist No‑Code? Achte auf DSGVO‑Konformität, Datenstandorte, Verschlüsselung, Rollen/Rechte, Secrets‑Management, Audit‑Logs, Backup/Restore.
Wie messe ich den Erfolg (KPIs)? Durchlaufzeit, Bearbeitungskosten pro Vorgang, Fehlerquote, Automatisierungsgrad, Nutzerzufriedenheit, Time‑to‑Value.
Sind No‑Code‑Plattformen DSGVO‑konform? Kommt auf Anbieter/Region an. Prüfe Auftragsverarbeitung, TOMs, Datenlokation, Subprozessoren.
Welche Abteilungen profitieren besonders? Vertrieb/Marketing, HR, Finance, Service/Support, Einkauf, IT‑Operations.
Wie dokumentiere ich Automatisierungen sinnvoll? Kurze Prozessbeschreibung, Trigger/Actions, Eingaben/Ausgaben, Fehlerpfade, Ownership, KPIs; Ablage versioniert und zentral.
Wie starte ich pragmatisch? Top‑3 Use Cases auswählen, kleinen Pilot bauen, Erfolg messen, Standards definieren, dann skalieren.
Was ist Low‑Code‑Automatisierung? Low‑Code‑Automatisierung kombiniert visuelle Workflow‑Erstellung mit der Möglichkeit, bei Bedarf Code einzubinden. So lassen sich auch komplexere Prozesse automatisieren, ohne komplette Softwareentwicklung.
Worin liegt der Unterschied zu No‑Code? No‑Code richtet sich an Nicht‑Programmierer und funktioniert rein grafisch. Low‑Code erlaubt zusätzlich eigene Skripte, Logik und API‑Aufrufe – ideal für technisch versierte Anwender oder Entwickler.
Welche Vorteile bietet Low‑Code?
Flexiblere Prozessgestaltung als bei No‑Code
Schnellere Entwicklung als bei klassischer Programmierung
Wiederverwendbare Komponenten
Bessere Integration in bestehende Systeme
Ideal für Citizen Developer mit IT‑Grundwissen
Wann ist Low‑Code sinnvoll? Wenn Prozesse individuelle Logik, API‑Verknüpfungen oder Datenmanipulation erfordern. Low‑Code schließt die Lücke zwischen einfacher No‑Code‑Automation und klassischer Softwareentwicklung.
Tools & Praxis
Welche Tools sind typische Low‑Code‑Plattformen?
n8n: Self‑hosted, visuelle Workflows mit optionalem JavaScript
Node‑RED: IoT‑ und API‑Flows, Open Source
Microsoft Power Automate: Low‑Code‑Workflows mit optionalen Funktionen
Appsmith / Retool: Low‑Code‑Frontend‑Tools für interne Anwendungen
Mendix / OutSystems: Enterprise‑Plattformen für komplexe Geschäftsprozesse
Wie funktioniert Low‑Code‑Automatisierung? Abläufe werden visuell modelliert. Bausteine für Trigger, Bedingungen, Datenoperationen und APIs können durch Code ergänzt werden. So entsteht eine flexible, schnell anpassbare Automatisierung.
Welche Prozesse eignen sich?
Datentransformation zwischen Systemen
Automatisierte Berichte und API‑Abfragen
Workflow‑Logik mit individuellen Bedingungen
Ereignisgesteuerte Prozesse (z. B. Webhook‑Trigger)
KI‑Integration über API‑Aufrufe
Wie sicher ist Low‑Code? Sicherheitsstandards hängen vom Tool ab. Wichtig sind API‑Authentifizierung, Secrets‑Management, Verschlüsselung, rollenbasierte Zugriffe und DSGVO‑konforme Speicherung.
Entwicklung & Betrieb
Wie lässt sich Low‑Code in bestehende Systeme integrieren? Über REST‑APIs, Webhooks oder Datenbank‑Connectoren. Viele Plattformen bieten native Integrationen für gängige Systeme (CRM, ERP, Cloud‑Dienste, Slack, Teams usw.).
Wie wird Low‑Code gewartet und versioniert? Gute Tools bieten Versionierung, Git‑Integration, Testumgebungen und visuelles Debugging. So lassen sich Änderungen nachvollziehen und stabil betreiben.
Wie misst man den Erfolg einer Low‑Code‑Lösung? Klassische KPIs: Entwicklungszeit, Fehlerrate, Automatisierungsgrad, Nutzerakzeptanz, Time‑to‑Value und Betriebskosten.
Welche Risiken gibt es? Zu starke Abhängigkeit von proprietären Plattformen, mangelnde Governance, unkontrolliertes Wachstum („Shadow IT“). Abhilfe schaffen klare Richtlinien und zentrale Verwaltung.
Zukunft & Ausblick
Wie entwickelt sich Low‑Code weiter? Low‑Code wächst stark durch KI‑Unterstützung, die Codevorschläge liefert oder Bausteine automatisch generiert. Kombination mit RPA und No‑Code führt zur Hyperautomatisierung.
Wird Low‑Code klassische Programmierung ersetzen? Nein, aber ergänzen. Low‑Code deckt Standardlogik und Schnittstellen ab – individuelle Software bleibt bei komplexen Anforderungen unverzichtbar.
Warum lohnt sich Low‑Code für Unternehmen? Weil es Geschwindigkeit, Flexibilität und Kosteneffizienz verbindet. Fachbereiche können Prozesse selbst anpassen, ohne lange Entwicklungszyklen abzuwarten.
Was versteht man unter RPA? – Definition & Prinzipien
RPA (Robotic Process Automation) bezeichnet Softwarelösungen, die menschliche Interaktionen mit digitalen Systemen nachahmen und regelbasierte, repetitive Aufgaben automatisieren. Die Bots führen Aktionen wie Mausbewegungen, Tastenanschläge, Datenextraktion und Systemwechsel aus – ohne dass ein menschlicher Nutzer manuell eingreifen muss.
Welche Arten von RPA gibt es?
Attended RPA: unterstützt Mitarbeiter bei Aufgaben.
Unattended RPA: arbeitet vollständig im Hintergrund.
Hybrid RPA: Kombination aus beiden.
Welche Prozesse lassen sich besonders gut mit RPA automatisieren?
Rechnungsbearbeitung
Datenmigration und -abgleich
Reportgenerierung
Onboarding von Mitarbeitern
Formularverarbeitung
Welche Beispiele gibt es für RPA in der Praxis?
Unternehmen setzen RPA z. B. ein, um Eingangsrechnungen automatisch zu prüfen, Kundendaten zu aktualisieren oder Logistikprozesse zu beschleunigen.
Wann ist RPA sinnvoll?
Ist RPA noch relevant?
Ja – gerade in Unternehmen mit vielen Standardprozessen.
Wann lohnt sich Automatisierung?
Wenn Prozesse regelbasiert, wiederkehrend und zeitaufwendig sind.
Was ist besser, RPA oder individuelle Programmierung?
RPA: schneller, einfacher für Fachabteilungen.
Individuelle Programmierung: flexibler, erfordert mehr Entwicklerressourcen.
RPA-Tools und Auswahl
Worauf sollte man beim Toolvergleich achten?
Lizenzmodell & Kosten
Integrationsmöglichkeiten
Skalierbarkeit
Benutzerfreundlichkeit
Monitoring und Support
ROI und Strategie
Wie berechnet man den ROI von RPA?
ROI = (Ersparnis durch Automation – Implementierungskosten) / Implementierungskosten.
Welche Branchen profitieren am meisten?
Banken & Finanzwesen
Versicherungen
Logistik
Gesundheitswesen
IT & Telekommunikation
Ist RPA eine Bedrohung für Arbeitsplätze?
Nicht unbedingt. Routinetätigkeiten werden ersetzt, aber Mitarbeiter können sich stärker auf komplexere und wertschöpfendere Aufgaben konzentrieren.
Ausblick & Trends
Kombination von RPA mit intelligenten Technologien
Hyperautomatisierung (End-to-End-Automation)
Low-Code / Citizen Development
Stärkere Cloud-Integration
Fokus auf Governance & Sicherheit
RPA – was ist das und warum lohnt es sich?
RPA ist ein wertvolles Werkzeug, um repetitive Aufgaben effizient zu automatisieren. Es ersetzt keine Intelligenz, sondern entlastet Mitarbeiter bei monotonen Tätigkeiten. Besonders im Zusammenspiel mit weiteren Technologien wird RPA auch in den kommenden Jahren eine Schlüsselrolle in der digitalen Transformation spielen.
Einwilligung verwalten
Um dir ein optimales Erlebnis zu bieten, verwenden wir Technologien wie Cookies, um Geräteinformationen zu speichern und/oder darauf zuzugreifen. Wenn du diesen Technologien zustimmst, können wir Daten wie das Surfverhalten oder eindeutige IDs auf dieser Website verarbeiten. Wenn du deine Einwillligung nicht erteilst oder zurückziehst, können bestimmte Merkmale und Funktionen beeinträchtigt werden.
Funktional
Immer aktiv
Die technische Speicherung oder der Zugang ist unbedingt erforderlich für den rechtmäßigen Zweck, die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Teilnehmer oder Nutzer ausdrücklich gewünscht wird, oder für den alleinigen Zweck, die Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz durchzuführen.
Präferenzen
Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Präferenzen erforderlich, die nicht vom Abonnenten oder Benutzer angefordert wurden.
Statistiken
Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt.Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Vorladung, die freiwillige Zustimmung deines Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht dazu verwendet werden, dich zu identifizieren.
Marketing
Die technische Speicherung oder der Zugriff ist erforderlich, um Nutzerprofile zu erstellen, um Werbung zu versenden oder um den Nutzer auf einer Website oder über mehrere Websites hinweg zu ähnlichen Marketingzwecken zu verfolgen.