KI & Workflow

KI-Agenten: Vom Prompt zur Delegation

KI-Agenten verändern nicht nur, wie wir mit Software sprechen. Sie verändern, wie wir Arbeit übergeben: mit Ziel, Kontext, Werkzeugen und Kontrolle.

von Oli Feiler · 4. Mai 2026

Wir sind längst im Copilot-Zeitalter angekommen. KI sitzt nicht mehr nur in einem separaten Chatfenster, das man öffnet wie eine Suchmaschine mit besserer Grammatik. Sie steckt in Office-Programmen, Entwicklungsumgebungen, Designwerkzeugen, Browsern, Wissensdatenbanken und zunehmend auch in Fachanwendungen. Sie schlägt vor, fasst zusammen, sortiert, analysiert, schreibt, prüft und ergänzt.

Und trotzdem arbeiten viele Menschen noch so, als wäre KI vor allem ein höfliches Textfeld.

Man ruft sie auf. Man erklärt ihr die Lage. Man formuliert eine Bitte. Man wartet. Man korrigiert. Man fragt nach. Selbst KI-affine Menschen bleiben oft auf dieser Ebene hängen. Nicht, weil sie zu wenig verstanden hätten, sondern weil der Prompt der bequemste Einstieg ist: schnell, direkt, kontrollierbar. Er gibt einem das Gefühl, die Maschine im Griff zu haben.

Aber Agentenarbeit beginnt an einer anderen Stelle.

Der Prompt ist nicht verschwunden. Er ist nur zu klein geworden für das, was jetzt möglich wird.

Vom Fragen zum Beauftragen

Ein normaler KI-Chat beantwortet eine Anfrage. Ein Agent verfolgt ein Ziel. Das klingt nach einer kleinen semantischen Verschiebung, ist aber in der Praxis ein Bruch.

Wer promptet, fragt: „Kannst du mir daraus eine Antwort formulieren?“

Wer einen Agenten beauftragt, sagt: „Prüfe die Anfrage, gleiche sie mit den vorhandenen Informationen ab, markiere offene Punkte, formuliere einen Antwortentwurf im passenden Ton und bereite die Entscheidung für die Freigabe vor.“

Der Unterschied liegt nicht in der Länge des Satzes. Er liegt in der Struktur der Aufgabe.

Ein Agent soll nicht nur Sprache erzeugen, sondern Zwischenschritte planen, Werkzeuge nutzen, Informationen einholen, Ergebnisse abgleichen und sichtbar machen, wo er sich unsicher ist. Damit nähert sich KI weniger dem Bild eines Gesprächspartners als dem eines digitalen Mitarbeiters an – allerdings eines Mitarbeiters ohne Weltwissen im menschlichen Sinn, ohne Verantwortungsgefühl und ohne institutionelles Gedächtnis, sofern wir ihm dieses nicht geben.

Genau deshalb reicht es nicht, Agenten mit besseren Prompts zu versorgen. Man muss lernen, sie besser zu beauftragen.

Delegation ist keine Magie. Sie ist eine Kulturtechnik.

Der Operator: Wer delegiert, bleibt verantwortlich

Das erste Missverständnis agentischer Systeme besteht darin, den Menschen weiterhin nur als „User“ zu sehen. User klicken, tippen, suchen, bestätigen. Wer mit Agenten arbeitet, wird aber eher zum Operator.

Der Operator bedient nicht nur ein Werkzeug. Er setzt einen Rahmen.

Er entscheidet, was erreicht werden soll. Er liefert den relevanten Kontext. Er definiert, woran ein gutes Ergebnis erkennbar ist. Und er legt fest, wo der Agent selbstständig handeln darf und wo er anhalten muss.

Wenn dieser Rahmen unscharf ist, wird alles danach Müll.

Das klingt hart, ist aber die nüchterne Wahrheit. Ein Agent kann nur so präzise arbeiten, wie der Auftrag es erlaubt. Wer schreibt „Mach mir das professioneller“, bekommt möglicherweise einen glatten, beliebigen Text. Wer dagegen sagt, für wen der Text gedacht ist, welche Entscheidung vorbereitet werden soll, welche Tonalität angemessen ist und welche Informationen auf keinen Fall fehlen dürfen, verändert die Qualität des Ergebnisses fundamental.

Gerade in Verbänden und Unternehmen ist dieser Punkt entscheidend. Dort ist Arbeit selten nur Textproduktion. Eine Mitgliederanfrage ist nicht einfach eine E-Mail. Sie berührt Zuständigkeiten, Fristen, politische Sensibilitäten, Beitragsordnungen, Veranstaltungslogik, Gremienbeschlüsse oder rechtliche Vorgaben. Ein Veranstaltungsdatensatz ist nicht einfach ein Absatz für die Website. Er kann Programmplanung, Ticketing, Barrierefreiheit, Newsletter, Zertifizierung, Referentenkommunikation und interne Freigaben betreffen.

Der Operator muss also nicht lernen, möglichst kunstvolle Prompts zu schreiben. Er muss lernen, Arbeit so zu beschreiben, dass ein System sie verantwortbar ausführen kann.

Das ist ein anderer Anspruch. Und ein höherer.

Der Agent: Zwischen Planung, Werkzeug und Entscheidung

Der Agent ist die ausführende Instanz. Er nimmt ein Ziel, zerlegt es in Schritte und entscheidet, welche Mittel er dafür nutzt. In modernen Systemen kann das bedeuten: Webseiten öffnen, Dateien lesen, Daten analysieren, Tabellen bearbeiten, mit angebundenen Anwendungen arbeiten, Code ausführen, Informationen aus Wissensspeichern abrufen oder andere spezialisierte Agenten hinzuziehen.

Das ist der Punkt, an dem aus Chat Automatisierung wird.

Allerdings sollte man sich von der Sprache der Autonomie nicht blenden lassen. Ein Agent ist nicht klug, weil er „selbstständig“ wirkt. Er ist nützlich, wenn seine Selbstständigkeit begrenzt, nachvollziehbar und überprüfbar bleibt.

Ein guter Agent erledigt nicht heimlich Dinge. Er arbeitet sichtbar genug, damit man ihm folgen kann. Er zeigt Zwischenergebnisse. Er fragt nach, wenn Informationen fehlen. Er trennt Befund von Vermutung. Er kennt seine Werkzeuge und überschätzt sie nicht. Und er kann gestoppt werden.

Das klingt weniger futuristisch als viele Agenten-Demos. Aber genau darin liegt der Unterschied zwischen Beeindruckung und Alltagstauglichkeit.

Ein Beispiel aus einer Geschäftsstelle: Eine Sachbearbeiterin erhält eine Anfrage zur Teilnahmebescheinigung einer Fortbildungsveranstaltung. Ein einfacher Prompt würde daraus eine höfliche Antwort machen. Ein Agent könnte zuerst prüfen, ob die Person angemeldet war, ob die Teilnahme vollständig dokumentiert ist, ob es besondere Regeln zur Bescheinigung gibt, ob bereits eine frühere Kommunikation vorliegt und welcher Antwortbaustein zur Situation passt. Am Ende steht nicht nur ein Text, sondern ein vorbereiteter Vorgang.

Das ist agentisches Arbeiten:

Nicht: „Schreib mir etwas.“
Sondern: „Bereite den nächsten sinnvollen Arbeitsschritt vor.“

Das System drumherum: Ohne Infrastruktur bleibt alles Spielerei

Die dritte Ebene ist die wichtigste – und die, über die in Tool-Debatten am wenigsten gesprochen wird.

Ein Agent braucht Umgebung. Ohne Datenquellen bleibt er blind. Ohne Berechtigungen bleibt er wirkungslos. Ohne Protokolle bleibt er gefährlich. Ohne Versionierung verliert man Nachvollziehbarkeit. Ohne Freigaben wird aus Effizienz schnell Kontrollverlust.

Hier entscheidet sich, ob Agenten Spielerei bleiben oder Infrastruktur werden.

In einem privaten Chat kann ein Agent beeindruckend wirken, weil er eine Aufgabe scheinbar vollständig erledigt. Im Organisationskontext reicht das nicht. Dort muss klar sein, auf welche Quellen er zugreifen darf, welche Daten er nicht sehen soll, welche Aktionen er ausführen kann, welche Ergebnisse gespeichert werden, wer sie freigibt und wie Fehler sichtbar werden.

Ein isolierter Agent ist ein talentierter Praktikant ohne Schreibtisch, Schlüssel und Aktenzugang. Er kann vieles formulieren, aber wenig verantwortbar erledigen.

Ein eingebetteter Agent dagegen arbeitet in einem System, das die Struktur der Organisation bereits kennt: Inhalte, Rollen, Rechte, Status, Fristen, Beziehungen, Veröffentlichungswege. Erst dann entsteht Skalierung. Nicht, weil der Agent plötzlich „intelligenter“ wäre, sondern weil er nicht mehr bei jedem Vorgang die Welt neu erklärt bekommen muss.

Das ist der Punkt, an dem Plattformen interessant werden.

Jede Plattform beantwortet eine andere Frage

Die Frage nach der richtigen Plattform ist verführerisch, weil sie nach einer Abkürzung klingt. Aber es gibt keine Antwort, die für alle stimmt – weil nicht alle dasselbe Problem haben. Manche müssen erst lernen, wie sich agentisches Arbeiten überhaupt anfühlt. Andere wollen KI dorthin bringen, wo ihre Arbeit ohnehin schon stattfindet. Wieder andere denken nicht mehr in Oberflächen, sondern in Architektur. Welche Plattform passt, hängt davon ab, welche Frage man gerade stellt.

Für den ersten Kontakt mit agentischem Arbeiten bleibt ChatGPT der ehrlichste Einstieg. Nicht wegen der Bekanntheit, sondern wegen der Unmittelbarkeit: Man lädt eine Datei hoch, formuliert einen Auftrag, verlangt Zwischenschritte, baut einen Custom GPT oder testet im Agent Mode, wie weit sich eine Aufgabe wirklich delegieren lässt. ChatGPT ist damit weniger das perfekte Skalierungswerkzeug als ein Trainingsraum – und der ist mehr wert, als er klingt. Bevor eine Organisation Agenten in Prozesse einbettet, muss sie verstehen, wie sich Aufgaben agentisch formulieren lassen. Wenn der Auftrag schwammig ist, wird auch der Agent schwammig. Das lernt man hier schnell.

In vielen Organisationen stellt sich die nächste Frage fast von selbst: Wie kommt KI in den Arbeitsalltag, ohne dass alle ihre gewohnte Umgebung verlassen müssen? Die Antwort liegt häufig schon in Outlook, Word, Excel, Teams und SharePoint. Microsoft 365 Copilot bringt KI nicht als fremdes Spezialwerkzeug, sondern mitten in die vertraute Umgebung. Ein Teil des Kontextes muss nicht herbeigetragen werden – er ist bereits da. Das ist der eigentliche Vorteil, nicht die Funktion. Der Nachteil ist dieselbe Nähe: Copilot ist stark dort, wo Arbeit im Microsoft-Ökosystem lebt. Wer darüber hinaus fachliche Prozesse hat – in einem CMS, einer Mitgliederverwaltung, einem individuell gewachsenen Portal – merkt schnell, dass Büro-KI nicht automatisch Fachlogik versteht.

Sobald es um vorhandenes Wissen geht, verschiebt sich der Blick in Richtung Claude und MCP. Claude spielt seine Stärke bei langen Texten, komplexen Dokumenten und strategischen Überlegungen aus – mit Projects lassen sich Informationen, Dateien und Instruktionen zusammenhalten. MCP, das Model Context Protocol , geht einen Schritt weiter: KI soll nicht isoliert bleiben, sondern über definierte Schnittstellen auf Werkzeuge und Datenquellen zugreifen können. Ein greifbarer Einstieg ist Notion MCP – ein gehosteter Server, über den KI-Werkzeuge auf den eigenen Workspace zugreifen können, abhängig von den jeweiligen Berechtigungen. Für Teams, die ohnehin in Notion dokumentieren, ist das der erste praktische Moment, in dem ein Agent nicht nur Text erzeugt, sondern mit vorhandenem Arbeitswissen arbeitet.

Der Schritt in Richtung Infrastruktur beginnt dort, wo man die Welt der Oberflächen verlässt und in Architektur denkt. API-basierte Setups bei Anthropic, OpenAI oder anderen Anbietern sind keine Produkte, die man einfach einschaltet – sie sind Bauentscheidungen. Tool-Nutzung, Datenzugriff, Rollen, Guardrails, Logging, Monitoring, Freigaben, Schnittstellen. Das ist der Ort, an dem Agenten aufhören, Experimente zu sein, und anfangen, Verantwortung zu tragen. Für Plattformen wie atomic ist genau diese Ebene entscheidend: nicht weil jede Nutzerin mit APIs arbeiten soll, sondern weil die Plattform selbst der Ort sein kann, an dem Agenten sinnvoll handeln . Ein Agent im CMS muss nicht fragen, welche Seite bearbeitet wird. Ein Agent im Veranstaltungsmodul sieht, welche Angaben fehlen. KI wird hier keine Zusatzfunktion, sondern eine neue Schicht innerhalb der Plattform.

Low-Code-Plattformen wie Langflow oder Flowise stehen quer zu dieser Logik – sie sind keine Antwort auf eine einzelne Frage, sondern eine Werkstatt für viele. Man kann dort ausprobieren, wie ein Agent Informationen abruft, Entscheidungen verzweigt oder einen Prozess auslöst. Das hat echten Wert, solange man weiß, was es ist: ein Ort zum Verstehen, nicht zum Skalieren. Je sensibler, dauerhafter oder geschäftskritischer ein Prozess wird, desto eher braucht er Architektur statt Bastellogik.

Entscheidend ist nicht, welche Plattform am lautesten „Agent“ sagt. Entscheidend ist, welche Frage man gerade stellen muss.

Der erste Schritt: einen echten Vorgang auswählen

Wer nach diesem Text loslegen will, sollte nicht mit der größten Vision beginnen. Der bessere Einstieg ist ein kleiner, echter Vorgang, der regelmäßig wiederkehrt und heute spürbar nervt: eine Mitgliederanfrage, ein Sitzungsprotokoll, eine Veranstaltungsankündigung, ein Newsletterentwurf, eine interne Entscheidungsvorlage.

Der erste Agentenauftrag muss nicht perfekt sein. Er sollte nur mehr enthalten als den Wunsch nach einem Ergebnis. Was soll erreicht werden? Welche Informationen darf der Agent nutzen? Welche Tonalität ist angemessen? Woran erkennt man, dass der Vorschlag brauchbar ist? Und an welcher Stelle muss ein Mensch prüfen, bevor etwas verschickt, veröffentlicht oder entschieden wird?

Praktisch heißt das: Wer heute starten will, kann mit einem einzigen wiederkehrenden Vorgang in ChatGPT oder Claude beginnen, ihn sauber beschreiben und die Ergebnisse mit realen Fällen testen. Wer bereits mit Notion arbeitet, kann zusätzlich prüfen, ob Notion MCP einen sinnvollen ersten Zugang zum eigenen Wissensraum bietet. Und wer in Microsoft 365 lebt, sollte sich ansehen, welche Copilot-Agents im eigenen Tenant verfügbar und administrativ freigeschaltet sind.

Damit beginnt der Wechsel von Prompting zu Delegation. Nicht spektakulär. Aber wirksam.

Was gute Agentenarbeit konkret verändert

Der wichtigste Schritt ist mental. Man muss aufhören, KI nur als Antwortmaschine zu behandeln. Ein Prompt fragt nach einem Ergebnis. Ein Auftrag beschreibt einen Zustand der Arbeit, der erreicht werden soll.Das verändert die Sprache, aber noch mehr verändert es die Haltung.

In einer Geschäftsstelle kann ein Protokoll einfach „zusammengefasst“ werden. Das spart Zeit, bleibt aber an der Oberfläche. Agentisch wird es erst, wenn daraus eine entscheidungsfähige Übersicht entsteht: Welche Beschlüsse sind gefallen, welche Punkte bleiben offen, wer muss handeln, was gehört in die nächste Sitzung und welche Formulierungen sind noch zu ungenau, um sie als Ergebnis festzuhalten?

Auch ein Newslettertext ist nicht einfach ein Text. Er ist das sichtbare Ende eines kleinen Produktionsprozesses. Veranstaltungsdaten müssen vollständig sein, Pflichtinformationen dürfen nicht fehlen, Zielgruppen müssen unterschieden, Betreffzeilen abgewogen und fachlich sensible Aussagen markiert werden. Ein Agent, der nur schreibt, produziert Oberfläche. Ein Agent, der vorbereitet, macht Arbeit leichter.

Ähnlich bei der klassischen Bitte: „Mach das verständlicher.“ Als Prompt ist das eine Einladung zur Glättung. Als Auftrag wird daraus eine präzise redaktionelle Aufgabe: Der Text soll für Mitglieder ohne technisches Vorwissen lesbar werden, ohne rechtlich relevante Informationen zu verlieren. Vereinfachungen sollen sichtbar bleiben, damit ein Mensch prüfen kann, ob Verständlichkeit nicht auf Kosten der Genauigkeit entstanden ist.

Solche Aufträge sind nicht einfach längere Prompts. Sie enthalten Ziel, Kontext, Qualitätsmaßstab und Kontrolle. Genau das brauchen Agenten, wenn sie mehr leisten sollen als sprachliche Kosmetik.

Die Arbeit verschiebt sich damit von der Formulierung einzelner Eingaben hin zur Gestaltung kleiner, wiederholbarer Vorgänge. Das ist weniger glamourös als die große Vision autonomer Systeme. Aber es ist der Ort, an dem Organisationen tatsächlich profitieren: bei den halbstrukturierten Aufgaben, die jeden Tag wiederkehren, nie ganz gleich sind und trotzdem einem erkennbaren Muster folgen.

Die neue Kompetenz heißt nicht Prompt Engineering

Prompt Engineering war ein hilfreiches Übergangswort. Es hat sichtbar gemacht, dass Eingaben an KI gestaltet werden müssen. Aber es führt auch in die Irre, weil es suggeriert, die Hauptkompetenz liege in der Formulierung einzelner Sätze.

Im Agentenzeitalter geht es um etwas anderes.
Es geht um Auftragsdesign.

Wer mit Agenten arbeitet, muss Aufgaben schneiden können. Er muss wissen, welche Informationen relevant sind. Er muss entscheiden, welche Schritte automatisiert werden dürfen und wo menschliches Urteil unverzichtbar bleibt. Er muss gute Prüfpunkte einbauen und Ergebnisse nicht blind übernehmen.

Das ist keine rein technische Fähigkeit.
Es ist Organisationskompetenz.

Für Verbände und Unternehmen ist das eine gute Nachricht. Denn viele der nötigen Fähigkeiten sind längst vorhanden: Vorgänge strukturieren, Zuständigkeiten klären, Freigaben organisieren, Qualität sichern, Dokumentation pflegen. Agentenarbeit macht diese Fähigkeiten nicht überflüssig. Sie macht sie sichtbarer.

Warum Plattformen am Ende gewinnen

Agenten können in vielen Oberflächen starten. Aber langfristig gewinnen die Umgebungen, die Kontext besitzen.

Ein Chatfenster muss Kontext erfragen. Eine Plattform kann ihn bereitstellen.
Ein Chatfenster braucht Kopien. Eine Plattform arbeitet mit Originaldaten
Ein Chatfenster liefert Vorschläge. Eine Plattform kann Vorschläge in Workflows einbetten.
Ein Chatfenster endet oft bei Text. Eine Plattform kann Status ändern, Prüfungen anstoßen, Inhalte vorbereiten, Rollen berücksichtigen und Veröffentlichungswege bedienen.

Das ist der Grund, warum KI in klugen Plattformen so viel interessanter ist als KI als loses Zusatztool. Nicht weil der Chat schlecht wäre. Sondern weil Arbeit nicht im Chat entsteht, sondern in Systemen.

Für urbanstudio heißt das: Die spannendste KI ist nicht die spektakulärste. Es ist die, die in der Plattform den nächsten sinnvollen Schritt vorbereitet. Die fehlende Daten erkennt. Die einen Textvorschlag dort macht, wo er gebraucht wird. Die Routine reduziert, ohne Verantwortung zu verwischen.

Die beste KI arbeitet nicht im Vordergrund, um bewundert zu werden.
Sie arbeitet im Hintergrund, damit Menschen besser entscheiden können.

Fazit: Weniger prompten, besser beauftragen

Agenten sind keine besseren Chatbots. Und sie sind auch keine digitalen Kolleginnen oder Kollegen im menschlichen Sinn. Vielleicht ist genau diese Enttäuschung nötig, um sie richtig zu verstehen. Ein Agent ersetzt nicht Urteil, Verantwortung oder Erfahrung. Er übernimmt Bewegung: Er sammelt, vergleicht, sortiert, bereitet vor, macht Vorschläge und hält Arbeitsschritte zusammen, die bisher an Menschen hängen geblieben sind, weil kein System sie verbunden hat.

Der entscheidende Fortschritt liegt deshalb nicht darin, dass wir KI noch geschickter ansprechen. Er liegt darin, dass wir Arbeit besser beschreiben. Nicht als einzelne Bitte, sondern als Vorgang. Nicht als Textwunsch, sondern als Auftrag mit Ziel, Kontext, Handlungsspielraum und Prüfpunkt. Wer so arbeitet, promptet nicht weniger, weil die Formulierungen kürzer werden. Er promptet weniger, weil ein Teil der Erklärung nicht mehr jedes Mal neu hergestellt werden muss.

Das ist der Unterschied zwischen einem Werkzeug, das auf Zuruf reagiert, und einem System, das im richtigen Moment handlungsfähig wird. Prompting erzeugt Antworten. Agentenarbeit gestaltet Verantwortung.

Für Organisationen ist das mehr als ein Produktivitätsthema. Es zwingt dazu, implizites Wissen sichtbar zu machen: Welche Informationen gelten? Welche Tonalität ist verbindlich? Welche Entscheidungen dürfen vorbereitet, aber nicht automatisch getroffen werden? Wo braucht es Freigabe, Nachvollziehbarkeit, Versionierung? Agenten machen nicht nur Arbeit schneller. Sie zeigen auch, wo Arbeit bisher unsauber beschrieben war.

Vielleicht liegt genau darin ihr eigentlicher Wert. Nicht in der großen Autonomie, die in Demos so beeindruckend aussieht. Sondern in der nüchternen Fähigkeit, wiederkehrende Vorgänge so vorzubereiten, dass Menschen weniger suchen, weniger kopieren, weniger nachhalten müssen – und mehr Zeit für das behalten, was kein Agent verantworten kann: Abwägung, Beziehung, Urteil.

Wer mit Agenten arbeiten will, braucht also nicht zuerst den perfekten Prompt. Er braucht bessere Aufträge. Und irgendwann Systeme, die diese Aufträge nicht mehr neben der Arbeit entgegennehmen, sondern mitten in ihr.

Kleines Glossar: Begriffe aus der Agentenarbeit

Agent

Ein KI-Agent ist ein System, das nicht nur auf eine einzelne Frage antwortet, sondern ein Ziel verfolgt, Zwischenschritte plant und Werkzeuge nutzen kann. Der Unterschied zum klassischen Chatbot liegt nicht in der Sprache, sondern in der Handlung: Ein Agent soll Vorgänge vorbereiten, nicht nur Texte erzeugen.

Agent Mode

Der Agent Mode bezeichnet eine Arbeitsweise, bei der eine KI mehrere Schritte selbstständig ausführt – etwa recherchieren, Dateien analysieren, Webseiten bedienen oder Ergebnisse strukturieren. Wichtig bleibt: Gute Agentensysteme brauchen Kontrolle, Berechtigungen und klare Stopppunkte.

API
Eine API ist eine Schnittstelle, über die Systeme miteinander sprechen können. Für KI-Agenten sind APIs wichtig, weil sie darüber Daten abrufen, Aktionen auslösen oder Informationen in bestehende Plattformen zurückschreiben können.
Context Engineering

Context Engineering bedeutet, einer KI nicht nur eine Frage zu stellen, sondern den richtigen Arbeitskontext bereitzustellen: relevante Dokumente, Regeln, Tonalität, Rollen, Ziele und Einschränkungen. Gute Ergebnisse entstehen selten durch den perfekten Prompt allein, sondern durch den passenden Kontext.

Guardrails

Guardrails sind Schutzmechanismen für KI-Systeme. Sie legen fest, was ein Agent darf, wo er nachfragen muss, welche Daten er nicht nutzen soll und wann ein Mensch prüfen muss.

Low-Code-Plattformen

Low-Code-Plattformen ermöglichen es, Workflows und Automatisierungen mit visuellen Bausteinen zu erstellen, ohne alles selbst zu programmieren. Sie sind gut für Prototypen und erste Experimente, können aber schnell unübersichtlich werden, wenn sie ohne klare Verantwortung produktiv genutzt werden.

MCP

MCP steht für Model Context Protocol. Es ist ein Standard, über den KI-Systeme mit externen Werkzeugen und Datenquellen verbunden werden können – zum Beispiel mit Notion, Datenbanken oder Entwicklungsumgebungen. Praktisch bedeutet das: Die KI muss Informationen nicht nur aus einem Chat kennen, sondern kann kontrolliert auf vorhandene Arbeitsräume zugreifen.

RAG

RAG steht für Retrieval-Augmented Generation. Gemeint ist eine Methode, bei der ein KI-System vor oder während der Antwort passende Informationen aus einem Wissensspeicher abruft. So kann ein Modell mit aktuellen oder organisationsspezifischen Informationen arbeiten, ohne dass alles dauerhaft im Modell selbst gespeichert sein muss.

Tenant

Ein Tenant ist der abgeschlossene Organisationsbereich innerhalb einer Cloud-Plattform, etwa bei Microsoft 365. Vereinfacht gesagt: der digitale Raum eines Unternehmens oder Verbands, in dem Nutzer:innen, Rechte, Daten, Einstellungen und Anwendungen verwaltet werden.

Token

Ein Token ist die kleinste Recheneinheit, mit der viele Sprachmodelle Text verarbeiten. Ein Token ist nicht immer ein ganzes Wort; je nach Sprache und Schreibweise kann ein Wort aus einem oder mehreren Tokens bestehen. Für die Arbeit mit KI ist das wichtig, weil Modelle nur eine begrenzte Menge an Tokens gleichzeitig verarbeiten können – das sogenannte Kontextfenster – und weil viele KI-Dienste nach verbrauchten Tokens abrechnen.

Dabei zählen nicht nur die Wörter, die der Mensch eingibt. Auch Systemanweisungen, mitgelieferte Dokumente, abgerufene Wissensquellen, Zwischenschritte eines Agenten und die erzeugte Antwort verbrauchen Tokens. Lange Dokumente, große Wissensbestände und mehrstufige Agentenläufe kosten deshalb nicht nur Zeit, sondern auch Rechenleistung und Geld. Gute KI-Systeme werfen also nicht wahllos alles in den Kontext, sondern holen möglichst gezielt die Informationen, die für die Aufgabe wirklich gebraucht werden.

Sprechen wir über Ihre digitalen Arbeitsprozesse.

Ob Plattform, Website, Redaktion oder interne Abläufe – wir unterstützen Sie dabei, digitale Strukturen so weiterzuentwickeln, dass KI sinnvoll eingebettet werden kann. Gemeinsam schaffen wir Lösungen, die Arbeit erleichtern, Verantwortung sichtbar lassen und langfristig zu Ihrer Organisation passen.