27. Feb. 2026

Quick Wins für die technische Redaktion – wie lokale LLMs Ihren Alltag beschleunigen

Erfahren Sie, warum lokale Large Language Models (LLMs) als Geheimtipp für die technische Redaktion gehandelt werden und wie Sie mit KI ganz konkret Routineaufgaben automatisieren können.

Hat Ihr Unternehmen noch keinen wissensbasierten Chatbot im Einsatz? Möchten Sie sicherstellen, dass Ihre sensiblen Daten den Rechner nicht verlassen? Dann finden Sie hier praxisnahe Tipps für den erfolgreichen Einstieg.

Warum ein lokales LLM in der Redaktion Sinn ergibt

Ob Produktänderungen, API-Updates oder neue Features – technische Dokumentation muss oft kurzfristig angepasst werden. Genau hier punkten lokale LLMs wie Ollama:

  • Datenhoheit: Ihre Inhalte bleiben im Haus.
  • Offline-Fähigkeit: Auch ohne Internetanbindung einsatzbereit.
  • Kosteneffizienz: Keine laufenden Cloud-Gebühren.
     

Hinweis: Stimmen Sie Installation und Konfiguration unbedingt mit Ihrer IT-Security ab – Sicherheit geht vor!

Mittlerweile stehen eine Reihe von geeigneten lokalen LLM-Umgebungen zur Verfügung, mit denen sich einfache Aufgaben in der Redaktion erfüllen lassen. Wir haben uns die Plattform Ollama einmal genauer angesehen.

 


Ollama im Überblick – die lokale LLM-Plattform

Screenshot LLama Software

 

Wer steckt dahinter?

Ollama ist eine Open-Source-Plattform zur lokalen Ausführung von Large Language Models (LLMs). Entwickelt wurde sie von Jeffrey Morgan (CEO) und Michael Chiang, den Köpfen hinter Kitematic, heute Teil von Docker.

Über 156.000 GitHub-Stars (Stand 2025) zeigen: Das Projekt wächst rasant. Unterstützt durch Y Combinator, bleibt Ollama dennoch Community-getrieben. Die Plattform ermöglicht es, verschiedene LLMs lokal auf Ihrem Rechner (Windows, MacOS, Linux) zu betreiben. Im Gegensatz zu cloudbasierten Diensten bleiben Ihre Daten in Ihrer Kontrolle.

Vorteile von Ollama

  • Keine Cloud-Uploads vertraulicher Daten
  • Einbindung vorhandener Referenzdokumente
  • Schnelle, wiederholbare Textgenerierung für Handbücher, API-Dokus oder Hilfen
     

Empfohlene Modelle

  • Llama3 / Llama3.1 – gute Balance aus Größe & Tempo
  • Mistral – ideal für kurze, präzise Abschnitte
  • Gemma3 – stark bei Textvorschlägen und Zusammenfassungen
     

Nach dem ersten Start von Ollama wird das Modell lokal geladen. Die Installation erfolgt einfach über einen Installer, die Anwendung kann dann über eine Oberfläche oder aus der CMD/Powershell-Konsole gestartet werden.

 


Ihr lokales LLM in wenigen Schritten startklar machen

1. Installation

Laden Sie Ollama über https://ollama.com/download herunter und folgen Sie den Installationsanweisungen. Danach begrüßt Sie das charmante Lama.

Screenshot LLama Software

 

2. Herunterladen eines geeigneten Modells

Nach der Installation können Sie ein lokales Modell herunterladen, das für technische Dokumentation geeignet ist oder ein bereits installiertes Modell verwenden.

Öffnen Sie Ollama, klicken Sie auf „Download“ und wählen Sie
z. B. llama3.2gemma3:4b oder mistral.

Screenshot LLama Software

Alternativ können Sie über die Konsole in Windows (CMD oder Powershell) weitere Modelle herunterladen:

Verwenden Sie dazu den Befehl: ollama pull llama3:8b

Screenshot LLama Software

Warten Sie, bis das Modell vollständig geladen ist – und schon kann’s losgehen.

 


Hands-on: So erstellen Sie einen neuen Abschnitt auf Basis eines Referenzdokuments

Ausgangssituation

  • Referenzhandbuch (z. B. Word oder PDF) mit älterer Version der Dokumentation liegt vor.
  • Neue Features oder geänderte Technologie, die eine Überarbeitung oder Neuauflage des Dokuments erforderlich machen.
     

So geht’s: Handbuch effizient aktualisieren – mit lokaler Unterstützung

  • Content-Reuse: Analyse bestehender Referenzdokumente (PDF, DOCX) mit LLM
  • Strukturierung: Automatische Generierung von Überschriften, Listen und Absätzen
  • Terminologie-Harmonisierung: Angleichung der Fachterminologie mit gezieltem Prompt

 

Praktische Tipps – Prompt Engineering für lokale LLMs leicht gemacht

Der Schlüssel zum Erfolg liegt nicht im Modell selbst, sondern im „Prompt Engineering“. Da wir im Vergleich zu GPT-4 ein lokal recht kleines Modell verwenden, müssen wir hier sehr präzise sein. Für unseren Use Case möchten wir auf Basis eines bestehenden Handbuches die neue Funktion „Kommentare auf Segment-Ebene“ erstellen.

Prompt zur Erstellung eines Kapitels

Für unsere Anfrage haben wir uns folgenden Prompt ausgedacht. Wichtig ist hier auf das Referenzdokument zu verweisen, das Sie per Drag and Drop einfügen können.

Screenshot LLama Software

Und schon antwortet das freundliche Lama:

Screenshot LLama Software

 

Beispiel-Prompts für nützliche weitere Anfragen

# Zusammenfassung des Inhalts
„Fasse den Inhalt dieser Datei in 10 Stichpunkten zusammen.“

# Erstellung eines neuen Abschnitts
Modell llama3: „Erstelle einen neuen Abschnitt für das Feature ‚Batch Export‘ im Stil des Referenzdokuments. Verwende kurze, klare Sätze und eine Überschrift Ebene 3. Fokus auf Schritt-für-Schritt-Anleitung.“

# Anpassung der Formatierung
„Wandle alle Schritt-Listen im folgenden Text in nummerierte Listen um. Behalte die Fachbegriffe bei, aber vereinfache die Formulierungen leicht.“

Unser Tipp: Immer das Referenzdokument mitgeben – so bleiben Stil und Struktur konsistent.

 

Speichern und Nachbearbeitung

Auch gute KI braucht redaktionellen Feinschliff:

  • Überprüfen Sie die technische Richtigkeit der generierten Inhalte.
  • Passen Sie die Formulierung an Ihren Redaktionsstil an.
  • Ergänzen Sie Screenshots oder Diagramme, falls erforderlich.
  • Testen Sie die beschriebenen Schritte, um ihre Korrektheit sicherzustellen.
  • Testen Sie verschiedene Modelle, die zu Ihren Anforderungen passen.

 

Fazit: Datenschutz trifft Produktivität

Lokale LLMs wie Ollama eröffnen neue Möglichkeiten für die Erstellung technischer Dokumentation – und das ganz ohne Cloudabhängigkeit. Mit präzisem Prompt-Engineering und gezielter Nachbearbeitung können Sie erhebliche Zeitersparnisse erzielen, ohne auf Datenschutz und Datenhoheit verzichten zu müssen. Probieren Sie es aus: Sie werden überrascht sein, wie schnell Sie erste Ergebnisse erzielen.

 


Weitere „Quick Wins“ für die Technische Redaktion

AnwendungsbereichBeschreibung
Automatische StrukturierungAus langen Fließtexten werden klare Überschriften, Listen und Absätze.
Vorlagen-ErstellungAus einem Referenzdokument entsteht ein standardisiertes Template (z. B. konsistente Struktur für „Funktionsbeschreibung“, „Voraussetzungen“, „Beispiele“).
Sprachliche AngleichungAlle Abschnitte werden in einen einheitlichen Stil und dieselbe Tonalität gebracht (z. B. „Du“ vs. „Sie“, Passiv vs. Aktiv).

 


Was Sie bei lokalen LLMs beachten sollten

Technische Limitierungen

Kontextfenster:

  • Problem: Große Dokumente ( > 50 Seiten) → Möglicher Informationsverlust bei der Verarbeitung durch das LLM
  • Lösung: Kapitelweise Verarbeitung
     

Hallucination-Risiko:

  • Problem: Fiktive technische Details in Generierung
  • Lösung: Prompt-Modifikation mit Restriktionen, z.B. „Ändere ausschließlich den explizit markierten Bereich.“, „Erfinde keine technischen Spezifikationen.“

 

Compliance

  • DSGVO: Konformität gewährleistet durch On-Premise-Betrieb
  • Sicherheitsaudit: Risikoanalyse durch IT-Security vor Implementierung durchführen
     

 


Lokale LLMs: Grenzen heute und Perspektiven für morgen

Wenn lokale Systeme an ihre Grenzen stoßen – etwa bei teamweiter Zusammenarbeit oder größeren Dokumentmengen – ist der nächste Schritt klar: eine integrierte, cloudbasierte Lösung. 

Sprechen Sie uns an – wir zeigen Ihnen, wie Sie KI optimal in Ihre Redaktionsprozesse einbinden können.

27. Nov. 2025

E-Learnings gelten in vielen Unternehmen als zentrale Säule der Weiterbildung – vom globalen Onboarding-Kurs bis hin zur komplexen Produktschulung. Gleichzeitig zeigen Projekte immer wieder ähnliche Herausforderungen.

30. Okt. 2025

Terminologiearbeit ist seit jeher der Schlüssel zu konsistenten und qualitativ hochwertigen Übersetzungen. Mit dem Einzug von KI und Large Language Models (LLMs) verändern sich die Übersetzungsprozesse grundlegend.

7. Okt. 2025

Vom 11. bis 13. November findet die größte Tagung für Technische Kommunikation statt. Besuchen Sie uns auf der tekom im Foyer am Stand 21

9. Sep. 2025

Mit dem Transit NXT Service Pack 18 stellt die STAR Group eine leistungsstarke Erweiterung ihres Translation-Memory-Systems vor – ein echter Gamechanger für professionelle Übersetzer*innen und Projektmanager*innen!

28. Juli 2025

In weniger als 4 Monaten startet die nächste tekom-Jahrestagung in Stuttgart. Vom 11. bis 13. November findet die größte Tagung für Technische Kommunikation statt.

8. Juli 2025

Der diesjährige MT Summit fand in Genf, Schweiz, statt und bot ein abwechslungsreiches Programm aus Tutorials, Workshops und inspirierenden Vorträgen rund um die Themen maschinelle Übersetzung (MT) und große Sprachmodelle (LLMs).

2. Juli 2025

Wer regelmäßig mit CAT-Tools (computerunterstützte Übersetzungssoftware) arbeitet, denkt meist zuerst an Trados Studio, memoQ oder Across. Ein Name fällt dabei eher selten – völlig zu Unrecht: Transit NXT

26. Feb. 2025

KI – Gestartet als Buzzword, danach etabliert in der Alltagssprache, mittlerweile Grundanforderung für viele Anwendungen und Prozesse.

31. Jan. 2025

Mit dem aktuellen Service Pack von Transit NXT profitieren Sie von zahlreichen neuen Features, um Ihre Prozesse zu beschleunigen.

16. Dez. 2024

Schon wieder ist ein Jahr vorbei, und wir können selbst kaum fassen, wie schnell die Zeit verflogen ist. Ein guter Zeitpunkt, um alle wichtigen Entwicklungen Revue passieren zu lassen und Ihnen einen Ausblick auf das kommende Jahr zu geben.

28. Okt. 2024

Kann die KI helfen, hochwertige Inhalte in jeder Sprache zu erstellen und dabei Unternehmenssprache und Besonderheiten einhalten?

30. Sep. 2024

Es ist wieder soweit! Vom 5. bis 7. November findet mit der tekom Europas größte Tagung für Technische Kommunikation in Stuttgart statt. Besuchen Sie uns in Halle C2 am Stand 2D13 und erfahren Sie mehr über unsere Sprachdienstleistungen, Enterprise-Technologien und neuesten Entwicklungen.

1. Aug. 2024

In der schnelllebigen Welt der Übersetzungs- und Lokalisierungsindustrie ist Effizienz der Schlüssel zum Erfolg. Eine Lösung, die dabei eine wichtige Rolle spielen kann, ist der Common Translation Interface (COTI) Standard.

18. Apr. 2024

Mehrsprachigkeit und SEO gehen Hand in Hand – wenn’s der Profi macht.
STAR Deutschland und die netzgefährten laden Sie herzlich zu einer neuen Reise durch die SEO-Welt ein.

11. März 2024

Die sog. Large Language Models (LLMs) könnten zu einem starken Bindeglied zwischen Mensch und Maschine im Rahmen von Sprachprozessen werden. Doch wo genau liegen die Vorteile dieser Technologie?

27. Feb. 2024

Kaum ein Wort hat das Jahr 2023 so geprägt wie „KI“.
Doch was bedeutet dieses Buzzword eigentlich für Übersetzungs- und Sprachprozesse?

16. Nov. 2023

Die neue Version des Translation-Memory-Systems Transit NXT bietet zusätzliche Filter, erweiterte Websuchdienste, mehr Anbindungen und zahlreiche Verbesserungen bei der Usability.

26. Okt. 2023

Besuchen Sie uns bei der tekom-Jahrestagung in Stuttgart!

Wir freuen uns sehr, Sie vom 14. bis 16. November in Halle C2 am Stand 2D38 begrüßen zu dürfen.
Erfahren Sie dort mehr über unsere Sprachdienstleistungen, Enterprise-Technologien und neuesten Entwicklungen.

 

30. März 2022

Übersetzen mit Stift und Block? Wörterbücher schleppen und Terminologie-Listen ausdrucken? Wer sich bei diesem Gedanken ein wenig in die Studienzeit vor der Jahrtausendwende zurückversetzt fühlt, wird wahrscheinlich umso mehr spüren, wie sich der Übersetzungsprozess durch den Einsatz moderner Technologien bis dato verändert hat.

19. Jan. 2022

Mit dem Service Pack 14 und den neuesten Plug-ins werden jetzt auch Dateiformate wie AutoCAD 2021 & 2022, InDesign 2021 und FrameMaker 2020 unterstützt!

23. Nov. 2020

STAR proudly presents: Unsere Kolleginnen Birgit M. Hoppe und Birgitta Geischberg tragen mit ihrem Artikel „Quality of terminology processes in corporate contexts / Agreeing and harmonizing terminology” zum soeben erschienenen Werk von Jean-Marc Dalla-Zuanna und Dr. Christopher Kurz bei.

11. Feb. 2020

Ab sofort steht die standardisierte und herstellerübergreifende Referenzterminologie für die Automotive-Branche bereit. Sie entstand im Rahmen eines EU-Projekts mit dem Ziel, so genannten „berechtigten Dritten“ (unabhängigen Werkstätten, Prüfinstituten usw.) den Zugang zu Reparatur- und Wartungsinformationen (RMI) der Fahrzeughersteller zu erleichtern (Norm EN ISO 18542).

Newsletter Anmeldung

Erhalten Sie regelmäßig Informationen über STAR Produkte, Dienstleistungen, Neuheiten und vieles mehr.