GPT vs. NMT: Ein Blick auf die Zukunft der Übersetzer

Veröffentlicht: 03.04.2024 Aktualisiert: 03.04.2024

Übersetzern und Übersetzerinnen wird seit geraumer Zeit prophezeit, dass ihr Beruf durch KI-Anwendungen wie ChatGPT bald überflüssig wird. Erstaunlich, denn gerade in diesem Beruf wird bereits seit Längerem mit künstlicher Intelligenz und maschinellem Übersetzen gearbeitet. Die etablierten NMT (Neural Machine Translation Systeme wie etwa DeepL) sind Transformer-Modelle, ähnlich wie die derzeit viel diskutierten generativen KI-Anwendungen. Sie werden bereits seit mehr als einem Jahrzehnt alltäglich in Agenturen eingesetzt.

Mit Sicherheit ändert sich bei Übersetzern, so wie bei nahezu allen Wissensberufen, die Art und Weise der Arbeit. Vieles wird sich mehr in die „Post-Production“ verschieben, in der Vergangenheit immer als „Post-Editieren“ bezeichnet. Auch das ist aber für den Profi-Übersetzer nichts Neues, denn sie sind ja seit Jahrzehnten schon gewohnt, Vorschläge aus Translation Memories, Terminologiedatenbanken oder Maschineller Übersetzung zu erhalten und diese Inputs für die Arbeit zu nutzen. Mit GPT kommt hier potenziell ein neuer „Input-Lieferant“ hinzu, bei dem aber noch nicht ganz klar ist, was er besser kann als die klassischen NMT Engines.

NMT oder GPT?

Was ist also der Unterschied zwischen GPT und Neural Machine Translation (NMT), den herkömmlichen KI-Systemen, wie sie bereits seit geraumer Zeit in Übersetzungsagenturen zum Einsatz kommen?

Generative KI-Systeme wie ChatGPT sind – vereinfacht gesprochen ­– Allzweckwerkzeuge. Sie sind mit einer großen Anzahl an frei zugänglichen Daten trainiert, die einmalig eingegeben werden. Der Input für ChatGPT und andere generative Systeme ist ein Prompt, der das System dann veranlasst einen Text zu generieren. Wodurch diese Ausgabe beeinflusst wurde oder woher die Informationen dazu stammen, ist nicht nachvollziehbar. Es ist deshalb schwierig eine Balance zwischen Kreativität und Berechenbarkeit zu finden, was für viele Anwendungen in der Technischen Redaktion ein Problem darstellt. Dies gilt insbesondere für ChatGPT, dass ja explizit darauf trainiert ist, eine „menschenähnlichen“ Konversation nachzustellen, also bewusst NICHT konsistenten Output liefert, sondern variiert. Zwar kann in einer professionellen Anwendung von ChatGPT diese Varianz auch wieder übersteuert werden, aber insgesamt sind GPT-Anwendungen noch relativ neu und unerprobt, was ihre Einbindung in Redaktions- und Übersetzungsprozesse erschwert.

Neural Machine Translation Systeme sind dagegen (wie der Name schon sagt) spezialisiert auf das Übersetzen von Texten. Sie werden mit einem zweisprachigen Korpus trainiert, wobei wiederkehrende Trainings möglich sind und dadurch Anpassungen am System vorgenommen werden können. Der Input für ein NMT ist ein gesamter ausgangssprachlicher Text, er ist also deutlich umfangreicher als etwa bei ChatGPT, das ja auf etwa über 4.000 „Tokens“ als Input begrenzt ist. Der Output von NMT ist relativ berechenbar, weil kein Text neu erstellt wird, sondern „nur“ vorhandener Text in eine andere Sprache übertragen wird. Die Arbeit mit NMT ist in Übersetzungsprozessen robust und erprobt, und die Systeme fügen sich mit einer Vielzahl von Konstellationen in die alltägliche Arbeit.

Was ist heute möglich?

Gemeinsam ist beiden Systemen, dass sie ihre Ergebnisse auf der Basis von statistischen Wahrscheinlichkeiten erzeugen. Die Systeme „verstehen“ also nicht, was sie produzieren. Die Ergebnisse beider KI-Anwendungen sind aufgrund der enormen Datenmengen im Hintergrund dennoch sehr brauchbar. Oft lassen sich die produzierten Texte kaum von Texten unterscheiden, die von Menschen geschrieben wurden.

Allerdings kommt es in beiden Systemen (bei GPT tatsächlich noch mehr als bei NMT) zu Fehlern, die schwer aufzuspüren sind. Denn die Systeme berücksichtigen den Kontext eines Ausgangstextes nur in beschränktem Umfang. Dieses Problem ist tatsächlich bei GPT-Systemen noch größer, da sie immer wieder zu sogenannten Halluzinationen neigen und Fakten frei erfinden.

Auch die Anbindung von Terminologiebeständen ist ein Problem, das sich in KI-Systemen nur bedingt lösen lässt. Das liegt daran, dass GPT Engines im Gegensatz zu NMT Engines nicht „umtrainiert“ werden können, sondern der Output nur durch die Beigabe sehr spezifischer Anweisungen im Prompt nachjustiert werden kann. Für Unternehmen wird es somit schwierig einen einheitlichen „Tone of Voice“ zu produzieren und das Corporate Wording des Unternehmens durchzuhalten.

Deshalb müssen die Arbeitsergebnisse der KI-Anwendungen immer von Übersetzungsexperten oder Reviewern geprüft werden. Sie müssen auf die Einheitlichkeit der Terminologie achten und dafür sorgen, dass alle Fakten übersetzt wurden. Außerdem müssen sie bei GPT-Systemen prüfen, ob nicht zusätzliche oder falsche Informationen hinzugefügt oder übersprungen wurden.

NMT und GPT im Einsatz

NMT-Systeme sind in der übersetzerischen Praxis mittlerweile Alltagsgeschäft. Entsprechend gut integriert sind NMT-Systeme in Unternehmensprozesse und entsprechend genau sind diese Systeme auf die Bedürfnisse der Übersetzung in Technischen Redaktionen abgestimmt. Zwar gibt es auch bei NMT noch Optimierungsbedarf (z. B. bei Terminologie und Tone of Voice), jedoch existieren hier eingeschliffene Verfahren.

Für generative Modelle fehlen diese Verfahren bisher noch. Die Ergebnisse von ChatGPT und Co. sind zwar gut lesbar, lassen aber auf den zweiten Blick an vielen Stellen in der Qualität zu wünschen. Auch die Integration in Übersetzungswerkzeuge ist bisher bestenfalls rudimentär. ChatGPT lässt sich deshalb bisher besser für Aufgaben abseits des klassischen Übersetzungsprozesses einsetzen, z. B. zum Umformulieren eines Textes oder für die Generierung von Trainingsmaterial für NMT.

Doch egal ob NMT oder GPT – ohne menschliche Expertise sind die Ergebnisse der künstlichen Intelligenz nicht bedenkenlos verwendbar. Auf absehbare Zeit bleibt deshalb Bedarf an Übersetzern und Übersetzerinnen, die als „Human Expert in the Loop“ den Output der diversen Systeme überwachen, reparieren und auch laufend verbessern.

Weitergehende Informationen zu diesem Thema finden Sie in unserer Webinaraufzeichnung „ChatGPT statt Übersetzung. Ist das die Zukunft?“ von Klaus Fleischmann und Mariella Zeginigg von (Eurocom)

Webinaraufzeichnung jetzt ansehen

Andere Artikel von Quanos

Das könnte Sie auch interessieren

Inhalt, Struktur und Layout trennen? Warum?

Inhalt, Struktur und Layout trennen? Warum?

Wenn Sie im Umfeld von Dokumentation und Redaktion unterwegs sind, haben Sie bestimmt schon von der „Trennung von Inh…

Callout your content!

Callout your content!

SCHEMA ST4 enthält in seinen unterschiedlichen Ausbaustufen so einige nützliche Werkzeuge: vom Page Layout Designer, …

5 Vorteile von modularem Content

5 Vorteile von modularem Content

Wer mit einem CMS arbeitet und vielleicht sogar mit SCHEMA ST4, dem ist modularer Content bekannt. Inhalte bestehen i…