Entwicklung kundenspezifischer Motoren im Vergleich zu LLM-Feinabstimmung/kontextbezogenem Lernen für die Übersetzung von Inhalten

by Lilt  Han Mai, Associate Director, Demand Generation  ·  KI

Bei so vielen neuen Technologien und KI-Tools, die auf dem Markt sind, kann es für Kunden von Übersetzungen und/oder Lokalisierung schwierig sein, die Unterschiede zwischen der Entwicklung einer benutzerdefinierten Engine und der LLM-Feinabstimmung für bestimmte Inhaltstypen (z. B. Marketingtexte, rechtliche Verträge, E-Commerce-Produktbeschreibungen) zu verstehen.  Dieser Blog-Beitrag vermittelt ein besseres Verständnis dieser beiden Ansätze und erklärt, wie In-Context-Learning (ICL) verwendet werden kann, um die Genauigkeit und Effizienz der Übersetzung zu verbessern.

Benutzerdefinierte Engine-Entwicklung im Vergleich zu adaptiven Engine-Training

Wenn es um die maschinelle Übersetzung geht, sind zwei der beliebtesten Ansätze die Entwicklung einer benutzerdefinierten Engine und das Training adaptiver Engine.  Obwohl beide Ansätze ihre eigenen Vorteile und Herausforderungen haben, liegt der Unterschied zwischen benutzerdefiniertem Engine-Training und der LLM-Feinabstimmung darin, wie die Parameter des Modells angepasst werden, um bestimmte Inhaltstypen besser zu passen.  Die Entwicklung einer benutzerdefinierten Engine erfordert die Erstellung eines neuen Systems von Grund auf, während sich die LLM-Feinabstimmung auf das Training bestehender Modelle konzentriert, um bestimmte Arten von Inhalten zu erkennen und darauf zu reagieren.

Kundenspezifische Engine-Entwicklung

Die Entwicklung einer benutzerdefinierten Engine ist der Prozess, bei dem die Parameter eines Modells trainiert werden, nachdem ein inhaltsspezifisches Dataset verwendet und diese Parameter bereitgestellt wurden.  In der Vergangenheit bestand der Standardansatz bei der Übersetzung darin, für jeden Inhaltstyp eine benutzerdefinierte Engine zu entwickeln.  Dazu wurde ein großer Datensatz mit Ausgangs- und Zieltextpaaren für den bestimmten Inhaltstyp gesammelt und dann ein maschinelles Übersetzungsmodell auf diesen Daten trainiert.  Sobald das Modell trainiert wurde, konnte es bereitgestellt werden, um neuen Text zu übersetzen.

Dieser Ansatz wird seit vielen Jahrzehnten verwendet und kann hochgenaue Modelle erstellen.  Es ist jedoch auch ein sehr zeitaufwendiger und teurer Prozess.  Es kann Monate oder sogar Jahre dauern, bis Sie genügend Daten sammeln und ein hochwertiges Modell trainieren.  Darüber hinaus sind benutzerdefinierte Engines nicht immer in der Lage, mit den neuesten Änderungen in der Sprache Schritt zu halten.  Dies liegt daran, dass sie auf einem statischen Datensatz mit Daten trainiert werden, die im Laufe der Zeit veralten können.  Wenn ein Unternehmen das Modell an einem neuen Beispiel trainieren möchte, muss es das gesamte Modell neu trainieren und es erneut bereitstellen. Dies kann ein zeitaufwändiger und langwieriger Prozess sein und zu veralteten Modellen führen.

Adaptive Engine Training

Adaptives Engine-Training ist hingegen ein neuerer Übersetzungsansatz, der einige der Einschränkungen der benutzerdefinierten Engine-Entwicklung überwindet und die Parameter des bereitgestellten Modells kontinuierlich mit neuen Trainingsbeispielen aktualisiert.  Dieser Ansatz macht es überflüssig, das gesamte Modell neu zu trainieren und neu zu implementieren, wodurch sichergestellt wird, dass das Modell immer auf die neuesten Daten trainiert wird und seine Genauigkeit im Laufe der Zeit verbessert.  LILT war Pionier und begann mit der Entwicklung dieser Technologie im Jahr 2015. Sie revolutionierte die Art und Weise, wie Unternehmen Übersetzungen für Unternehmen angehen.

Adaptives Engine-Training ist effizienter als die Entwicklung einer benutzerdefinierten Engine, aber es ist immer noch nicht so effizient wie In-Context-Learning.  Dies liegt daran, dass das Training der adaptiven Engine eine große Datenmenge erfordert, um das Modell zu trainieren.

Wo wir jetzt stehen – mit In-Context-Learning/LLM-Feinabstimmung

In-Context-Learning oder LLM-Fine-Tuning erweitert den Trainingsansatz für adaptive Engine, indem es eine schnelle Anpassung eines einzelnen Modells an einen bestimmten Inhaltstyp ermöglicht.  Mit In-Context-Learning wird ein maschinelles Übersetzungsmodell an einem einzigen Beispiel des zu übersetzenden Inhaltstyps trainiert.  Dadurch kann das Modell an den spezifischen Inhaltstyp angepasst werden, ohne dass ein großer Datensatz mit Trainingsdaten erforderlich ist.

In den letzten Jahren hat sich In-Context-Learning oder LLM-Fine-Tuning zum bevorzugten Ansatz entwickelt, um Genauigkeit und Effizienz bei der Übersetzung zu erreichen.  Dieser Ansatz ermöglicht ein kontinuierliches Training eines bereitgestellten Modells und umfasst zwei Techniken: Feinabstimmung und Prompting mit wenigen Einstellungen.

Feinabstimmung

Bei der Feinabstimmung werden die Modellparameter für jedes neue Beispiel angepasst.  Es handelt sich um eine Technik, die speziell für neuronale Netzwerke entwickelt wurde, die die Modellparameter für jedes neue Beispiel anpasst, was zu einer noch höheren Genauigkeit führt.

Few-Shot-Prompting

Bei der Eingabeaufforderung in wenigen Schritten werden Trainingsbeispiele zur Eingabe des bereitgestellten Modells hinzugefügt, um die Ausgabe des Modells zu beeinflussen, ohne die Parameter anzupassen.

Einer der größten Vorteile der ICL- und LLM-Feinabstimmung ist, dass mehrere Modellbewertungen überflüssig sind.  Mit einem einzigen Modell ermöglicht ICL die schnelle Anpassung der Modelle an bestimmte Inhaltstypen, was zu einer noch höheren Genauigkeit und Effizienz führt.

Dennoch ist In-Context-Learning der effizienteste und genaueste Ansatz für die Übersetzung.  Es ist ein neuerer Ansatz, aber er wird schnell zum Standard für die Übersetzung.

Abschließende Überlegungen: Die Wahl des richtigen Ansatzes für Ihr Unternehmen

Wie bei jeder Technologie gibt es keine Einheitslösung, wenn es um die Entwicklung kundenspezifischer Motoren im Vergleich zur LLM-Feinabstimmung geht.  Der Ansatz sollte auf Ihre spezifischen Anforderungen, Ihr Budget und Ihren Zeitplan zugeschnitten sein.  Wenn Sie diese Faktoren sorgfältig berücksichtigen, können Sie den Ansatz wählen, der die besten Ergebnisse für Ihr Unternehmen liefert.

Berücksichtigen Sie die Ressourcen, die Ihnen zur Verfügung stehen.  Die Entwicklung kundenspezifischer Motoren erfordert eine erhebliche Investition in Zeit, Geld und Fachwissen.  Wenn Sie diese Ressourcen nicht haben oder wenn sich Ihre Inhalte ständig weiterentwickeln, kann die LLM-Feinabstimmung eine praktischere Lösung für Ihr Unternehmen sein.

Denken Sie schließlich an Ihre langfristigen Ziele.  Wenn Sie Ihre Übersetzungsbemühungen skalieren und in Zukunft neue Inhaltstypen hinzufügen möchten, kann eine benutzerdefinierte Engine eine bessere Investition sein.  Wenn Sie jedoch nach einer flexibleren Lösung suchen, die sich an sich ändernde Inhaltsanforderungen anpassen kann, ist die LLM-Feinabstimmung möglicherweise der richtige Weg.

Während sowohl benutzerdefiniertes Engine-Training als auch adaptives Engine-Training hochgenaue Modelle erzeugen können, ermöglicht ICL Anpassungen und kontinuierliches Training, was zu besseren Ergebnissen für bestimmte Inhaltstypen führt und ihn zum bevorzugten Ansatz für viele Unternehmen macht.  Letztendlich hängt der richtige Ansatz für Ihr Unternehmen von Ihren spezifischen Anforderungen und Anforderungen ab.