Bachelorarbeit, 2021
60 Seiten, Note: 1,7
Darstellungssverzeichnis
Abkürzungsverzeichnis
1. Einleitung
2. Maschinelle Übersetzung
2.1. Geschichte der maschinellen Übersetzung
2.2. Zweck und Anwendung der maschinellen Übersetzung
2.3. Probleme der maschinellen Übersetzung
2.4. Methoden der maschinellen Übersetzung
2.4.1. Regelbasierte Methode
2.4.1.1. Direkte Methode
2.4.1.2. Interlingua-Methode
2.4.1.3. Transfer-Methode
2.4.2. Statistische Methode
2.4.2.1. Wortbasierte Methode
2.4.2.2. Phrasenbasierte Methode
2.4.2.3. Syntaxbasierte Methode
2.4.3. Beispielbasierte Methode
2.4.4. Neuronale Methode
3. DeepL
3.1. Über DeepL
3.2. Grundlegende Funktionen und Varianten von DeepL
3.3. Convolutional Neural Networks und die Grenzen der NMÜ
4. Evaluation der Übersetzungsqualität im Allgemeinen
4.1. Evaluation der Übersetzungsqualität von maschinellen Übersetzungen mit BLEU
4.2. Evaluation der Übersetzungsqualität von maschinellen Übersetzungen nach Ramlow
5. Untersuchung und Fehleranalyse
5.1. Auswahl der Sprachen und der Texte
5.2. Bestimmung und Erläuterung der Fehlertypologie
5.3. Fehleranalyse der einzelnen Fehlerkategorien anhand von Beispielsätzen
5.4. Fehlerauswertung und Zusammenfassung
6. Fazit
7. Literaturverzeichnis
8. Onlinequellen
9. Anhang
Abbildung 1: Schematischer Ablauf der Direkten Methode
Abbildung 2: Schematischer Ablauf der Interlingua-Methode
Abbildung 3: Schematischer Ablauf der Transfer-Methode
Abbildung 4: Benutzeroberfläche der freiverfügbaren DeepL Desktop-Version
Abbildung 5: Die Gesamtarchitektur eines neuronalen Faltungsnetzes
Tabelle 1: Übersetzungszwecke und ihre Anforderungen an die Übersetzungsqualität
Tabelle 2: Fehlertypologie
Tabelle 3: Auswertung der einzelnen Fehlerkategorien
Abbildung in dieser Leseprobe nicht enthalten
Die gesamte zivilisatorische Entwicklung der Menschheit steht in direkter Verbindung mit dem technologischen Fortschritt. In unregelmäßigen Zeitabständen revolutioniert immer wieder eine große Idee den Zeitgeist der jeweiligen Epoche. Die Erfindung des Rades vor über fünftausend Jahren eröffnet völlig neue Möglichkeiten im Hinblick auf den Transport und begünstigt große Völkerwanderungen, welche bereits in der Bronzezeit stattfinden. Die Erfindung des Buchdrucks, sowie der Dampfmaschine, sind ebenfalls bahnbrechend und läuten jeweils ein neues Zeitalter ein. Die Entwicklung des Internets gilt als die letzte große Erfindung, welche den gesamten Planeten stark beeinflusst hat. Solch radikale Umbrüche haben häufig eine sehr kreative Dynamik zu Folge und bereiten den Weg für weitere Entwicklungsprozesse. Der wahre Treibstoff hinter technologischem Fortschritt ist jedoch das Bedürfnis des Menschen, neue Dinge auszuprobieren und optimale Lösungen zu etablieren. Die menschliche Neugier und die dazugehörige Ausdauer haben bereits abertausende Innovationen hervorgebracht. Inzwischen ist der gesamte Planet Erde dem Menschen und seiner Technologie, welche übermenschliche Leistungen ermöglicht, unterworfen. Infolgedessen kommt es auch zu einem globalen Informationsaustausch.
Die Art der zwischenmenschlichen Kommunikation wird ebenfalls sehr stark vom Stand der Technologie geprägt. Im 21. Jahrhundert ist es möglich, in Sekundenschnelle einen anderen Menschen am anderen Ende der Welt zu erreichen. Vor nur 100 Jahren war dies noch absolut undenkbar. Auf Grundlage dieses Fortschritts ergibt sich der Anspruch auf Produkte und Dienstleistungen aus aller Welt. In Folge der Globalisierung wird immer mehr übersetzt und das auch für eher seltene Sprachenpaare. Der Bedarf an Translationen und der daraus resultierende Arbeitsaufwand ist undenkbar groß und kann nicht ausschließlich mit Hilfe manueller Übersetzungen gestemmt werden - diese Aufgabe kann nur unter Verwendung von maschinellen Ressourcen bewältigt werden.
Maschinelle Übersetzung feiert derzeit große Erfolge und wird kontinuierlich verbessert, wie nützlich ist sie aber wirklich? Diese Frage beschäftigt insbesondere professionelle Übersetzer, die von guten MÜ-Systemen stark profitieren können. Daher wird im Rahmen dieser schriftlichen Arbeit die Qualität von maschinell übersetzten Texten überprüft und die Rolle der maschinellen Übersetzung im Translationsprozess kritisch untersucht. Zu diesem Zwecke wird zunächst die Entstehungsgeschichte der MÜ erläutert, welche von zahlreichen politischen Entscheidungen geprägt ist. Wie viele andere Technologien des 21. Jahrhunderts hat auch die Maschinelle Übersetzung ihren Ursprung im diplomatischmilitärischen Bereich. Im Kapitel 2.1. Geschichte der Maschinellen Übersetzung werden dementsprechend die wichtigsten Meilensteine in der Entwicklung dieser Technologie erläutert. Anschließend werden verschiedene Anwendungsbereiche der MÜ dargelegt. Diese resultieren aus unterschiedlichen Verwendungszwecken für MÜ, welche wiederum eng mit uneinheitlichen Anforderungen der Nutzer korrelieren. Diverse Schwächen und bekannte Problematiken der maschinellen Translation werden im Kapitel 2.3. Probleme der Maschinellen Übersetzung genauer erläutert. Es werden auch unterschiedliche methodische Ansätze der MÜ chronologisch und entsprechend ihrer Bedeutung in diesem Fachgebiet gezeigt. Hierbei wird die fundamentale Theorie hinter der jeweiligen Methode, ihre Funktionsweise sowie vorhandene Besonderheiten des betreffenden MÜ-Systems dargestellt. Diese theoretische Grundlage bildet den Ausgangspunkt für die Untersuchung von DeepL. Der erwähnte Online-Übersetzungsdienst wird als das zu untersuchende Translationssystem anschließend ausführlich betrachtet. Darüber hinaus werden zwei relevante Evaluationsmethoden vorgestellt, wobei eine der beiden das Fundament der späteren Untersuchung bildet. Darauf folgt die Analyse der Übersetzungsqualität von DeepL und die Auswertung der Fehler anhand einer festgelegten Evaluationsmetrik. Der Fokus liegt hierbei auf Identifikation und Diskussion von verschiedenen Fehlertypen im Zieltext. Im Fazit dieser Abhandlung werden die gesammelten Daten im Hinblick auf die Zukunft der maschinellen Übersetzung abschließend diskutiert.
Der Begriff Maschinelle Übersetzung beschreibt die Anfertigung von Translationen unter Verwendung von automatisierten Übersetzungssystemen. Es wird grundsätzlich zwischen computergestützter und maschineller Übersetzung unterschieden. Computer aided translation (CAT, computergestützte Übersetzung) gehört inzwischen zum Alltag vieler Translatoren. Dabei wird eine Übersetzung mit Hilfe eines Computerprogramms angefertigt, welches in der Regel über ein Translation-Memory-System und eine Alignment-Funktion verfügt. Diese dienen dazu, die angefertigten Übersetzungen zu speichern und zu verwalten. Ein vorübersetzter Text wird in der Regel von einem Übersetzer nachträglich korrigiert (Post-Editing). Diese Computerprogramme werden als CAT-Tools bezeichnet und sind besonders gut für Softwarelokalisierung, aber auch andere Bereiche geeignet. Wird der Übersetzungsprozess jedoch gänzlich ohne menschliche Intervention durchgeführt, so handelt es sich um reine maschinelle Übersetzung (MÜ, engl. Machine Translation, MT). Online-Übersetzungsdienste wie DeepL oder GoogleTranslate basieren auf diesem Konzept: Nutzer haben die Möglichkeit, Inhalte zwischen zwei ausgewählten Sprachen zu transferieren.
Die bisherigen Reaktionen zu DeepL sind einerseits sehr positiv, so beschreibt zum Beispiel Stephan Finsterbusch in der FAZ die Überlegenheit des Online-Übersetzungsdienstes aus Köln gegenüber dem US-Riesen Google wie folgt: „Die Übersetzungen [von Google] sind gut, doch die von DeepL sind nach einigen Testversuchen, die diese Zeitung vor der Markteinführung von DeepL machen konnte, besser“ (Finsterbusch, 2017). Andererseits gibt es auch kritische Stimmen, wie die des Vizepräsidenten des Bundesverbandes der Dolmetscher und Übersetzer (BDÜ) Ralf Lemster. In einem Interview mit der Süddeutschen Zeitung sagt er: „Als wir DeepL zum ersten Mal gesehen haben, dachte wir: ,Uff, das ist gut.‘ Aber es bleibt doch eine Menge Nachbearbeitung. Wir haben das bei einem Auftrag mal getestet. Mit unserer aktuellen Ausstattung waren wir sogar ein bisschen schneller“ (Schwenkenbecher, 2019). Die Technologie der Maschinellen Übersetzung, welche zweifelsfrei die Welt der Translationen revolutionierte, hat sich bereits in vielen Bereichen etabliert und ist daher von großer Bedeutung für die künftige Entwicklung der Übersetzungswissenschaften.
Die gesamte Geschichte der maschinellen Übersetzung erstreckt sich lediglich von der ersten Hälfte des 20. Jahrhunderts bis in die Gegenwart. In kürzester Zeit wuchs der Fachbereich zu einem komplexen Wissenschaftszweig heran. In dieser Periode veränderte der technologische Fortschritt die Landschaft der maschinellen Übersetzung maßgeblich und offenbarte viele Hürden sowie neue Lösungskonzepte. Diese dynamische Entwicklung nahm ihren Anfang in den 30er Jahren des 20. Jahrhunderts.
In seinem Buch „Problem solving activities in post-editing and translation from scratch“ führt Jean Nitzke den Ursprung der maschinellen Übersetzung auf die Patentvergabe für zwei ähnliche MÜ-Konzepte in Russland und Frankreich zurück. Diese Ideen wurde jedoch erst einige Jahre später von Warren Weaver aufgegriffen und als konkretes Forschungsziel formuliert (vgl. Nitzke 2019:4). Im Jahr 1949 veröffentlicht Weaver sein bahnbrechendes Memorandum unter dem schlichten Titel „Translation“ und skizziert darin die ersten Ideen zur Theorie der Direkten Übersetzung. Er zeichnet die Grenzen der Methodik auf und definiert die Problematik der Mehrfachbedeutung als die größte Herausforderung der direkten Übersetzungsmethode. Zugleich verweist Weaver auch auf die Relevanz des Kontexts, dessen Analyse den oben genannten Sachverhalt positiv beeinflusst und zur Steigerung der Übersetzungsqualität führen kann. Des Weiteren vermutet er, dass es in allen Sprachen gewisse logische Merkmale gibt, die gleichwertig sind, bzw. dass Sprachen im Allgemeinen universale Komponenten enthalten. Auch die Verwendung einer Universalsprache wird als eine Möglichkeit zur Lösung der Problematik der Ambiguität dargestellt. Die Entwicklung der Kryptographie im zweiten Weltkrieg wird von Warren ebenfalls als bedeutend für den Fortschritt von MÜ beschrieben (vgl. Qun/Xiaojun 2015:105).
In den 50er Jahren etablieren sich drei theoretische Ansätze im Bereich der maschinellen Übersetzung. Zum einem ist es die direkte Übersetzung zwischen Ausgangs- und Zielsprache mit minimaler syntaktischer und semantischer Analyse. Zum anderen ist es die InterlinguaMethode, welche in zwei Schritten abläuft. Im ersten wird der Ausgangstext zu einer abstrakten Instanz (Interlingua) transferiert, woraus im zweiten Schritt der zielsprachlichen Text erstellt wird. Die dritte und letzte Methode ist die Transfer-Methode. Sie stellt eine verwandte Variante der Interlingua-Methode dar (vgl. Hutchins 2015:120). Diese Ansätze werden im weiteren Verlauf dieser Arbeit ausführlich besprochen (siehe Kapitel 2.4.1.1. Direkte Methode, 2.4.1.2. Interlingua Methode, 2.4.1.3. Transfer-Methode ).
Die Problematik der semantischen Ambiguität prägt dieses Jahrzehnt und festigt die Ansicht, dass „[...] der menschliche Eingriff in dem Prozess des Übersetzens nötig ist [...]“ (Lopuszanska 2019:147). Einige Wissenschaftler zweifeln, ob das Problem der Mehrdeutigkeit allein mittels eines Algorithmus bzw. einer Methode gelöst werden kann, und präsentieren ihre alternativen Lösungsansätze. Erwin Reifler von der University of Washington formuliert die Idee der Prä- und Post-Edition. Darin legt er die Aufgaben eines Prä- bzw. eines Post-Editors fest. Die syntaktische Vereinfachung des Ausgangstextes, sowie die Bestimmung der Wortklassen von polysemen Wörtern gehören zu den Aufgaben des Prä-Editors. Der PostEditor überprüft und korrigiert ggf. die Übersetzung der einzelnen Wörter und passt die Syntax an die Zielsprache an. Dieses Konzept bildet das Fundament für zwei Verfahren (Prä- und PostEditing), welche bis heute in ähnlicher Form praktiziert werden. Auf der ersten Konferenz für maschinelle Übersetzung im Jahr 1952 schlägt Oswald „[...] die Erstellung von MacroGlossarien, in denen die Wörter nur bereichsspezifische Bedeutungen tragen würden als eine Lösung des Mehrdeutigkeitsproblems [...]“ (Lopuszanska 2019:147) vor.
Im Jahr 1954 gibt es einen ersten Durchbruch - Mitglieder des Institute of Linguistics der Georgetown University und diverse IBM-Mitarbeiter veröffentlichen die Ergebnisse ihres Projektes in Form eines funktionsfähigen Systems für maschinelle Übersetzung. Hierbei fungieren die von Weaver formulierten Grenzen und Möglichkeiten eines MÜ-Systems als Forschungsgrundlage. Der erste zu übersetzende Text besteht aus 49 Sätzen und wird unter Berücksichtigung von lediglich sechs grammatischen Regeln vom Russischen ins Englische übersetzt. Dieses Ereignis wird als großer Erfolg gefeiert und führt global zum wachsenden Interesse an maschineller Übersetzung. Plötzlich fließen auch mehr Gelder in die Forschung und verstärken die Dynamik der Entwicklung. Die anfängliche Euphorie nimmt mit neuen Erkenntnissen jedoch schnell ab, da die Problematik der semantischen Ambiguität parallel zur linguistischen Komplexität wächst und Forschende keine zufriedenstellenden Lösungsansätze entwickeln (vgl. Qun/Xiaojun 2015:106).
Der im Jahr 1966 veröffentliche ALPAC-Report stellt eine Zäsur in der Geschichte der maschinellen Übersetzung dar. Zwei Jahre zuvor wird das Automatic Language Processing Advisory Committee (ALPAC) von der National Academy of Sciences of the United States ins Leben gerufen. Das Ziel des Komitees ist es, die bestehenden MÜ-Systeme kritisch zu bewerten und eine Kosten-Nutzen-Rechnung durchzuführen. Die Ergebnisse sind katastrophal für die Forschung an MÜ-Systemen: es wird festgestellt, dass maschinelle Übersetzung im Vergleich zur traditionellen manuellen Übersetzung keine Kosten einspart und nur bedingt qualitativ wertvolle Ergebnisse liefert. Im Fazit der ALPAC-Untersuchung heißt es: „there is no immediate or predictable prospect of useful maschine translation” (ALPAC 1966; zit. n. Qun/Xiaojun 2015:106). Die Forschungsgelder werden daraufhin fast vollständig gestrichen, was die Entwicklung von MÜ in den Vereinigten Staaten praktisch zum Stillstand bringt. Die US-Linguisten und -Sprachwissenschaftler widmen sich nun eine Dekade lang der Entwicklung und Verbesserung von anderen translatorischen Hilfsmitteln, wie z.B. maschinellen Wörterbüchern. Glücklicherweise geschieht dies nur in den USA. In Europa, Japan und Russland wird weiterhin fleißig an MÜ-Systemen geforscht (vgl. Qun/Xiaojun 2015:106f).
Die politischen und wirtschaftlichen Entwicklungen der 70er Jahre erzeugen eine große Nachfrage nach MÜ-Systemen. Der Fokus der US-Wissenschaftler liegt damals auf Übersetzungen von technischen Texten aus dem Russischen ins Englische. Die Verschärfung des Konfliktes zwischen den USA und der Sowjetunion mobilisiert die Wissenschaft zu weiteren Entwicklungen. In Kanada steigt die Nachfrage nach MÜ-Systemen aufgrund der bilateralen Politik des Staates. Auch innerhalb der europäischen Gemeinschaft gibt es einen Mehrbedarf an Übersetzungen zwischen vielen unterschiedlichen Sprachen. Hutchins beschreibt den Trend in der Forschung der Maschinellen Übersetzung der 70er Jahre wie folgt: „The demand is now for cost-effective machine-aided translation systems which can deal with commercial and technical documentation in the principal languages of international commerce” (Hutchins 2015:123). Zu den prominentesten Entwicklungen dieses Jahrzehntes gehören zweifellos Meteo und Systran. Das erste MÜ-System wird an der Universität in Montreal entwickelt und dient in ganz Kanada zur Übersetzung von Wettervorhersagen aus dem Englischen ins Französische. Die Anwendung eines begrenzten Wortschatzes und einer vereinfachten Syntax sorgen für einen großen Erfolg. Meteo wird erst im Jahr 2001 von einem besseren System abgelöst. Systran entsteht um das Jahr 1970 im Rahmen eines Projektes an der Georgetown University unter der Leitung von Petr Toma. Zu den wichtigsten Kunden von Systran gehören damals die US Air Force, NASA und die Europäische Kommission (vgl. Hutchins 2015:122).
In den 80er Jahren fokussiert sich der Blick der Sprachwissenschaftler auf TransferSysteme, Interlingua-Systeme und korpusbasierte Systeme. Die erste Hälfte des Jahrzehnts wird von Interlingua-Systemen dominiert. Aufgrund von Misserfolgen der direkten Methode „hoffte [man], dass die Verwendung der indirekten Interlingua-Methode, die auf dem Übersetzen via eine universale und abstrakte Repräsentation der Bedeutung basiert, zu einer weniger wörtlichen Übersetzungen [!] führt“ (Lopuszanska 2019:152). Die Groupe d'Etudes pour la Traduction Automatique (GETA) aus Grenoble entwickelt ein in den 80er Jahren beliebtes und einflussreiches Transfer-System namens Ariane. Insbesondere sind es die Flexibilität und Modularität des Systems, welche für große Popularität sorgen. Obwohl Ariane vielen anderen Projekten als Vorbild dient, kommt es nicht zu einem kommerziellen Erfolg. Nichtsdestotrotz bilden die Erkenntnisse aus diesem Projekt die Grundlage für ein neues, besseres System. Im Rahmen des Eurotra- Projekts der Europäischen Gemeinschaft wird ein MÜ-System entwickelt, das unter Berücksichtigung von lexikalischen, semantischen und syntaktischen Informationen zwischen mehreren Sprachen übersetzen kann. Die dominante Position der Transfer- und Interlingua-Systeme in der Landschaft der maschinellen Übersetzung in den späten 80er Jahren wird durch die dynamische Entwicklung von korpusbasierten Systemen geschwächt. Bedeutend in dieser Phase sind die Forschungen von IBM zur statistischen maschinellen Übersetzung in den USA, sowie die Recherchen zu den beispielbasierten Systemen in Japan. Der technologische Fortschritt sorgt für neue Ansätze: die Verwendung von Rechnern kombiniert mit dem Einsatz von großen Korpora eröffnet Türen zu völlig neuen Arbeitsmethoden (vgl. Qun/Xiaojun 2015:108f).
Trotz den zahlreichen Entwicklungen und neuen Ansätzen ist die Mehrheit der Übersetzer weiterhin unzufrieden mit der Output-Qualität vieler MÜ-Systeme. In den 90er Jahren wird die Forderung nach nutzerorientierten Systemen immer lauter. Der Wunsch nach einem System, welches gefertigte Übersetzungen speichert und wiederverwendet, Qualität der Übersetzung analysiert, die Erstellung von Glossaren und Terminologiedatenbanken ermöglicht und mehrere Sprachen bedient, führt zur Entwicklung von Translation Memory Systemen (vgl. Hutchins 2015:127). Die Einführung von Online-Übersetzungsservices stellt eine weitere zukunftsweisende Entwicklung des Jahrzehnts dar. Mit der Inbetriebnahme des von Systran und AltaVista entwickelten Systems namens Bable Fish am 9 Dezember 1997 wird die erste kostenlose Plattform für maschinelle Übersetzung der Öffentlichkeit zur Verfügung gestellt. Dies läutet eine neue Epoche der automatischen Translation ein (vgl. Nitzke 2019:5f). Manche der Forschungsgebiete der 90er Jahre sind jedoch weniger erfolgreich. So beschäftigt man sich im Rahmen des Rosetta Project im Jahr 1994 mit der Problematik der Idiomatizität. Es gelingt den Wissenschaftlern, Idiome mit Hilfe eines MÜ-Systems korrekt zu übersetzen, indem „[...] die Sätze während der Analyse zum Indikativ umgewandelt und die Verben zu ihrer Standardform zurückgebracht wurden“ (Lopuszanska 2019:149). Des Weiteren spielt hierbei die Anwendung komplexer grammatischer Regeln eine wichtige Rolle für die richtige Zuordnung von korrekten Übersetzungen. Gleichzeitig führt es dazu, dass vollständige Übersetzungen nicht möglich sind (vgl. Lopuszanska 2019:149). Die Nachfrage nach kommerziellen maschinellen und maschinengestützten Übersetzungssystemen wächst stetig, da immer mehr Unternehmen aus wirtschaftlichem Interesse an innovativen Lösungsansätzen interessiert sind. Zugleich etabliert sich die Ansicht, dass MÜ-Systeme und maschinelle Übersetzungshilfen am Arbeitsplatz eines Übersetzers integriert werden sollen. Mit dem Beginn des neuen Jahrtausends und im Zuge der Globalisierung gewinnen auch andere Sprachen, wie z.B. Chinesisch, Koranisch oder Arabisch stark an Bedeutung (vgl. Krenz/Ramlow 2008:35f).
Der globale Informationsaustausch, der im neuen Jahrtausend durch die stets bessere Internetverfügbarkeit ermöglicht wird, begünstigt das Wachstum von Online-Korpora, die die Grundlage der korpusbasierten maschinellen Übersetzung bilden. Der Erscheinung von Apps und Social-Media im neuen Jahrtausend führt zu einem „Technology Push“, welcher aus der rasanten Entwicklung von neuronalen Netzwerken resultiert. Im Jahr 2007 entwickelt Google ein selbstlernendes Übersetzungssystem, das auf der statistischen Methode fußt. Dieses Modell wird mit der Zeit um die beispielbasierte Methode Phrase-based Machine Translation (PBMT) erweitert, die auf dem Vergleich mehrerer aufeinanderfolgender Wörter basiert. Dies impliziert zugleich, dass „[...] der Kontext zu einem geringen Grad berücksichtigt wird [...]“ (Schmalz, 2019:198).
Die aktuell populärste Methode ist die neuronale MÜ. Dieser Ansatz hatte seine Anfänge bereits in den 1980er Jahren, die richtigen Erfolge ließen jedoch bis in die zweite Hälfte der 2000er Jahre auf sich warten. Die Verbindung von neuronalen Sprachmodellen mit klassischen statistischen MÜ-Systemen führt zu einer beträchtlichen Verbesserung der Übersetzungsqualität (vgl. Koehn, 2020:39).
Insgesamt kann man feststellen, dass die MÜ viele Jahre lang ein vornehmlich forschungsorientiertes Projekt war, das im Laufe der Zeit auch in der Übersetzungspraxis an Bedeutung gewonnen hat und heute zu einem kommerziellen Produkt geworden ist (Krenz/Ramlow 2008:36).
Das menschliche Bedürfnis, zwischen unterschiedlichen Sprachen oder Kommunikationssystemen hin- und her zu übersetzen, ist so alt wie die Sprache selbst. Das Interesse an Übersetzungen wird aktuell ständig größer. Diese Entwicklung steht eng im Zusammenhang mit der Globalisierung sowie ihren sozio-ökonomischen und politischen Folgen. Kombiniert man also das uralte Grundbedürfnis des Menschen, Informationen zwischen Sprachen zu transferieren, mit der Vielzahl der potenziellen Kunden weltweit, so ergibt sich eine Unzahl an Übersetzungsaufträgen. Diese können aber unmöglich in absehbarer Zeit von menschlichen Translatoren übersetzt werden. Daraus ergibt sich eine Reihe unterschiedlicher Zwecke und Anwendungen für maschinelle Übersetzung, die nun näher beleuchtet wird.
Der Einsatz von MÜ-Systemen kann viele Gründe haben. Zuerst ist der wirtschaftliche Nutzen zu nennen, da eine manuell angefertigte Übersetzung in der Regel teurer und zeitaufwändiger ist und die Qualität einer menschlichen Übersetzung nicht immer notwendig ist. So wird häufig Produktdokumentation wie z.B. die Bedienungsanleitung mittels MÜ in die Zielsprache übersetzt. Dabei meidet der Auftraggeber hohe Kosten und das Risiko einer Verzögerung (vgl. Krenz/Ramlow, 2008:25). Hersteller, die ihre Produktunterlagen in mehreren Sprachen erstellen und entsprechend der technologischen Entwicklung eines einzelnen Produktes hin und wieder aktualisieren müssen, verwenden häufig maschinelle Translationssysteme zum Übersetzen von Dokumentationen. Dies trifft insbesondere zu bei Herstellern mit kleinem Budget für Übersetzungen, bzw. mit allgemein niedrigen Produktionskosten (vgl. Poibeau, 2017:224). Schmalz weist jedoch darauf hin, dass die Qualität maschineller Übersetzung für viele Zwecke nicht ausreichend sei und der menschliche Eingriff in Form des Post-Editings vorgenommen werden muss.
Wird eine automatische Übersetzung im kommerziellen, politischen oder juristischen Umfeld genutzt, ist es für die Außendarstellung eines Unternehmens wünschenswert oder rechtlich sogar nötig, dass die Übersetzung vollständig korrekt ist. [...] Hier müssen menschliche Übersetzerinnen und Übersetzer den Text in jedem Fall nachbearbeiten (Schmalz, 2019:196).
[...]
Der GRIN Verlag hat sich seit 1998 auf die Veröffentlichung akademischer eBooks und Bücher spezialisiert. Der GRIN Verlag steht damit als erstes Unternehmen für User Generated Quality Content. Die Verlagsseiten GRIN.com, Hausarbeiten.de und Diplomarbeiten24 bieten für Hochschullehrer, Absolventen und Studenten die ideale Plattform, wissenschaftliche Texte wie Hausarbeiten, Referate, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten, Dissertationen und wissenschaftliche Aufsätze einem breiten Publikum zu präsentieren.
Kostenfreie Veröffentlichung: Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen!
Kommentare