Bachelorarbeit, 2021
60 Seiten, Note: 1,7
1. Einleitung
2. Maschinelle Übersetzung
2.1. Geschichte der maschinellen Übersetzung
2.2. Zweck und Anwendung der maschinellen Übersetzung
2.3. Probleme der maschinellen Übersetzung
2.4. Methoden der maschinellen Übersetzung
2.4.1. Regelbasierte Methode
2.4.1.1. Direkte Methode
2.4.1.2. Interlingua-Methode
2.4.1.3. Transfer-Methode
2.4.2. Statistische Methode
2.4.2.1. Wortbasierte Methode
2.4.2.2. Phrasenbasierte Methode
2.4.2.3. Syntaxbasierte Methode
2.4.3. Beispielbasierte Methode
2.4.4. Neuronale Methode
3. DeepL
3.1. Über DeepL
3.2. Grundlegende Funktionen und Varianten von DeepL
3.3. Convolutional Neural Networks und die Grenzen der NMÜ
4. Evaluation der Übersetzungsqualität im Allgemeinen
4.1. Evaluation der Übersetzungsqualität von maschinellen Übersetzungen mit BLEU
4.2. Evaluation der Übersetzungsqualität von maschinellen Übersetzungen nach Ramlow
5. Untersuchung und Fehleranalyse
5.1. Auswahl der Sprachen und der Texte
5.2. Bestimmung und Erläuterung der Fehlertypologie
5.3. Fehleranalyse der einzelnen Fehlerkategorien anhand von Beispielsätzen
5.4. Fehlerauswertung und Zusammenfassung
6. Fazit
Die vorliegende Arbeit untersucht die Rolle der maschinellen Übersetzung (MÜ) im modernen Übersetzungsprozess und evaluiert kritisch die Qualität von DeepL anhand einer empirischen Fehleranalyse. Das Ziel ist es, die Leistungsfähigkeit neuronaler MÜ-Systeme in einem fachsprachlichen Kontext zu prüfen und Potenziale sowie Grenzen für den professionellen Einsatz aufzuzeigen.
2.1. Geschichte der maschinellen Übersetzung
Die gesamte Geschichte der maschinellen Übersetzung erstreckt sich lediglich von der ersten Hälfte des 20. Jahrhunderts bis in die Gegenwart. In kürzester Zeit wuchs der Fachbereich zu einem komplexen Wissenschaftszweig heran. In dieser Periode veränderte der technologische Fortschritt die Landschaft der maschinellen Übersetzung maßgeblich und offenbarte viele Hürden sowie neue Lösungskonzepte. Diese dynamische Entwicklung nahm ihren Anfang in den 30er Jahren des 20. Jahrhunderts.
In seinem Buch „Problem solving activities in post-editing and translation from scratch“ führt Jean Nitzke den Ursprung der maschinellen Übersetzung auf die Patentvergabe für zwei ähnliche MÜ-Konzepte in Russland und Frankreich zurück. Diese Ideen wurde jedoch erst einige Jahre später von Warren Weaver aufgegriffen und als konkretes Forschungsziel formuliert (vgl. Nitzke 2019:4). Im Jahr 1949 veröffentlicht Weaver sein bahnbrechendes Memorandum unter dem schlichten Titel „Translation“ und skizziert darin die ersten Ideen zur Theorie der Direkten Übersetzung. Er zeichnet die Grenzen der Methodik auf und definiert die Problematik der Mehrfachbedeutung als die größte Herausforderung der direkten Übersetzungsmethode. Zugleich verweist Weaver auch auf die Relevanz des Kontexts, dessen Analyse den oben genannten Sachverhalt positiv beeinflusst und zur Steigerung der Übersetzungsqualität führen kann. Des Weiteren vermutet er, dass es in allen Sprachen gewisse logische Merkmale gibt, die gleichwertig sind, bzw. dass Sprachen im Allgemeinen universale Komponenten enthalten. Auch die Verwendung einer Universalsprache wird als eine Möglichkeit zur Lösung der Problematik der Ambiguität dargestellt.
1. Einleitung: Die Einleitung verortet die maschinelle Übersetzung im Kontext des technologischen Fortschritts und der Globalisierung und definiert das Ziel der kritischen Untersuchung der Qualität von DeepL.
2. Maschinelle Übersetzung: Dieses Kapitel erläutert die geschichtliche Entwicklung, Anwendungsbereiche und die verschiedenen technischen Methoden der maschinellen Übersetzung.
3. DeepL: Hier wird der Dienst DeepL vorgestellt, seine Funktionen beschrieben und der Einsatz von Convolutional Neural Networks als technische Grundlage thematisiert.
4. Evaluation der Übersetzungsqualität im Allgemeinen: Das Kapitel vergleicht verschiedene Evaluationsansätze, insbesondere das automatische BLEU-Verfahren und die qualitative Fehleranalyse nach Ramlow.
5. Untersuchung und Fehleranalyse: Dieses Kernkapitel beschreibt die Methodik der empirischen Untersuchung, die Auswahl des Textes aus dem EU-Vertrag und die systematische Kategorisierung der gefundenen Fehler.
6. Fazit: Das Fazit fasst die Ergebnisse zusammen, bewertet die Eignung von DeepL für den professionellen Einsatz und blickt auf die künftige Entwicklung der MÜ.
Maschinelle Übersetzung, DeepL, Fehleranalyse, neuronale Netze, Übersetzungsqualität, Post-Editing, Translation, Computerlinguistik, Sprachwissenschaft, Evaluation, Fehlertypologie, Translation Memory, künstliche Intelligenz
Die Arbeit untersucht die Qualität von maschinell erstellten Übersetzungen am Beispiel des Dienstes DeepL und bewertet dessen Rolle im professionellen Übersetzungsprozess.
Zentrale Themen sind die Geschichte und Methoden der maschinellen Übersetzung, die Funktionsweise neuronaler Netze sowie die Methoden der Qualitätsevaluation von Translationen.
Das primäre Ziel ist eine wissenschaftliche Überprüfung der Übersetzungsqualität von DeepL anhand eines fachsprachlichen Auszugs und die Einschätzung des notwendigen Aufwands für eine professionelle Nachbearbeitung.
Die Arbeit nutzt die qualitative Fehleranalyse nach Markus Ramlow, um den Output des MÜ-Systems systematisch in Kategorien wie Lexik, Morphologie und Syntax zu erfassen.
Im Hauptteil werden zunächst die theoretischen Grundlagen der MÜ-Methoden und die Architektur von DeepL dargelegt, gefolgt von der praktischen Durchführung der Fehleranalyse an einem Text aus dem Vertrag über die Europäische Union.
Die Arbeit lässt sich durch Begriffe wie Maschinelle Übersetzung, DeepL, Fehleranalyse, neuronale Netze und Qualitätsevaluation beschreiben.
Das „Problem des unbekannten Wortes“ stellt eine Herausforderung dar, da nur gelernte Begriffe präzise übersetzt werden können, was zu Lücken oder Fehlern im Zieltext führen kann.
Die Analyse ergab eine Fehlerrate von etwa 6,5 % im untersuchten Text, wobei DeepL insgesamt als ein qualitativ hochwertiges Werkzeug bewertet wird, das eine solide Grundlage für das Post-Editing bietet.
Die Untersuchung zeigt, dass DeepL Schwierigkeiten bei der korrekten Setzung oder dem Weglassen von Artikeln (als Teil der Synsemantika) hat, was sich negativ auf die inhaltliche Präzision auswirken kann.
Der GRIN Verlag hat sich seit 1998 auf die Veröffentlichung akademischer eBooks und Bücher spezialisiert. Der GRIN Verlag steht damit als erstes Unternehmen für User Generated Quality Content. Die Verlagsseiten GRIN.com, Hausarbeiten.de und Diplomarbeiten24 bieten für Hochschullehrer, Absolventen und Studenten die ideale Plattform, wissenschaftliche Texte wie Hausarbeiten, Referate, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten, Dissertationen und wissenschaftliche Aufsätze einem breiten Publikum zu präsentieren.
Kostenfreie Veröffentlichung: Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen!

