Projektbeschreibung

DigiLab - Neue Technologien im Konferenzdolmetschen

 

Home Module Demo Übungen Archiv DolTerm Telekonferenz Projektbeschreibung

DigiLab – Ein Forschungsprojekt zu Neuen Technologien im Konferenzdolmetschen

(Auszug aus Veröffentlichung mit Abbildungen in AREAS)

Schon seit seinen frühesten Anfängen ist das Konferenzdolmetschen eng mit richtungsweisender Technologie verbunden. Das Simultandolmetschen wurde durch eine damals revolutionäre  Umkonstruktion von Rundfunktechnik überhaupt erst möglich[1] und stellt bis heute eine der faszinierendsten kommunikationswissenschaftlichen Konstellationen an der Schnittstelle zwischen Mensch und Technik dar. Während in der Vergangenheit die Tonstrecke in erster Linie zur akustischen Entkopplung verschiedener Sprachen und damit paralleler Sprecher genutzt wurde, treten durch die zunehmende Verwischung der Mediengrenzen und die Integration bisher technisch inkompatibler Formate neue Kommunikationskonstellationen auf, die sich mit traditionellen Modellen[2] nicht mehr hinreichend beschreiben lassen.

Das Versäumnis der Dolmetschwissenschaft, diese hinreichend und allgemeinverständlich zu beschreiben, führt zu unvertretbaren Arbeitssituationen in der Praxis. So ist bislang weder ein trockener, präsenter Ton mit unverfälschtem Klangspektrum und dem aufgrund der Frequenzüberlagerungen durch Körperschall (Innenohr) und die eigene Stimme zwingend notwendigen Überstand von sinntragenden Frequenzen (im Deutschen z.B. Höhen für die Zischlaute und Plosive bei Konsonanten) als Anforderungsprofil definiert, noch existieren Untersuchungen zur Auswirkung digitaler Kompressionsverfahren auf die Tonqualität aus der Sicht des Dolmetschers.[3] Das Axiom des simultandolmetsch-spezifischen Tonqualitäts-Anforderungsprofils lässt sich in der Praxis leicht belegen: Nicht selten wundert sich der Kabinenpartner über einen plötzlichen Leistungseinbruch des gerade dolmetschenden Kollegen, der ihm, obwohl er in exakt der gleichen Tonqualität zuhört, unerklärlich bleibt. Erst mit Beginn des eigenen Turnus und dem gleichzeitigen Sprechen offenbart sich der katastrophale Ton. Digitale Kompressionsverfahren führen teils sogar zu völliger Unbrauchbarkeit des Tons für SD. Es liegt also im Wesen der Videokonferenz, daß solche Probleme geballt auftreten. Wiederholt negative Erfahrungen mit unbrauchbarer Technologie und ein Erklärungsnotstand gegenüber dem Veranstalter haben deshalb bei vielen KD zu Skepsis[4] bis hin zu einer völligen Verweigerungshaltung gegenüber fortschrittlichen Technologien geführt - ein Paradoxon im Lichte der oben beschriebenen historischen Entwicklung.

Dieses zu überwinden ist das Ziel des Heidelberger Projektes DigiLab. In der zur Zeit weltweit modernsten Dolmetsch-Forschungsanlage am Institut für Übersetzen und Dolmetschen der Universität Heidelberg werden verschiedene Konstellationen mit professioneller Studiotechnik in einer digitalen Matrix verschaltet und unter realitätsnahen Bedingungen getestet. Dabei stehen allein im Konferenzsaal II neben sechzehn zeitcodierten Audiospuren auch speziell für die Simultanverdolmetschung örtlich verteilter Konferenzen entwickelte Videokonferenzsysteme zur Verfügung. Textmaterial ist den Studierenden auf einer medienintegrierten Plattform sowohl als Transkript mit Übersetzung zugänglich als auch als Aufnahmen, z.B. in Form von Live-Mitschnitten auf digitalen Videomedien, die auf eine Großbildleinwand projiziert werden und digitalen Tonmitschnitten von Veranstaltungen in CD-Qualität. Zu jeder Unterrichtseinheit stehen neben den Aufnahmen und Texten übersichtlich thematische und enzyklopädische Hintergrundinformationen zur Verfügung, sowie auf CD-ROM und als Hyperlink zu weiterführenden Quellen.

Nicht zu vergessen ist die nahtlose Integration des onomasiologischen Terminologiesystems DolTerm[5]. Das im Rahmen eines Dissertationsvorhaben von Konferenzdolmetschern speziell für das Simultandolmetschen entwickelte Terminologiesystem geht völlig neue Wege in der Wissensorganisation, arbeitet mit dynamisch generierten Sichten und paßt sich in die Arbeitsprozesse beim Dolmetschen ein. So ist z.B. der gleiche Datenbestand in der Vorbereitungs- und Recherchephase im Vorfeld einer Konferenz mit ausführlichen lexikographischen Angaben verfügbar und unterscheidet sich im Gebrauch zunächst kaum von anderen Terminologie-Systemen wie WinCats oder MultiTerm – bis auf die stärkere Einbindung enzyklopädischer Informationen und die teilautomatisierte Analyse von Paralleltexten. In einer Metaebene werden allerdings anschließend die für den Einsatz in der Kabine wesentlichen Informationen abgelegt, um eine blitzartige Recherche während des Simultandolmetschens zu ermöglichen. Das System wird inzwischen von etlichen Konferenzdolmetschern im harten Berufsalltag eingesetzt und ermöglicht die Verwaltung der bis zu 2.300 Semwolken, die bei einem durchschnittlichen wissenschaftlichen Fachkongreß anfallen. Als nächste Ausbaustufe sind mehrdimensionale, Mindmap-basierte Navigationsmodule geplant, die im Vorbereitungsmodul die Organisation von aus Paralleltexten gewonnenen Daten in dolmetschgerechte Semwolken ermöglichen.

Die Abbildung zeigt das derzeitige Simultanmodul: Bei einer Konferenz können mehrere Module gleichzeitig geöffnet werden. Jedem Modul kann eine hierarchisch kaskadierende Umgebungsvariable (Konferenz/Sitzung/Rede und Fachgebiet/Untergebiet/Anwendung) zugewiesen werden. Wird z.B. nur „KFZ“ ohne weitere Detailangaben eingegeben, sind die Untergebiete Motoren, Getriebe, Aufhängung etc. automatisch enthalten, ebenso wie die Anwendungsbereiche Motoren/Steuerung oder Getriebe/Automatik.

Gibt der Dolmetscher nun z.b. „wel“ ein und drückt Enter, zeigt das System die Liste aller diesen substring enthaltenden Begriffe an, also neben der gesuchten Ausgeleichswelle z.B. auch die Nocken- und Kurbelwelle und das Drei-Wellen-Gehäuse. Das Suchfeld ist sofort wieder zur nächsten Eingabe bereit. Durch die oben beschriebene Umgebungsvariable hält sich die Zahl der angezeigten Begriffe jedoch immer so sehr im Rahmen, daß der gesuchte Terminus auf einen Blick gefunden werden kann. Bei Bedarf kann durch den Druck einer einzigen Taste zur Umkehrsuche, zu Sichtlisten mit Abkürzungen, rednerspezifischer Terminologie anderen Modulen gewechselt werden.

DolTerm – Simultanmodul

Man kann sich leicht vorstellen, wie effizient ein solches System genutzt werden kann und wie unentbehrlich es im Durchgriff auf große, externe Datenbestände (Wörterbuch CD-Rom, Datenbanken) wird. So lassen sich beim Simultandolmetschen gleichzeitig neben den eigenen Glossaren bis zu 23 in virtuellen Laufwerken verwaltete Wörterbuch-CDs durchsuchen – eine Funktion, die sicherlich auch für die Arbeit von Übersetzern interessant ist.

Insgesamt kann festgestellt werden, daß durch eine frühzeitige didaktische Heranführung der Studierenden an solche Systeme schnell neue, effizientere Arbeitsprozesse vermittelt werden können, die sich unmittelbar in Kompetenz und auch in deutlichen Performanzschüben äußern.

Die zweite Ausbaustufe der medienintegrierten Plattform am IÜD umfasst die Integration weiterer Konferenzsäle, einen Archivserver sowie technologisch und didaktisch richtungsweisende Simultan-Dolmetschlabor-Arbeitsplätze[6]. Der Archivserver ermöglicht den Zugriff auf alle im Zuge der Forschungsprojekte sowie im Rahmen der Dolmetscherausbildung anfallenden Ton-, Text- und Videoaufzeichnungen als querverbundene Objekte. Jeder Student kann so seine eigene Leistung aus dem Unterricht nachbereiten, sie mit dem Original und den Leistungen seiner Kommilitonen vergleichen, Transkripte und Übersetzungen zeitcodiert parallel zur Audioaufzeichnung scrollen, Videoaufnahmen von Konsekutivleistungen abrufen und analysieren.

Das gesamte System ist schon heute vom Dozenten mit einer berührungsgesteuerten Konsole zu bedienen, mit der auch projektionsabhängige Beleuchtungs-Szenarien[7], Haustechnik, Videokamera-Positionierung gesteuert werden können. Weiterhin lassen sich alle Kabinen gleichzeitig aufnehmen, wobei frei während der Rede zu plazierende time code-Marker einen leichten Vergleich des Erfolgs der bei schwierigen Passagen angewandten Strategien ermöglichen – ein Durchbruch nicht nur in der Effizienz der Lehre, sondern auch der Forschung, die nun Ausgangsmaterial in völlig neuen Größenordnungen verarbeiten kann. 

Parallel dazu wird es ein Didaktik-Forum geben, in dem die Dozenten des Instituts spezifische Strategien und Materialien hinterlegen und diskutieren können. Auch der Lehrbetrieb dürfte von der direkten Anbindung der Konferenzräume etwa an EU-Parlamentssitzungen profitieren, hierzu sind bereits erste Vorgespräche begonnen worden.

Zu Forschungszwecken ist bereits eine Anbindung an das IDF (Institut für Deutsch als Fremdsprachenphilologie) sowie die  Schwesterinstitute FASK Germersheim und an Monterey (USA) möglich. Damit steht schon heute am IÜD eine einzigartige volldigitale und medienintegrierte Forschungsanlage zur Verfügung, die nachgerade zum Einsatz von KI und Neuronalen Netzen zur wissenschaftlichen Analyse des umfangreichen Archivmaterials einlädt. So lassen sich auch endlich Aussagen auf Grundlage wissenschaftlich gesicherter statistischer Grundgesamtheiten statt auf der bisher üblichen empirischen Grundlage treffen – eine Forderung, die in fast allen jüngeren Publikationen zur Dolmetschforschung erhoben wird, deren Erfüllung allerdings bislang aufgrund der mangelnden technischen Ausstattung nicht möglich war.

Die grösste Herausforderung für die Forschung stellt indes die Simultan-Verdolmetschung örtlich verteilter Konferenzen dar. In Anbetracht des erheblichen Einsparungspotentials an Reise- und Übernachtungskosten ist der Siegeszug der Videokonferenz in der Industrie wenig verwunderlich. Bisher gibt es jedoch kein befriedigendes System zur Simultanverdolmetschung[8]. Da solche Systeme i.d.R. gerade über grosse Entfernungen, etwa zu einem Treffen aller Importeure eines Herstellers eingesetzt werden, mag dies verwundern. Zu erklären ist dieser Umstand u.a. durch die Technikgläubigkeit der Hersteller: Selbst auf Grossdemonstrationen auf der Cebit laufen auf der Leinwand Untertitel mit - auf Nachfrage versicherte man, dass das Sprachmodul demnächst im Preis enthalten sei.

Am IÜD bemüht man sich nun um einen Mittelweg, der Technik sinnvoll einsetzt. Dabei wird von vorneherein auf Ansätze mit reduzierter Tonqualität (ISDN/H.320) verzichtet, deren mangelnde Eignung bereits hinreichend belegt ist[9]. Ausgangsbasis ist vielmehr die Empfehlung der AIIC, des Internationalen Verbands der Konferenzdolmetscher, zum Einsatz Neuer Technologien im Zusammenhang mit dem Simultandolmetschen. Diese beruht auf langjähriger leidvoller Erfahrung mit solchen Systemen und stellt deren Grenzen dar. Auf der anderen Seite steht die langjährige Erfahrung des Verfassers mit professioneller Studiotechnik beim Fernsehen, welche die prinzipielle Machbarkeit solcher Systeme nahe legt. Im Rahmen der Forschungsarbeit am IÜD soll deshalb auf Grundlage der Empfehlungen des Technischen Ausschusses des Internationalen Verbands der Konferenzdolmetscher, AIIC, ein Anforderungsprofil für Telekonferenz-Systeme entwickelt werden, die von Simultandolmetschern auch akzeptiert werden und professionelle Arbeit ermöglichen.

Die technische Voraussetzungen dafür sind in der weltweit einzigartigen Forschungsanlage bereits gegeben: Der volldigitale Konferenzraum am IÜD verfügt neben modernster Dolmetscher-Technik über bahnbrechende Videokonferenztechnik mit Bandbreiten bis zu 2048kbps (32 B-Kanäle!), Multipoint-Fähigkeiten und Großbildprojektion. Da selbst bei Nutzung des vollen Frequenzganges von 0-20khz und mit bester Bildqualität diese bei weitem nicht ausgeschöpft ist, stellt sich das IÜD industriellen und universitären Partnern als Kompetenz-, Technologie- und Schaltzentrum für Telekonferenzen zur Verfügung. Entsprechende Technik auf der Partnerseite vorausgesetzt, können sich so mehrere Standorte mit dem Konferenzsaal des IÜD in dolmetschadäquater Ton- und Bildqualität verbinden. Das Know-How über die entstehenden Schaltwege und Sprachenpaarungen, die für Redner, Dolmetscher und Diskussionsbeiträge notwendigen Bandbreiten, Begleitkanäle (Dokumentenkameras, getrennte Powerpoint-Einspeisung usw.) wird zentral gesammelt und steht den Partnern zur Verfügung. Bereits bei den Voruntersuchungen zum Projekt hat sich gezeigt, daß trotz moderner Group- und Projektmanagement-Software eine örtliche Bündelung der Organisation sowie der Dolmetscher und der aufwendigeren Technik bei derart komplexen Projekten unabdingbar ist. Als Beispiel sei hier nur eine Konferenz mit den Amtssprachen der EU genannt, die eine Matrix mit nicht weniger als 110 darstellbaren Sprachenpaarkombinationen erfordert.

Ziel des Projektes ist neben dem Aufbau des Teleconferencing-Hubs die Entwicklung kleiner, beherrschbarer Szenarien, die weiterentwickelt und in Gross- und Langzeitversuchen auf ihre Robustheit und Wirtschaftlichkeit getestet werden. Der hierbei aufgewendete Arbeitsaufwand wäre in der Industrie nicht wirtschaftlich darstellbar.

Durch die medienintegrierte Plattform wird zum ersten Mal auch eine statistisch fundierte didaktische Forschung möglich: Wiederholt wurde in der dolmetschdidaktischen Forschung die häufig von persönlicher Prägung der Dozenten gekennzeichneten Zufälligkeiten der Dolmetscherausbildung kritisiert. Exemplarisch seien die Arbeiten von Sylvia Kalina angeführt, die am IÜD Heidelberg die erste kohärent-systematische Vorlage für eine strukturierte Dolmetsch-Didaktik mit Erfolgskontrolle entwickelte[10], die es nun mit Hilfe vergleichender Analysen der unterschiedlichen Ansätze in den jeweiligen Sprachen zu einem generell anwendbaren didaktischen Rahmen weiterzuentwickeln gilt. Dabei ist neben dem einfachen Austausch erfolgreicher Strategien, etwa durch die Übungsmodule „Redeanfang“, „Rhetorik“ und „Notizentechnik“ auch eine Möglichkeit der persönlichen Fortschritts- und Kompetenzerweiterungs-Überprüfung für Studenten geplant. So können unter Rückgriff auf die digitalen Archivbestände und damit auf eigene Dolmetschleistungen aus dem Unterricht gezielt Kompetenzlücken aufgedeckt und mit speziellen Übungsmodulen aufgearbeitet werden.

 

Da mit traditionellen Kommunikationsmitteln nur ein kleiner Ausschnitt der begonnenen Projekte dargestellt werden kann, sowie zur zeitnahen Unterstützung der Arbeit am Institut und der Kooperation mit externen Partnern wurde eine Reihe von Websites geschaltet. Diese umfassen den unterschiedliche Nutzergruppen und Projektteams zugängliche Materialien auf unterschiedlichen Medien. So ist ein Einführungs-Video zum Simultandolmetschen bei Telekonferenzen ebenso erhältlich wie umfangreiche Projektmappen mit Grundinformationen. Den Studierenden und allen Projektmitgliedern wird in Kürze neben dem Online-Zugriff auf die DigiLab-Plattform auch eine Light-Version des DolTerm-Clients kostenlos zum Download zur Verfügung stehen.

Interpreters are born, not made lautet ein verbreitetes Axiom unter Konferenzdolmetschern. Sicher ist richtig, daß trotz harten NCs, hoher Ausfallquote und einer sehr anspruchsvollen Eignungsprüfung am Beginn der Dolmetscherausbildung auch in Zukunft Bewerber auf die Grundbegabung zum Simultandolmetschen zu überprüfen sind. Ganz sicher aber ist durch die Systematisierung der Lehrinhalte, die engere inhaltliche Abstimmung der Themen und didaktischen Strukturen zwischen den Abteilungen, und die best practice Börse mit durch Erfolgskontrolle bestätigten Lehrstrategien der u.a. von Kalina geforderte Durchbruch in der Didaktik möglich. Ein medienintegriertes und von zukunftsweisenden Technologien gestütztes Arbeitsumfeld für Lehrkörper und Studenten mit direkter Anbindung an Live-Situationen kann hierbei den entscheidenden Impuls geben.

 

[1] R. van Hoof: “A word in your earphone”. European Community 6, 1976, pp. 28-30.
[2] Seminar „Konferenzdolmetschen im Umbruch – Technologien der Konferenz des 21. Jh.“ im WS 99/00 IÜD.
[3] Eine erste Untersuchung ergab verblüffende Empfindlichkeit von sowohl studentischen als auch professioneller Simultandolmetscher gegenüber technischen Artefakten und Hall im Ton. Diese wurde als störender empfunden als selbst extreme Datenkompression (Tests mit 44khz/16bit Stereoton bis 8khz/8bit Mono, sowie MPEG-Kompression).
[4] Remote Conferencing – The Point of View of the Technical and Health Committee, AIIC 1998.
[5] Weitere Informationen zur Dissertation und zum Forschungsprojekt Terminologiesysteme für Simultandolmetscher bei www.Dolterm.de.
[6] OHD-Projektion mitscrollender Glossare, Internet, DolTerm etc.
[7] z.B. zur Vermeidung des „Ausfressens“ von ppt-Projektionen bei Videoübertragung.
[8] Obwohl im Forschungsprofil des BMI für das Projekt VIKIS z.B. ATM und professionelle Studiotechnik angekündigt werden, beschränkte man sich beim Versuchsaufbau auf ISDN: Abschlußbericht Vikis
www.uni-tuebingen.de/vikis.
[9] Code for the Use of New Technologies, AIIC 1998; VIKIS s.o.
[10] Sylvia Kalina: Strategische Prozesse beim Dolmetschen. Tübingen 1998, S. 233ff.
 

Home ] Module ] Demo ] Übungen ] Archiv ] DolTerm ] Telekonferenz ] [ Projektbeschreibung ]

Bei Fragen und Unklarheiten wenden Sie sich bitte an: Christoph Stoll 
Stand:10. Februar 2001