Closed Captions vs. Untertitel: Was ist der Unterschied?
Verstehen Sie die wichtigsten Unterschiede zwischen Closed Captions und Untertiteln. Erfahren Sie, wann Sie welches Format verwenden, Barrierefreiheitsanforderungen und wie sie erstellt werden.
Closed Captions enthalten Klangbeschreibungen und sind für gehörlose und schwerhörige Zuschauer konzipiert, während Untertitel davon ausgehen, dass der Zuschauer hören kann, und nur den Dialog transkribieren. Obwohl sie im alltäglichen Sprachgebrauch austauschbar verwendet werden, bedienen diese beiden Formate unterschiedliche Zielgruppen, folgen unterschiedlichen Standards und enthalten unterschiedliche Arten von Informationen.
Das Verständnis der Unterscheidung ist wichtig, ob Sie Content Creator, Pädagoge oder Unternehmen sind, das Video barrierefrei machen möchte. Die Wahl des falschen Formats kann Zuschauern wichtigen Kontext vorenthalten oder Sie auf die falsche Seite von Barrierefreiheitsvorschriften bringen. Dieser Leitfaden erklärt genau, wie sich Closed Captions und Untertitel unterscheiden, wann Sie welches Format verwenden sollten und wie moderne KI-Tools die Erstellung beider erheblich vereinfacht haben.
Was sind Closed Captions?
Closed Captions sind eine Texteinblendung, die jeden bedeutsamen Klang in einem Video darstellt, nicht nur gesprochene Worte. Sie wurden ursprünglich in den 1970er Jahren für das Fernsehen entwickelt, um gehörlosen und schwerhörigen Zuschauern vollen Zugang zu Sendungsinhalten zu geben.
Eine Closed-Caption-Spur enthält typischerweise:
- Dialog mit Sprecheridentifikation (z. B. „ERZÄHLER:" oder „SARAH:")
- Soundeffekte in Klammern beschrieben, wie [Tür schlägt zu], [Telefon klingelt] oder [Schritte nähern sich]
- Musikbeschreibungen wie [fröhliche Jazzmusik] oder [düstere Klaviermelodie]
- Ton- und Art-Indikatoren wie [flüsternd], [sarkastisch] oder [schreiend]
- Nicht-sprachliche Audiohinweise mit Bedeutung, wie [Stille], [Applaus] oder [Rauschen]
Das Wort „closed" (geschlossen) bedeutet, dass die Captions vom Zuschauer ein- oder ausgeschaltet werden können. Dies unterscheidet sie von Open Captions, die dauerhaft in das Videobild eingebettet sind. Die meisten Streaming-Plattformen, das Rundfunkfernsehen und Videoplayer unterstützen Closed Captions über eine CC-Schaltfläche oder ein Barrierefreiheitsmenü.
Closed Captions werden mit präzisen Zeitstempeln zur Audio-Timeline synchronisiert. Jeder Caption-Block erscheint und verschwindet zu bestimmten Momenten und stellt sicher, dass der Text zu dem passt, was auf dem Bildschirm geschieht. Die Standard-Dateiformate für Closed Captions umfassen SRT und VTT sowie sendespezifische Formate wie SCC und MCC.
Was sind Untertitel?
Untertitel sind eine Textdarstellung des gesprochenen Dialogs in einem Video. Sie sind für Zuschauer konzipiert, die das Audio hören können, aber die Sprache in Text umgewandelt benötigen, am häufigsten weil das Video in einer Fremdsprache ist.
Untertitel enthalten typischerweise:
- Gesprochenen Dialog, wörtlich transkribiert oder übersetzt
- Übersetzung von Bildschirmtext, wenn Schilder, Titel oder geschriebene Inhalte im Video erscheinen
- Sprecherzuordnung in manchen Fällen, obwohl dies weniger konsistent ist als bei Captions
Was Untertitel in der Regel nicht enthalten, sind die nicht-sprachlichen Audioinformationen, die Closed Captions definieren. Eine Untertitelspur wird Ihnen nicht sagen, dass eine Tür außerhalb des Bildes zugeschlagen wurde, dass spannungsgeladene Musik aufgebaut wird oder dass ein Charakter flüstert. Die Annahme ist, dass der Zuschauer diese Elemente hören kann.
Untertitel werden am häufigsten mit fremdsprachigen Inhalten assoziiert. Wenn Sie einen Film auf Französisch mit englischem Text auf dem Bildschirm schauen, lesen Sie Untertitel. Der Text wurde übersetzt und zeitlich auf den Originaldialog abgestimmt, beschreibt aber nicht die Umgebungsgeräusche oder die Filmmusik.
Untertitel verwenden die gleichen Dateiformate wie Captions, hauptsächlich SRT und VTT, was manchmal die Grenze zwischen beiden verwischen kann. Der Unterschied liegt im Inhalt, nicht im Container.
Wichtige Unterschiede zwischen Closed Captions und Untertiteln
| Merkmal | Closed Captions | Untertitel |
|---|---|---|
| Primäre Zielgruppe | Gehörlose und schwerhörige Zuschauer | Hörende Zuschauer bei fremdsprachigen Inhalten |
| Dialog | Ja | Ja |
| Soundeffekte | Ja, in Klammern beschrieben | Nein |
| Musikbeschreibungen | Ja | Nein |
| Sprecheridentifikation | Ja, typischerweise beschriftet | Manchmal |
| Sprache | Normalerweise dieselbe Sprache wie das Audio | Oft eine andere Sprache (Übersetzung) |
| Ein-/Ausschaltbar | Ja, Zuschauer kann ein-/ausschalten | Ja |
| Gesetzlich vorgeschrieben | Oft ja (ADA, FCC, EU) | In der Regel nein |
Die Kernunterscheidung läuft auf Vollständigkeit hinaus. Closed Captions zielen darauf ab, die gesamte Audiospur in Textform darzustellen. Untertitel zielen darauf ab, gesprochenen Dialog in einer anderen Sprache lesbar oder in Textform bequem zugänglich zu machen.
In der Praxis variiert die Terminologie je nach Region. In den Vereinigten Staaten sind „Closed Captions" und „Subtitles" unterschiedliche Konzepte wie oben beschrieben. Im Vereinigten Königreich und in weiten Teilen Europas deckt der Begriff „Untertitel" beide Anwendungsfälle ab, und was Amerikaner Closed Captions nennen, wird oft als „Untertitel für Gehörlose und Schwerhörige" (SDH) bezeichnet. Wenn Sie Inhalte international verbreiten, hilft es, explizit anzugeben, was Ihre Textspur enthält, anstatt sich allein auf die Terminologie zu verlassen.
Open Captions vs. Closed Captions
Neben der Unterscheidung zwischen Captions und Untertiteln gibt es einen wichtigen Unterschied zwischen Open und Closed Captions.
Closed Captions werden als separate Datenspur neben dem Video geliefert. Der Zuschauer kann sie ein- oder ausschalten, ihre Größe ändern und manchmal ihr Erscheinungsbild anpassen. Streaming-Dienste, DVDs und Rundfunkfernsehen verwenden alle Closed Captions.
Open Captions (auch als eingebrannte oder hardcodierte Captions bezeichnet) sind dauerhaft in das Videobild gerendert. Sie können nicht ausgeschaltet, in der Größe geändert oder umpositioniert werden. Sobald ein Video mit Open Captions exportiert wurde, sieht jeder Zuschauer sie.
Wann Open Captions sinnvoll sind
- Social-Media-Videos, die ohne Ton automatisch abgespielt werden, wo Zuschauer möglicherweise nicht wissen, wie man Captions auf der Plattform aktiviert
- Kurzform-Inhalte auf Plattformen wie Instagram Stories oder TikTok, wo Caption-Umschalter nicht immer zugänglich sind
- Präsentationen und Kiosk-Displays, bei denen Zuschauer nicht mit Wiedergabesteuerungen interagieren können
- Sicherstellung der Sichtbarkeit, wenn Sie eine Garantie benötigen, dass jeder Zuschauer den Text sieht
Wann Closed Captions besser sind
- Langform-Inhalte, bei denen die Zuschauerpräferenz wichtig ist
- Barrierefreiheitskonformität, da Vorschriften typischerweise erfordern, dass der Zuschauer die Caption-Anzeige kontrollieren kann
- Mehrsprachige Verbreitung, bei der Sie Caption-Spuren in mehreren Sprachen anbieten müssen
- Plattformanforderungen, da YouTube, Vimeo und die meisten Streaming-Dienste Closed-Caption-Dateien erwarten
Die meisten professionellen Workflows erstellen Closed-Caption-Dateien (SRT oder VTT), da sie maximale Flexibilität bieten. Sie können sie später immer einbrennen, wenn nötig, aber Sie können Open Captions nicht aus einem Video extrahieren, sobald sie gerendert sind.
Gesetzliche Anforderungen für Captions
Barrierefreiheitsvorschriften in mehreren Rechtsordnungen erfordern Closed Captions für bestimmte Arten von Videoinhalten. Hier ist ein kurzer Überblick über die wichtigsten.
Vereinigte Staaten
- Americans with Disabilities Act (ADA): Gerichte haben das ADA so interpretiert, dass Captions bei Videoinhalten von Unternehmen erforderlich sind, die als öffentlich zugängliche Einrichtungen gelten. Dies schließt zunehmend Websites und Online-Video ein.
- Section 508: Bundesbehörden müssen elektronische Inhalte barrierefrei gestalten, einschließlich Video mit Captions.
- FCC-Vorschriften: Fernsehsender und Online-Verbreiter von zuvor im Fernsehen ausgestrahlten Inhalten müssen Closed Captions bereitstellen.
- CVAA (21st Century Communications and Video Accessibility Act): Erweitert die Caption-Anforderungen auf internetübertragenes Video, das ursprünglich im Fernsehen gezeigt wurde.
Europäische Union
- European Accessibility Act (EAA): Tritt 2025 in Kraft und verlangt, dass digitale Dienste, einschließlich Videoplattformen, Barrierefreiheitsstandards erfüllen. Captions sind eine Schlüsselkomponente.
- EN 301 549: Der europäische Standard für IKT-Barrierefreiheit, der auf WCAG verweist und Anforderungen für Captions und Audiobeschreibungen enthält.
Webstandards
- WCAG 2.1 Level AA: Die Web Content Accessibility Guidelines erfordern Captions für alle voraufgezeichneten Audioinhalte in synchronisierten Medien (Erfolgskriterium 1.2.2) und für Live-Audioinhalte (Erfolgskriterium 1.2.4 auf Level AA).
Das Fehlen von Captions begrenzt nicht nur Ihr Publikum. Es setzt Organisationen einem rechtlichen Risiko aus, insbesondere in den Vereinigten Staaten, wo ADA-bezogene Klagen im Zusammenhang mit digitaler Barrierefreiheit in den letzten Jahren erheblich zugenommen haben.
Wann Closed Captions vs. Untertitel verwenden
Die Wahl zwischen Captions und Untertiteln hängt von Ihrer Zielgruppe und dem Verbreitungskontext ab.
Verwenden Sie Closed Captions, wenn:
- Ihre Zielgruppe gehörlose oder schwerhörige Zuschauer umfasst
- Sie auf einer Plattform veröffentlichen, die umschaltbare Textspuren unterstützt
- Barrierefreiheitskonformität erforderlich oder erwartet wird
- Ihre Inhalte bedeutsames nicht-sprachliches Audio haben (Soundeffekte, Musik, Umgebungsgeräusche)
- Die Captions in derselben Sprache wie das Audio sind
Verwenden Sie Untertitel, wenn:
- Sie Inhalte für fremdsprachige Zielgruppen übersetzen
- Das Audio deutlich hörbar ist und der Zuschauer nur den Dialogtext benötigt
- Sie für internationale Märkte verbreiten und mehrsprachige Textspuren benötigen
Verwenden Sie beides, wenn:
- Sie maximale Reichweite wünschen – mit gleichsprachigen Captions für Barrierefreiheit und übersetzten Untertiteln für internationale Zuschauer
- Ihre Plattform mehrere Textspuren unterstützt (YouTube, Vimeo, die meisten Streaming-Dienste)
In vielen Fällen lautet die praktische Antwort, mit einer vollständigen Caption-Datei in der Originalsprache zu beginnen und dann übersetzte Untertitelspuren daraus zu erstellen. Dies gibt Ihnen sowohl Barrierefreiheitsabdeckung als auch internationale Reichweite.
So erstellen Sie Captions und Untertitel mit KI
Die Erstellung von Captions und Untertiteln bedeutete früher stundenlange manuelle Transkriptionsarbeit oder teure professionelle Dienste. KI-Transkriptionstools haben diese Gleichung erheblich verändert. Eine Aufnahme, für die ein menschlicher Transkriptionist vier bis sechs Stunden zur Untertitelung benötigen würde, kann jetzt in Minuten verarbeitet werden.
Hier ist ein typischer Workflow zur Erstellung von Captions oder Untertiteln mit KI:
Schritt 1: Audio transkribieren
Laden Sie Ihre Audio- oder Videodatei in ein KI-Transkriptionstool wie Vocova hoch. Das Tool nutzt automatische Spracherkennung, um Sprache mit Zeitstempeln und, wenn unterstützt, Sprecherbezeichnungen in Text umzuwandeln. Die Genauigkeit hängt von der Audioqualität ab, daher hilft es, mit einer sauberen Aufnahme zu beginnen. Wenn Ihr Audio Hintergrundgeräusche hat, gibt es Techniken zur Verbesserung der Ergebnisse.
Schritt 2: Überprüfen und bearbeiten
KI-Transkription ist nicht perfekt. Die Branche misst die Genauigkeit mit der Wortfehlerrate (WER), und selbst die besten Modelle produzieren einige Fehler, besonders bei Eigennamen, Fachbegriffen oder akzentbehafteter Sprache. Überprüfen Sie das Transkript und korrigieren Sie etwaige Fehler.
Schritt 3: Nicht-sprachliche Elemente hinzufügen (für Captions)
Wenn Sie Closed Captions statt Untertitel erstellen, müssen Sie Soundeffekt-Beschreibungen, Musikhinweise und Sprecherbezeichnungen hinzufügen, die die KI möglicherweise nicht erfasst hat. Einige Tools bieten Sprecherdiarisierung zur Unterstützung bei der Identifikation, aber Soundeffekt-Beschreibungen erfordern typischerweise manuelle Annotation.
Schritt 4: Im richtigen Format exportieren
Exportieren Sie Ihr fertiges Transkript als SRT- oder VTT-Datei. Dies sind die beiden am weitesten unterstützten Caption- und Untertitelformate über Videoplattformen hinweg. Die meisten KI-Untertitelgeneratoren können in beiden Formaten exportieren. Vocova unterstützt den Export in SRT, VTT und mehreren anderen Formaten, darunter PDF, DOCX und CSV.
Schritt 5: Für Untertitel übersetzen
Wenn Sie Untertitel in zusätzlichen Sprachen benötigen, nutzen Sie die Übersetzungsfunktion, um übersetzte Versionen Ihres Transkripts zu erstellen. Vocova unterstützt die Übersetzung in über 145 Sprachen, was die Erstellung mehrsprachiger Untertitelspuren unkompliziert macht. Überprüfen Sie übersetzte Untertitel auf Genauigkeit, insbesondere bei idiomatischen Ausdrücken und kulturellem Kontext.
Schritt 6: Auf Ihrer Plattform hochladen
Fügen Sie Ihre SRT- oder VTT-Dateien zu Ihrer Videoplattform hinzu. YouTube, Vimeo und die meisten Hosting-Dienste ermöglichen das Hochladen mehrerer Caption- und Untertitelspuren, sodass Zuschauer ihre bevorzugte Sprache und ihr bevorzugtes Format wählen können.
Häufig gestellte Fragen
Sind Closed Captions dasselbe wie Untertitel?
Nein. Closed Captions enthalten Beschreibungen von nicht-sprachlichem Audio wie Soundeffekten, Musik und Sprecheridentifikation. Untertitel enthalten nur Dialogtext und werden hauptsächlich zur Sprachübersetzung verwendet. Die Terminologie überlappt sich in einigen Regionen, aber der Inhalt unterscheidet sich.
Brauche ich Closed Captions oder Untertitel für YouTube?
YouTube unterstützt beides. Wenn Sie die breiteste Zielgruppe erreichen möchten, laden Sie gleichsprachige Captions für Barrierefreiheit und übersetzte Untertitel für internationale Zuschauer hoch. YouTube generiert auch automatisch Captions, aber deren Genauigkeit variiert und sie enthalten keine nicht-sprachlichen Audiobeschreibungen.
Welches Dateiformat sollte ich für Captions verwenden?
SRT und VTT sind die am weitesten unterstützten Formate. SRT funktioniert auf nahezu jeder Videoplattform und in jedem Editor. VTT bietet zusätzliche Gestaltungsoptionen und ist der Standard für HTML5-Webvideo. Für einen detaillierten Vergleich siehe unseren Leitfaden zu SRT- vs. VTT-Formaten.
Sind Captions gesetzlich vorgeschrieben?
In vielen Kontexten ja. Das ADA, Section 508, WCAG 2.1 und der European Accessibility Act enthalten alle Caption-Anforderungen für bestimmte Arten von Inhalten und Organisationen. Selbst wo nicht gesetzlich vorgeschrieben, verbessern Captions Barrierefreiheit, Engagement und SEO.
Kann KI automatisch Closed Captions generieren?
KI kann genaue Transkriptionen mit Zeitstempeln und Sprecherbezeichnungen generieren, was die Grundlage einer Closed-Caption-Datei bildet. Allerdings müssen nicht-sprachliche Audiobeschreibungen wie [Musik spielt] oder [Tür schlägt zu] typischerweise manuell hinzugefügt werden, da sich die meisten ASR-Modelle auf Spracherkennung konzentrieren und nicht auf allgemeine Audio-Event-Erkennung.
Was ist der Unterschied zwischen SDH und Closed Captions?
SDH steht für „Subtitles for the Deaf and Hard of Hearing" (Untertitel für Gehörlose und Schwerhörige). Es kombiniert Elemente von sowohl Captions als auch Untertiteln: Es enthält nicht-sprachliche Audiobeschreibungen wie Closed Captions, wird aber als Untertitelspur formatiert und geliefert. SDH ist auf DVDs, Blu-rays und Streaming-Plattformen verbreitet und ist oft der Standard in Regionen, in denen „Untertitel" die Standardbezeichnung für alle Textspuren ist.