Was ist automatische Spracherkennung (ASR)? Ein vollständiger Leitfaden
Verstehen Sie die Technologie der automatischen Spracherkennung (ASR). Erfahren Sie, wie KI Sprache in Text umwandelt, wichtige Genauigkeitsmetriken und den aktuellen Stand der Technik.
Automatische Spracherkennung (ASR) ist die Technologie, die gesprochene Sprache mithilfe rechnergestützter Methoden in geschriebenen Text umwandelt. Auch als Speech-to-Text (STT) oder einfach Spracherkennung bezeichnet, ist ASR die grundlegende Technologie hinter Transkriptionsdiensten, Sprachassistenten, Diktiersoftware und jedem System, das menschliche Sprache verstehen muss.
ASR hat sich von einer Forschungskuriosität, die in den 1950er Jahren eine Handvoll Ziffern erkennen konnte, zu einer ausgereiften Technologie entwickelt, die Hunderte von Sprachen mit nahezu menschlicher Genauigkeit verarbeitet. Dieser Leitfaden erklärt, wie ASR funktioniert, wie ihre Genauigkeit gemessen wird und wo die Technologie heute steht.
Was ist automatische Spracherkennung?
Automatische Spracherkennung ist der rechnergestützte Prozess der Umwandlung eines akustischen Sprachsignals in eine Wortfolge. Bei einer Audioaufnahme oder einem Live-Audiostream erzeugt ein ASR-System ein Texttranskript dessen, was gesprochen wurde.
Der Begriff „automatisch" grenzt sie von der manuellen Transkription durch Menschen ab. Während menschliche Transkriptionisten lange der Goldstandard für Genauigkeit waren, haben moderne ASR-Systeme den Abstand dramatisch verringert und erreichen unter bestimmten Bedingungen menschliche Leistung oder übertreffen sie sogar.
ASR ist eng verwandt mit, aber verschieden von mehreren angrenzenden Technologien:
- Natural Language Understanding (NLU): Interpretiert die Bedeutung von erkanntem Text. ASR produziert Wörter; NLU extrahiert die Absicht.
- Sprechererkennung: Identifiziert, wer wann gesprochen hat. Diarisierung und ASR werden oft zusammen verwendet, lösen aber unterschiedliche Probleme.
- Sprachaktivitätserkennung (VAD): Bestimmt, ob Audio Sprache enthält. VAD ist typischerweise ein Vorverarbeitungsschritt innerhalb einer ASR-Pipeline.
Eine kurze Geschichte der ASR
Die Geschichte der ASR umfasst sieben Jahrzehnte und mehrere Paradigmenwechsel.
1950er--1960er: die frühesten Systeme. Bell Labs baute 1952 „Audrey", ein System, das gesprochene Ziffern eines einzelnen Sprechers mit etwa 90% Genauigkeit erkennen konnte. 1962 demonstrierte IBM die „Shoebox", die 16 englische Wörter erkannte. Diese Systeme waren handgefertigt und extrem begrenzt.
1970er--1980er: statistische Ansätze. Die Einführung von Hidden-Markov-Modellen (HMMs) in den 1970ern markierte einen Wendepunkt. Anstelle von handgefertigten Regeln modellierten HMMs Sprache als probabilistische Zustandssequenz. DARPA-finanzierte Projekte wie das SPHINX-System an der Carnegie Mellon University demonstrierten erstmals kontinuierliche Spracherkennung. Ende der 1980er wurden HMM-basierte Systeme in Kombination mit Gaussian-Mixture-Modellen (GMMs) zum dominierenden Paradigma.
1990er--2000er: Erkennung großer Vokabulare. Systeme skalierten auf Vokabulare von Zehntausenden von Wörtern. Dragon Dictate (1990) gehörte zu den ersten kommerziellen Diktierprodukten. Statistische Sprachmodelle, insbesondere N-Gramm-Modelle, verbesserten die Genauigkeit durch Einbeziehung kontextbezogener Wortwahrscheinlichkeiten. In den 2000ern trieben Call-Center-Automatisierung und Sprachsuche bedeutende kommerzielle Investitionen voran.
2010er: die Deep-Learning-Revolution. 2012 demonstrierten Forscher bei Microsoft, Google und der University of Toronto, dass tiefe neuronale Netze (DNNs) GMMs als akustisches Modell ersetzen können und die Fehlerraten um 20--30% relativ zu den besten bisherigen Systemen reduzierten. Dies löste rapide Fortschritte aus: Rekurrente neuronale Netze (RNNs), Long Short-Term Memory-Netze (LSTMs) und aufmerksamkeitsbasierte Modelle brachten jeweils weitere Verbesserungen. Googles Einsatz neuronaler netzwerkbasierter ASR in der Android-Sprachsuche 2012 markierte den Beginn der breiten kommerziellen Einführung.
2020er: Foundation-Modelle. OpenAIs Whisper (2022), trainiert auf 680.000 Stunden mehrsprachiger Audiodaten, demonstrierte, dass ein einzelnes Modell Transkription, Übersetzung und Sprachidentifikation über 99 Sprachen bewältigen kann. Metas wav2vec 2.0 und nachfolgende Modelle zeigten, dass selbstüberwachtes Vortraining auf unbeschrifteten Audiodaten die Menge der benötigten beschrifteten Daten dramatisch reduzieren kann. Diese Foundation-Modelle repräsentieren den aktuellen Stand der Technik.
Wie ASR funktioniert
Moderne ASR-Systeme variieren in ihrer Architektur, aber die Kernaufgabe bleibt dieselbe: ein Audiosignal in eine Wortfolge abbilden. Hier ist ein vereinfachter Überblick über die Schlüsselkomponenten.
Audio-Vorverarbeitung
Rohes Audio wird zunächst in eine numerische Darstellung umgewandelt, die für die Modellierung geeignet ist. Der Standardansatz berechnet Mel-Frequenz-Cepstralkoeffizienten (MFCCs) oder Mel-Spektrogramme -- Darstellungen, die approximieren, wie das menschliche Ohr Schall wahrnimmt. Das Audio wird in kurze überlappende Rahmen unterteilt (typischerweise 25-ms-Fenster mit 10-ms-Verschiebungen), und Frequenzmerkmale werden aus jedem Rahmen extrahiert.
Akustisches Modell
Das akustische Modell bildet Audiofeatures auf sprachliche Einheiten ab. In traditionellen Systemen sind diese Einheiten Phoneme (die kleinsten Lauteinheiten einer Sprache) oder Sub-Phonem-Zustände. Das akustische Modell schätzt die Wahrscheinlichkeit, dass ein gegebener Audiorahmen jeder möglichen sprachlichen Einheit entspricht.
In modernen End-to-End-Systemen ist das akustische Modell ein tiefes neuronales Netz -- typischerweise ein Conformer (kombiniert Faltungs- und Transformer-Schichten) oder ein Transformer-Encoder -- das Audiofeatures direkt auf Zeichen oder Wortteile abbildet, ohne eine explizite Phonemstufe.
Sprachmodell
Das Sprachmodell liefert kontextuelles Wissen darüber, welche Wortsequenzen in der Zielsprache wahrscheinlich sind. Es hilft dem System, zwischen akustisch ähnlichen Alternativen zu wählen. Zum Beispiel klingen „erkennt Sprache" und „er kennt Sprache" fast identisch, aber ein Sprachmodell bevorzugt je nach Kontext stark die richtige Variante.
Traditionelle Systeme verwenden N-Gramm-Sprachmodelle, die auf großen Textkorpora trainiert wurden. Moderne End-to-End-Systeme integrieren Sprachmodellierung oft implizit durch Training auf großen gepaarten Audio-Text-Datensätzen oder explizit durch Shallow Fusion mit einem externen Sprachmodell während der Dekodierung.
Decoder
Der Decoder kombiniert akustische Modellbewertungen und Sprachmodellwahrscheinlichkeiten, um die wahrscheinlichste Wortsequenz für ein gegebenes Audioeingabesignal zu finden. In traditionellen Systemen ist dies typischerweise Beam-Search durch einen gewichteten endlichen Zustandstransduktor (WFST). In End-to-End-Systemen ist Beam-Search mit Connectionist Temporal Classification (CTC) oder aufmerksamkeitsbasierter Dekodierung üblich.
End-to-End-Architekturen
Der Trend in moderner ASR geht zu End-to-End-Modellen, die akustische Modellierung, Sprachmodellierung und Dekodierung in einem einzigen neuronalen Netz vereinen. Wichtige Architekturen umfassen:
- CTC (Connectionist Temporal Classification): Aligniert Audio variabler Länge mit Text variabler Länge, ohne explizite Alignment-Labels zu benötigen. Einfach und schnell, aber begrenzt in der Modellierung von Ausgabeabhängigkeiten.
- Aufmerksamkeitsbasierter Encoder-Decoder: Verwendet einen Aufmerksamkeitsmechanismus, um weiche Alignments zwischen Audiorahmen und Ausgabe-Tokens zu lernen. Leistungsfähiger, aber langsamer und manchmal weniger robust.
- RNN-Transducer (RNN-T): Kombiniert einen CTC-ähnlichen Encoder mit einem autoregressiven Decoder und erreicht starke Genauigkeit mit Streaming-Fähigkeit. Wird in Produktionssystemen bei Google und anderen Unternehmen weit verbreitet eingesetzt.
- Whisper-artige Encoder-Decoder-Transformer: Großmaßstäbliche Transformer-Modelle, die auf massiven mehrsprachigen Datensätzen trainiert wurden. Hervorragende Genauigkeit und Generalisierung über Sprachen und Domänen hinweg.
Wichtige ASR-Metriken
Wortfehlerrate (WER)
Die Wortfehlerrate ist die primäre Metrik zur Bewertung der ASR-Genauigkeit. Sie wird berechnet als:
WER = (Substitutionen + Einfügungen + Löschungen) / Gesamtzahl der Referenzwörter
Wobei Substitutionen Wörter sind, die durch falsche Wörter ersetzt wurden, Einfügungen zusätzlich hinzugefügte Wörter sind und Löschungen gänzlich fehlende Wörter sind. Niedrigere WER ist besser; 0% bedeutet ein perfektes Transkript.
Benchmark-WER-Werte bieten Kontext dafür, was „gut" bedeutet:
- Professionelle menschliche Transkriptionisten: 4--5% WER bei Konversationssprache (dies ist der oft zitierte menschliche Benchmark aus einer Microsoft-Studie von 2017 am Switchboard-Korpus).
- Stand der Technik ASR bei sauberer vorgelesener Sprache (LibriSpeech test-clean): Unter 2% WER.
- Telefonische Konversationssprache (Switchboard): 5--6% WER für führende Systeme.
- Verrauschtes, reales Audio: 10--30% WER je nach Bedingungen.
Für eine tiefere Analyse der WER und ihrer Grenzen siehe unseren Leitfaden zur Wortfehlerrate erklärt.
Echtzeitfaktor (RTF)
Der Echtzeitfaktor misst die Verarbeitungsgeschwindigkeit: das Verhältnis von Verarbeitungszeit zu Audiodauer. Ein RTF von 0,5 bedeutet, dass das System Audio doppelt so schnell wie in Echtzeit verarbeitet. Ein RTF unter 1,0 ist für Echtzeitanwendungen wie Live-Untertitelung erforderlich. Moderne GPU-beschleunigte Systeme erreichen routinemäßig RTF zwischen 0,02 und 0,1 für Offline-Verarbeitung.
Zeichenfehlerrate (CER)
Die Zeichenfehlerrate wendet dieselbe Formel wie WER an, aber auf Zeichenebene. CER ist besser geeignet für Sprachen ohne klare Wortgrenzen, wie Chinesisch, Japanisch und Thai, bei denen die Wortsegmentierung selbst Variabilität einführt.
Moderne ASR: die Deep-Learning-Revolution
Drei Entwicklungen definieren die aktuelle Ära der ASR.
Selbstüberwachtes Vortraining
Modelle wie wav2vec 2.0 (Meta, 2020) und HuBERT (Meta, 2021) lernen Sprachrepräsentationen aus großen Mengen unbeschrifteter Audiodaten. Das Modell wird zunächst trainiert, maskierte Teile des Audiosignals vorherzusagen, ähnlich wie BERT aus maskiertem Text lernt. Diese vortrainierten Repräsentationen werden dann mit relativ kleinen Mengen beschrifteter Daten feinabgestimmt. Dieser Ansatz war transformativ für Sprachen mit wenigen Ressourcen, bei denen beschriftete Trainingsdaten knapp sind.
Massiv mehrsprachige Modelle
OpenAIs Whisper, veröffentlicht 2022, demonstrierte, dass das Training eines einzelnen Encoder-Decoder-Transformers auf 680.000 Stunden schwach überwachter mehrsprachiger Daten ein Modell hervorbringt, das über Sprachen, Akzente und Aufnahmebedingungen hinweg generalisiert, ohne domänenspezifisches Finetuning. Whispers large-v3-Modell unterstützt 99 Sprachen und erreicht wettbewerbsfähige Genauigkeit bei vielen Benchmarks, ohne die Benchmark-Daten während des Trainings je gesehen zu haben.
Diese mehrsprachige Fähigkeit hat hochqualitative ASR für Dutzende von Sprachen zugänglich gemacht, die zuvor keine dedizierten Spracherkennungssysteme hatten. Tools wie Vocova nutzen diese Fortschritte, um Transkription in über 100 Sprachen mit automatischer Spracherkennung anzubieten und damit genaue Sprache-zu-Text-Umwandlung weltweit unabhängig von der gesprochenen Sprache verfügbar zu machen.
Conformer-Architektur
Der Conformer (Gulati et al., 2020) kombiniert Faltungsschichten, die lokale akustische Muster erfassen, mit Transformer-Self-Attention-Schichten, die Fernabhängigkeiten modellieren. Diese hybride Architektur ist zum Rückgrat vieler Produktions-ASR-Systeme geworden und erreicht State-of-the-Art-Ergebnisse bei mehreren Benchmarks bei gleichzeitiger Beibehaltung der Recheneffizienz.
Googles Universal Speech Model (USM), trainiert auf 12 Millionen Stunden Audio über 300+ Sprachen, baut auf der Conformer-Architektur auf und stellt eine der größten ASR-Trainingsanstrengungen bis dato dar.
Herausforderungen der ASR
Trotz dramatischer Verbesserungen bestehen mehrere Herausforderungen fort.
Akzente und Dialekte
ASR-Systeme, die hauptsächlich auf Standardvarietäten einer Sprache trainiert wurden, schneiden bei regionalen Akzenten und Dialekten oft schlecht ab. Ein auf amerikanischem Englisch trainiertes System kann mit schottischem Englisch, indischem Englisch oder afroamerikanischem Vernacular English Schwierigkeiten haben. Das ist nicht nur eine technische Einschränkung -- es wirft Fairness-Bedenken auf, wenn die ASR-Genauigkeit über demografische Gruppen hinweg variiert.
Hintergrundgeräusche und akustische Bedingungen
Lärm bleibt eine grundlegende Herausforderung. Konkurrierende Sprecher, Hintergrundmusik, Maschinen, Wind und Raumhall verschlechtern alle die Erkennungsgenauigkeit. Obwohl moderne Modelle robuster sind als ihre Vorgänger, sinkt die Leistung bei widrigen akustischen Bedingungen immer noch erheblich. Der Unterschied zwischen „sauberem Studioaudio" und „realer Aufnahme" bei der WER kann 10 Prozentpunkte oder mehr betragen.
Domänenspezifische Terminologie
Allgemeine ASR-Modelle werden auf breiten Datensätzen trainiert und erkennen spezialisiertes Vokabular möglicherweise nicht genau: medizinische Terminologie, juristische Fachsprache, wissenschaftliche Nomenklatur oder branchenspezifische Begriffe. Domänenadaption durch Finetuning oder benutzerdefinierte Sprachmodelle hilft, aber der Aufbau domänenspezifischer ASR erfordert weiterhin Aufwand und Expertise.
Code-Switching
Viele Sprecher wechseln natürlicherweise zwischen Sprachen innerhalb eines einzelnen Gesprächs oder sogar eines einzelnen Satzes. Der Umgang mit Code-Switching erfordert, dass das Modell mehrere Sprachen gleichzeitig erkennt und seine Dekodierungsstrategie im laufenden Betrieb umschaltet. Dies bleibt ein aktives Forschungsgebiet, obwohl mehrsprachige Modelle wie Whisper einige Code-Switching-Szenarien besser bewältigen als einsprachige Systeme.
Unflüssigkeiten und Spontansprache
Vorgelesene Sprache ist relativ leicht zu transkribieren. Spontansprache mit ihren Fehlstarts, Füllwörtern („äh", „ähm"), Wiederholungen und unvollständigen Sätzen ist erheblich schwieriger. Die Entscheidung, ob Unflüssigkeiten im Transkript enthalten oder entfernt werden sollen, ist an sich eine Designentscheidung, die die nachgelagerte Nutzbarkeit beeinflusst.
Langform-Audio
Die Verarbeitung langer Aufnahmen (Stunden von Audio) bringt Herausforderungen mit sich, die über die Erkennung kurzer Äußerungen hinausgehen: Kontexterhaltung über lange Zeitspannen, Handhabung von Themenwechseln und Management von Rechenressourcen. Chunking-Strategien und Sliding-Window-Ansätze helfen, aber Grenzartefakte an Chunk-Kanten können Fehler einführen.
Anwendungen der ASR
ASR-Technologie treibt eine breite Palette von Anwendungen über Branchen hinweg an.
Transkriptionsdienste. Die Umwandlung aufgezeichneter Audios in Textdokumente ist die direkteste Anwendung von ASR. Meeting-Transkription, Interview-Transkription, Vorlesungserfassung und Podcast-Transkription hängen alle von genauer Sprache-zu-Text-Umwandlung ab. Moderne Dienste wie Vocova kombinieren ASR mit Sprechererkennung und Übersetzung, um reichhaltige, strukturierte Transkripte aus Rohaudio zu erstellen.
Sprachassistenten. Siri, Alexa, Google Assistant und ähnliche Produkte verwenden ASR als ihre Eingabeschicht und wandeln gesprochene Befehle in Text um, der dann von Natural-Language-Understanding-Systemen verarbeitet wird.
Barrierefreiheit. Echtzeit-Untertitelung für gehörlose und schwerhörige Personen, Audiodeskriptionen und Sprache-zu-Text-Interfaces für motorisch beeinträchtigte Nutzer basieren alle auf ASR. Die Web Content Accessibility Guidelines (WCAG) empfehlen die Bereitstellung von Untertiteln für alle Audioinhalte.
Call-Center-Analysen. ASR ermöglicht automatisierte Transkription und Analyse von Kundenservice-Anrufen im großen Maßstab. Contact Center nutzen Sprachanalyse zur Überwachung der Agentenleistung, Identifizierung von Kundenschmerzpunkten und Sicherstellung der Compliance.
Medien und Inhalte. Automatische Untertitelung für Videoplattformen, durchsuchbare Audio-Archive und Inhaltsindexierung nutzen alle ASR. YouTubes automatische Untertitel verarbeiten beispielsweise Milliarden Stunden Video mithilfe von ASR.
Medizinische Dokumentation. Klinische Dokumentation durch Ambient Listening -- die Aufnahme von Arzt-Patienten-Gesprächen und die Erstellung strukturierter medizinischer Notizen -- ist eine schnell wachsende Anwendung. ASR in Kombination mit medizinischem NLU kann die Dokumentationsbelastung für Gesundheitsdienstleister reduzieren.
Recht und Strafverfolgung. Gerichtsprotokollierung, Beweistranskription und Überwachungsaudio-Verarbeitung nutzen alle ASR, obwohl diese Anwendungen aufgrund der hohen Folgen von Fehlern oft eine menschliche Überprüfung erfordern.
Die Zukunft der ASR
Mehrere Trends prägen die nächste Generation der Spracherkennungstechnologie.
Multimodale Modelle. Systeme, die Audio, visuelle (Lippenlesen) und textliche Informationen kombinieren, können eine höhere Genauigkeit als rein audiobasierte Modelle erreichen, insbesondere in lauten Umgebungen. Audio-visuelle ASR bewegt sich von der Forschung in praktische Anwendungen.
Personalisierung. Die Anpassung von ASR-Modellen an einzelne Sprecher -- ihren Akzent, Wortschatz und Sprechstil -- ohne explizite Einschreibung oder Neutraining ist ein aktives Forschungsgebiet. Few-Shot-Adaptationstechniken ermöglichen es Modellen, sich nach nur wenigen Minuten Sprache eines bestimmten Sprechers zu verbessern.
Kleinere, schnellere Modelle. Destillations- und Quantisierungstechniken produzieren Modelle, die effizient auf Edge-Geräten laufen -- Telefonen, Ohrhörern und eingebetteten Systemen -- ohne Audio in die Cloud zu senden. Geräteeigene ASR verbessert den Datenschutz, reduziert die Latenz und ermöglicht Offline-Betrieb.
Reichhaltigere Ausgabe. Zukünftige ASR-Systeme werden über flachen Text hinausgehen und strukturierte Ausgaben produzieren, die Zeichensetzung, Großschreibung, Absatzumbrüche, Sprecherbezeichnungen, Stimmung und Absichtsannotationen in einem einzigen Durchgang enthalten. Die Grenze zwischen ASR und Natural Language Understanding verschwimmt.
Universelle Sprachmodelle. Der Trend zu einzelnen Modellen, die alle Sprachen, alle Domänen und alle Aufgaben (Transkription, Übersetzung, Diarisierung, Sprachverständnis) bewältigen, beschleunigt sich. Diese universellen Modelle versprechen, den Zugang zu Sprachtechnologie für jede Sprache und jeden Anwendungsfall zu demokratisieren.
Häufig gestellte Fragen
Was ist der Unterschied zwischen ASR und Speech-to-Text?
Sie beziehen sich auf dieselbe Technologie. Automatische Spracherkennung (ASR) ist der akademische und technische Begriff für die Umwandlung gesprochener Sprache in geschriebenen Text. Speech-to-Text (STT) ist der gebräuchlichere Begriff in Produktbeschreibungen und der Alltagssprache. Stimmerkennung wird umgangssprachlich manchmal für dasselbe verwendet, kann sich aber auch auf Sprecheridentifikation beziehen (die Identifizierung, wer spricht, anstatt was gesagt wird).
Wie genau ist moderne ASR?
Die Genauigkeit hängt stark von der Audioqualität, Sprache, dem Akzent und der Domäne ab. Bei sauberer, vorgelesener englischer Sprache erreichen State-of-the-Art-Systeme Wortfehlerraten unter 2%. Bei Konversationssprache mit guter Audioqualität liegt die WER typischerweise bei 5--8%. Bei verrauschtem realem Audio kann die WER von 10% bis 30% oder mehr reichen. Zum Vergleich: Professionelle menschliche Transkriptionisten erreichen etwa 4--5% WER bei Konversationssprache, was bedeutet, dass die besten ASR-Systeme unter günstigen Bedingungen jetzt menschliche Genauigkeit erreichen oder annähern.
Funktioniert ASR für alle Sprachen?
Die Abdeckung hat sich mit mehrsprachigen Modellen dramatisch erweitert. Whisper unterstützt 99 Sprachen, und Googles USM deckt über 300 ab. Die Genauigkeit variiert jedoch stark über Sprachen hinweg. Sprachen mit vielen Ressourcen wie Englisch, Spanisch, Mandarin und Französisch haben die beste Leistung aufgrund reichlicher Trainingsdaten. Sprachen mit wenigen Ressourcen können deutlich höhere Fehlerraten haben. Die Lücke schließt sich, da selbstüberwachte und mehrsprachige Vortrainingstechniken die Abhängigkeit von beschrifteten Daten reduzieren.
Kann ASR mehrere Sprachen in derselben Aufnahme verarbeiten?
Der Umgang mit Code-Switching (Wechsel zwischen Sprachen innerhalb eines Gesprächs) bleibt für die meisten ASR-Systeme herausfordernd. Mehrsprachige Modelle können oft die Hauptsprache erkennen und einen gewissen Grad an Code-Switching bewältigen, aber die Genauigkeit sinkt typischerweise an Sprachgrenzen. Wenn eine Aufnahme deutlich getrennte Segmente in verschiedenen Sprachen enthält, liefert die Verarbeitung jedes Segments mit sprachspezifischen Einstellungen im Allgemeinen bessere Ergebnisse als die automatische Verarbeitung.
Welche Audioqualität wird für gute ASR-Ergebnisse benötigt?
Für beste Ergebnisse verwenden Sie eine Abtastrate von 16 kHz oder höher (die meisten heutigen Aufnahmen übertreffen dies), minimieren Sie Hintergrundgeräusche und positionieren Sie das Mikrofon nahe am Sprecher. Professionelle Mikrofone sind nicht erforderlich -- moderne Smartphone- und Laptop-Mikrofone produzieren in einigermaßen ruhigen Umgebungen ausreichende Qualität. Die wirkungsvollsten Faktoren sind Signal-Rausch-Verhältnis und Nachhall. Ein nahbesprechendes Headset in einem lauten Büro liefert bessere ASR-Ergebnisse als ein Raummikrofon in einem ruhigen Konferenzraum.
Wie unterscheidet sich ASR von KI-Transkription?
ASR ist die zugrunde liegende Technologie; KI-Transkription ist ein Produkt, das ASR zusammen mit zusätzlicher Verarbeitung wie Zeichensetzungswiederherstellung, Sprechererkennung, Formatierung und Nachbearbeitung verwendet. Wenn Menschen KI-Transkription mit menschlicher Transkription vergleichen, vergleichen sie eine vollständige Produktpipeline (ASR + Nachverarbeitung) mit manueller menschlicher Arbeit. Reine ASR-Ausgabe ist Rohtext, der typischerweise zusätzliche Verarbeitung benötigt, um ein ausgereiftes Transkript zu werden. Moderne Transkriptionstools wenden diese Nachverarbeitungsschritte automatisch an, um publikationsfertige Ergebnisse zu produzieren.