1)
Ohrbert hat geschrieben: ↑5. Mai 2022, 22:32
Der Wind der über die Mikrofone streicht produziert ja ein ganz spezifisches Geräusch. Das könnte man ja abgespeichert haben. Wir nun "Wind" erkannt, dann müsste man "nur" die Lautstärke und Phasenlage des ankommenden Signals detektieren und dann den aufgenommen, abgespeicherten Windsoundzum Eingangssignal mischen und abspielen. Übrig bleibt dann alles außer dem Windgeräusch. Kann dann getrennt nach Hörgerät passieren.
Das klappt leider nicht, weil ein Geräusch nicht gleich ein Geräusch ist, auch wenn es exakt genauso klingt, kann man beide Signale nicht phasenverschieben und dadurch auslöschen, da sie unterschiedlich bleiben. Windgeräusch ist ein sehr zufälliges und unregelmäßiges Rauschen, Prasseln, Flattern, das lässt sich nicht einfach wegrechnen. Noch schwieriger ist es, ein 70dB-Nutzsignal (Sprache) aus diesem Geräusch herauszufiltern, wenn das Geräusch einen Mikrofonpegel von 110 dB erzeugt.
Glaub mir, das ist ne extrem anspruchsvolle Geschichte. Darüber zerbrechen sich technische Audiologen und Inschenjöre schon Jahrzehnte lang den Kopf. Tonaufnahmen im Wind werden daher auch immer mit solchen riesigen Plüschpuscheln auf dem Mikrofon gemacht.
Spannend finde ich die Geschichten, wo beispielsweise ein Sprachsignal vom weniger windbelasteten Mikrofon auf die andere Ohrseite (mit Wind) übertragen wird.
2)
Ohrbert hat geschrieben:Mein Akustiker meinte, die Anpassformel macht intern noch ganz gefinkelte Sachen und ich war der Meinung, dass da eben nur die "Verstärkungstabelle" rausfällt.
Bei den "klassischen" Anpassformeln (NAL, DSL und so) spuckt der Rechner wirklich nur die Verstärkungen, Kompressionen, Kniepunkte und Begrenzungen (MPO) aus, je nachdem, was die Formel alles hergibt. Die herstellereigenen Formeln beeinflussen evtl. noch andere Features und unterstützen breitere Frequenzgänge.
4)
Ohrbert hat geschrieben:Was wird denn bei Noise Block (Phonak - Reduktion von Hintergrundgeräuschen) gemacht? Wird da einfach nur das Verstärkungsverhältnis zwischen sprachrelevaten und unrelevanten Frequenzbändern angepasst?
Bei Phonak weiß ich es nicht ganz genau, aber ich glaube, ja.
Klassisch gibt es die zwei Möglichkeiten: Detektion der Frequenzbänder, bei denen ein monotones Signal überwiegt und Reduktion der Verstärkung. Und es gibt das Wienerfilter, welches Geräusche in Sprachpausen eliminiert. Da wird's mir dann aber auch langsam etwas kompliziert. Die Algorithmen zur Geräuschunterdrückung sind wohlbehütete Geheimnisse der Hersteller.
5)
Ohrbert hat geschrieben:Wirklich spannend wirds ja dann, wie die Hersteller die Automatiken für die Programmumschaltung realisieren. Das stelle ich mir dann aber schon wirklich ziemlich komplex vor. Da stelle ich mir das so vor, dass über ein Zeitfenster immer das empfangene Signal analysiert wird. zB breitbandige relativ lautes Signal mit einzelnen Spitzen im Sprachbereich = Verstehen im Störgeräusch. Aber zB Phonak verwendet dann ja auch noch weitere Sensoren wie den Bewegungssensor um hier zu erkennen ob man still sitzt (zB Restaurant -> Fokusieren der Mikrofone) oder herumgeht (Aufweiten der Richtcharakteristik).
Ja, das ist schon spannend! Sonova (Phonak) und Widex sind die einzigen, die Hörsituationen in "Schubladen" stecken und die Features entsprechend angepasst werden. Widex kann auch Popmusik von klassischer Musik unterscheiden, oder ob man mit einer kleinen Gesellschaft an einem Tisch sitzt (Restaurant), sich in einer Menschenmenge befindet oder einfach nur in einer Stadt-Umgebung.