in den letzten Tagen habe ich ein wenig die Möglichkeiten evaluiert, die Tonausgabe von Betriebssystemen, in meinem Fall ist es jetzt ein macOS, so zu manipulieren, das die schwächer gehörten Frequenzbereiche kompensiert wird.
Dazu habe ich mal begonnen, mit einem Equalizer herumzuspielen (in meinem Fall eqMac). Die Idee dahinter ist, dass ich mir mein Audiogramm schnappe und die "schlechteren" Frequenzbereiche kurzerhand anhebe.
Selbstverständlich ist das jetzt keine wissenschaftliche Arbeit oder so - daher ja auch Plauderecke. Dachte halt, der Gedanke könnte für andere auch mal ganz interessant sein.
Das Ziel ist, dass ich durch entsprechende Manipulation der Tonausgabe das Tragen von Hörgeräten dann einsparen kann, wenn ich bspw. alleine vor dem Computer Musik höre oder einen Film ansehe (oder am Bildschirm telefoniere, was bei mir tatsächlich Alltag geworden ist). Das kann ich jetzt rein theoretisch sowieso, da meine Hörschwäche noch so ist, dass ich, wenn es drauf ankommt, ohne Hilfsmittel klarkommen kann (auch wenn natürlich eingeschränkt, aber es ist mir glücklicherweise möglich) - aber praktisch fehlen halt die entsprechenden "Tonqualitäten". Das merke ich zunehmend, mir fehlt die "Klarheit" - aber genau die kann ich, zumindest noch, durch entsprechende Manipulationen "hervorholen".
Und was soll ich sagen, das funktioniert sogar ganz gut. Auch wenn ich natürlich in persona Einsteller und Tester bin und damit sicher nicht gerade objektiv. Aber rein von der Klangfarbe/-qualität habe ich das Gefühl, dass das Einstellen der Regler ausreichend gut ist, um das hinzubekommen.
Das führt mich dann direkt zu einem Gedanken - wieso wird so etwas eigentlich nicht im Zuge der Accessibility-Funktionen der Betriebssystemen allgemein unterstützt? Ich fände es beispielsweise richtig genial, wenn ich einfach mein Audiogramm scannen oder abschreiben könnte und das Betriebssystem selbst justiert entsprechend nach. Das wäre auch für Leute sehr interessant, die aus irgendeinem Grund keine Hilfsmittel bekommen oder wollen - auf diese Weise wäre zumindest "ein wenig" nachgearbeitet.
Meine ersten Praxiserfahrungen sind sehr spannend und stimmen mich zuversichtlich, dass das zumindest eine Option werden könnte.
Ich stelle mir vor, dass man das mit dem Handy auch super umsetzen könnte. Aber da macht mir Apple einen Strich durch die Rechnung, die Tonausgabe kann in dieser Form auf dem iPhone nicht manipuliert werden. Aber nun ja, was nicht ist, kann ja noch kommen

So, äh, genug gelabert, habt ihr dazu auch Gedanken? Findet ihr das komplette Zeitverschwendung (dann kommentiert woanders

Wünsch euch was,
Miro
P.S. Damit es keine Missverständnisse gibt: Mir ist völlig klar, dass das kein vollständig Ersatz für das ist, was Hörgeräte leisten! Aber ein Teil der Funktionen eines Hörgeräts macht im Grunde, soweit ich weiß, nichts anderes als das, was ich da gerade probiere. Wenn auch die Hörgeräte das vielleicht in ein wenig "komplexer" machen
