Maschinelles Lernen wäre bei Hörgeräten der korrekte Ausdruck. Leider wird mittlerweile jedem Automaten eine Intelligenz zugesprochen, was aber nicht der Fall ist.
Bei den neueren Hörgeräte-Algorithmen ist es so, dass diese anhand einer bestimmten Nutzerrückmeldung eine Feineinstellung in das Hörgerät übertragen. Vom Grundsatz her ist das ein alter Hut. Wer sich mal durch Hörgeräte-Anpasssoftware klickt, findet bestimmt auch den "Deppenmodus": Man wählt eine Option aus, z.B. "entfernte Stimmen sind mir zu laut" oder "Musik klingt mir zu schrill", und schon wird eine Einstellungsänderung vorgenommen. Der Unterschied zu den neuartigen Maschinenlern-Algorithmen ist, dass nicht einfach eine vorgefertigte Änderung auf die Hörgeräte gespielt wird. Ein Rechner ermittelt anhand zigtausender vorhergehender Eingaben und Nutzerrückmeldungen eine Feineinstellung, die wahrscheinlich die akzeptabelste sein wird. Beim maschinellen Lernen ist von vornherein auch nicht ganz klar, was passieren wird, wenn ich Knopf A oder Knopf B drücke. Man füttert die Blackbox mit einer Anfrage, erhält ein Ergebnis und bewertet dies. Das Ergebnis wird umso besser, je mehr Anfragen gestellt werden. Wenn ich mich an den Signia Assistant erinnere: Anfangs, naja... ganz nett aber nicht wirklich brauchbar. Inzwischen liefert der Assistant aber wirklich brauchbare Einstellungen.
Es ist letztlich nur eine Maschine und hat im Entferntesten nichts mit Intelligenz zu tun. Je mehr sich Maschinen aber menschlich verhalten, desto mehr neigen wir Menschen dazu, diesen Maschinen auch ein gewisses "Menschsein" zu unterstellen. Hat jemand den Film A.I. gesehen? Ein Roboter, der aussieht wie ein liebenswürdiger kleiner Junge und auch so spricht und sich so verhält. Nein, der Roboter hat keine Gefühle, er denkt auch nicht und leidet auch nicht, wenn man ihn tritt oder beschimpft. Er ahmt menschliches Verhalten nach, welches bei uns Emotionen erzeugt. Am Ende ist alles aber nur ein großer Mindfuck