AW: Computersprecher statt Nachrichtensprecher - wann?
Man kann Radio als Kunstform auffassen. Das wird zwar der Wirklichkeit nicht gerecht, aber es klingt schön intellektuell, um es mal sarkastisch auszudrücken. ...
... Es handelt sich bei der Dir entgegen schlagenden Ablehnung vielmehr um eine Abwehr Deiner Umkodierung des Mediums Radio zu einer Kunstform. Vielleicht möchte auf der anderen Seite der Hörer auch nicht die Rolle des Audio-Austellungsbesuchers einnehmen. Vielleicht möchte er informiert und unterhalten werden. Das hat sicherlich auch mit Gewohnheit zu tun, in erster Linie aber damit, etwas Nützliches zu haben. ...
Dem letzten Satz stimme ich zu. Radio muss dem Hörer nützen. Aber kunst und Nutzen schließen sich nicht aus, wie vielleicht ein Analogievergleich zeigt. Viele finden Fachwerkhäuser schön und viele finden Plattenbauten hässlich. Wenn ich eine Computerstimme in einer Show einsetze, um Inhalte interessanter rüberzubringen, dann ist das für mich Kunst. Meine Sendung soll nicht so hässlich wirken wie ein Plattenbau.
KI muß sich vor allem an der Fähigkeit, die menschliche Sprache zu verstehen und korrekt wiederzugeben, messen lassen und genau hier liegt der Hase im Pfeffer. Wer heute KI studiert, belegt nicht umsonst den allergrößten Teil der Kurse in Linguistik und nur einen Bruchteil in Informatik. Da es aber bis heute immer noch am Verständnis des Phänomens Sprache hapert, gibt es zumindest für die Nahe Zukunft nur wenig Aussicht, eine "menschliche" Computerstimme schaffen zu können - was die Aussicht auf vom Computer gesprochene Nachrichten im Radio in wohltuende Ferne rückt.
Wenn man KI als psychologischen Prozeß begreift, dann wird man die künstliche Inteligenz nie erreichen, weil die Psychologie oft das menschliche Handeln und die Inteligenz als zielgerichtetes Handeln begreift.
Wenn man KI als eine sich selbststeuernde Abfolge von Elementarprozeßen begreift, dann ist die Entwicklung einer KI machbar, weil man nur nach den Elementarprozeßen und ihrer verknüpfung sucht. Diesen Ansatz, die Suche nach Elementarprozeßen, verfolgt die kognitive Psychologie.
Ein Fakt ist, dass die Computerstimme an vielen Stellen noch komisch klingt. Fakt ist aber auch, dass an einigen Stellen - insbesondere bei kurzen Sätzen die Stimme des Computers passabel klingt. Wenn man KI als eine Abfolge von Prozeßen begreift, dann haben die Programmierer die Syntax der Sprechführung bislang nur unvollständig verstanden und implementiert.
Beispiel für die Weiterentwicklung einer KI
Die Aussprache von Namen ist sicher ein Problem. Das Beispiel von Michael Jackson und Michael Schumacher ist treffend. Hier hilft dem Computer nur Wissen weiter. Genauso muss aber auch vorher irgendwann der Mensch gelernt haben, wie er jeweils den Namen aussprechen muss.
Vor dem Sprechen durch den Computer muss also der Text geparst werden, um im Text die Namen und andere Sprechausnahmen zu erkennen und mit modifizierten Sprechinformation für die Computerstimme zu versehen. Mit anderen Ausnahmen meine ich neben Namen auch die vielen Worte, die nach englischen oder französischen Sprechregeln gesprochen werden. Zumindest das Sprechprogramm, welches ich verwenden möchte, nutzt solche vorgeschalteten Parser nicht. Hier wäre also eine Verbesserung der Sprechstimme möglich - also ein Schritt zur menschenähnlicheren Stimme.
Derzeit ist es sicher immer noch so, dass man auf Grund der beschränkten Intelligenz der Sprechprogramme nur in bestimmten Formen formulieren darf, wenn die Sätze passabel klingen sollen. Der vollständige Ersatz von Nachrichtensprechern ist derzeit noch nicht zu befürchten. - Aber Parser lassen sich relativ schnell programmieren.
Aber die Diskussion driftet derzeit in die technischen Details ab.
Padina