Was steckt dahinter, wenn Assistenten wie Siri menschlicher und natürlicher werden? Wenn der Nutzer seinen Computer benutzt, dann macht er das mit dem Wissen einen Computer zu benutzen. Benutzt der Mensch einen Sprachassistenten wie Siri, dann redet er mit dem Sprachassistenten anders, als mit einem richtigen Menschen. Der Nutzer würde solche Dinge sagen wie „Timer 15 Minuten“ oder „Ruf Mama“ an. Würde der Nutzer mit einem Freund sprechen, würde er zu diesem sagen „Kannst Du bitte den Timer auf 15 Minuten stellen?“ oder „Kannst Du bitte meine Mama anrufen?“
Der Nutzer würde keine Höflichkeitsformeln, wie „Bitte“ oder „Danke“ bei einem Sprachassistenten verwenden. Dadurch, dass die Sprachassistenten menschlicher werden, beginnt der Nutzer zu vergessen, dass er mit einem Computer spricht und behandelt den Computer stärker als einen Freund, als eine Sache. Durch diese Verhaltensweise wird im Gehirn eine Region angesprochen, die normalerweise für Gefühle, wie „Liebe“ und „Freundschaft“, zuständig sind.
Seit iOS 11 hört sich Siri natürlicher an. Apple hat hier viel Arbeit geleistet. Es wurden über 20 Stunden Audio aufgenommen. Die aufgenommene Sprache wurde, zerstückelt in sogenannte „Half-Phones“. Es gibt viele Arten „Danke“ zu sagen: schneller, langsamer, lauter und natürlich unterschiedlich betont. Durch die einzelnen Aufnahmen kann Siri nun mit Unterstützung von Machine Learning festlegen, welche Betonung auf welche Frage Sinn ergibt. Bei der Erstellung der phonetischen Antwort wird nicht nur die Frage beachtet, sondern auch Dinge wie, Ort und Zeit der Anfrage.
Quelle: