Siri unterlag Google Assistant im Test der Sprach-Assistenten

Analysten StoneTemple den Test durchgeführt gängigen Sprach-Assistenten, um zu bestimmen, welche am besten versteht die Anforderungen der Menschen und reagiert auf seine Befehle. Im Test nahmen Siri, Google Assistant, Microsoft Cortana und Amazon Alexa. Die Wirksamkeit der einzelnen Assistenten замерялась auf die Qualität der Antworten auf mehr als 5000 Fragen.


Siri unterlag Google Assistant im Test der Sprach-Assistenten

Die Fragen betrafen News, Ergebnisse, Sportergebnisse, Wetter, Abfragen im Internet und anderem. Fragen und vergleicht die Antworten der Assistenzärzte berücksichtigt die Forscher, ob das Programm gab eine mündliche Erklärung oder gefragt, die Antwort aus der Datenbank, wie Knowledge Graph, schöpfte ob Informationen aus Drittanbieter-Quellen, einschließlich der «Wikipedia». Auch wurden die Fehler, wenn die Helfer nicht verstehen oder falsch auslegen bitte.

Die intelligenten Helfer war Google Assistant, verlor die Antworten auf 68,1% der Fragen. 90,6% Funktionen Antworten waren korrekt. Gefolgt mit einer kleinen Verzögerung geht Cortana: es gab eine Antwort auf 56,5% der Fragen, in 81,9% der Fälle — ist unverkennbar.


Bei Alexa Prozentsatz der richtigen Antworten oben — 87%, aber das Programm Amazon konnte nur Antworten auf 20,7% der Fragen. Nicht zu gut bewährt und Siri: Sie antwortete auf 21,7% der Fragen, und richtig — nur auf 62,2%.

Siri unterlag Google Assistant im Test der Sprach-Assistenten

Es ist Fair zu sagen, dass im Rahmen der Prüfung Siri arbeitete auf iOS 10. Zum Release von iOS 11, das war auf der WWDC 2017, wird es viel klüger und erhält mehr Funktionen. Siri beginnt, gelten die Deep-learning-algorithmen, und Ihre Stimme klingt weicher und natürlicher. Vielleicht ein neuer Test zeigt Sie von Ihrer besten Seite.

Das könnte auch interessant sein...





Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.