ios objective-c speech-recognition siri

¿Cómo usar el Reconocimiento de Voz dentro del SDK de iOS?



objective-c speech-recognition (2)

Sé que no hay una API pública para los servicios SIRI, pero ¿hay una API para el reconocimiento de voz simple? Entonces, si tengo un campo de texto y el usuario toca ese campo, aparece un teclado con el botón de micrófono típico y si lo presionó, ¿se reconoció el habla y se transformó en un objeto de cuerda? ¿O es este botón tal vez presentado por defecto?


Hay muchas bibliotecas disponibles. Puedes usar cualquiera de ellos.

  1. politepix.com/openears // Esta es la mejor biblioteca

  2. VocalKit (en VocalKit para los oídos abiertos)

  3. TTS
  4. ispeech (no gratis)

Espero que te ayude.

NOTA :

si descarga politepix.com/openears ( que contiene un proyecto de ejemplo llamado "OpenEarsSampleApp" ) @efimovD menciona esto

Verifique el código en el controlador de vista y verá una matriz con posibles comandos. Esta cosa detecta comandos! No se habla un poco. Escucha y trata de comparar lo que has dicho con las palabras de la matriz.


Puede usar el SDK de iOS de MindMeld proporcionado por Expect Labs. Es compatible con el reconocimiento continuo de voz (streaming) en iOS. También admite la comprensión del lenguaje natural y el descubrimiento de contenido para cualquier dominio de contenido personalizado.

Pruébelo en: https://expectlabs.com/docs/sdks/ios/gettingStarted