La voz computarizada fue, de alguna manera, despreciada por años en el mundo de la tecnología. Existieron interesantes esfuerzos para que los sistemas hablasen o bien, entendiesen órdenes vía voz, que se podían ejecutar en todo tipo de programas. Sin embargo, por algún motivo, a la gente no le terminaba de gustar que los dispositivos hablaran.
Pero esto cambió y el hecho de que por voz podamos comunicarnos con nuestro teléfono para darle órdenes a Siri o a Alexa, parece convertirse en ya un tema común o cotidiano.
Obviamente todos estos asistentes deben hablar con una voz masculina o femenina y hay incluso empresas que venden la voz para diversas aplicaciones y prácticamente en la todos los idiomas más populares.
Es un negocio tecnológico muy curioso e interesante. La voz de los asistentes electrónicos muchas veces es neutra, es decir, es de hombre o mujer y ya, aunque algunos estudios indican que a la mayoría de las personas les gusta más tener un asistente con voz femenina.
Hay incluso propuestas de tener un asistente por voz en donde no exista el género del mismo y no podamos discernir si el sistema habla como mujer o como hombre. En otros casos, algunas aplicaciones permiten cambiar la voz e incluso poner a personajes como Darth Vader o Yoda, quienes nos hablan desde el teléfono o la tablet, y el resultado final hasta divertido es.
Sin embargo, ahora un grupo de ingenieros de Facebook hizo algo muy interesante: clonaron la voz de Bill Gates, y para demostrarlo se pueden escuchar las siguientes frases que el exCEO de Microsoft no dijo nunca:
«A cramp is no small danger on a swim.»
«He said the same phrase thirty times.»
«Pluck the bright rose without leaves.»
«Two plus seven is less than ten.»
Los clips de voz se generaron por un sistema de aprendizaje de máquinas llamado MelNet, que fue diseñado y creado por los ingenieros de Facebook.
Hay que decir que el sistema pudo generar la voz de otros personajes, incluyendo George Takei, Jane Goodall y Stephen Hawking, los cuales pueden escucharse aquí.
Para poder generar y clonar la voz de los personajes en cuestión, se requirió un conjunto de 452 horas de pláticas en las conferencias TED. El resto vino de datos de audio libros debido a que en este caso se busca hacer énfasis para darle tono a lo que el escucha de un audio libro está escuchando.
Y aunque los resultados son asombrosos con MelNet, hay que reconocer que la mayoría del progreso en este campo data del 2016, cuando se hizo público SampleRNN y WaveNet, en donde este último er un programa de texto a voz, creado por DeepMind y que hoy en día funciona con Google Assistant.
El enfoque básico con WaveNet, SampleRNN y programas similares, es el alimentar con toneladas de datos el cómo los seres humanos hablan, y aunque WaveNet y otros programas, se entrenaron usando ondas de audio, MelNet de Facebook usa una herramienta extra: el espectrograma.
El el correspondiente artículo técnico, los investigadores de Facebook hacen notar que WaveNet produce audio de mayor fidelidad, pero MelNet es superior en capturar «las estructuras de alto nivel», las sutilezas al hablar e irónicamente, lo que parece muy difícil de describir, que es cómo el oído humano está acostumbrado a entender estas sutilezas del habla.
El uso de espectrograma es «más compacto por órdenes de magnitud» con respecto a las ondas de audio. Esta densidad permite al algoritmo producir voces más consistentes
Por supuesto que todo este enfoque tiene sus propias limitaciones. El más importante es que el modelo no puede replicar cómo cambia la voz humana en largos periodos de tiempo. Esto es bastante similar a lo que se ha visto al generar texto con Inteligencia Artificial, que captura muchas veces la coherencia a nivel superficial, pero no la estructura de largo plazo. Cabe decir también que el sistema MelNet puede generar música incluso.
Como todas las tecnologías, hay beneficios y peligros. Los beneficios son sin duda evidentes: mejores asistentes personales por audio, voces más realistas para personas con discapacidades del habla e incluso, para la industria de los videojuegos.
Los peligros tienen que ver con la verdad sobre las evidencias en la forma tradicional, así como el uso de esta tecnología para hacer creer que alguien dice algo impropio o políticamente incorrecto. La realidad es que para un sentido o el otro, las posibilidades son ilimitadas.