El gigante tecnológico dice que está trabajando para solucionar un problema que, según sugiere, se debe a que su servicio de dictado no puede distinguir entre palabras que tienen una 'r' en ellas.
Los videos publicados en línea muestran a personas que dicen la palabra 'racista' en la herramienta de dictado. A veces se transcribe correctamente, pero en otras ocasiones se convierte en 'Trump', antes de corregirse rápidamente a la palabra correcta.
Un portavoz de Apple dijo:
'Estamos al tanto de un problema con el modelo de reconocimiento de voz que impulsa el dictado y estamos implementando una solución hoy'.
Sin embargo, un experto en reconocimiento de voz argumentó que la explicación de Apple 'simplemente no es plausible'.
Peter Bell, profesor de tecnología del habla en la Universidad de Edimburgo, afirma que es más probable que el software subyacente utilizado por la herramienta haya sido alterado.
El profesor Bell sostiene que la explicación de Apple sobre la superposición fonética no tiene sentido, ya que las palabras 'racista' y 'Trump' no son lo suficientemente similares como para confundir a un sistema de inteligencia artificial (IA).
Sugiere que es poco probable que el problema de Apple sea un error genuino con los datos, ya que su modelo de idioma inglés se entrenaría con cientos de miles de horas de habla y, por lo tanto, debería tener un alto nivel de precisión.
El profesor Bell le dijo a BBC News:
'Probablemente apunta a alguien que tiene acceso a un proceso'.
Un ex empleado de Apple que trabajó en su asistente de IA Siri sospecha que se ha hecho una broma.
Le dijo al New York Times:
'Esto huele a una broma seria'.