El multimillonario tecnológico, que dirigió Google entre 2001 y 2015, admitió que le preocupaba que los algoritmos de aprendizaje automático pudieran plantear 'riesgos extremos' para personas inocentes si los terroristas o los 'estados rebeldes' decidieran utilizar la tecnología con fines nefastos.
En una entrevista con la BBC Radio 4, Schmidt dijo:
'Piensen en Corea del Norte, Irán o incluso Rusia, que tienen algún objetivo malvado. Esta tecnología es lo suficientemente rápida como para que la adopten y puedan hacer un mal uso de ella y causar un daño real'.
El jefe de tecnología agregó que los sistemas de IA podrían usarse para crear 'un ataque biológico malo de alguna persona malvada', como el terrorista Osama Bin Laden, quien organizó los ataques del 11 de septiembre al World Trade Center en la ciudad de Nueva York, que mataron a miles de ciudadanos estadounidenses.
Explicó:
'Siempre me preocupa el escenario de -Osama Bin Laden-, donde tienes a una persona verdaderamente malvada que se apodera de algún aspecto de nuestra vida moderna y lo usa para dañar a personas inocentes'.
Schmidt enfatizó que los gobiernos deben regular de cerca el desarrollo de software de aprendizaje automático.
Dijo:
'La verdad es que la IA y el futuro serán construidos en gran medida por empresas privadas. Los gobiernos deben comprender lo que estamos haciendo y vigilarnos. No estamos argumentando que deberíamos poder hacer estas cosas unilateralmente sin supervisión, creemos que debería estar regulado'.
El exjefe de Google agregó que las grandes empresas tecnológicas 'no entendían hace 15 años' el potencial de la IA, pero ahora sí.
Dijo:
'Mi experiencia con los líderes tecnológicos es que comprenden el impacto que están teniendo, pero podrían emitir un juicio de valores diferente al que emitiría el gobierno'.