Los investigadores destacaron que los sistemas de IA ya se han probado en una amplia gama de aplicaciones, desde diagnósticos médicos hasta navegación autónoma de automóviles, pero advirtieron que estos son escenarios de "alto riesgo" donde los márgenes de error son pequeños y las consecuencias de la falla pueden ser fatal.
La entrada en Science llega solo quince días después de que 5.500 expertos de todo el mundo publicaran una carta abierta pidiendo el fin de los experimentos con la inteligencia artificial más poderosa y avanzada, la llamada "generativa", que es capaz de crear texto o imágenes desde antes (datos existentes).
Hoy se han sumado a Science investigadores de diversas instituciones académicas y científicas, entre ellas las universidades de Cambridge, Harvard, Stanford, Shandong (China), Polytechnic of Valencia, Imperial College London, Massachusetts Institute of Technology (MIT) y varias empresas, entre ellas Google o la británica DeepMind, una de las mayores multinacionales del sector de la inteligencia artificial.
Los científicos suscritos hoy a la revista destacaron la necesidad de que todas las publicaciones sobre este tema contengan en detalle todos los datos que son vitales para comprender y solucionar los errores indirectos que pueden conducir a posibles fallas, y que todos estos datos estén a disposición del público.
Describieron, por ejemplo, un escenario hipotético en el que un algoritmo de reconocimiento facial alcanza la “impresionante” tasa de precisión del 90 por ciento al distinguir rostros masculinos de femeninos. Sin embargo, un examen detallado podría revelar que clasifica erróneamente los rostros de mujeres de piel oscura en el 35 por ciento de los casos, y que ese porcentaje de error sólo se produce en el 0,8 por ciento de los hombres de piel clara.