CIUDAD DE MÉXICO (EL UNIVERSAL).- Microsoft es muy consciente de la creciente reacción negativa hacia el reconocimiento facial y, en respuesta, está cerrando un proyecto importante.
La IA planteó cuestiones de privacidad
La compañía ha revelado que «retirará» la tecnología de reconocimiento facial que, según dijo, podría inferir emociones, así como características como la edad, el género y el cabello.
La IA planteó cuestiones de privacidad, dijo Microsoft, y ofrecer un marco creó el potencial para la discriminación y otros abusos.
Tampoco hubo un consenso claro sobre la definición de emociones, y ninguna forma de crear un vínculo generalizado entre expresiones y emociones.
Los nuevos usuarios del marco de programación Face de Microsoft ya no tienen acceso a estas funciones de detección de atributos.
Los clientes actuales pueden usarlos hasta el 30 de junio de 2023. Microsoft seguirá integrando la tecnología en herramientas de accesibilidad «controlada«, como Seeing AI para personas con problemas de visión.
Microsoft comparte su marco estándar de IA
La salida se produce cuando Microsoft ha compartido su marco estándar de IA responsable con el público por primera vez. Las pautas ilustran el proceso de toma de decisiones de la empresa de tecnología, incluido un enfoque en principios como la inclusión, la privacidad y la transparencia.
Esto también representa la primera gran actualización del estándar desde que se introdujo a fines de 2019, y promete más equidad en la tecnología de voz a texto, controles más estrictos para la voz neuronal y requisitos de «adecuación para el propósito» que descartan el sistema de detección de emociones.
Microsoft no es la primera empresa en tener dudas sobre el reconocimiento facial. IBM dejó de trabajar en ese campo por temor a que sus proyectos pudieran usarse para abusos contra los derechos humanos. Dicho esto, este sigue siendo un gran cambio de opinión. Una de las empresas de informática y nube más grandes del mundo se está alejando de la IA, lo que podría tener un impacto sustancial.