Microsoft restringe el acceso a la herramienta de reconocimiento facial en la revisión de la ética de la IA | reconocimiento facial
Microsoft está revisando sus políticas de ética de inteligencia artificial y ya no permitirá que las empresas usen su tecnología para hacer cosas como inferir emociones, género o edad usando tecnología de reconocimiento facial, dijo la compañía.
Como parte de su nuevo «estándar de IA responsable», Microsoft dice que tiene la intención de mantener a «las personas y sus objetivos en el centro de las decisiones de diseño del sistema». Los principios de alto nivel conducirán a cambios reales en la práctica, dice la compañía, con algunas características modificadas y otras eliminadas de la venta.
El servicio Azure Face de Microsoft, por ejemplo, es una herramienta de reconocimiento facial utilizada por empresas como Uber como parte de sus procesos de verificación de identidad. Ahora, cualquier empresa que desee utilizar las funciones de reconocimiento facial del servicio deberá solicitarlo activamente, incluidas aquellas que ya lo hayan integrado en sus productos, para demostrar que cumplen con los estándares de ética de IA de Microsoft y que las funciones benefician al usuario final y a la sociedad. .
Incluso las empresas que tienen acceso a él ya no podrán usar algunas de las funciones más controvertidas de Azure Face, dice Microsoft, y la empresa retirará la tecnología de análisis facial que pretende inferir estados emocionales y atributos como el género o la edad.
«Trabajamos con investigadores internos y externos para comprender las limitaciones y los beneficios potenciales de esta tecnología y navegar por las ventajas y desventajas», dijo Sarah Bird, gerente de producto de Microsoft. «En el caso de la clasificación de las emociones en particular, estos esfuerzos han planteado preguntas importantes sobre la confidencialidad, la falta de consenso sobre una definición de ‘emociones’ y la incapacidad de generalizar el vínculo entre la expresión facial y el estado emocional en los casos de uso. .»
Microsoft no está abandonando por completo el reconocimiento de emociones: la compañía seguirá usándolo internamente, para herramientas de accesibilidad como Seeing AI, que intentan describir verbalmente el mundo para los usuarios con problemas de visión.
Asimismo, la compañía ha limitado el uso de su tecnología de voz neuronal personalizada, que permite la creación de voces sintéticas que suenan casi igual que la fuente original. «Es… fácil imaginar cómo podría usarse para hacerse pasar por oradores y engañar a los oyentes de manera inapropiada», dijo Natasha Crampton, directora de IA de la compañía.
A principios de este año, Microsoft comenzó a aplicar marcas de agua a sus voces sintéticas, incorporando fluctuaciones menores e inaudibles en la salida, lo que significaba que la empresa podía saber cuándo se había realizado una grabación utilizando su tecnología. «Con el avance de la tecnología neuronal TTS, que hace que el habla sintética sea indistinguible de las voces humanas, existe el riesgo de falsificaciones dañinas», dijo Qinying Liao de Microsoft.
«Jugador orgulloso. Gurú del café. Alcoholico galardonado. Entusiasta de la cerveza. Estudiante. Aficionado a los zombis. Lector. Especialista en música. Aficionado a la comida».