Quizás hayas oído hablar de AI realizando entrevistas. O tal vez usted mismo lo haya entrevistado. Empresas como HireVue afirman que su software puede analizar entrevistas en video para descubrir "puntaje de empleabilidad. " Los algoritmos no solo evalúan la postura de la cara y el cuerpo para la apariencia; También les dicen a los empleadores si el entrevistado es tenaz o bueno trabajando en equipo. Estas evaluaciones podrían tener un gran efecto en el futuro de un candidato. En el NOSOTROS y Corea del Sur, donde la contratación asistida por IA se ha vuelto cada vez más popular, los consultores de carrera ahora capacitan a nuevos graduados y solicitantes de empleo sobre cómo entrevistarse con un algoritmo. Esta tecnología también se está implementando en los niños en las aulas y se ha utilizado en estudios para detectar el engaño en videos de la sala del tribunal.
Pero muchas de estas promesas no están respaldadas por consenso científico. No existen estudios sólidos y revisados por pares que demuestren que analizar la postura corporal o las expresiones faciales puede ayudar a elegir a los mejores trabajadores o estudiantes (en parte porque las empresas son reservadas sobre sus métodos). Como resultado, la exageración en torno al reconocimiento de emociones, que es pagproyectado para ser un mercado de $ 25 mil millones para 2023, ha creado una reacción violenta de los especialistas en ética y activistas de la tecnología que temen que la tecnología pueda plantear los mismos tipos de problemas de discriminación que sentencia predictiva o algoritmos de vivienda para los propietarios que deciden a quién alquilar.
El bombo también preocupa a los investigadores. Muchos coinciden en que su trabajo, que utiliza varios métodos (como analizar microexpresiones o voz) para discernir e interpretar expresiones humanas, se está cooptando y utilizando en aplicaciones comerciales que tienen una base inestable en la ciencia. Dicen que la falta de regulación gubernamental no solo es mala para los consumidores. También es malo para ellos.
El bueno y el malo
El reconocimiento de emociones, un subconjunto de la computación afectiva, sigue siendo una tecnología naciente. A medida que los investigadores de IA han probado los límites de lo que podemos y no podemos cuantificar sobre el comportamiento humano, la ciencia subyacente de las emociones ha seguido desarrollándose. Todavía hay múltiples teorías, por ejemplo, sobre si las emociones se pueden distinguir discretamente o caer en un continuo. Mientras tanto, las mismas expresiones pueden significar cosas diferentes en diferentes culturas. En julio, un meta-estudio Llegó a la conclusión de que no es posible juzgar las emociones con solo mirar la cara de una persona. El estudio fue ampliamente cubierto (incluso en esta publicación), a menudo con titulares que sugieren que "no se puede confiar en el reconocimiento de emociones. "
Los investigadores del reconocimiento de emociones ya son conscientes de esta limitación. Los que hablamos fueron cuidadosos al hacer afirmaciones de lo que su trabajo puede y no puede hacer. Muchos enfatizaron que el reconocimiento de emociones en realidad no puede evaluar las emociones y la experiencia internas de un individuo. Solo puede estimar cómo otras personas pueden percibir las emociones de ese individuo, o sugerir tendencias amplias basadas en la población (como una película que provoca, en promedio, una reacción más positiva que otra). "Ningún investigador serio afirmaría que puede analizar las unidades de acción en la cara y luego realmente sabe lo que la gente piensa", dice Elisabeth André, experta en informática afectiva de la Universidad de Augsburgo.
Los investigadores también señalan que el reconocimiento de emociones implica mucho más que solo mirar la cara de alguien. También puede implicar la observación de la postura del cuerpo, la marcha y otras características, así como el uso de sensores biométricos y audio para recopilar datos más holísticos.
Estas distinciones son buenas pero importantes: descalifican aplicaciones como HireVue, que afirman evaluar la competencia inherente de un individuo, pero apoyan otras, como las tecnologías destinadas a convertir las máquinas en colaboradores y compañeros más inteligentes para los humanos. (HireVue no respondió a una solicitud de comentarios). Un robot humanoide podía sonreír cuando sonreías, una acción de reflejo que los humanos a menudo usan para hacer que las interacciones se sientan más naturales. Un dispositivo portátil podría recordarle que descanse si detecta niveles más altos de cortisol, la hormona del estrés del cuerpo. Ninguna de estas aplicaciones requiere un algoritmo para evaluar sus pensamientos y sentimientos privados; solo requieren una estimación de una respuesta adecuada a los niveles de cortisol o al lenguaje corporal. Tampoco toman decisiones de alto riesgo sobre la vida de un individuo, a diferencia de los algoritmos de contratación no comprobados. "Si queremos que las computadoras y los sistemas informáticos nos ayuden, sería positivo que tuvieran una idea de cómo nos estamos sintiendo", dice Nuria Oliver, la científica de datos en jefe de la organización sin fines de lucro DataPop Alliance.
Pero gran parte de este matiz se pierde cuando la investigación de reconocimiento de emociones se utiliza para hacer aplicaciones comerciales lucrativas. Los mismos algoritmos de monitoreo de estrés en un dispositivo portátil podrían ser utilizados por una empresa que intenta asegurarse de que está trabajando lo suficientemente duro. Incluso para empresas como Affectiva, fundada por investigadores que hablan sobre la importancia de la privacidad y la ética, los límites son difíciles de definir. Tiene vendió su tecnología a HireVue. (Affectiva declinó hacer comentarios sobre compañías específicas).
Un llamado a la regulación
En diciembre, el instituto de investigación AI Now pidió la prohibición de las tecnologías de reconocimiento de emociones "en decisiones importantes que impactan la vida de las personas. " Es una de las primeras llamadas para prohibir una tecnología que ha recibido menos atención regulatoria que otras formas de inteligencia artificial, a pesar de que su uso en la selección de trabajo y las aulas podría tener graves efectos.
En contraste, el Congreso acaba de celebrar su tercera audiencia sobre reconocimiento facial en menos de un año, y tiene convertirse en un problema en las elecciones de 2021. Los activistas están trabajando para boicotear las tecnologías de reconocimiento facial, y varios representantes están reconociendo la necesidad de regulación en los sectores público y privado. Para la informática afectiva, no ha habido tantas campañas dedicadas y grupos de trabajo, y los intentos de regulación han sido limitados. Una ley de Illinois Regulación del análisis de IA de videos de entrevistas de trabajo entró en vigencia en enero, y se le pidió a la Comisión Federal de Comercio que investigara a HireVue (aunque no se sabe si tiene la intención de hacerlo).
Aunque muchos investigadores creen que una prohibición es demasiado amplia, están de acuerdo en que un vacío regulatorio también es perjudicial. "Hemos definido claramente los procesos para certificar que ciertos productos que consumimos, ya sea alimentos que comemos, ya sean medicamentos que tomamos, son seguros para que los tomemos, y en realidad hacen lo que dicen que hacen". dice Oliver "No tenemos los mismos procesos para la tecnología". Ella piensa que las compañías cuyas tecnologías pueden afectar significativamente la vida de las personas deberían tener que demostrar que cumplen con un cierto estándar de seguridad.
Rosalind Picard, profesora del MIT Media Lab que cofundó Affectiva y otra startup de informática afectiva, Empatica, se hace eco de este sentimiento. Para un modelo de regulación existente, ella señala Ley de protección del polígrafo del empleado Limitando el uso de detectores de mentiras, que según ella son esencialmente una tecnología informática afectiva. Por ejemplo, la ley prohíbe que la mayoría de los empleadores privados utilicen polígrafos y no permite que los empleadores pregunten sobre los resultados de las pruebas del detector de mentiras.
Sugiere que todo uso de tales tecnologías debe ser aceptado y que las empresas deben revelar cómo se probaron sus tecnologías y cuáles son sus limitaciones. "Lo que tenemos hoy es que (las compañías) pueden hacer estas afirmaciones escandalosas que son simplemente falsas, porque en este momento el comprador no está tan bien educado", dice ella. "Y no deberíamos exigir que los compradores estén bien educados". (Picard, quien dice que dejó Affectiva en 2013, no respalda las afirmaciones que HireVue está haciendo).
Por su parte, Meredith Whittaker, científica investigadora de NYU y codirectora de AI Now, enfatiza la diferencia entre investigación y comercialización. "No estamos impugnando todo el campo de la informática afectiva", dice ella. “En particular, llamamos al despliegue no regulado, no validado, científicamente infundado de tecnologías de reconocimiento de afectos comerciales. La comercialización está perjudicando a las personas en este momento, potencialmente, porque está haciendo afirmaciones que determinan el acceso de las personas a los recursos ".
La prohibición de usar el reconocimiento de emociones en aplicaciones como la selección de trabajo ayudaría a evitar que la comercialización supere a la ciencia. Detiene el despliegue de las tecnologías primero, dice ella, y luego invierte en investigación. Si la investigación confirma que las tecnologías funcionan como afirman las empresas, considere la posibilidad de aflojar la prohibición.
Sin embargo, aún se necesitarían otras regulaciones para mantener a las personas seguras: en última instancia, hay más que considerar, argumenta Whittaker, que solo la credibilidad científica. "Tenemos que asegurarnos, cuando estos sistemas se usan en contextos sensibles, que son discutibles, que se usan de manera justa", dice, "y que no están conduciendo a mayores asimetrías de poder entre las personas que los usan y las personas en quien se usan.