viernes, enero 15, 2021
Ckmagazine.org
  • ✅ Actualidad
  • Recetas fáciles
  • Youtubers
  • Tecnología
  • Remix
CKmagazine

Los detectores de mentiras siempre han sido sospechosos. La IA ha empeorado el problema.

abril 17, 2020
Reading Time: 17min read

Antes de que el polígrafo lo declarara culpable, Emmanuel Mervilus trabajó para una compañía de aceite de cocina en el puerto de Newark, Nueva Jersey. Estaba ganando $ 12 por hora moviendo cajas, pero no era suficiente. Su hermano y su hermana eran demasiado jóvenes para trabajar, y su madre estaba luchando en una costosa batalla contra el cáncer. Sin embargo, su jefe en el puerto le había dicho que era el próximo en la fila para ascender a un puesto de técnico, lo que vendría con un aumento de $ 25 por hora.

Mervilus todavía estaba esperando esta promoción el 19 de octubre de 2006, cuando él y un amigo se detuvieron en un Dunkin 'Donuts en la cercana Elizabeth, Nueva Jersey. Unos minutos más tarde, mientras caminaban por la calle, dos policías se les acercaron y los acusaron de haber robado a un hombre a punta de cuchillo unos minutos antes, frente a una estación de tren cercana.

La víctima había identificado a Mervilus y su amigo desde la distancia. Desesperado por demostrar su inocencia, Mervilus se ofreció a tomar una prueba de polígrafo. La policía estuvo de acuerdo, pero en los días previos a la prueba, la madre de Mervilus murió. Estaba angustiado y ansioso cuando la policía lo amarró al dispositivo. Reprobó la prueba, le pidió que la volviera a tomar y fue rechazada.

Después de que Mervilus mantuvo su declaración de inocencia, su caso fue a juicio. El teniente que había administrado el polígrafo testificó en la corte que el dispositivo era un "indicador de verdad" confiable. Dijo que nunca en su carrera había visto un caso en el que "alguien mostrara signos de engaño y (luego) se dio cuenta de que era sincero". Un jurado condenó a Mervilus, influido, según lo encontró más tarde un tribunal de apelaciones, por fe equivocada en el polígrafo. El juez lo condenó a 11 años de prisión.

La creencia de que el engaño se puede detectar analizando el cuerpo humano se ha arraigado en la vida moderna. A pesar de numerosos estudios que cuestionan la validez del polígrafo, cada año se realizan más de 2.5 millones de exámenes con el dispositivo, y las pruebas de polígrafo son una industria de $ 2 mil millones. Las agencias del gobierno federal de los EE. UU., Incluidos el Departamento de Justicia, el Departamento de Defensa y la CIA, usan el dispositivo para evaluar a los empleados potenciales. Según las cifras de 2007 del Departamento de Justicia, más de las tres cuartas partes de todos los departamentos de policía y sheriff urbanos también usaron detectores de mentiras para detectar a los empleados.

Pero las máquinas de polígrafo siguen siendo demasiado lentas y engorrosas para usar en los cruces fronterizos, en aeropuertos o en grandes grupos de personas. Como resultado, en la última década surgió una nueva generación de detectores de mentiras basados ​​en inteligencia artificial. Sus defensores afirman que son más rápidos y más precisos que los polígrafos.

En realidad, el trabajo psicológico que sustenta estos nuevos sistemas de IA es aún más endeble que la investigación subyacente al polígrafo. Existe poca evidencia de que se pueda confiar en los resultados que producen. Sin embargo, la apariencia de modernidad que les da AI les está llevando estos sistemas a entornos que el polígrafo no ha podido penetrar: cruces fronterizos, entrevistas de trabajo privadas, evaluaciones de préstamos y reclamos de fraude de seguros. Las corporaciones y los gobiernos están comenzando a confiar en ellos para tomar decisiones sobre la confiabilidad de los clientes, empleados, ciudadanos, inmigrantes y visitantes internacionales. Pero, ¿qué pasa si mentir es demasiado complejo para que cualquier máquina lo identifique de manera confiable, sin importar cuán avanzado sea su algoritmo?

Los inquisidores de la antigua China pidieron a los sospechosos mentirosos que se pusieran arroz en la boca para ver si estaban salivando. los Gesta Romanorum, una antología medieval de fábulas morales, cuenta la historia de un soldado que hizo que su secretario midiera el pulso de su esposa para descubrir si ella le estaba siendo infiel.

Una traducción al inglés de Gesta Romanorum, o Deeds of the Romans, una colección de historias originalmente publicadas en latín a fines del siglo XIII o principios del siglo XIV.
Wikimedia commons

Cuando Estados Unidos entró en la Primera Guerra Mundial, William Marston, investigador de Harvard, fue pionero en el uso de máquinas que midieron la presión arterial para intentar determinar el engaño. Unos años más tarde, inspirado por el trabajo de Marston, John Augustus Larson, un oficial de policía que acababa de completar su doctorado en fisiología en la Universidad de California, Berkeley, desarrolló una máquina que llamó un "psicograma cardio-neumo", que proporcionaba lecturas continuas de la presión arterial, el pulso y la frecuencia respiratoria de un sujeto. Estas lecturas, afirmó Larson, eran un proxy aún mejor para el engaño que la presión arterial sola.

Larson utilizó por primera vez la máquina para investigar un robo en un dormitorio de mujeres en Berkeley, y en un año, se había utilizado para condenar a un hombre en San Francisco acusado de asesinar a un sacerdote. En la década de 1930, uno de los protegidos de Larson estaba vendiendo una versión portátil a los departamentos de policía de todo el país, agregando un sensor que medía los cambios en la respuesta galvánica de la piel: cuanto más sudaba un sujeto, más conductora sería la piel. En la década de 1970, millones de trabajadores del sector privado realizaban pruebas periódicas de polígrafo a instancias de sus empleadores.

La mayoría de las pruebas de polígrafo de hoy tienen la misma estructura básica que la de Larson: el examinador hace una serie de preguntas para medir el estado fisiológico normal de un sujeto, observando mientras la máquina transcribe estas medidas como líneas de forma de onda en una página o una pantalla. Luego, el examinador busca picos o caídas repentinas en estos niveles a medida que el sujeto responde preguntas sobre presuntos delitos o sentimientos.

Pero los psicólogos y neurocientíficos han criticado el polígrafo casi desde el momento en que Larson reveló su invención al público. Si bien algunos mentirosos pueden experimentar cambios en la frecuencia cardíaca o la presión arterial, hay pocas pruebas de que dichos cambios se correlacionen constantemente con el engaño. Muchas personas inocentes se ponen nerviosas al ser interrogadas, y los mentirosos practicantes pueden suprimir o inducir cambios en su cuerpo para engañar a la prueba. Los polígrafos también pueden ser golpeado por morderse la lengua, pisando una tachuela, o pensando en el peor miedo. Los dispositivos siempre corren el riesgo de detectar variables de confusión, incluso en experimentos de laboratorio controlados, y en la vida real son aún menos confiables: dado que los delincuentes que superan la prueba casi nunca le dicen a la policía que son culpables, y dado que los sospechosos inocentes a menudo dan confesiones falsas después de fallar pruebas, no hay forma de saber qué tan bien funcionaron realmente.

Leonarde Keeler, un protegido del inventor poligráfico John Larson, administró la prueba a Bruno Hauptmann, quien fue arrestado, condenado y ejecutado por el secuestro de Charles Augustus Lindbergh Jr. Hauptmann mantuvo su inocencia hasta su muerte.
Dominio publico

Debido a estas limitaciones, las pruebas de polígrafo han sido inadmisibles durante mucho tiempo en la mayoría de los tribunales estadounidenses a menos que ambas partes den su consentimiento para su inclusión. La ley federal ha prohibido a los empleadores privados hacer una poligrafía de sus empleados desde 1988 (con excepciones para aquellos en trabajos delicados, como guardias armados o distribuidores farmacéuticos, y para algunos empleados sospechosos de robo o fraude). La Asociación Americana de Psicología advierte: "La mayoría de los psicólogos están de acuerdo en que hay poca evidencia de que las pruebas de polígrafo puedan detectar mentiras con precisión", y un informe de 2003 de la Academia Nacional de Ciencias, haciendo eco de investigaciones anteriores del gobierno, descubrió que el dispositivo detecta mentirosos a tasas " muy por encima del azar, aunque muy por debajo de la perfección "; El autor principal del informe dijo en ese momento que "la seguridad nacional es demasiado importante para dejarla a un instrumento tan contundente".

Pero quizás el instrumento no necesita ser tan contundente. Esa es la promesa hecha por un número creciente de empresas ansiosas por vender tecnología de detección de mentiras tanto a los gobiernos como a las industrias comerciales. Quizás, dicen, ciertos patrones complejos de tics conductuales podrían indicar una mentira más confiable que solo un pulso elevado o presión arterial. Y quizás un algoritmo sofisticado podría detectar esos patrones.

Desde 1969 hasta 1981, un asesino en serie apodado el "Destripador de Yorkshire" se aprovechó de mujeres jóvenes en el norte de Inglaterra, matando al menos a 13 e intentando matar al menos a otras siete. La policía lo entrevistó y lo liberó nueve veces diferentes mientras su ola de asesinatos continuaba. Su última víctima fue Jacqueline Hill, una estudiante de 20 años de la Universidad de Leeds, que fue asesinada en noviembre de 1980. Unos meses más tarde, la policía finalmente lo atrapó mientras se preparaba para matar a una prostituta en la cercana Sheffield.

Cuando Janet Rothwell llegó a la Universidad de Leeds en el otoño de 1980, vivía en el dormitorio contiguo al de Hill. Se encontró obsesionada por el asesinato de Hill.

"Cogió el autobús de la biblioteca de la universidad casi al mismo tiempo que yo", dijo Rothwell, "y fue asesinada después de bajarse del autobús". Rothwell luego supo cuánto tiempo tardó en atrapar al asesino. "Me preguntaba", recordó, "¿podría una computadora señalar algún tipo de incongruencia en el comportamiento para alertar a la policía?"

Rothwell finalmente se graduó en la Universidad Metropolitana de Manchester (MMU) a fines de la década de 1990. Conoció a Zuhair Bandar, un profesor iraquí-británico que trabaja en el departamento de informática. Bandar había tenido recientemente un "momento eureka" cuando una compañía de marketing le había pedido que creara un dispositivo rudimentario para medir el interés de los consumidores en los productos que vieron en una pantalla.

Una foto del FBI de una mujer tomando un polígrafo.
Oficina Federal de Investigaciones

"Le darían al cliente un dispositivo portátil", dijo Bandar, "y si lo aprueban, presionan 1; si no les gusta, presionan 2. Pensé, ¿por qué necesitamos dispositivos de mano si ya hay expresiones en sus caras? " Bandar le pidió a Rothwell que se quedara en MMU después de su maestría para obtener un doctorado y ayudarlo a diseñar software que pudiera analizar rostros para extraer información. El engaño, pensaron, no era menos detectable que la alegría o la ira. Todos crearían alguna forma de "incongruencia": patrones de comportamiento, ya sean verbales o no verbales, que una computadora podría discernir.

Rothwell entrenó una red neuronal a principios de la década de 2000 para rastrear movimientos faciales como parpadear y sonrojarse, y luego alimentó a la computadora con unas pocas docenas de clips de personas que respondían el mismo conjunto de preguntas honesta y deshonestamente. Para determinar qué tenían en común los mentirosos, la computadora examinó los movimientos faciales de un individuo, las relaciones entre esos movimientos y las relaciones entre esas relaciones, con una "teoría" demasiado compleja para articular en un lenguaje normal. Una vez "entrenado" de esta manera, el sistema podría usar su conocimiento para clasificar a los nuevos sujetos como engañosos o veraces al analizar los cambios cuadro por cuadro en sus expresiones.

En un estudio de 2006, el sistema, llamado Silent Talker, se hizo para adivinar si un sujeto estaba mintiendo o diciendo la verdad. Nunca logró más del 80% de precisión mientras Rothwell estaba trabajando en ello, ni lo ha hecho sustancialmente mejor en nada que el grupo de investigación haya publicado desde entonces. Rothwell también me dijo que se descomponía por completo si un participante usaba anteojos, y señaló: "Hay que recordar que las condiciones de iluminación eran las mismas y las entrevistas se basaron en el robo en escena". Pero incluso en las primeras etapas, recuerda Rothwell, Bandar estaba "interesado en tener un producto comercial"; él y un colega le presentaron una vez un video de una mujer sospechosa de haber engañado a su esposo y le pidieron que lo hablara en silencio, como en el Gesta Romanorum.

Rothwell tenía sus reservas. "Pude ver que el software, si funcionaba, podría ser intrusivo", dijo. "No creo que ningún sistema pueda estar al 100%, y si (el sistema) se equivoca, el riesgo para las relaciones y la vida podría ser catastrófico". Ella dejó la universidad en 2006; Después de entrenarse como audióloga, encontró un trabajo trabajando en un hospital en la Isla de Jersey, donde aún vive.

MMU publicó un comunicado de prensa en 2003 promocionando la tecnología como un nuevo invento que haría que el polígrafo quedara obsoleto. "Estaba un poco sorprendido", dijo Rothwell, "porque sentí que era demasiado pronto".

El gobierno de EE. UU. Estaba haciendo numerosas incursiones en la tecnología de detección de engaños en los primeros años después del 11 de septiembre, con el Departamento de Seguridad Nacional (DHS), el Departamento de Defensa (DoD) y la Fundación Nacional de Ciencia, todos gastando millones de dólares en dicha investigación . Estas agencias financiaron la creación de un quiosco llamado AVATAR en la Universidad de Arizona. AVATAR, que analizó las expresiones faciales, el lenguaje corporal y las voces de las personas para asignar a los sujetos un "puntaje de credibilidad", se probó en aeropuertos de los EE. UU. En Israel, mientras tanto, DHS ayudó a financiar una startup llamada WeCU ("nos vemos"), que vendió un quiosco de detección que "desencadenaría respuestas fisiológicas entre aquellos que están ocultando algo", según un Artículo 2010 en Fast Company. (La compañía ha cerrado desde entonces).

Bandar comenzó a tratar de comercializar la tecnología. Junto con dos de sus estudiantes, Jim O'Shea y Keeley Crockett, incorporó Silent Talker como compañía y comenzó a buscar clientes, incluidos departamentos de policía y corporaciones privadas, por su tecnología de "perfil psicológico". Silent Talker fue uno de los primeros detectores de mentiras de IA en llegar al mercado. Según la compañía, el año pasado se utilizó la tecnología "derivada de Silent Talker" como parte de iBorderCtrl, una iniciativa de investigación financiada por la Unión Europea que probó el sistema en voluntarios en las fronteras de Grecia, Hungría y Letonia. Bandar dice que la compañía ahora está en conversaciones para vender la tecnología a firmas de abogados, bancos y compañías de seguros, llevando pruebas a entrevistas en el lugar de trabajo y evaluaciones de fraude.

Bandar y O’Shea pasaron años adaptando el algoritmo central para su uso en diversas configuraciones. Intentaron comercializarlo a los departamentos de policía en las áreas metropolitanas de Manchester y Liverpool. "Estamos hablando informalmente con personas muy importantes", dijo la compañía a la publicación del Reino Unido. El ingeniero en 2003, señalando que su objetivo era "probar esto en entrevistas reales". Un libro blanco de 2013 O’Shea publicado en su sitio web sugirió que Silent Talker "podría usarse para proteger nuestras fuerzas en el despliegue en el extranjero de los ataques Green-on-Blue (" Insider ")". (El término "verde sobre azul" se usa comúnmente para referirse a los ataques que los soldados afganos en uniforme hacen contra sus antiguos aliados).

El equipo también publicó resultados experimentales que muestran cómo Silent Talker podría usarse para detectar tanto la comprensión como la detección. En un estudio de 2012, el primero en mostrar el sistema Silent Talker utilizado en el campo, el equipo trabajó con una ONG de atención médica en Tanzania para registrar las expresiones faciales de 80 mujeres mientras tomaban cursos en línea sobre el tratamiento del VIH y el uso del condón. La idea era determinar si los pacientes entendían el tratamiento que recibirían, como señala la introducción al estudio, "la evaluación de la comprensión de los participantes durante el proceso de consentimiento informado sigue siendo un área crítica de preocupación". Cuando el equipo hizo una referencia cruzada de las conjeturas de la IA sobre si las mujeres entendieron las conferencias con sus puntajes en breves exámenes posteriores a la conferencia, descubrieron que era 80% exacto al predecir quién aprobaría y quién reprobaría.

Según el comunicado de prensa, el algoritmo entrenado en Manchester "entregaría cruces fronterizos terrestres más eficientes y seguros" y "contribuiría a la prevención del crimen y el terrorismo".

El experimento de Tanzania fue lo que condujo a la inclusión de Silent Talker en iBorderCtrl. En 2015, Athos Antoniades, uno de los organizadores del incipiente consorcio, envió un correo electrónico a O’Shea, preguntando si el equipo Silent Talker quería unirse a un grupo de empresas y fuerzas policiales que solicitaban una subvención de la UE. En años anteriores, el creciente tráfico de vehículos hacia la UE había abrumado a los agentes en los países fronterizos de la Unión, y como resultado, la UE estaba ofreciendo 4,5 millones de euros ($ 5 millones) a cualquier institución que pudiera "entregar cruces fronterizos terrestres más eficientes y seguros. y así contribuir a la prevención del crimen y el terrorismo ". Antoniades pensó que Silent Talker podría jugar un papel crucial.

Cuando el proyecto finalmente anunció un piloto público en octubre de 2018, la Comisión Europea se apresuró a promocionar la "historia de éxito" del "enfoque único" del sistema para la detección del engaño en un comunicado de prensa, explicando que la tecnología "analiza los micro-gestos de los viajeros para determinar si el entrevistado está mintiendo". Según el comunicado de prensa, el algoritmo entrenado en Manchester "entregaría cruces fronterizos terrestres más eficientes y seguros" y "contribuiría a la prevención del crimen y el terrorismo".

O’Shea me dijo que el algoritmo subyacente del programa podría usarse en una variedad de otros entornos: publicidad, análisis de reclamos de seguros, evaluación de solicitantes de empleo y evaluación de empleados. Me resultaba difícil compartir su abrumadora creencia en su sabiduría, pero incluso cuando él y yo hablamos por teléfono, Silent Talker ya estaba revisando voluntarios en los cruces fronterizos de la UE; La compañía se había lanzado recientemente como negocio en enero de 2019. Así que decidí ir a Manchester para ver por mí mismo.

Las oficinas de Silent Talker se encuentran a una milla de distancia de la Universidad Metropolitana de Manchester, donde O’Shea ahora es profesora principal. Se ha hecho cargo del desarrollo cotidiano de la tecnología de Bandar. La compañía se basa en un parque de oficinas de ladrillos que parpadeará y te perderás en un vecindario residencial, cerca de un restaurante de kebab y frente a un campo de fútbol. En el interior, la oficina de Silent Talker es una habitación individual con algunas computadoras, escritorios con maletines y carteles explicativos sobre la tecnología de principios de la década de 2000.

Cuando visité la oficina de la compañía en septiembre, me senté con O’Shea y Bandar en una sala de conferencias al final del pasillo. O’Shea era severa pero ligeramente arrugada, calva, excepto por unos mechones de cabello y una barba Van Dyke. Comenzó la conversación insistiendo en que no hablamos sobre el proyecto iBorderCtrl, y luego llamó a sus críticos "mal informados". Habló sobre el poder del marco de inteligencia artificial del sistema en tangentes largas y digresivas, citando ocasionalmente al pionero de la informática Alan Turing o al filósofo del lenguaje John Searle.

"Las máquinas y los humanos tienen intencionalidad: creencias, deseos e intenciones sobre objetos y estados de cosas en el mundo", dijo, defendiendo la dependencia del sistema de un algoritmo. "Por lo tanto, las aplicaciones complicadas requieren que le des peso mutuo a las ideas e intenciones de ambos".

O’Shea demostró el sistema haciendo que analizara un video de un hombre respondiendo preguntas sobre si robó $ 50 de una caja. El programa superpuso un cuadrado amarillo alrededor de la cara del hombre y dos cuadrados más pequeños alrededor de sus ojos. Mientras hablaba, una aguja en la esquina de la pantalla se movió de verde a rojo cuando dio respuestas falsas, y de vuelta a un naranja moderado cuando no estaba hablando. Cuando terminó la entrevista, el software generó un gráfico que traza la probabilidad de engaño contra el tiempo. En teoría, esto se mostró cuando comenzó y dejó de mentir.

Mientras hablaba, una aguja en la esquina de la pantalla se movió de verde a rojo cuando dio respuestas falsas, y de vuelta a un naranja moderado cuando no estaba hablando.

El sistema puede ejecutarse en una computadora portátil tradicional, dice O’Shea, y los usuarios pagan alrededor de $ 10 por minuto de video analizado. O'Shea me dijo que el software realiza un procesamiento local preliminar del video, envía datos cifrados a un servidor donde se analiza más a fondo y luego envía los resultados: el usuario ve un gráfico de la probabilidad de engaño superpuesto en la parte inferior del video.

Según O’Shea, el sistema monitorea alrededor de 40 "canales" físicos en el cuerpo de un participante, todo desde la velocidad a la que se parpadea hasta el ángulo de la cabeza. Trae a cada nueva cara una "teoría" sobre el engaño que ha desarrollado al ver un conjunto de datos de capacitación de mentirosos y narradores de la verdad. Al medir los movimientos faciales y los cambios de postura de un sujeto muchas veces por segundo, el sistema busca patrones de movimiento que coincidan con los que comparten los mentirosos en los datos de entrenamiento. Estos patrones no son tan simples como los ojos que se mueven hacia el techo o una cabeza que se inclina hacia la izquierda. Se parecen más a patrones de patrones, relaciones multifacéticas entre diferentes movimientos, demasiado complejos para que un humano los rastree, un rasgo típico de los sistemas de aprendizaje automático.

El trabajo de la IA es determinar qué tipos de patrones de movimientos pueden asociarse con el engaño. "Los psicólogos a menudo dicen que debería tener algún tipo de modelo sobre cómo funciona un sistema", me dijo O’Shea, "pero no tenemos un modelo que funcione y no necesitamos uno". Dejamos que la IA lo resuelva ". Sin embargo, también dice que la justificación de los "canales" en la cara proviene de la literatura académica sobre la psicología del engaño. en un Documento de 2018 sobre Silent Talker, sus creadores dicen que su software "asume que ciertos estados mentales asociados con el comportamiento engañoso impulsarán el (comportamiento no verbal) del entrevistado cuando engañe". Entre estos comportamientos se encuentran la "carga cognitiva", o la energía mental adicional que supuestamente requiere para mentir, y el "deleite doble", o el placer que supuestamente obtiene un individuo al decir una mentira exitosa.

Paul Ekman, un psicólogo cuya teoría de las "microexpresiones" es muy discutida, ha consultado a una miríada de agencias del gobierno de los Estados Unidos.
Wikimedia / Momopuppycat

Pero Ewout Meijer, profesor de psicología en la Universidad de Maastricht en los Países Bajos, dice que los fundamentos para creer que tales comportamientos son universales son inestables en el mejor de los casos. La idea de que uno puede encontrar "fugas" conductuales reveladoras en la cara tiene sus raíces en el trabajo de Paul Ekman, un psicólogo estadounidense que en la década de 1980 propuso una teoría ahora famosa de "microexpresiones" o movimientos faciales involuntarios demasiado pequeños para controlar. La investigación de Ekman lo convirtió en un autor de mayor venta e inspiró el drama criminal de televisión Mienteme. Consultó para innumerables agencias del gobierno de los EE. UU., Incluyendo DHS y DARPA. Citando la seguridad nacional, ha mantenido en secreto los datos de la investigación. Esto ha llevado a un debate polémico sobre si las microexpresiones tienen algún significado.

La IA de Silent Talker rastrea todo tipo de movimientos faciales, no microexpresiones específicas de Ekman. "Descompusimos estas señales de alto nivel en nuestro propio conjunto de micro gestos y componentes de IA entrenados para recombinarlos en patrones indicativos significativos", escribió un portavoz de la compañía en un correo electrónico. O’Shea dice que esto permite que el sistema detecte un comportamiento engañoso incluso cuando un sujeto solo mira a su alrededor o se mueve en una silla.

"Mucho depende de si tienes una pregunta tecnológica o psicológica", dice Meijer, advirtiendo que O’Shea y su equipo pueden estar buscando en la tecnología respuestas a preguntas psicológicas sobre la naturaleza del engaño. "Un sistema de inteligencia artificial puede superar a las personas en la detección (expresiones faciales), pero incluso si ese fuera el caso, eso aún no le dice si puede inferir de ellos si alguien es engañoso … el engaño es una construcción psicológica". No solo no hay consenso sobre cuales las expresiones se correlacionan con el engaño, agrega Meijer; ni siquiera hay consenso sobre si ellas hacen. En un correo electrónico, la compañía dijo que tales críticas "no son relevantes" para Silent Talker y que "las estadísticas utilizadas no son apropiadas".

El drama televisivo Mienteme se basó en parte en la teoría de microexpresión de Ekman.
Estudios Fox

Además, Meijer señala que el algoritmo seguirá siendo inútil en los cruces fronterizos o en las entrevistas de trabajo a menos que haya sido entrenado en un conjunto de datos tan diverso como el que evaluará en la vida real. La investigación muestra que los algoritmos de reconocimiento facial son peores para reconocer a las minorías cuando han sido entrenados en conjuntos de caras predominantemente blancas, algo que O’Shea mismo admite. Un portavoz de Silent Talker escribió en un correo electrónico: “Realizamos múltiples experimentos con muestras más pequeñas y variadas. Estos suman cientos. Algunos de estos son académicos y han sido publicados (sic), algunos son comerciales y confidenciales ".

Sin embargo, toda la investigación publicada que corrobora la precisión de Silent Talker proviene de conjuntos de datos pequeños y parciales: en el documento de 2018, por ejemplo, una población de capacitación de 32 personas contenía el doble de hombres que mujeres y solo 10 participantes de ascendencia "asiática / árabe" , sin sujetos negros o hispanos. Si bien el software actualmente tiene diferentes "configuraciones" para analizar hombres y mujeres, O’Shea dijo que no estaba seguro de si necesitaba configuraciones para el origen étnico o la edad.

Después de que se anunció el piloto de iBorderCtrl en 2018, activistas y políticos denunciaron el programa como una expansión orwelliana sin precedentes del estado de vigilancia. Sophie in 't Veld, miembro holandés del Parlamento Europeo y líder del partido Demócratas 66 de centroizquierda, dijo en una carta a la Comisión Europea que el sistema Silent Talker podría violar "los derechos fundamentales de muchos viajeros que cruzan la frontera" y que organizaciones como Privacy International lo condenaron como "parte de una tendencia más amplia hacia el uso de sistemas automáticos opacos, ya menudo deficientes, para juzgar, evaluar y clasificar a las personas". La oposición pareció sorprender al consorcio iBorderCtrl: aunque inicialmente la Comisión Europea afirmó que iBorderCtrl "desarrollaría un sistema para acelerar los cruces fronterizos", un portavoz ahora dice que el programa era un "proyecto de investigación" puramente teórico. Antoniades le dijo a un periódico holandés a fines de 2018 que el sistema de detección de engaños "en última instancia, podría no entrar en el diseño", pero, al momento de escribir este artículo, Silent Talker todavía promocionaba su participación en iBorderCtrl en su sitio web.

Sin embargo, a menudo los críticos como Wilde lo desacreditan, el sueño de un detector de mentiras perfecto simplemente no morirá, especialmente cuando se pasa por alto con el brillo de la IA.

Silent Talker es "una nueva versión del viejo fraude", opina Vera Wilde, una activista académica y de privacidad estadounidense que vive en Berlín y que ayudó a iniciar una campaña contra iBorderCtrl. "De alguna manera, es el mismo fraude, pero con peor ciencia". En una prueba de polígrafo, un examinador busca eventos fisiológicos que se consideran correlacionados con el engaño; En un sistema de IA, los examinadores permiten que la computadora descubra las correlaciones por sí misma. "Cuando O'Shea dice que no tiene una teoría, está equivocado", continúa. “Él tiene una teoría. Es solo una mala teoría ".

Sin embargo, a menudo los críticos como Wilde lo desacreditan, el sueño de un detector de mentiras perfecto simplemente no morirá, especialmente cuando se pasa por alto con el brillo de la IA. Después de que el DHS gastó millones de dólares en la investigación del engaño en las universidades en la década de 2000, trató de crear su propia versión de una tecnología de análisis de comportamiento. Este sistema, llamado Future Attribute Screening Technology (FAST), tenía como objetivo utilizar la IA para buscar tendencias criminales en los movimientos oculares y corporales de un sujeto. (Una versión anterior requería que los entrevistados se pararan en una tabla de equilibrio de Wii Fit para medir los cambios en la postura). Tres investigadores que hablaron extraoficialmente para discutir proyectos clasificados dijeron que el programa nunca despegó: había demasiados desacuerdos dentro del departamento sobre si utilizar las microexpresiones de Ekman como guía para el análisis de comportamiento. El departamento terminó el programa en 2011.

A pesar del fracaso de FAST, el DHS aún muestra interés en las técnicas de detección de mentiras. El año pasado, por ejemplo, otorgó un contrato de $ 110,000 a una compañía de recursos humanos para capacitar a sus oficiales en "detectar engaños y obtener respuestas" a través de "análisis de comportamiento". Mientras tanto, otras partes del gobierno siguen apoyando las soluciones de inteligencia artificial. El Laboratorio de Investigación del Ejército (ARL) actualmente tiene un contrato con la Universidad de Rutgers para crear un programa de inteligencia artificial para detectar mentiras en el juego de salón Mafia, como parte de un intento mayor de crear "algo así como un Google Glass que nos advierte de un par de carteristas". en el bazar lleno de gente ", según Purush Iyer, jefe de la división ARL a cargo del proyecto. Nemesysco, una compañía israelí que vende software de análisis de voz AI, me dijo que su tecnología es utilizada por los departamentos de policía en Nueva York y los alguaciles en el Medio Oeste para entrevistar a sospechosos, así como por los centros de llamadas de cobro de deudas para medir las emociones de los deudores en llamadas telefónicas.

El futuro inmediato y potencialmente peligroso de la detección de mentiras de IA no está en los gobiernos sino en el mercado privado. Los políticos que apoyan iniciativas como iBorderCtrl finalmente tienen que responder a los votantes, y la mayoría de los detectores de mentiras de IA podrían ser excluidos de la corte bajo el mismo precedente legal que rige el polígrafo. Sin embargo, las corporaciones privadas se enfrentan a menos restricciones al usar dicha tecnología para evaluar a los solicitantes de empleo y clientes potenciales. Silent Talker es una de varias compañías que afirman ofrecer una forma más objetiva de detectar comportamientos anómalos o engañosos, ofreciendo a los clientes un método de "análisis de riesgos" que va más allá de los puntajes de crédito y los perfiles de redes sociales.

El software genera una gran cantidad de falsos positivos.

Una compañía con sede en Montana llamada Neuro-ID realiza un análisis de inteligencia artificial de los movimientos del mouse y las pulsaciones de teclas para ayudar a los bancos y las compañías de seguros a evaluar el riesgo de fraude, asignando a los solicitantes de préstamos un "puntaje de confianza" de 1 a 100. En un video, la compañía me mostró, cuando un el cliente que realiza una solicitud de préstamo en línea toma tiempo adicional para completar el campo de ingresos del hogar, moviendo el mouse mientras lo hace, el sistema lo tiene en cuenta en su puntaje de credibilidad. Se basa en una investigación realizada por los científicos fundadores de la compañía que afirma mostrar una correlación entre los movimientos del ratón y la excitación emocional: un documento que afirma que "ser engañoso puede aumentar la distancia de movimiento normalizada, disminuir la velocidad de movimiento, aumentar el tiempo de respuesta y resultará en más clics izquierdos ". Sin embargo, las propias pruebas de la compañía revelan que el software genera una gran cantidad de falsos positivos: en un estudio de caso donde Neuro-ID procesó 20,000 solicitudes para un sitio web de comercio electrónico, menos de la mitad de los solicitantes que obtuvieron los puntajes más bajos (5 a 10) resultó ser fraudulento, y solo el 10% de los que recibieron puntajes de 20 a 30 representaban un riesgo de fraude. Según la propia admisión de la compañía, el software señala a los solicitantes que pueden resultar inocentes y permite que la compañía use esa información para hacer un seguimiento de lo que le plazca. "No existe un análisis basado en el comportamiento que sea 100% preciso", me dijo un portavoz. "Lo que recomendamos es que use esto en combinación con otra información sobre los solicitantes para tomar mejores decisiones y captar (clientes fraudulentos) de manera más eficiente".

Un video promocional de la startup Neuro-ID.
Neuro-ID

Converus, una startup con sede en Utah, vende un software llamado EyeDetect que mide la dilatación de los alumnos de un sujeto durante una entrevista para detectar la carga cognitiva. Like Silent Talker, the tool starts from the premise that lying is more cognitively demanding than telling the truth. De acuerdo a un 2018 article in Wired, police departments in Salt Lake City and Columbus, Georgia, have used EyeDetect to screen job applicants. Converus also told Wired that McDonald’s, Best Western, Sheraton, IHOP, and FedEx used its software in Panama and Guatemala in ways that would have been illegal in the US.

converus.com

In a statement it gave me, the company cited a few studies that show EyeDetect achieving around 85% accuracy in identifying liars and truth tellers, with samples of up to 150 people. Company president Todd Mickelsen says that his firm’s algorithm has been trained on hundreds of thousands of interviews. But Charles Honts, a professor of psychology at Boise State University who also serves on Converus’s advisory board, said these results didn’t prove that EyeDetect could be relied upon in field interviews. “I find the EyeDetect system to be really interesting, but on the other hand, I don’t use it,” he told me. “I think the database is still relatively small, and it comes mostly from one laboratory. Until it’s expanded and other people have replicated it, I’d be reluctant to use it in the field.”

The University of Arizona researchers who developed the AVATAR system have also started a private company, Discern Science, to market their own deception-detection technology. Launched last year, Discern sells a six-foot-tall kiosk similar to the original AVATAR; according to an article in the Financial Times, the company has “entered into a joint venture agreement with a partner in the aviation industry” to sell the tool to airports. The system measures facial movement and voice stress to “invisibly gather information from the subject at a conversational distance,” according to promotional materials. Like Silent Talker and Converus, Discern claims the technology can reliably detect around 85% of liars and truth tellers, but again, its results have never been independently replicated. At least one of the inputs the kiosk uses has been repeatedly shown to be untrustworthy. (Honts further noted that “there’s almost no support” for facial movement analysis like AVATAR’s and Silent Talker’s—“there have been so many failures to replicate there,” he said.)

“Anyone who tells you they have a device that is a straight-out lie detector is a charlatan.”

When questioned about the scientific backing for the company’s kiosk, Discern researcher Judee Burgoon emphasized that they merely make assessments, not binding judgments about truth and falsehood. Systems like AVATAR and Silent Talker, she said, “cannot directly measure deceit,” adding that “anyone who tells you they have a device that is a straight-out lie detector is a charlatan.” In marketing materials, though, Discern does present the tool as a reliable lie detector: the company’s website claims that it “can aid in uncovering hidden plans” and that its algorithms “have been scientifically proven to detect deception faster and more reliably than any alternative.”

The appeals court vacated Emmanuel Mervilus’s conviction in 2011, releasing him from prison and ordering a retrial; he had served more than three years of his sentence. At the second trial, in 2013, the jurors deliberated for only 40 minutes before acquitting him. Were it not for the polygraph, and the persistent belief in its accuracy, he might never have set foot in a courtroom the first time. Mervilus has sued the police officers who originally arrested and interrogated him, alleging that they violated his right to due process by using polygraph tests they knew were faulty in order to secure a conviction. The case will proceed to a settlement conference on March 13.

Even if the widespread use of Silent Talker and systems like it doesn’t lead to more convictions of innocent people like Mervilus, it could still help create a new kind of social shibboleth, forcing people to undergo “credibility assessments” before renting a car or taking out a loan.

The Crime of
Being Poor and Black

Emmanuel Mervilus spent 4 years
in prison for a crime he didn't commit. Next month he will
graduate from @Rutgers_Newark
thanks to the Mountainview Project, a prison-to-college program,
founded by @RutgersNB
's Don Roden https://t.co/jPTcA0BW9V
pic.twitter.com/RpNpMdcLDc

–
 Rutgers Today (@RutgersU_News) April
 30, 2018

“In a court, you have to give over material evidence, like your hair and your blood,” says Wilde. “But you also have a right to remain silent, a right not to speak against yourself.” Mervilus opted to take the polygraph test on the assumption that, like a DNA test, it would show he was innocent. And although the device got it wrong, it wasn’t the machine itself that sent him to prison. It was the jury’s belief that the test results were more credible than the facts of the case.

The foundational premise of AI lie detection is that lies are there to be seen with the right tools. Psychologists still don’t know how valid that claim is, but in the meantime, the belief in its validity may be enough to disqualify deserving applicants for jobs and loans, and to prevent innocent people from crossing national borders. The promise of a window into the inner lives of others is too tempting to pass up, even if nobody can be sure how clear that window is.

“It’s the promise of mind-reading,” says Wilde. “You can see that it’s bogus, but that’s what they’re selling.”

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)

Relacionados:Posts

Una sala de muebles de Ikea en constante cambio podría ayudar a la IA a navegar por el mundo

La realidad desordenada y secreta detrás de la apuesta de OpenAI por salvar el mundo

Cómo saber si la inteligencia artificial está a punto de destruir la civilización

Related Posts

Una sala de muebles de Ikea en constante cambio podría ayudar a la IA a navegar por el mundo
Tecnología

Una sala de muebles de Ikea en constante cambio podría ayudar a la IA a navegar por el mundo

La realidad desordenada y secreta detrás de la apuesta de OpenAI por salvar el mundo
Tecnología

La realidad desordenada y secreta detrás de la apuesta de OpenAI por salvar el mundo

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Categorías

  • Opiniones
  • Redes Sociales
  • Remix
  • Tecnología
  • Vídeos
  • Youtubers
  • ⚽ Ver Fútbol Online
  • ✅ Actualidad
  • ✅ Cine
  • ✅ Cotilleos
  • ✅ Recetas fáciles
  • 📕 Libros y Audiolibros

Últimas entradas

  • WeTransfer gratis en Español – Cómo enviar de archivos pesados o grandes enero 12, 2021
  • Descargar Libros Gratis Online – ePub, eBooks, PDF y Las Mejores Páginas enero 12, 2021
  • MejorTorrent 2021 – ¿Ha cerrado, no te funciona? Las alternativas que te conquistarán. enero 12, 2021
Revista de actualidad
  • Condiciones de uso
  • mapa del sitio
  • Más información sobre las cookies
  • Política de Cookies

© 2019 Revista de actualidad e interés general - CK Magazine

  • ✅ Actualidad
  • Recetas fáciles
  • Youtubers
  • Tecnología
  • Remix

© 2019 Revista de actualidad e interés general - CK Magazine