Analizan las implicaciones jurídicas y laborales de los sistemas automatizados de reconocimiento de emociones

Analizan las implicaciones jurídicas y laborales de los sistemas automatizados de reconocimiento de emociones

La normativa jurídica actual no ofrece una protección real a las personas empleadas frente a las empresas que  utilizan los sistemas automatizados de reconocimiento de emociones, que combinan biometría, algoritmos e Inteligencia Artificial (IA) para deducir o detectar estados de ánimo o  intenciones

La estructura facial, la huella dactilar o vocal, los patrones de la retina, las venas de los dedos y de las manos o incluso los latidos del corazón son datos personales que, convenientemente procesados, pueden ayudar a detectar el cansancio, el estrés, la falta de concentración, la felicidad o la tristeza. “Se podría afirmar que esta tecnología es una versión moderna del polígrafo o detector de mentiras”, indica la investigadora Ana Belén Muñoz Ruiz, profesora del Departamento de Derecho Social e Internacional Privado de la UC3M, que ha publicado recientemente el libro “Biometría y sistemas automatizados de reconocimiento de emociones: Implicaciones Jurídicos-Laborales”, en el que analiza qué usos tiene esta tecnología en el plano laboral y las implicaciones laborales para los trabajadores. 

Estos sistemas incrementan la capacidad de análisis y explotación de los datos de carácter personal de los empleados por parte de las empresas. “Sobre todo me preocupa si a través de esta tecnología las compañías podrían llegar a conocer datos de salud de sus trabajadores sin finalidad preventiva”, indica la investigadora. Actualmente, desde la Unión Europea se está tramitando la Ley de Inteligencia Artificial que introducirá límites y garantías frente al uso de esta tecnología, que entrará en vigor previsiblemente a finales de 2026. A su vez, se están preparando otras normas técnicas. “Sin embargo, el proceso de aprobación es lento y, mientras tanto, la normativa vigente actual no ofrece una protección real a las personas empleadas”, concluye Ana Belén Muñoz Ruiz. Estos sistemas pueden incidir sobre un abanico amplio de derechos fundamentales: derecho de protección de datos de carácter personal, intimidad, no discriminación y sobre todo salud mental de las personas empleadas.

Su libro analiza algunas de las primeras resoluciones judiciales sobre este tema en Europa. Por ejemplo, la Resolución de la Agencia Húngara de Protección de Datos del 8 de febrero de 2022. En este caso concreto, se trataba de un software que utilizaba IA y analizaba y evaluaba los estados emocionales de clientes y empleados de un banco con la finalidad de gestionar las quejas, controlar la calidad de las llamadas y aumentar la eficiencia de los empleados. “Este ejemplo no es más que un precedente de nuevas realidades en las que experimentaremos nuevos problemas derivados del uso laboral de los algoritmos e IA en las empresas”, señala la experta. En Estados Unidos y en otros países como China se ha alertado que algunas empresas emplean estas prácticas en el ámbito laboral. En la Unión Europea, desde julio de 2022, es obligatorio incluir en los coches de nueva homologación el detector de fatiga y somnolencia. 

Incluso en el caso de sistemas de reconocimiento de emociones que no utilizan datos biométricos, como ocurre en el caso de los chatbots y robots RPA (automatización robótica de procesos, por sus siglas en inglés), el uso de esta tecnología puede llegar a pulverizar el derecho fundamental de intimidad cuando el control se produce en el puesto de trabajo, según la experta, pues los límites y garantías tradicionales vinculados con los derechos fundamentales de intimidad y protección de datos de carácter personal no parecen ser suficientes.

¿Están legitimadas las empresas para su aplicación? En el libro se analiza esta cuestión en dos momentos. En primer lugar, respecto de los datos biométricos de la persona empleada al hilo del cumplimiento de obligaciones cotidianas de las empresas, como el registro horario (de hecho, el control horario mediante la huella dactilar u otro dato biométrico se ha cuestionado en países como Austria, Francia, Italia o Noruega). En segundo lugar, en la legitimación de las empresas para el uso de los sistemas automatizados de reconocimiento de emociones. “Tras mi estudio, concluyo que mejorar la satisfacción de los clientes y el rendimiento de las personas trabajadoras o integrar a personas con discapacidades no parecen ser motivos suficientes. Si bien la seguridad en el trabajo es un deber que la empresa debe cumplir y puede justificar el tratamiento de datos de los empleados, resulta muy dudosa su extensión a los sistemas de reconocimiento automatizado de emociones”, concluye Ana Belén Muñoz Ruiz.

 

 

Analizan las implicaciones jurídicas y laborales de los sistemas automatizados de reconocimiento de emociones
Watch the video

La normativa jurídica actual no ofrece una protección real a las personas empleadas frente a las empresas que  utilizan los sistemas automatizados de reconocimiento de emociones, que combinan biometría, algoritmos e Inteligencia Artificial (IA) para deducir o detectar estados de ánimo o  intenciones

La estructura facial, la huella dactilar o vocal, los patrones de la retina, las venas de los dedos y de las manos o incluso los latidos del corazón son datos personales que, convenientemente procesados, pueden ayudar a detectar el cansancio, el estrés, la falta de concentración, la felicidad o la tristeza. “Se podría afirmar que esta tecnología es una versión moderna del polígrafo o detector de mentiras”, indica la investigadora Ana Belén Muñoz Ruiz, profesora del Departamento de Derecho Social e Internacional Privado de la UC3M, que ha publicado recientemente el libro “Biometría y sistemas automatizados de reconocimiento de emociones: Implicaciones Jurídicos-Laborales”, en el que analiza qué usos tiene esta tecnología en el plano laboral y las implicaciones laborales para los trabajadores. 

Estos sistemas incrementan la capacidad de análisis y explotación de los datos de carácter personal de los empleados por parte de las empresas. “Sobre todo me preocupa si a través de esta tecnología las compañías podrían llegar a conocer datos de salud de sus trabajadores sin finalidad preventiva”, indica la investigadora. Actualmente, desde la Unión Europea se está tramitando la Ley de Inteligencia Artificial que introducirá límites y garantías frente al uso de esta tecnología, que entrará en vigor previsiblemente a finales de 2026. A su vez, se están preparando otras normas técnicas. “Sin embargo, el proceso de aprobación es lento y, mientras tanto, la normativa vigente actual no ofrece una protección real a las personas empleadas”, concluye Ana Belén Muñoz Ruiz. Estos sistemas pueden incidir sobre un abanico amplio de derechos fundamentales: derecho de protección de datos de carácter personal, intimidad, no discriminación y sobre todo salud mental de las personas empleadas.

Su libro analiza algunas de las primeras resoluciones judiciales sobre este tema en Europa. Por ejemplo, la Resolución de la Agencia Húngara de Protección de Datos del 8 de febrero de 2022. En este caso concreto, se trataba de un software que utilizaba IA y analizaba y evaluaba los estados emocionales de clientes y empleados de un banco con la finalidad de gestionar las quejas, controlar la calidad de las llamadas y aumentar la eficiencia de los empleados. “Este ejemplo no es más que un precedente de nuevas realidades en las que experimentaremos nuevos problemas derivados del uso laboral de los algoritmos e IA en las empresas”, señala la experta. En Estados Unidos y en otros países como China se ha alertado que algunas empresas emplean estas prácticas en el ámbito laboral. En la Unión Europea, desde julio de 2022, es obligatorio incluir en los coches de nueva homologación el detector de fatiga y somnolencia. 

Incluso en el caso de sistemas de reconocimiento de emociones que no utilizan datos biométricos, como ocurre en el caso de los chatbots y robots RPA (automatización robótica de procesos, por sus siglas en inglés), el uso de esta tecnología puede llegar a pulverizar el derecho fundamental de intimidad cuando el control se produce en el puesto de trabajo, según la experta, pues los límites y garantías tradicionales vinculados con los derechos fundamentales de intimidad y protección de datos de carácter personal no parecen ser suficientes.

¿Están legitimadas las empresas para su aplicación? En el libro se analiza esta cuestión en dos momentos. En primer lugar, respecto de los datos biométricos de la persona empleada al hilo del cumplimiento de obligaciones cotidianas de las empresas, como el registro horario (de hecho, el control horario mediante la huella dactilar u otro dato biométrico se ha cuestionado en países como Austria, Francia, Italia o Noruega). En segundo lugar, en la legitimación de las empresas para el uso de los sistemas automatizados de reconocimiento de emociones. “Tras mi estudio, concluyo que mejorar la satisfacción de los clientes y el rendimiento de las personas trabajadoras o integrar a personas con discapacidades no parecen ser motivos suficientes. Si bien la seguridad en el trabajo es un deber que la empresa debe cumplir y puede justificar el tratamiento de datos de los empleados, resulta muy dudosa su extensión a los sistemas de reconocimiento automatizado de emociones”, concluye Ana Belén Muñoz Ruiz.

 

 

Utilizamos cookies propias y de terceros para posibilitar y mejorar su experiencia de navegación por nuestra web. Si continua navegando, consideramos que acepta su uso.