Preocupaciones y controversias en torno a la tecnología de reconocimiento de emociones – Piedunews



0


0

Recientemente, los reguladores advierten contra el uso de inteligencia artificial y tecnología de reconocimiento de emociones, que analiza videos, imágenes faciales y grabaciones de voz para determinar las emociones o el estado mental de una persona. Los defensores de la privacidad y los derechos humanos, como European Digital Rights y Access Now, han pedido una prohibición total del reconocimiento de emociones, citando preocupaciones sobre su naturaleza potencialmente invasiva y poco confiable. .

En respuesta a estas preocupaciones, la legislación de IA de la UE aprobada por el Parlamento Europeo prohíbe el uso del reconocimiento de emociones en la policía, los funcionarios fronterizos, los lugares de trabajo y las escuelas. Del mismo modo, los legisladores estadounidenses, incluido el senador Ron Wyden, criticaron el campo del reconocimiento de emociones y elogiaron los esfuerzos de la UE para regularlo. Argumentan que juzgar a las personas en función de sus expresiones faciales, el tono de voz o la forma en que caminan es un método impreciso y defectuoso para predecir el comportamiento futuro.

Las empresas ya venden tecnología de reconocimiento de emociones para aplicaciones tan diversas como Affectiva, que analiza las expresiones faciales para determinar la fatiga del conductor o evalúa las reacciones a los tráileres de películas, pero existen preocupaciones sobre el posible mal uso de la tecnología. Por ejemplo, HireVue se ha enfrentado a críticas por utilizar el reconocimiento de emociones como herramienta de detección para los solicitantes de empleo.

Algunas empresas venden software de reconocimiento de emociones a las fuerzas del orden para actividades como la detección de mentiras o la detección de conductas sospechosas. Los ejemplos incluyen el proyecto iBorderCtrl patrocinado por la Unión Europea, que utiliza el reconocimiento de emociones para gestionar los cruces fronterizos. Sin embargo, sigue existiendo controversia sobre la validez y fiabilidad de esta técnica.

China ha estado en el centro de atención por utilizar la tecnología de reconocimiento de emociones con fines de vigilancia, en particular la población uigur en Xinjiang. Los defensores de los derechos humanos han expresado su preocupación de que el uso de la tecnología en situaciones de coerción pueda dar lugar a acusaciones falsas y control social.

A pesar de las posibles aplicaciones positivas, todavía faltan casos de uso confiables para el reconocimiento de emociones más allá de la privacidad y los derechos humanos. Las emociones son complejas y difíciles de identificar con precisión, incluso para los humanos. La precisión de una técnica depende de una serie de factores, incluida la calidad de los datos utilizados y los resultados específicos que intenta lograr.

Finalmente, existen considerables controversias y preocupaciones en el campo de la tecnología de reconocimiento de emociones. Algunos argumentan a favor de permitir el desarrollo, pero se necesita una regulación estricta para abordar posibles intrusiones, irregularidades y abusos. Equilibrar la innovación con la protección de los derechos individuales es una prioridad principal para dar forma al futuro de la tecnología de reconocimiento de emociones.

Acerca del autor de la publicación

Mario Keaton

Periodista con más de 12 años de experiencia, especializada en noticias de última hora y redacción de artículos sobre tendencias del mercado. Me gusta explorar noticias desde diferentes ángulos para aumentar la participación de la audiencia. Mis pasatiempos incluyen explorar nuevos lugares, viajar, ver películas, pasar tiempo con amigos y familiares, ver series web, jugar al cricket y al fútbol. Graduado de la Universidad de Corea con un Diploma PG en Periodismo de IIMC. Puede contactarnos fácilmente a través de nuestras plataformas de redes sociales.


Feliz

Feliz


0 %


Triste

Triste


0 %


Entusiasmado

Entusiasmado


0 %


Somnoliento

Somnoliento


0 %


Enojado

Enojado


0 %


sorpresa

sorpresa


0 %

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *