Domingo 24 de Septiembre 2017

La polémica app que es capaz de detectar a una persona homosexual analizando su rostro

VGG-Face fue desarrollada por investigadores de la Universidad de Stanford y muchos aseguran que es una violación a la vida privada de los seres humanos
Sigue a Para Ti Mujer en Facebook
La polémica app que es capaz de detectar a una persona homosexual analizando su rostro
VGG-Face encontró ciertos rasgos característicos en personas gay.

En esta semana, la Universidad de Stanford, de Palo Alto, California, en Estados Unidos, divulgó el resultado de un estudio que llevaron a cabo mediante la creación de una aplicación llamada VGG-Face, la cual funciona mediante un algoritmo con el que se analizan los rostros de las personas y con la cual, aseguran haber podido distinguir con los rasgos faciales si alguien es o no homosexual.

Cerca de 35,000 caras de hombres y mujeres que fueron tomadas de un sitio web que se dedica a encontrar parejas fueron analizadas por el VGG-Face. La app pudo determinar con precisión las preferencias sexuales de los analizados, en un 81% en los caballeros y en un 74% entre las mujeres. El nivel de acierto aumentó entre en un 80 y 90% cuando analizó cinco fotos de una misma persona.

Según los creadores del VGG-Face, la gente con tendencias homosexuales suelen tener ciertas expresiones comunes, así como algunos rasgos característicos, en los hombres mandíbulas más estrechas, una nariz más larga y frente más grande, mientras que las mujeres tienden a tener mandíbulas más grandes y frentes más pequeñas, en comparación con chicas heterosexuales.

Con este resultado, los investigadores llegaron a la conclusión de que la teoría sobre la orientación sexual que sostiene que una persona es homosexual debido a cuestiones hormonales que se dan incluso antes del nacimiento cobraría cierta fuerza.

Esta investigación, así como la misma aplicación, han generado una serie de críticas respecto al por qué habría que hacer uso de la Inteligencia Artifical (IA) para hacer un trabajo de este tipo, calificado como de “poco ético” y sobre todo, porque “viola la vida privada de las personas”.

Michal Kosinski y Yilun Wang, los líderes del proyecto, han salido en su defensa, al asegurar que este tipo de algoritmo puede ser utilizado para otro tipo de cuestiones, como conocer el nivel de IQ o las opiniones que tiene la gente de distintos temas; asimismo, coinciden en que en efecto, estos sistemas son una clara violación a la privacidad y seguridad de los seres humanos.

“Teniendo en cuenta que las empresas y los gobiernos están utilizando cada vez más algoritmos de visión computarizada para detectar rasgos íntimos de las personas, nuestros descubrimientos exponen una amenaza a la privacidad y la seguridad de hombres y mujeres gays”, concluyeron.