La máquina que revelaría nuestra orientación sexual con solo una foto
El titulo es:La máquina que revelaría nuestra orientación sexual con solo una foto
Foto detalle: 
Activistas de la comunidad LGBTI tildaron la investigación de “peligrosa, segada y ciencia basura” | Ilustrativa
aldia_web
Redacción ALDIA

La máquina que revelaría nuestra orientación sexual con solo una foto

284

El estudio no incluyó a personas de color, bisexuales o transgénero.

La Universidad de Stanford, en Estados Unidos, realizó un estudio en el que se demuestra que es posible revelar la orientación sexual de una persona a través de una foto utilizando inteligencia artificial (IA).

Los científicos recopilaron de una web, una base de datos con 35.326 caras de 14.776 personas con las que entrenaron a una IA, según ABC.

La investigación fue aprobada para ser publicada en el ‘Journal of Personality and Social Psychology’. La realizaron Michal Kosinski y Yilun Wang, y los resultados demostraron una precisión del 91% en los hombres y un 83% en las mujeres.

Sin embargo y de acuerdo a los autores, se debe tener cuidado regulando el uso de esta tecnología para evitar ser usada sin el consentimiento de las personas.

¿CÓMO FUNCIONA?

El programa que se usó, llamado VGG-Face, consiste en convertir en números la “la huella facial” de los individuo. Además utilizaron un modelo predictivo sencillo para encontrar relación entre los rasgos faciales y la sexualidad de los individuos que tenían en el perfil de citas.

Luego, el resultado lo compararon con caras que no habían visto antes y cuando le mostraron a la IA una foto de una persona gay y otra heterosexual, atinó un 81% en el caso de los hombres y un 71% en el caso de las mujeres.

La precisión de este estudio se compara con la tecnología de las máquinas de mamografías (85%), las de párkinson (90%) y supera la precisión alcanzada por la gente que observan caras y tratan de predecir la orientación sexual (61% hombres y 54% mujeres).

Kosinsky y Wang advierten que la razón por la que la máquina no consiga predecir la orientación sexual de las mujeres con altos índices es porque estas son más fluidas.

También revelaron que el programa se centraba en la nariz, cejas, ojos, mejillas, cabello y barbilla de los hombres. En las mujeres: la nariz, los ángulos de la boca, el pelo y la línea del cuello.

LIMITACIONES

Los autores del estudio reconocieron los límites de este, pues la precisión se consigue solo si uno de la pareja de las fotos es homosexual.

Asimismo, todos los participantes eran blancos nacidos en Estados Unidos, por esto no incluyeron a personas de color, bisexuales o 'trans', pero aseguran que eso no afecta los resultados de la investigación.

¿SE NACE O SE HACE HOMOSEXUAL?

De acuerdo a los científicos, las personas homosexuales se definen durante el nacimiento, pues estarían expuestas a ciertas hormonas que influirían en los rasgos o una orientación sexual determinada.

EL VERDADERO PROPÓSITO DEL ESTUDIO

Los investigadores advierten que el estudio fue realizado para demostrar que es posible ‘adivinar’ la sexualidad de los individuos y más aún, en un mundo donde la tecnología almacena más datos personales en las redes.

Advierten también que no inventaron ningún programa sino que juntaron datos y programas existentes.

“Como cualquier nueva herrramienta, si cae en las manos equivocadas, puede ser usada para propósitos perversos”, declaró Nick Rule, investigador de la Universidad de Toronto (Canadá). “Lo que los autores han hecho es hacer una afirmación muy clara sobre lo poderosa que puede ser esta tecnología. Ahora sabemos que necesitamos protección”, concluyó.

Al parecer, Google y Facebook también utilizan IAs para recolectar datos sobre el año en que se hizo una foto o sobre la pobreza, pues extraen patrones a partir de un número gigante de fotografías.

DENUNCIAS DE LA COMUNIDAD LGBTI

Activistas de la comunidad LGBTI tildaron la investigación de “peligrosa, segada y ciencia basura”, porque puede dañar a las personas, por discriminar a las personas de color, bisexuales y transgénero y dar resultados incorrectos sobre el género y la sexualidad.

 Michal Kosinski admitió sentirse sorprendido por las críticas, debido a que la tecnología ya existía y su estudio era denunciar el peligro de esta aplicación de IA. 

Te puede interesar

Compártelo en:
Construido para ti con info de: